JP2013198013A - Imaging apparatus, imaging control method and program - Google Patents

Imaging apparatus, imaging control method and program Download PDF

Info

Publication number
JP2013198013A
JP2013198013A JP2012064525A JP2012064525A JP2013198013A JP 2013198013 A JP2013198013 A JP 2013198013A JP 2012064525 A JP2012064525 A JP 2012064525A JP 2012064525 A JP2012064525 A JP 2012064525A JP 2013198013 A JP2013198013 A JP 2013198013A
Authority
JP
Japan
Prior art keywords
similarity
correction
image
unit
gamma correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012064525A
Other languages
Japanese (ja)
Other versions
JP2013198013A5 (en
JP6003133B2 (en
Inventor
Masaaki Sasaki
雅昭 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012064525A priority Critical patent/JP6003133B2/en
Publication of JP2013198013A publication Critical patent/JP2013198013A/en
Publication of JP2013198013A5 publication Critical patent/JP2013198013A5/ja
Application granted granted Critical
Publication of JP6003133B2 publication Critical patent/JP6003133B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To detect an imaged object region properly even in an environment such as a backlight state and the like.SOLUTION: An imaging apparatus comprises the steps of: detection determination means for determining based on a plurality of discriminators whether a subject region of an image sequentially obtained by an image obtaining means can be detected or not; correction means for conducting correction processing against data of the sequentially obtained image after the detection determination means determines that the subject region cannot be detected; first similarity calculation means for calculating first similarity between an image region for the image whose data has had the data correction processing by the correction means and the discriminators; second similarity calculation means for calculating similarity between an image region for an image whose data has not have correction processing by the correction means and the discriminators; similarity comparison means for comparing the first similarity and the second similarity; and cancellation determination means for determining whether the correction processing by the correction means is to be cancelled or not, based on a comparison result by the similarity comparison means.

Description

本発明は、被写体を検出する撮像装置、撮像制御方法及びプログラムに関する。   The present invention relates to an imaging device that detects a subject, an imaging control method, and a program.

従来の技術として、撮像装置における顔検出の際に、逆光等の露光状態が適正でない条件下にあっても、被写体領域(顔領域)の検出精度を上げる技術がある(例えば、特許文献1参照)。
具体的には、逆光時に撮像された画像データに対して、ゲイン調整処理を行った後に顔検出を行うといったものである。
As a conventional technique, there is a technique for increasing the detection accuracy of a subject area (face area) even when an exposure state such as backlight is not appropriate when detecting a face in an imaging apparatus (see, for example, Patent Document 1). ).
Specifically, face detection is performed after gain adjustment processing is performed on image data captured during backlighting.

特開2008−108024号公報JP 2008-108024 A

しかしながら、上記特許文献1に開示された技術を逆光状態で適用した場合、逆光用のゲイン調整処理を行ったライブビュー画像(撮像素子からのリアルタイムな出力画像)に対して自動露出制御(AE)が作用する。その結果、逆光状態でのゲイン調整量が過剰になり、以降の被写体領域の検出を適切にできなくなる虞がある。   However, when the technique disclosed in Patent Document 1 is applied in a backlight state, automatic exposure control (AE) is performed on a live view image (a real-time output image from an image sensor) subjected to a backlight gain adjustment process. Act. As a result, the amount of gain adjustment in the backlight state becomes excessive, and there is a possibility that subsequent detection of the subject area cannot be performed properly.

本発明は、このような状況に鑑みてなされたものであり、逆光状態等における環境下でも被写体領域の検出をより適正に行うことを目的とする。   The present invention has been made in view of such a situation, and an object thereof is to more appropriately detect a subject area even under an environment in a backlight state or the like.

上記目的を達成するため、本発明の一態様の撮像装置は、
画像を順次取得する画像取得手段と、前記画像取得手段により順次取得される画像中の被写体領域を検出するための複数種の識別器を記憶する識別器記憶手段と、前記識別器記憶手段により記憶された複数種の識別器に基づいて、前記画像取得手段により順次取得される画像の被写体領域を検出できるか否かを判定する検出判定手段と、前記検出判定手段により前記被写体領域が検出できないと判定されると、前記順次取得される画像のデータを補正処理する補正手段と、前記補正手段によりデータが補正処理された画像の領域と前記識別器との第1の類似度を算出する第1の類似度算出手段と、前記補正手段によりデータが補正処理されていない画像の領域と前記識別器との類似度を算出する第2の類似度算出手段と、前記第1の類似度算出手段により算出された第1の類似度と、前記第2の類似度算出手段により算出された第2の類似度とを比較する類似度比較手段と、前記類似度比較手段による比較結果に基づいて、前記補正手段による補正処理を解除するか否かを判定する解除判定手段と、を備えることを特徴とする。
In order to achieve the above object, an imaging device of one embodiment of the present invention includes:
Image acquisition means for sequentially acquiring images, discriminator storage means for storing a plurality of types of discriminators for detecting a subject area in images sequentially acquired by the image acquisition means, and storage by the discriminator storage means A detection determination unit that determines whether or not a subject region of an image sequentially acquired by the image acquisition unit can be detected based on the plurality of types of discriminators, and the subject region cannot be detected by the detection determination unit. When the determination is made, a correction unit that corrects the data of the sequentially acquired images, and a first similarity that calculates a first similarity between the region of the image whose data is corrected by the correction unit and the classifier Similarity calculation means, second similarity calculation means for calculating the similarity between the image area whose data is not corrected by the correction means and the discriminator, and the first similarity calculation Based on the comparison result by the similarity comparison means for comparing the first similarity calculated by the means and the second similarity calculated by the second similarity calculation means, and the comparison result by the similarity comparison means And cancellation determination means for determining whether or not to cancel the correction processing by the correction means.

本発明によれば、逆光状態等における環境下でも被写体領域の検出をより適正に行うことが可能となる。   According to the present invention, it is possible to more appropriately detect a subject area even under an environment in a backlight state or the like.

本発明の一実施形態に係る撮像装置のハードウェアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of the imaging device which concerns on one Embodiment of this invention. ガンマ補正切替処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing a gamma correction switching process. 撮像装置が実行するガンマ補正切替処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the gamma correction switching process which an imaging device performs. 撮像装置における制御の状態遷移を示す図である。It is a figure which shows the state transition of the control in an imaging device. 撮像装置における制御の比較例の状態遷移を示す図である。It is a figure which shows the state transition of the comparative example of control in an imaging device. 図4及び図5の状態遷移図に従って制御が行われた場合の動作の比較を示す図である。It is a figure which shows the comparison of operation | movement when control is performed according to the state transition diagram of FIG.4 and FIG.5.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る撮像装置のハードウェアの構成を示すブロック図である。
撮像装置1は、例えばデジタルカメラして構成される。
FIG. 1 is a block diagram showing a hardware configuration of an imaging apparatus according to an embodiment of the present invention.
The imaging device 1 is configured as a digital camera, for example.

撮像装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、撮像部16と、入力部17と、出力部18と、記憶部19と、通信部20と、ドライブ21と、を備えている。   The imaging apparatus 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input / output interface 15, an imaging unit 16, and an input unit 17. An output unit 18, a storage unit 19, a communication unit 20, and a drive 21.

CPU11は、ガンマ補正切替処理プログラム(後述)等、ROM12に記録されているプログラム、または、記憶部19からRAM13にロードされたプログラムに従って各種の処理を実行する。   The CPU 11 executes various processes according to a program recorded in the ROM 12 such as a gamma correction switching process program (described later) or a program loaded from the storage unit 19 to the RAM 13.

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 13 appropriately stores data necessary for the CPU 11 to execute various processes.

CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、撮像部16、入力部17、出力部18、記憶部19、通信部20及びドライブ21が接続されている。   The CPU 11, ROM 12, and RAM 13 are connected to each other via a bus 14. An input / output interface 15 is also connected to the bus 14. An imaging unit 16, an input unit 17, an output unit 18, a storage unit 19, a communication unit 20, and a drive 21 are connected to the input / output interface 15.

撮像部16は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。   Although not shown, the imaging unit 16 includes an optical lens unit and an image sensor.

光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is configured by a lens that collects light, for example, a focus lens or a zoom lens, in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.

AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部16の出力信号として出力される。
このような撮像部16の出力信号によって表されるデータを、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11やRAM13等に適宜供給される。
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. Through various signal processing, a digital signal is generated and output as an output signal of the imaging unit 16.
Such data represented by the output signal of the imaging unit 16 is hereinafter referred to as “captured image data”. Data of the captured image is appropriately supplied to the CPU 11, RAM 13, and the like.

入力部17は、各種釦等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部18は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部19は、ハードディスクあるいはDRAM(Dynamic Random Access Memory)等で構成され、顔を表すモデルデータ(以下、適宜「識別器」と呼ぶ。)等の各種データを記憶する。
通信部20は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The input unit 17 includes various buttons and the like, and inputs various types of information according to user instruction operations.
The output unit 18 includes a display, a speaker, and the like, and outputs images and sounds.
The storage unit 19 is composed of a hard disk, DRAM (Dynamic Random Access Memory), or the like, and stores various data such as model data representing a face (hereinafter referred to as “discriminator” as appropriate).
The communication unit 20 controls communication performed with other devices (not shown) via a network including the Internet.

ドライブ21には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ21によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部19にインストールされる。また、リムーバブルメディア31は、記憶部19に記憶されている画像のデータ等の各種データも、記憶部19と同様に記憶することができる。   A removable medium 31 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 21. The program read from the removable medium 31 by the drive 21 is installed in the storage unit 19 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 19 in the same manner as the storage unit 19.

図2は、このような撮像装置1の機能的構成のうち、ガンマ補正切替処理を実行するための機能的構成を示す機能ブロック図である。
ガンマ補正切替処理とは、顔検出のための画像のデータにガンマ補正を行うか否かを制御するための一連の処理をいう。
FIG. 2 is a functional block diagram illustrating a functional configuration for executing the gamma correction switching process among the functional configurations of the imaging apparatus 1.
The gamma correction switching process is a series of processes for controlling whether to perform gamma correction on image data for face detection.

撮像部16は、被写体の撮像画像のデータを取得する画像取得部41を備えている。
画像取得部41は、被写体の撮像画像のデータを取得し、取得した撮像画像のデータを画像生成部42に出力する。
The imaging unit 16 includes an image acquisition unit 41 that acquires captured image data of a subject.
The image acquisition unit 41 acquires captured image data of the subject, and outputs the acquired captured image data to the image generation unit 42.

このとき、画像取得部41は、撮像装置1のシャッタボタンの押下状態に応じて、ライブビュー画像のデータ、フォーカスロックされた画像のデータ、撮影された画像のデータを出力する。具体的には、シャッタボタンが押下されていない場合、画像取得部41は、撮像動作を継続し、撮像動作が継続されている間、順次取得される撮像画像のデータをライブビュー画像のデータとして出力する。また、シャッタボタンが半押し(下限に至らない所定の位置まで押下された状態)の場合、画像取得部41は、シャッタボタンが半押しされた際の焦点距離を維持したまま、撮像動作を継続し、シャッタボタンが半押しの状態で撮像動作が継続されている間、順次取得される撮像画像のデータをフォーカスロックされた画像のデータとして出力する。さらに、シャッタボタンが全押し(下限まで押下された状態)の場合、画像取得部41は、現在の画角において焦点距離を所定位置(フォーカスロックされた際の焦点距離あるいはオートフォーカス制御によって決定された焦点距離)に設定し、1フレーム(またはシャッタ速度が異なる複数フレーム)の撮像画像のデータを撮影された画像のデータとして出力する。   At this time, the image acquisition unit 41 outputs live view image data, focus-locked image data, and captured image data according to the pressed state of the shutter button of the imaging apparatus 1. Specifically, when the shutter button is not pressed, the image acquisition unit 41 continues the imaging operation, and the captured image data sequentially acquired while the imaging operation is continued is used as live view image data. Output. When the shutter button is half-pressed (a state where the shutter button is pressed to a predetermined position that does not reach the lower limit), the image acquisition unit 41 continues the imaging operation while maintaining the focal length when the shutter button is half-pressed. Then, while the imaging operation is continued while the shutter button is half-pressed, sequentially acquired captured image data is output as focus-locked image data. Further, when the shutter button is fully pressed (down to the lower limit), the image acquisition unit 41 determines the focal length at a predetermined position (focal length when focus is locked or autofocus control) at the current angle of view. The focal length), and the captured image data of one frame (or a plurality of frames with different shutter speeds) is output as captured image data.

CPU11は、画像生成部42と、顔検出部43と、顔枠設定部44と、ガンマ補正指示部45と、反応値判定部46とを備えている。
画像生成部42は、画像取得部41を制御し、上記ライブビュー画像のデータを顔検出のための画像のデータとして受け取る。
The CPU 11 includes an image generation unit 42, a face detection unit 43, a face frame setting unit 44, a gamma correction instruction unit 45, and a reaction value determination unit 46.
The image generation unit 42 controls the image acquisition unit 41 to receive the live view image data as image data for face detection.

また、画像生成部42は、ガンマ補正処理部42aを備えており、ガンマ補正指示部45から入力されるガンマ補正を行うか否かを示す指示信号(以下、「ガンマ補正指示信号」と呼ぶ。)に従って、画像取得部41から入力されたライブビュー画像のデータにガンマ補正を行う。具体的には、ガンマ補正指示信号がガンマ補正を行わないことを示している場合、画像取得部41から入力されたライブビュー画像のデータを顔検出部43に出力する。また、ガンマ補正指示信号がガンマ補正を行うことを示している場合、画像取得部41から入力されたライブビュー画像のデータにガンマ補正を行って、ガンマ補正後のライブビュー画像のデータを顔検出部43及び反応値判定部46に出力する。   In addition, the image generation unit 42 includes a gamma correction processing unit 42 a and is referred to as an instruction signal (hereinafter referred to as “gamma correction instruction signal”) indicating whether or not to perform gamma correction input from the gamma correction instruction unit 45. ), Gamma correction is performed on the data of the live view image input from the image acquisition unit 41. Specifically, when the gamma correction instruction signal indicates that gamma correction is not performed, the live view image data input from the image acquisition unit 41 is output to the face detection unit 43. If the gamma correction instruction signal indicates that gamma correction is to be performed, gamma correction is performed on the live view image data input from the image acquisition unit 41, and the gamma correction live view image data is subjected to face detection. Output to the unit 43 and the reaction value determination unit 46.

顔検出部43は、画像生成部42から入力されたライブビュー画像のデータに対し、識別器47を用いて、顔検出処理を実行する。
具体的には、顔検出部43は、画像生成部42から入力されたライブビュー画像のデータに対して、異なる角度(顔に対する視点の位置)で顔をモデル化したデータである複数種の識別器(以下、「サブ識別器」と呼ぶ。)を識別器47から読み出す。そして、顔検出部43は、各サブ識別器の顔のモデルデータとライブビュー画像における検出対象の領域との類似度を表す評価値(スコア)を、例えばadaboost(アダブースト)アルゴリズムを用いて算出する。さらに、顔検出部43は、評価値が閾値以上の領域を顔領域の候補として検出し、各サブ識別器について、検出した顔領域の候補の数を反応値として算出する。なお、顔領域の候補が検出されたサブ識別器を、ライブビュー画像の検出対象の領域に反応したサブ識別器と呼ぶ。
The face detection unit 43 performs face detection processing on the live view image data input from the image generation unit 42 using the classifier 47.
Specifically, the face detection unit 43 identifies a plurality of types of data obtained by modeling the face at different angles (the position of the viewpoint with respect to the face) with respect to the live view image data input from the image generation unit 42. A classifier (hereinafter referred to as “sub-classifier”) is read from the classifier 47. Then, the face detection unit 43 calculates an evaluation value (score) indicating the degree of similarity between the face model data of each sub-classifier and the detection target region in the live view image using, for example, an adaboost algorithm. . Furthermore, the face detection unit 43 detects an area having an evaluation value equal to or greater than a threshold value as a face area candidate, and calculates the number of detected face area candidates as a reaction value for each sub-classifier. A sub classifier in which a face area candidate is detected is referred to as a sub classifier that reacts to a detection target area of a live view image.

顔検出部43は、複数種のサブ識別器を用いてライブビュー画像における顔領域の検出を行うことにより、最も高い反応値を有するサブ識別器を特定する。このとき、顔検出部43は、特定されたサブ識別器の反応値が、設定された閾値以下である場合には、顔領域を検出できないものと判定し、ライブビュー画像のガンマ補正を行わせるための指示信号(ガンマ補正起動信号)をガンマ補正指示部45に出力する。
なお、サブ識別器の反応値として、選択されたサブ識別器において顔領域の候補として検出された領域の評価値(アダブーストアルゴリズムによって算出したスコア)を用いることもできる。
The face detection unit 43 identifies a sub classifier having the highest response value by detecting a face region in a live view image using a plurality of types of sub classifiers. At this time, the face detection unit 43 determines that the face area cannot be detected when the response value of the identified sub-classifier is equal to or less than the set threshold value, and performs gamma correction of the live view image. An instruction signal (gamma correction activation signal) for output is output to the gamma correction instruction unit 45.
It should be noted that an evaluation value (score calculated by the Adaboost algorithm) of an area detected as a face area candidate in the selected sub-classifier can be used as the response value of the sub-classifier.

そして、顔検出部43は、顔領域を検出した場合、検出した顔領域を特定するデータを顔枠設定部44に出力する。
顔枠設定部44は、顔検出部43から入力された顔領域を特定するデータを基に、検出された顔領域を識別するフレーム(以下、「顔枠」と呼ぶ。)の大きさ及び位置を決定する。そして、顔枠設定部44は、決定した顔枠の大きさ及び位置を表すデータを顔枠表示部48に出力する。
Then, when detecting the face area, the face detection unit 43 outputs data for specifying the detected face area to the face frame setting unit 44.
The face frame setting unit 44 determines the size and position of a frame (hereinafter referred to as “face frame”) for identifying the detected face region based on the data specifying the face region input from the face detection unit 43. To decide. Then, the face frame setting unit 44 outputs data representing the determined size and position of the face frame to the face frame display unit 48.

ガンマ補正指示部45は、顔検出部43からガンマ補正起動信号が入力されると、ガンマ補正を行うことを示すガンマ補正指示信号を画像生成部42に出力する。また、ガンマ補正指示部45は、反応値判定部46からガンマ補正解除信号が入力されると、ガンマ補正を行わないことを示すガンマ補正指示信号を画像生成部42に出力する。   When the gamma correction activation signal is input from the face detection unit 43, the gamma correction instruction unit 45 outputs a gamma correction instruction signal indicating that gamma correction is performed to the image generation unit 42. Further, when a gamma correction cancellation signal is input from the reaction value determination unit 46, the gamma correction instruction unit 45 outputs a gamma correction instruction signal indicating that gamma correction is not performed to the image generation unit 42.

反応値判定部46は、ガンマ補正後のライブビュー画像に顔検出部43が識別器47を適用した結果である反応値(以下、適宜「補正反応値」と呼ぶ。)を取得する。そして、反応値判定部46は、そのライブビュー画像についてガンマ補正を行っていない撮像画像のデータに対し、識別器47を適用した結果である反応値(以下、適宜「無補正反応値」と呼ぶ。)を取得する。そして、反応値判定部46は、補正反応値と無補正反応値とを比較し、無補正反応値の方が補正反応値より大きい場合に、ガンマ補正を行わせないための指示信号(ガンマ補正解除信号)をガンマ補正指示部45に出力する。   The reaction value determination unit 46 acquires a reaction value (hereinafter, appropriately referred to as “correction reaction value”) as a result of applying the discriminator 47 by the face detection unit 43 to the gamma-corrected live view image. Then, the reaction value determination unit 46 calls a reaction value (hereinafter, referred to as “uncorrected reaction value” as appropriate) as a result of applying the discriminator 47 to the captured image data that has not been subjected to gamma correction for the live view image. .) Then, the reaction value determination unit 46 compares the corrected reaction value with the uncorrected reaction value, and when the uncorrected reaction value is larger than the corrected reaction value, an instruction signal for preventing gamma correction (gamma correction). Cancel signal) is output to the gamma correction instruction unit 45.

記憶部19の一領域には、顔を表すモデルデータである識別器47が記憶されている。この識別器47は、例えば、異なる角度(顔に対する視点の位置)で顔をモデル化したデータである複数種のサブ識別器を有している。各サブ識別器は、例えば、正面から見た顔のモデルデータ、左側から見た顔のモデルデータ、右斜め上から見た顔のモデルデータ等、顔らしさを表す異なる種類のモデルデータによって構成される。そして、ライブビュー画像内の顔検出の対象領域と各サブ識別器のモデルデータとがマッチングされる(即ち、類似度を表すスコアが算出される)ことにより、各サブ識別器の反応値が算出される。顔検出部43においては、この反応値を用いて顔検出が行われる。   In one area of the storage unit 19, a classifier 47, which is model data representing a face, is stored. The discriminator 47 has, for example, a plurality of types of sub discriminators that are data obtained by modeling a face at different angles (viewpoint positions with respect to the face). Each sub-classifier is composed of different types of model data representing facialness, such as face model data viewed from the front, face model data viewed from the left, face model data viewed from the upper right. The Then, the face detection target region in the live view image and the model data of each sub classifier are matched (that is, a score indicating similarity is calculated), thereby calculating the reaction value of each sub classifier. Is done. In the face detection unit 43, face detection is performed using this reaction value.

出力部18は、ライブビュー画像に顔枠を表示するための顔枠表示部48を備えている。顔枠表示部48は、顔枠設定部44から入力された顔枠の大きさ及び位置を表すデータを基に、ライブビュー画像に重畳して顔枠を表示する。
本実施形態では、顔検出のためのライブビュー画像を対象として、逆光等によって顔検出が行えない場合に、当該ライブビュー画像のデータに対してガンマ補正を行うよう制御する。そして、ガンマ補正を行った状態で特定の識別器による顔検出に成功すると、ガンマ補正を行わない状態でも当該特定の識別器で顔検出を行い、ガンマ補正を行った状態と行っていない状態との特定の識別器による反応値を比較する。そして、ガンマ補正を行っていない状態での反応値がガンマ補正を行った状態よりも大きい値である場合に、ガンマ補正をオフとする制御を行う。
ここで、本実施形態では、特定の識別器とは、ガンマ補正を行った状態で最も高い反応値を有するサブ識別器を指す。
The output unit 18 includes a face frame display unit 48 for displaying a face frame on the live view image. The face frame display unit 48 displays the face frame superimposed on the live view image based on the data representing the size and position of the face frame input from the face frame setting unit 44.
In the present embodiment, when face detection cannot be performed due to backlight or the like for a live view image for face detection, control is performed to perform gamma correction on the data of the live view image. Then, when face detection by a specific classifier succeeds in a state where gamma correction is performed, face detection is performed by the specific classifier even in a state where gamma correction is not performed, and a state where gamma correction is performed and a state where it is not performed Compare the response values of the specific classifiers. Then, when the reaction value in the state where the gamma correction is not performed is larger than that in the state where the gamma correction is performed, control for turning off the gamma correction is performed.
Here, in the present embodiment, the specific discriminator refers to a sub discriminator having the highest response value in a state where gamma correction is performed.

これにより、顔領域が暗く、自動露出制御によって撮像画像の明るさを高める制御が行われる状況においても、顔検出のためのライブビュー画像のデータでガンマ補正の効果によって顔検出ができなくなることを防止できる。また、ライブビュー画像の明るさの変化に応じてガンマ補正のオン/オフを切り換えるため、その後に逆光状態から順光状態に変化したときに顔検出が行えなくなる事態を抑制することもできる。即ち、自動露出制御の影響を受けることなく逆光状態や順光状態での顔検出処理をより適正に行うことが可能となる。   As a result, even in a situation where the face area is dark and control is performed to increase the brightness of the captured image by automatic exposure control, face detection cannot be performed due to the gamma correction effect of live view image data for face detection. Can be prevented. Further, since the gamma correction is switched on / off according to the change in brightness of the live view image, it is possible to suppress a situation in which face detection cannot be performed when the backlight state changes to the direct light state thereafter. That is, it is possible to more appropriately perform the face detection process in the backlight state or the follow light state without being affected by the automatic exposure control.

[動作]
次に、撮像装置1の動作を説明する。
[ガンマ補正切替処理]
図3は、撮像装置1が実行するガンマ補正切替処理の流れを示すフローチャートである。
[Operation]
Next, the operation of the imaging apparatus 1 will be described.
[Gamma correction switching processing]
FIG. 3 is a flowchart illustrating a flow of gamma correction switching processing executed by the imaging apparatus 1.

ガンマ補正切替処理は、撮像装置1においてライブビュー画像の撮像が開始されることに対応して実行される。なお、ガンマ補正切替処理では、ライブビュー画像の1フレーム単位で処理が行われる。
ガンマ補正切替処理が開始されると、ステップS1において、ガンマ補正指示部45は、画像生成部42に対してガンマ補正を行わないことを示すガンマ補正指示信号を出力する。これにより、画像生成部42では、ガンマ補正を行うことなくライブビュー画像を出力する状態となる。
The gamma correction switching process is executed in response to the start of imaging of the live view image in the imaging apparatus 1. In the gamma correction switching process, the process is performed for each frame of the live view image.
When the gamma correction switching process is started, the gamma correction instruction unit 45 outputs a gamma correction instruction signal indicating that gamma correction is not performed to the image generation unit 42 in step S1. As a result, the image generation unit 42 is in a state of outputting a live view image without performing gamma correction.

ステップS2において、顔検出部43は、画像生成部42から入力されたライブビュー画像のデータに対し、顔検出処理を行う。
ステップS3において、顔検出部43は、顔領域が検出されたか否かの判定を行う。
画像生成部42から入力されたライブビュー画像において、顔領域が検出された場合、ステップS3においてYESと判定されて、処理はステップS4に進む。
これに対し、画像生成部42から入力された顔検出のためのライブビュー画像のデータにおいて、顔領域が検出されない場合、ステップS3においてNOと判定されて、処理はステップS5に進む。
In step S <b> 2, the face detection unit 43 performs face detection processing on the live view image data input from the image generation unit 42.
In step S3, the face detection unit 43 determines whether or not a face area is detected.
If a face area is detected in the live view image input from the image generation unit 42, it is determined YES in step S3, and the process proceeds to step S4.
On the other hand, when the face area is not detected in the live view image data for face detection input from the image generation unit 42, NO is determined in step S3, and the process proceeds to step S5.

ステップS4において、顔枠設定部44は、顔検出部43が検出した顔領域に顔枠を設定し、顔枠表示部48によって顔枠を表示する。
このようなステップS4の処理の後、ガンマ補正切替処理が繰り返される。
ステップS5において、顔検出部43は、顔領域が検出されない処理ループがM(Mは予め設定された所定数)回繰り返されたか否かの判定を行う。即ち、顔領域が連続してM回検出されなかったか否かが判定される。これにより、顔領域の安定した検出をすべく、ガンマ補正を行うか否かを切り替えることができる。なお、本実施形態では、1フレームのライブビュー画像に対し、サブ識別器を全て適用し、1フレームで全てのモデルデータがマッチングされる。
In step S <b> 4, the face frame setting unit 44 sets a face frame in the face area detected by the face detection unit 43, and displays the face frame by the face frame display unit 48.
After such a process of step S4, the gamma correction switching process is repeated.
In step S5, the face detection unit 43 determines whether or not the processing loop in which no face area is detected has been repeated M (M is a predetermined number set in advance). That is, it is determined whether or not the face area has not been detected M times in succession. This makes it possible to switch whether or not to perform gamma correction in order to stably detect the face area. In the present embodiment, all sub-classifiers are applied to one frame of live view images, and all model data are matched in one frame.

顔領域が検出されない処理ループがM回繰り返されていない場合、ステップS5においてNOと判定されて、処理はステップS2に進む。
これに対し、顔領域が検出されない処理ループがM回繰り返されている場合、ステップS5においてYESと判定されて、処理はステップS6に進む。
ステップS6において、顔検出部43は、ガンマ補正指示部45にガンマ補正起動信号を出力する。これにより、画像生成部42では、ガンマ補正を行うことで、顔検出のためのライブビュー画像のデータを顔検出部43に出力する状態になる。
If the process loop in which the face area is not detected is not repeated M times, it is determined as NO in Step S5, and the process proceeds to Step S2.
On the other hand, when the processing loop in which no face area is detected is repeated M times, YES is determined in step S5, and the process proceeds to step S6.
In step S <b> 6, the face detection unit 43 outputs a gamma correction activation signal to the gamma correction instruction unit 45. As a result, the image generation unit 42 is in a state of outputting live view image data for face detection to the face detection unit 43 by performing gamma correction.

ステップS7において、顔検出部43は、画像生成部42から入力された顔検出のためのライブビュー画像のデータに対し、顔検出処理を行う。
ステップS8において、顔検出部43は、顔領域が検出されたか否かの判定を行う。
画像生成部42から入力されたライブビュー画像のデータにおいて、顔領域が検出されない場合、ステップS8においてNOと判定されて、処理はステップS9に進む。
In step S <b> 7, the face detection unit 43 performs face detection processing on the live view image data for face detection input from the image generation unit 42.
In step S8, the face detection unit 43 determines whether or not a face area is detected.
If no face area is detected in the data of the live view image input from the image generation unit 42, NO is determined in step S8, and the process proceeds to step S9.

これに対し、画像生成部42から入力されたライブビュー画像のデータにおいて、顔領域が検出された場合、ステップS8においてYESと判定されて、処理はステップS10に進む。
ステップS9において、顔検出部43は、顔領域が検出されない処理ループがN(Nは予め設定された所定数)回繰り返されたか否かの判定を行う。即ち、顔領域が連続してN回検出されなかったか否かが判定される。これにより、顔領域の安定した検出をすべく、ガンマ補正を行うか否かを切り替えることができる。なお、ステップS5と同様に、1フレームのライブビュー画像に対し、サブ識別器を全て適用し、1フレームで全てのモデルデータがマッチングされる。
On the other hand, if a face area is detected in the live view image data input from the image generation unit 42, YES is determined in step S8, and the process proceeds to step S10.
In step S <b> 9, the face detection unit 43 determines whether or not the processing loop in which no face area is detected is repeated N (N is a predetermined number set in advance). That is, it is determined whether or not the face area has not been detected N times consecutively. This makes it possible to switch whether or not to perform gamma correction in order to stably detect the face area. As in step S5, all the sub-classifiers are applied to one frame of the live view image, and all model data are matched in one frame.

顔領域が検出されない処理ループがN回繰り返されていない場合、ステップS9においてNOと判定されて、処理はステップS7に進む。
これに対し、顔領域が検出されない処理ループがN回繰り返されている場合、ステップS9においてYESと判定されて、処理はステップS1に進む。
ステップS10において、顔枠設定部44は、顔検出部43が検出した顔領域に顔枠を設定し、顔枠表示部48によって顔枠を表示する。
If the processing loop in which the face area is not detected is not repeated N times, NO is determined in step S9, and the process proceeds to step S7.
On the other hand, if the processing loop in which no face area is detected is repeated N times, YES is determined in step S9, and the process proceeds to step S1.
In step S <b> 10, the face frame setting unit 44 sets a face frame in the face area detected by the face detection unit 43, and displays the face frame by the face frame display unit 48.

ステップS11において、反応値判定部46は、ガンマ補正が行われた画像のデータ及びガンマ補正が行われていないライブビュー画像のデータについて、識別器47を適用した結果である補正反応値と無補正反応値とを取得する。
ステップS12において、反応値判定部46は、補正反応値よりも無補正反応値の方が大きいか否かの判定を行う。即ち、ステップS12では、ガンマ補正が行われていないライブビュー画像のデータ及びガンマ補正が行われたライブビュー画像のデータにおける検出の対象領域のいずれがサブ識別器のモデルデータとより類似しているかが判定される。
In step S <b> 11, the reaction value determination unit 46 corrects the corrected response value that is the result of applying the discriminator 47 to the image data that has been subjected to the gamma correction and the data of the live view image that has not been subjected to the gamma correction. Get the reaction value.
In step S12, the reaction value determination unit 46 determines whether or not the uncorrected reaction value is larger than the corrected reaction value. That is, in step S12, which of the detection target areas in the live view image data not subjected to gamma correction and the live view image data subjected to gamma correction is more similar to the model data of the sub classifier. Is determined.

補正反応値よりも無補正反応値の方が大きい場合、ステップS12においてYESと判定されて、処理はステップS1に進む。
これに対し、補正反応値が無補正反応値以下である場合、ステップS12においてNOと判定されて、処理はステップS7に進む。
このように、顔検出のためのライブビュー画像のデータにガンマ補正が行われている状態で顔領域が検出されている際に、補正反応値よりも無補正反応値の方が大きい場合(即ち、顔のモデルデータとの類似度がより高い場合)にガンマ補正を行わない状態とすることで、ガンマ補正を行う必要がない状況において、速やかにガンマ補正を解除することができる。
これにより、逆光状態から順光状態に撮影環境が切り換わっても、当該撮影環境に速やかに対応した顔検出処理をすることができる。
If the uncorrected response value is larger than the corrected response value, YES is determined in step S12, and the process proceeds to step S1.
On the other hand, when the corrected response value is equal to or less than the uncorrected response value, NO is determined in step S12, and the process proceeds to step S7.
As described above, when a face area is detected in a state where gamma correction is performed on live view image data for face detection, the uncorrected response value is larger than the corrected response value (that is, When the gamma correction is not performed when the similarity with the face model data is higher, the gamma correction can be quickly canceled in a situation where the gamma correction is not necessary.
Thereby, even if the shooting environment is switched from the backlit state to the following lighted state, face detection processing corresponding to the shooting environment can be performed quickly.

[状態遷移図]
次に、上記ガンマ補正切替処理に基づく制御の結果、撮像装置1において実現される制御の状態遷移について説明する。
図4は、撮像装置1における制御の状態遷移を示す図である。また、図5は、撮像装置1における制御の比較例の状態遷移を示す図である。図5に示す状態遷移図は、顔検出が行えない場合にのみガンマ補正を行うか否かを切り替える制御に基づくものであり、本願発明におけるステップS10〜S12の処理を行わない点で異なっている。
[State transition diagram]
Next, the control state transition realized in the imaging apparatus 1 as a result of the control based on the gamma correction switching process will be described.
FIG. 4 is a diagram illustrating control state transitions in the imaging apparatus 1. FIG. 5 is a diagram illustrating state transition of a comparative example of control in the imaging apparatus 1. The state transition diagram shown in FIG. 5 is based on control for switching whether or not to perform gamma correction only when face detection cannot be performed, and is different in that the processing of steps S10 to S12 in the present invention is not performed. .

図4に示すように、撮像装置1は、ライブビュー画像のデータにガンマ補正を行わない状態A1と、ライブビュー画像のデータにガンマ補正を行う状態A2とを、以下の遷移条件C1〜C7に従って遷移する。   As illustrated in FIG. 4, the imaging apparatus 1 performs a state A1 in which gamma correction is not performed on live view image data and a state A2 in which gamma correction is performed on live view image data according to the following transition conditions C1 to C7. Transition.

(状態A1から状態A1への遷移条件)
遷移条件C1:状態A1において顔領域が検出された場合(ステップS3でYESと判定された場合)
遷移条件C2:顔領域が検出されない処理ループがM回繰り返されていない場合(ステップS5でNOと判定された場合)
(Conditions for transition from state A1 to state A1)
Transition condition C1: When a face area is detected in state A1 (when YES is determined in step S3)
Transition condition C2: When the processing loop in which no face area is detected is not repeated M times (when NO is determined in step S5)

(状態A1から状態A2への遷移条件)
遷移条件C3:状態A1において顔領域が検出されない処理ループがM回繰り返された場合(ステップS5でYESと判定された場合)
(状態A2から状態A2への遷移条件)
遷移条件C4:状態A2において顔領域が検出された場合(ステップS8でYESと判定された場合)
遷移条件C5:顔領域が検出されない処理ループがN回繰り返されていない場合(ステップS9でNOと判定された場合)
(Conditions for transition from state A1 to state A2)
Transition condition C3: When a processing loop in which no face area is detected in state A1 is repeated M times (when YES is determined in step S5)
(Conditions for transition from state A2 to state A2)
Transition condition C4: When a face area is detected in state A2 (when YES is determined in step S8)
Transition condition C5: When a processing loop in which no face area is detected is not repeated N times (when NO is determined in step S9)

(状態A2から状態A1への遷移条件)
遷移条件C6:状態A2において顔領域が検出されない処理ループがN回繰り返された場合(ステップS9でYESと判定された場合)
遷移条件C7:状態A2において最も補正反応値が高いサブ識別器に、ガンマ補正を行わないライブビュー画像のデータを適用して取得された無補正反応値が、その補正反応値よりも大きい場合(ステップS12でYESと判定された場合)
これに対し、図5に示す比較例では、状態A1及び状態A2を遷移する点及び遷移条件C1〜C6に従って状態を遷移する点で共通するものの、遷移条件C7に従って状態A2から状態A1に遷移することがない点で、撮像装置1における制御の状態遷移と異なっている。
(Conditions for transition from state A2 to state A1)
Transition condition C6: When a processing loop in which no face area is detected in state A2 is repeated N times (when YES is determined in step S9)
Transition condition C7: When an uncorrected response value obtained by applying live view image data without gamma correction to the sub-classifier having the highest corrected response value in the state A2 is larger than the corrected response value ( (If YES is determined in step S12)
On the other hand, in the comparative example shown in FIG. 5, although it is common in that the state is changed according to the transition point between the state A1 and the state A2 and the transition conditions C1 to C6, the transition from the state A2 to the state A1 according to the transition condition C7. This is different from the control state transition in the imaging apparatus 1 in that there is no such thing.

[具体的動作]
図6は、図4及び図5の状態遷移図に従って制御が行われた場合の動作の比較を示す図である。なお、図6においては、人の顔部分を含む上半身が被写体となっており、被写体における斜線の密度は画像の明るさ(密度が高いほど暗い状態)を示している。
図6(a)では、撮像条件が逆光であり、この場合にガンマ補正が行われていないものとすると、顔領域の明るさが不十分となり、顔領域は検出されない。
図6(b)では、ライブビュー画像のデータにガンマ補正が行われており、この結果、ライブビュー画像において顔領域が検出される。
[Specific operation]
FIG. 6 is a diagram showing a comparison of operations when control is performed according to the state transition diagrams of FIGS. 4 and 5. In FIG. 6, the upper body including the human face portion is the subject, and the density of the oblique lines in the subject indicates the brightness of the image (the darker the density is).
In FIG. 6A, if the imaging condition is backlight, and in this case, no gamma correction is performed, the brightness of the face area is insufficient and the face area is not detected.
In FIG. 6B, gamma correction is performed on the data of the live view image, and as a result, a face area is detected in the live view image.

図6(c)では、ライブビュー画像のデータにガンマ補正が行われており、当該ライブビュー画像において顔領域が検出されている一方、撮像部16における自動露出制御によって、画像取得部41から画像生成部42に入力されるライブビュー画像が徐々に明るくなっている。
ここで、図5に示す比較例の状態遷移図に従って制御が行われると、図6(d)に示すように、顔領域が検出できなくなるまで、顔検出のためのライブビュー画像のデータにガンマ補正が行われ続ける状態となる。
In FIG. 6C, gamma correction is performed on the data of the live view image, and a face area is detected in the live view image. On the other hand, the image is acquired from the image acquisition unit 41 by automatic exposure control in the imaging unit 16. The live view image input to the generation unit 42 is gradually brightened.
Here, when control is performed according to the state transition diagram of the comparative example shown in FIG. 5, as shown in FIG. 6D, gamma is added to the live view image data for face detection until no face area can be detected. The correction is continuously performed.

これに対し、図4に示す本実施形態の状態遷移図に従って制御が行われると、図6(e)に示すように、自動露出制御の効果によってガンマ補正を行わなくても顔領域が検出できるようになった時点で、ガンマ補正を行わない状態となる。
そのため、撮像条件が逆光から順光に変化する場合等、撮像部16から出力されるライブビュー画像がより明るく変化する場合であっても、顔領域の検出をより確実に行うことができる。
On the other hand, when the control is performed according to the state transition diagram of the present embodiment shown in FIG. 4, the face area can be detected without performing gamma correction due to the effect of the automatic exposure control as shown in FIG. At this point, gamma correction is not performed.
Therefore, even when the live view image output from the imaging unit 16 changes more brightly, such as when the imaging condition changes from backlight to forward light, the face area can be detected more reliably.

以上のように、本実施形態に係る撮像装置1は、ガンマ補正指示部45及び反応値判定部46を備え、ライブビュー画像に対してガンマ補正を行っている状態で顔領域が検出されている場合、反応値判定部46がガンマ補正を行わないライブビュー画像における無補正反応値を取得する。そして、反応値判定部46は、ガンマ補正を行っているライブビュー画像における補正反応値と無補正反応値とを比較し、無補正反応値が補正反応値よりも大きい場合、ガンマ補正指示部45にガンマ補正解除信号を出力する。   As described above, the imaging apparatus 1 according to the present embodiment includes the gamma correction instruction unit 45 and the reaction value determination unit 46, and the face area is detected in a state where the gamma correction is performed on the live view image. In this case, the reaction value determination unit 46 acquires an uncorrected response value in a live view image that is not subjected to gamma correction. Then, the reaction value determination unit 46 compares the corrected reaction value and the uncorrected reaction value in the live view image on which the gamma correction is performed, and when the uncorrected reaction value is larger than the corrected reaction value, the gamma correction instruction unit 45. Output a gamma correction cancel signal.

すると、ガンマ補正指示部45がガンマ補正を行わないことを示すガンマ補正指示信号を画像生成部42に出力し、画像生成部42において、ライブビュー画像に対するガンマ補正を停止する。
そのため、顔領域が暗く、自動露出制御によって撮像画像の明るさを高める制御が行われる状況においても、顔検出のためのライブビュー画像のデータにおいてガンマ補正の効果が過剰になることを防止できる。また、撮影環境が逆光状態から順光状態に変化したことにより、その後のライブビュー画像中において顔検出が行えなくなる事態を抑制することもできる。
したがって、本実施形態に係る撮像装置1によれば、逆光状態や順光状態での顔検出処理をより適正に行うことが可能となる。
Then, the gamma correction instruction unit 45 outputs a gamma correction instruction signal indicating that gamma correction is not performed to the image generation unit 42, and the image generation unit 42 stops gamma correction for the live view image.
Therefore, it is possible to prevent the gamma correction effect from becoming excessive in the live view image data for face detection even in a situation where the face area is dark and control is performed to increase the brightness of the captured image by automatic exposure control. In addition, it is possible to suppress a situation in which face detection cannot be performed in a subsequent live view image due to a change in the shooting environment from the backlighting state to the backlighting state.
Therefore, according to the imaging device 1 according to the present embodiment, it is possible to more appropriately perform face detection processing in a backlight state or a follow light state.

[変形例1]
上記実施形態におけるガンマ補正切替処理のステップS3及びステップS8では、1フレームのライブビュー画像に対し、サブ識別器を全て適用し、1フレームで全てのモデルデータをマッチングすることとして説明した。
これに対し、ライブビュー画像の1フレームでは、サブ識別器の一部(例えば全9個のうちの3つ等)を適用して反応値を取得し、処理ループを複数回繰り返すことで、全てのサブ識別器を顔検出のためのライブビュー画像のデータに適用することができる。
[Modification 1]
In step S3 and step S8 of the gamma correction switching process in the above embodiment, all sub-classifiers are applied to one frame of live view images, and all model data are matched in one frame.
On the other hand, in one frame of the live view image, a response value is obtained by applying a part of the sub-classifier (for example, 3 out of all 9), and the processing loop is repeated a plurality of times. Can be applied to live view image data for face detection.

例えば、ステップS3の処理であれば、ステップS5において判定されるM回の処理ループまでに全てのサブ識別器を適用したり、ステップS8の処理であれば、ステップS9において判定されるN回の処理ループまでに全てのサブ識別器を適用したりすることができる。
この場合、ライブビュー画像にサブ識別器を適用するために要する処理能力を低減できるため、CPU11の動作クロック数を低下させることができる。
即ち、より低消費電力で、顔検出処理を実行することが可能となる。
For example, if it is the process of step S3, all the sub discriminators are applied by the process loop of M times determined in step S5, or if it is the process of step S8, N times determined in step S9. All sub-classifiers can be applied before the processing loop.
In this case, since the processing capability required to apply the sub classifier to the live view image can be reduced, the number of operation clocks of the CPU 11 can be reduced.
That is, the face detection process can be executed with lower power consumption.

[変形例2]
上記実施形態におけるガンマ補正切替処理のステップS12では、補正反応値よりも無補正反応値の方が大きい場合に、顔検出のためのライブビュー画像のデータに対するガンマ補正を行わないように制御するものとして説明した。
これに対し、ステップS12において、補正反応値よりも無補正反応値の方が設定した閾値Th以上大きい場合に、顔検出のためのライブビュー画像のデータに対するガンマ補正を行わないものと判定することができる。
[Modification 2]
In step S12 of the gamma correction switching process in the above embodiment, when the uncorrected response value is larger than the corrected response value, control is performed so as not to perform gamma correction on the live view image data for face detection. As explained.
On the other hand, in step S12, when the uncorrected response value is greater than the set threshold value Th than the corrected response value, it is determined that gamma correction is not performed on the live view image data for face detection. Can do.

これにより、ガンマ補正を行わない状態へと切り替える条件を、ガンマ補正を行わない方が確実に反応値が大きい(補正反応値よりも無補正反応値の方が確実に大きい)場合に設定することができる。また、閾値Thを適宜変化させることにより、ガンマ補正を行わない状態へと切り替える状態変化のし易さを制御することができるため、より適切に顔領域の検出を行うことが可能となる。   As a result, the condition for switching to a state where gamma correction is not performed should be set when the response value is definitely larger without gamma correction (the uncorrected response value is definitely greater than the corrected response value). Can do. Further, by appropriately changing the threshold Th, it is possible to control the ease of changing the state to switch to a state in which gamma correction is not performed, so that it is possible to detect the face area more appropriately.

なお、上記閾値Thは、撮像部16における自動露出制御の状態に応じて決定することができる。例えば、露出目標値に対する実測値の差が設定された範囲を超えている場合には、上記閾値Thをより大きく設定し、露出目標値に対する実測値の差が設定された範囲以内である場合には、上記閾値Thをより小さく設定することが可能である。
これにより、周囲の明るさに変動が大きい場合には、ガンマ補正を行う状態から行わない状態へと切り替わり難くなり、ガンマ補正の切り替えが頻繁に発生する事態を抑制できる。
The threshold Th can be determined according to the state of automatic exposure control in the imaging unit 16. For example, when the difference between the actual measurement values with respect to the exposure target value exceeds the set range, the threshold value Th is set larger, and when the difference between the actual measurement values with respect to the exposure target value is within the set range. The threshold value Th can be set smaller.
As a result, when the brightness of the surroundings varies greatly, it is difficult to switch from a state where gamma correction is performed to a state where gamma correction is not performed, and a situation in which switching of gamma correction frequently occurs can be suppressed.

以上説明した通り、本発明の一態様である撮像装置1では、画像取得部41は、ライブビュー画像を順次取得し、識別器47は、画像取得部41により順次取得されるライブビュー画像中の被写体領域(顔領域)を検出するための複数種の識別器を構成している。顔検出部43は、複数種の識別器に基づいて、画像取得部41により順次取得されるライブビュー画像の被写体領域を検出できるか否かを判定し、ガンマ補正処理部42aは、顔検出部43により被写体領域が検出できないと判定されると、順次取得されるライブビュー画像のデータをガンマ補正する。また、顔検出部43は、ガンマ補正処理部42aによりデータがガンマ補正されたライブビュー画像の領域と識別器47との第1の類似度を算出し、反応値判定部46は、ガンマ補正処理部42aによりデータがガンマ補正されていないライブビュー画像の領域と識別器47との第2の類似度を算出する。反応値判定部46は、第1の類似度と第2の類似度とを比較し、比較結果に基づいて、ガンマ補正処理部42aによるガンマ補正を解除するか否かを判定する。
したがって、逆光状態や順光状態での顔検出処理をより適正に行うことが可能となる。
As described above, in the imaging device 1 according to an aspect of the present invention, the image acquisition unit 41 sequentially acquires live view images, and the identifier 47 includes the live view images sequentially acquired by the image acquisition unit 41. A plurality of types of classifiers for detecting a subject area (face area) are configured. The face detection unit 43 determines whether or not the subject region of the live view image sequentially acquired by the image acquisition unit 41 can be detected based on a plurality of types of discriminators, and the gamma correction processing unit 42a If it is determined by 43 that the subject area cannot be detected, the data of the live view images acquired sequentially is gamma corrected. Further, the face detection unit 43 calculates a first similarity between the region of the live view image whose data has been gamma corrected by the gamma correction processing unit 42a and the discriminator 47, and the reaction value determination unit 46 performs gamma correction processing. The second similarity between the region of the live view image whose data is not gamma corrected and the discriminator 47 is calculated by the unit 42a. The reaction value determination unit 46 compares the first similarity and the second similarity, and determines whether or not to cancel the gamma correction by the gamma correction processing unit 42a based on the comparison result.
Therefore, it is possible to more appropriately perform the face detection process in the backlight state or the follow light state.

また、ガンマ補正指示部45は、反応値判定部46によりガンマ補正を解除すると判定されると、ガンマ補正が解除されたライブビュー画像に対して、顔検出部43に被写体領域を検出させる。
これにより、ガンマ補正が不要な状況となった後、ガンマ補正されていないライブビュー画像に対して被写体領域の検出を行うことができる。
If the reaction value determination unit 46 determines that the gamma correction is to be canceled, the gamma correction instruction unit 45 causes the face detection unit 43 to detect the subject area for the live view image for which the gamma correction has been canceled.
Thereby, after the situation where gamma correction is unnecessary, the subject area can be detected for the live view image that has not been gamma corrected.

反応値判定部46は、第1の類似度よりも第2の類似度の方が大きい場合に、ガンマ補正処理部42aによるガンマ補正を解除する。
これにより、自動露出制御によって撮像画像の明るさを高める制御が行われる状況においても、被写体領域の検出のためのライブビュー画像のデータにおいてガンマ補正の効果が過剰になることを防止できる。
The reaction value determination unit 46 cancels the gamma correction performed by the gamma correction processing unit 42a when the second similarity is larger than the first similarity.
Accordingly, even in a situation where the brightness of the captured image is controlled by automatic exposure control, it is possible to prevent the gamma correction effect from becoming excessive in the live view image data for detecting the subject area.

反応値判定部46は、第1の類似度よりも第2の類似度の方が閾値Th以上大きい場合に、ガンマ補正処理部42aによるガンマ補正を解除する。
これにより、ガンマ補正を行わない状態へと切り替える条件を、ガンマ補正を行わない方が確実に類似度が大きい場合に設定することができる。また、閾値Thを適宜変化させることにより、ガンマ補正を行わない状態へと切り替える状態変化のし易さを制御することができるため、より適切に被写体領域の検出を行うことが可能となる。
識別器47は、顔のモデルデータであり、顔検出部43は、顔のモデルデータとライブビュー画像の領域との類似度に基づいて、顔領域を被写体領域として検出できるか否かを判定する。
これにより、逆光状態等における環境下でも被写体における顔領域の検出をより適正に行うことが可能となる。
The reaction value determination unit 46 cancels the gamma correction by the gamma correction processing unit 42a when the second similarity is larger than the first similarity by the threshold Th or more.
As a result, the condition for switching to a state where no gamma correction is performed can be set when the degree of similarity is surely greater without gamma correction. Further, by appropriately changing the threshold Th, it is possible to control the ease of changing the state to switch to a state in which gamma correction is not performed, so that it is possible to detect the subject area more appropriately.
The discriminator 47 is face model data, and the face detection unit 43 determines whether the face area can be detected as a subject area based on the similarity between the face model data and the area of the live view image. .
This makes it possible to more appropriately detect the face area in the subject even in an environment in a backlight state or the like.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

例えば、上述の実施形態では、顔検出のためのライブビュー画像のデータにガンマ補正を施すか否かを切り替える場合を例に挙げて説明したが、顔領域の明るさが変化する補正であれば他の補正方法を用いることができる。例えば、ライブビュー画像全体の明るさを変化させるゲイン処理(明るさの増幅処理)を施すか否かを切り替えることとしても良い。   For example, in the above-described embodiment, the case of switching whether to apply gamma correction to live view image data for face detection has been described as an example. Other correction methods can be used. For example, it may be switched whether or not to perform gain processing (brightness amplification processing) that changes the brightness of the entire live view image.

また、上述の実施形態では、本発明が適用される撮像装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、撮像機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、ビデオカメラ、携帯電話機、Webカメラ、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the imaging apparatus 1 to which the present invention is applied has been described using a digital camera as an example, but is not particularly limited thereto.
For example, the present invention can be applied to general electronic devices having an imaging function. Specifically, for example, the present invention can be applied to a notebook personal computer, a video camera, a mobile phone, a Web camera, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成しても良いし、ソフトウェア単体で構成しても良いし、それらの組み合わせで構成しても良い。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 2 is merely an example and is not particularly limited. That is, it is sufficient that the imaging apparatus 1 has a function capable of executing the above-described series of processing as a whole, and what functional blocks are used to realize this function is not particularly limited to the example of FIG.
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであっても良い。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであっても良い。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、または光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部19に含まれるハードディスク等で構成される。   The recording medium including such a program is not only constituted by the removable medium 31 of FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. The recording medium etc. provided in The removable medium 31 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preliminarily incorporated in the apparatus main body includes, for example, the ROM 12 in FIG. 1 in which a program is recorded, the hard disk included in the storage unit 19 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等により構成される全体的な装置を意味するものとする。
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the order, but is not necessarily performed in chronological order, either in parallel or individually. The process to be executed is also included.
Further, in the present specification, the term “system” means an overall apparatus constituted by a plurality of devices, a plurality of means, and the like.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalent scope thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
画像を順次取得する画像取得手段と、
前記画像取得手段により順次取得される画像中の被写体領域を検出するための複数種の識別器を記憶する識別器記憶手段と、
前記識別器記憶手段により記憶された複数種の識別器に基づいて、前記画像取得手段により順次取得される画像の被写体領域を検出できるか否かを判定する検出判定手段と、
前記検出判定手段により前記被写体領域が検出できないと判定されると、前記順次取得される画像のデータを補正処理する補正手段と、
前記補正手段によりデータが補正処理された画像の領域と前記識別器との第1の類似度を算出する第1の類似度算出手段と、
前記補正手段によりデータが補正処理されていない画像の領域と前記識別器との類似度を算出する第2の類似度算出手段と、
前記第1の類似度算出手段により算出された第1の類似度と、前記第2の類似度算出手段により算出された第2の類似度とを比較する類似度比較手段と、
前記類似度比較手段による比較結果に基づいて、前記補正手段により補正処理を解除するか否かを判定する解除判定手段と、
を備えることを特徴とする撮像装置。
[付記2]
前記解除判定手段により前記補正処理を解除すると判定されると、当該補正処理が解除された画像に対して、前記検出判定手段に前記被写体領域を検出させる検出制御手段をさらに備えたことを特徴とする付記1に記載の撮像装置。
[付記3]
前記解除判定手段は、前記第1の類似度よりも前記第2の類似度の方が大きい場合に、前記補正手段による補正処理を解除することを特徴とする付記1または2に記載の撮像装置。
[付記4]
前記解除判定手段は、前記第1の類似度よりも前記第2の類似度の方が設定値以上大きい場合に、前記補正手段による補正処理を解除することを特徴とする付記1または2に記載の撮像装置。
[付記5]
前記識別器は、顔のモデルデータであり、
前記検出判定手段は、顔のモデルデータと前記画像の領域との類似度に基づいて、顔領域を前記被写体領域として検出できるか否かを判定することを特徴とする付記1から4のいずれか1つに記載の撮像装置。
[付記6]
画像を順次取得する画像取得ステップと、
所定の記憶手段により記憶された複数種の識別器に基づいて、前記画像取得ステップにより順次取得される画像の被写体領域を検出できるか否かを判定する検出判定ステップと、
前記検出判定ステップにより被写体領域が検出できないと判定されると、前記順次取得される画像のデータを補正処理する補正ステップと、
前記補正ステップにおいてデータが補正処理された画像の領域と前記識別器との第1の類似度を算出する第1の類似度算出ステップと、
前記補正ステップにおけるデータが補正処理されていない画像の領域と前記識別器との類似度を算出する第2の類似度算出ステップと、
前記第1の類似度算出ステップにおいて算出された第1の類似度と、前記第2の類似度算出ステップにおいて算出された第2の類似度とを比較する類似度比較ステップと、
前記類似度比較ステップにおける比較結果に基づいて、前記補正ステップによる補正処理を解除するか否かを判定する解除判定ステップと、
を含むことを特徴とする撮像制御方法。
[付記7]
コンピュータを、
画像を順次取得する画像取得手段、
所定の記憶手段により記憶された複数種の識別器に基づいて、前記画像取得手段により順次取得される画像の被写体領域を検出できるか否かを判定する検出判定手段、
前記検出判定手段により被写体領域が検出できないと判定されると、前記順次取得される画像のデータを補正処理する補正手段、
前記補正手段によりデータが補正処理された画像の領域と前記識別器との第1の類似度を算出する第1の類似度算出手段、
前記補正手段によりデータが補正処理されていない画像の領域と前記識別器との類似度を算出する第2の類似度算出手段、
前記第1の類似度算出手段により算出された第1の類似度と、前記第2の類似度算出手段により算出された第2の類似度とを比較する類似度比較手段、
前記類似度比較手段による比較結果に基づいて、前記補正手段による補正処理を解除するか否かを判定する解除判定手段、
として機能させることを特徴とするプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
Image acquisition means for sequentially acquiring images;
Discriminator storage means for storing a plurality of types of discriminators for detecting a subject area in an image sequentially acquired by the image acquisition means;
A detection determination unit that determines whether or not a subject region of images sequentially acquired by the image acquisition unit can be detected based on a plurality of types of classifiers stored by the classifier storage unit;
A correction unit that corrects the sequentially acquired image data when the detection determination unit determines that the subject area cannot be detected;
First similarity calculation means for calculating a first similarity between the area of the image whose data has been corrected by the correction means and the discriminator;
Second similarity calculation means for calculating the similarity between the area of the image whose data is not corrected by the correction means and the classifier;
Similarity comparing means for comparing the first similarity calculated by the first similarity calculating means with the second similarity calculated by the second similarity calculating means;
Cancellation determination means for determining whether to cancel the correction processing by the correction means based on the comparison result by the similarity comparison means;
An imaging apparatus comprising:
[Appendix 2]
When the cancellation determination unit determines that the correction process is to be canceled, the detection determination unit further includes a detection control unit that causes the detection determination unit to detect the subject area with respect to the image for which the correction process has been canceled. The imaging apparatus according to appendix 1.
[Appendix 3]
The imaging apparatus according to appendix 1 or 2, wherein the cancellation determination unit cancels the correction processing by the correction unit when the second similarity is greater than the first similarity. .
[Appendix 4]
The supplementary determination means 1 or 2, wherein the cancellation determination unit cancels the correction processing by the correction unit when the second similarity is greater than a set value by a larger value than the first similarity. Imaging device.
[Appendix 5]
The classifier is facial model data,
Any one of appendices 1 to 4, wherein the detection determination unit determines whether or not a face region can be detected as the subject region based on a similarity between a face model data and the image region. The imaging device according to one.
[Appendix 6]
An image acquisition step for sequentially acquiring images;
A detection determination step for determining whether or not a subject region of images sequentially acquired by the image acquisition step can be detected based on a plurality of types of discriminators stored by a predetermined storage unit;
When it is determined that the subject area cannot be detected by the detection determination step, a correction step for correcting the sequentially acquired image data; and
A first similarity calculation step for calculating a first similarity between the region of the image whose data has been corrected in the correction step and the discriminator;
A second similarity calculation step of calculating a similarity between the area of the image in which the data in the correction step is not corrected and the classifier;
A similarity comparison step for comparing the first similarity calculated in the first similarity calculation step with the second similarity calculated in the second similarity calculation step;
A release determination step for determining whether or not to cancel the correction process by the correction step based on the comparison result in the similarity comparison step;
An imaging control method comprising:
[Appendix 7]
Computer
Image acquisition means for sequentially acquiring images;
Detection determination means for determining whether or not a subject region of images sequentially acquired by the image acquisition means can be detected based on a plurality of types of classifiers stored by a predetermined storage means;
A correction unit that corrects the sequentially acquired image data when it is determined by the detection determination unit that a subject area cannot be detected;
First similarity calculating means for calculating a first similarity between the area of the image whose data has been corrected by the correcting means and the discriminator;
Second similarity calculating means for calculating the similarity between the area of the image whose data is not corrected by the correcting means and the discriminator;
Similarity comparing means for comparing the first similarity calculated by the first similarity calculating means with the second similarity calculated by the second similarity calculating means;
Cancellation determination means for determining whether to cancel the correction processing by the correction means based on the comparison result by the similarity comparison means;
A program characterized by functioning as

1・・・撮像装置、11・・・CPU、12・・・ROM、13・・・RAM、14・・・バス、15・・・入出力インターフェース、16・・・撮像部、17・・・入力部、18・・・出力部、19・・・記憶部、20・・・通信部、21・・・ドライブ、31・・・リムーバブルメディア、41・・・画像取得部、42・・・画像生成部、42a・・・ガンマ補正処理部、43・・・顔検出部、44・・・顔枠設定部、45・・・ガンマ補正指示部、46・・・反応値判定部、47・・・識別器、48・・・顔枠表示部   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Bus, 15 ... Input-output interface, 16 ... Imaging part, 17 ... Input unit 18 ... Output unit 19 ... Storage unit 20 ... Communication unit 21 ... Drive 31 ... Removable media 41 ... Image acquisition unit 42 ... Image Generation unit 42a ... gamma correction processing unit 43 ... face detection unit 44 ... face frame setting unit 45 ... gamma correction instruction unit 46 ... reaction value determination unit 47 .Identifier, 48 ... face frame display

Claims (7)

画像を順次取得する画像取得手段と、
前記画像取得手段により順次取得される画像中の被写体領域を検出するための複数種の識別器を記憶する識別器記憶手段と、
前記識別器記憶手段により記憶された複数種の識別器に基づいて、前記画像取得手段により順次取得される画像の被写体領域を検出できるか否かを判定する検出判定手段と、
前記検出判定手段により前記被写体領域が検出できないと判定されると、前記順次取得される画像のデータを補正処理する補正手段と、
前記補正手段によりデータが補正処理された画像の領域と前記識別器との第1の類似度を算出する第1の類似度算出手段と、
前記補正手段によりデータが補正処理されていない画像の領域と前記識別器との類似度を算出する第2の類似度算出手段と、
前記第1の類似度算出手段により算出された第1の類似度と、前記第2の類似度算出手段により算出された第2の類似度とを比較する類似度比較手段と、
前記類似度比較手段による比較結果に基づいて、前記補正手段による補正処理を解除するか否かを判定する解除判定手段と、
を備えることを特徴とする撮像装置。
Image acquisition means for sequentially acquiring images;
Discriminator storage means for storing a plurality of types of discriminators for detecting a subject area in an image sequentially acquired by the image acquisition means;
A detection determination unit that determines whether or not a subject region of images sequentially acquired by the image acquisition unit can be detected based on a plurality of types of classifiers stored by the classifier storage unit;
A correction unit that corrects the sequentially acquired image data when the detection determination unit determines that the subject area cannot be detected;
First similarity calculation means for calculating a first similarity between the area of the image whose data has been corrected by the correction means and the discriminator;
Second similarity calculation means for calculating the similarity between the area of the image whose data is not corrected by the correction means and the classifier;
Similarity comparing means for comparing the first similarity calculated by the first similarity calculating means with the second similarity calculated by the second similarity calculating means;
Cancellation determination means for determining whether to cancel the correction processing by the correction means based on the comparison result by the similarity comparison means;
An imaging apparatus comprising:
前記解除判定手段により前記補正処理を解除すると判定されると、当該補正処理が解除された画像に対して、前記検出判定手段に前記被写体領域を検出させる検出制御手段をさらに備えたことを特徴とする請求項1に記載の撮像装置。   When the cancellation determination unit determines that the correction process is to be canceled, the detection determination unit further includes a detection control unit that causes the detection determination unit to detect the subject area with respect to the image for which the correction process has been canceled. The imaging device according to claim 1. 前記解除判定手段は、前記第1の類似度よりも前記第2の類似度の方が大きい場合に、前記補正手段による補正処理を解除することを特徴とする請求項1または2に記載の撮像装置。   3. The imaging according to claim 1, wherein the cancellation determination unit cancels the correction processing by the correction unit when the second similarity is larger than the first similarity. 4. apparatus. 前記解除判定手段は、前記第1の類似度よりも前記第2の類似度の方が設定値以上大きい場合に、前記補正手段による補正処理を解除することを特徴とする請求項1または2に記載の撮像装置。   The cancellation determination unit cancels the correction process by the correction unit when the second similarity is greater than a set value by more than the first similarity. The imaging device described. 前記識別器は、顔のモデルデータであり、
前記検出判定手段は、顔のモデルデータと前記画像の領域との類似度に基づいて、顔領域を前記被写体領域として検出できるか否かを判定することを特徴とする請求項1から4のいずれか1項に記載の撮像装置。
The classifier is facial model data,
5. The method according to claim 1, wherein the detection determination unit determines whether or not a face region can be detected as the subject region based on a similarity between a face model data and the image region. The imaging apparatus of Claim 1.
画像を順次取得する画像取得ステップと、
所定の記憶手段により記憶された複数種の識別器に基づいて、前記画像取得ステップにより順次取得される画像の被写体領域を検出できるか否かを判定する検出判定ステップと、
前記検出判定ステップにより被写体領域が検出できないと判定されると、前記順次取得される画像のデータを補正処理する補正ステップと、
前記補正ステップにおいてデータが補正処理された画像の領域と前記識別器との第1の類似度を算出する第1の類似度算出ステップと、
前記補正ステップにおけるデータが補正処理されていない画像の領域と前記識別器との類似度を算出する第2の類似度算出ステップと、
前記第1の類似度算出ステップにおいて算出された第1の類似度と、前記第2の類似度算出ステップにおいて算出された第2の類似度とを比較する類似度比較ステップと、
前記類似度比較ステップにおける比較結果に基づいて、前記補正ステップによる補正処理を解除するか否かを判定する解除判定ステップと、
を含むことを特徴とする撮像制御方法。
An image acquisition step for sequentially acquiring images;
A detection determination step for determining whether or not a subject region of images sequentially acquired by the image acquisition step can be detected based on a plurality of types of discriminators stored by a predetermined storage unit;
When it is determined that the subject area cannot be detected by the detection determination step, a correction step for correcting the sequentially acquired image data; and
A first similarity calculation step for calculating a first similarity between the region of the image whose data has been corrected in the correction step and the discriminator;
A second similarity calculation step of calculating a similarity between the area of the image in which the data in the correction step is not corrected and the classifier;
A similarity comparison step for comparing the first similarity calculated in the first similarity calculation step with the second similarity calculated in the second similarity calculation step;
A release determination step for determining whether or not to cancel the correction process by the correction step based on the comparison result in the similarity comparison step;
An imaging control method comprising:
コンピュータを、
画像を順次取得する画像取得手段、
所定の記憶手段により記憶された複数種の識別器に基づいて、前記画像取得手段により順次取得される画像の被写体領域を検出できるか否かを判定する検出判定手段、
前記検出判定手段により被写体領域が検出できないと判定されると、前記順次取得される画像のデータを補正処理する補正手段、
前記補正手段によりデータが補正処理された画像の領域と前記識別器との第1の類似度を算出する第1の類似度算出手段、
前記補正手段によりデータが補正処理されていない画像の領域と前記識別器との類似度を算出する第2の類似度算出手段、
前記第1の類似度算出手段により算出された第1の類似度と、前記第2の類似度算出手段により算出された第2の類似度とを比較する類似度比較手段、
前記類似度比較手段による比較結果に基づいて、前記補正手段による補正処理を解除するか否かを判定する解除判定手段、
として機能させることを特徴とするプログラム。
Computer
Image acquisition means for sequentially acquiring images;
Detection determination means for determining whether or not a subject region of images sequentially acquired by the image acquisition means can be detected based on a plurality of types of classifiers stored by a predetermined storage means;
A correction unit that corrects the sequentially acquired image data when it is determined by the detection determination unit that a subject area cannot be detected;
First similarity calculating means for calculating a first similarity between the area of the image whose data has been corrected by the correcting means and the discriminator;
Second similarity calculating means for calculating the similarity between the area of the image whose data is not corrected by the correcting means and the discriminator;
Similarity comparing means for comparing the first similarity calculated by the first similarity calculating means with the second similarity calculated by the second similarity calculating means;
Cancellation determination means for determining whether to cancel the correction processing by the correction means based on the comparison result by the similarity comparison means;
A program characterized by functioning as
JP2012064525A 2012-03-21 2012-03-21 Imaging apparatus, imaging control method, and program Expired - Fee Related JP6003133B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012064525A JP6003133B2 (en) 2012-03-21 2012-03-21 Imaging apparatus, imaging control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012064525A JP6003133B2 (en) 2012-03-21 2012-03-21 Imaging apparatus, imaging control method, and program

Publications (3)

Publication Number Publication Date
JP2013198013A true JP2013198013A (en) 2013-09-30
JP2013198013A5 JP2013198013A5 (en) 2015-05-07
JP6003133B2 JP6003133B2 (en) 2016-10-05

Family

ID=49396402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012064525A Expired - Fee Related JP6003133B2 (en) 2012-03-21 2012-03-21 Imaging apparatus, imaging control method, and program

Country Status (1)

Country Link
JP (1) JP6003133B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017210948A1 (en) * 2016-06-07 2017-12-14 武汉华星光电技术有限公司 Drive method of liquid crystal display and liquid crystal display

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107277356B (en) * 2017-07-10 2020-02-14 Oppo广东移动通信有限公司 Method and device for processing human face area of backlight scene

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006319714A (en) * 2005-05-13 2006-11-24 Konica Minolta Photo Imaging Inc Method, apparatus, and program for processing image
JP2007148872A (en) * 2005-11-29 2007-06-14 Mitsubishi Electric Corp Image authentication apparatus
JP2011009810A (en) * 2009-06-23 2011-01-13 Renesas Electronics Corp Backlight correction control method and semiconductor integrated circuit
JP2011013925A (en) * 2009-07-02 2011-01-20 Secom Co Ltd Object detection device
JP2012034024A (en) * 2010-07-28 2012-02-16 Canon Inc Image processor, image processing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006319714A (en) * 2005-05-13 2006-11-24 Konica Minolta Photo Imaging Inc Method, apparatus, and program for processing image
JP2007148872A (en) * 2005-11-29 2007-06-14 Mitsubishi Electric Corp Image authentication apparatus
JP2011009810A (en) * 2009-06-23 2011-01-13 Renesas Electronics Corp Backlight correction control method and semiconductor integrated circuit
JP2011013925A (en) * 2009-07-02 2011-01-20 Secom Co Ltd Object detection device
JP2012034024A (en) * 2010-07-28 2012-02-16 Canon Inc Image processor, image processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017210948A1 (en) * 2016-06-07 2017-12-14 武汉华星光电技术有限公司 Drive method of liquid crystal display and liquid crystal display

Also Published As

Publication number Publication date
JP6003133B2 (en) 2016-10-05

Similar Documents

Publication Publication Date Title
JP5136669B2 (en) Image processing apparatus, image processing method, and program
KR101600704B1 (en) Image processing apparatus, image processing method and computer readable recording medium having program thereof
JP5804138B1 (en) Detection apparatus, detection method, and program
US10382671B2 (en) Image processing apparatus, image processing method, and recording medium
US9253406B2 (en) Image capture apparatus that can display review image, image capture method, and storage medium
US10271029B2 (en) Image pickup apparatus and method of controlling an image pickup apparatus
US8941763B2 (en) Image capture device, method for generating composite image, and storage medium
JP2009111716A (en) Imaging apparatus, program and template generating method
JP2015119323A (en) Imaging apparatus, image acquiring method and program
WO2016117035A1 (en) Image processing device, image processing method, and program
JP5370555B2 (en) Imaging apparatus, imaging method, and program
US10129449B2 (en) Flash band, determination device for detecting flash band, method of controlling the same, storage medium, and image pickup apparatus
WO2012093663A1 (en) Image processing device, image capturing device, and image processing program
JP6003133B2 (en) Imaging apparatus, imaging control method, and program
JP2008301355A (en) Imaging apparatus and program therefor
US20200177814A1 (en) Image capturing apparatus and method of controlling image capturing apparatus
JP2014021901A (en) Object detection device, object detection method and program
JP2017011451A (en) Detection device, detection method and program
JP6172973B2 (en) Image processing device
JP2016187093A (en) Image processing apparatus, image processing method and program
JP2016092513A (en) Image acquisition device, shake reduction method and program
JP2009182880A (en) Imaging apparatus and its program
JP2014225763A (en) Imaging apparatus, control method of the same, program, and storage medium
US10594912B2 (en) Flash band determination device for detecting flash band, method of controlling the same, storage medium, and image pickup apparatus
JP2013192184A (en) Subject tracking display controller, subject tracking display control method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150317

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160822

R150 Certificate of patent or registration of utility model

Ref document number: 6003133

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees