JP2010041255A - Imaging device, imaging method, and program - Google Patents
Imaging device, imaging method, and program Download PDFInfo
- Publication number
- JP2010041255A JP2010041255A JP2008200227A JP2008200227A JP2010041255A JP 2010041255 A JP2010041255 A JP 2010041255A JP 2008200227 A JP2008200227 A JP 2008200227A JP 2008200227 A JP2008200227 A JP 2008200227A JP 2010041255 A JP2010041255 A JP 2010041255A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- image
- unit
- state
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Details Of Cameras Including Film Mechanisms (AREA)
- Studio Devices (AREA)
Abstract
Description
この発明は、撮像装置、撮像方法およびプログラムに関する。詳しくは、この発明は、撮像画像に含まれる特定物体画像が検出されたとき撮像部における撮像パラメータが設定され、この状態で特定物体画像が特定状態となるとき撮影が行われるものにあって、被写体の状態変化が検出されるとき、撮像部における撮像パラメータの再設定を行うことにより、失敗撮影を防止するようにした撮像装置等に係るものである。 The present invention relates to an imaging apparatus, an imaging method, and a program. Specifically, the present invention is such that imaging parameters in the imaging unit are set when a specific object image included in the captured image is detected, and shooting is performed when the specific object image is in a specific state in this state, The present invention relates to an imaging device or the like that prevents failed shooting by resetting imaging parameters in the imaging unit when a change in the state of a subject is detected.
近年、デジタルスチルカメラ等の静止画の撮影を行う撮像装置が普及しており、その機能に関して使用者の要望は多様化している。例えば、被写体を撮像して得られた撮像画像のうち、顔画像の検出エリアに検波枠を配置し、オートフォーカス(AF)、オートアイリス(AE)等の処理を適切に実行する方式が知られている。例えば、特許文献1等には、笑顔検出モードにおいて、被写体を撮像して得られた撮像画像内に笑顔の顔画像があるとき自動的に撮影を行う撮像装置が記載されている。
特許文献1等に記載された撮像装置では、一度笑顔検出モードに入ると、オートフォーカス等の追従を行わない。そのため、笑顔検出モードにおいて、被写体中の人物が前後に移動した場合には、その人物に対するピントが合わなくなり、その人物がぼけた状態で撮影されるおそれがある。また、笑顔検出モードにおいて、被写体中に人物が出入りした場合には、被写体中の新たな人物に対するピントが合わなくなり、その人物がぼけた状態で撮影されるおそれがある。 In the imaging device described in Patent Document 1 and the like, once entering the smile detection mode, tracking such as autofocus is not performed. Therefore, in the smile detection mode, when a person in the subject moves back and forth, the person may not be in focus and the person may be photographed in a blurred state. In addition, in the smile detection mode, when a person enters or exits the subject, the new person in the subject cannot be focused and there is a possibility that the person will be photographed in a blurred state.
この発明の目的は、撮像画像に含まれる特定物体画像が特定状態となるとき自動的に撮影が行われるものにあって、被写体の状態変化があっても常に良好な状態で自動撮影が行われるようにすることにある。 An object of the present invention is to automatically perform shooting when a specific object image included in a captured image is in a specific state, and automatic shooting is always performed in a good state even when the state of the subject changes. There is in doing so.
この発明の概念は、
被写体を撮像して該被写体の撮像画像に対応した画像情報を得る撮像部と、
上記撮像部で得られた画像情報に基づいて、上記撮像画像に含まれる特定物体画像を検出する物体検出部と、
上記物体検出部で上記撮像画像に含まれる上記特定物体画像が検出されたとき、該特定物体画像に対応した画像情報に基づいて、上記撮像部における撮像パラメータを設定する撮像パラメータ設定部と、
上記物体検出部で検出された上記特定物体画像に対応した画像情報に基づいて、上記特定物体画像の特定状態を検出する特定状態検出部と、
上記撮像パラメータ設定部で上記撮像部における撮像パラメータが設定された状態で、上記特定状態検出部で上記特定状態が検出されたとき、撮影指示を行う撮影制御部と、
上記撮像部で撮像される被写体の状態変化を検出する状態変化検出部を備え、
上記撮像パラメータ設定部により上記撮像部における撮像パラメータが設定された状態で、上記状態変化検出部で上記被写体の状態変化が検出されたとき、上記撮像パラメータ設定部は、上記物体検出部で上記撮像画像に含まれる上記特定物体画像が検出された後、該特定物体画像に対応した画像情報に基づいて、上記撮像部における撮像パラメータを再設定する
撮像装置にある。
The concept of this invention is
An imaging unit that images a subject and obtains image information corresponding to the captured image of the subject;
An object detection unit that detects a specific object image included in the captured image based on image information obtained by the imaging unit;
An imaging parameter setting unit for setting imaging parameters in the imaging unit based on image information corresponding to the specific object image when the specific object image included in the captured image is detected by the object detection unit;
A specific state detection unit for detecting a specific state of the specific object image based on image information corresponding to the specific object image detected by the object detection unit;
A shooting control unit that gives a shooting instruction when the specific state is detected by the specific state detection unit in a state where the imaging parameters in the imaging unit are set by the imaging parameter setting unit;
A state change detection unit for detecting a state change of a subject imaged by the imaging unit;
When the imaging parameter setting unit sets the imaging parameters in the imaging unit, and the state change detection unit detects a change in the state of the subject, the imaging parameter setting unit performs the imaging in the object detection unit. After the specific object image included in the image is detected, the image pickup apparatus resets the imaging parameters in the imaging unit based on image information corresponding to the specific object image.
この発明においては、撮像画像に含まれる特定物体画像が検出されたとき、この特定物体画像に対応した画像情報に基づいて、撮像部における撮像パラメータが設定される。例えば、特定物体画像は人物の顔画像である。また、例えば、撮像部における撮像パラメータは、少なくとも、フォーカス調整または露出調整のためのパラメータである。 In the present invention, when a specific object image included in the captured image is detected, an imaging parameter in the imaging unit is set based on image information corresponding to the specific object image. For example, the specific object image is a human face image. For example, the imaging parameter in the imaging unit is at least a parameter for focus adjustment or exposure adjustment.
この場合、例えば、特定物体画像が移動しているときは、その移動が停止した後に、その特定物体画像に対応した画像情報に基づいて撮像部における撮像パラメータが設定される。これにより、例えば最終的な特定物体画像位置にピントが合わない状態で撮像部における撮像パラメータが設定されるということがなくなる。 In this case, for example, when the specific object image is moving, after the movement is stopped, the imaging parameter in the imaging unit is set based on the image information corresponding to the specific object image. Thereby, for example, the imaging parameter in the imaging unit is not set in a state where the final specific object image position is out of focus.
上述したように撮像部における撮像パラメータが設定された状態で、特定物体画像の特定状態が検出されたとき、撮影指示が行われる。例えば、人物の顔画像に笑顔等の特定の表情が検出されたとき、自動的に撮影が行われる。 As described above, when the specific state of the specific object image is detected in a state where the imaging parameters are set in the imaging unit, an imaging instruction is performed. For example, when a specific facial expression such as a smile is detected in the face image of a person, shooting is automatically performed.
被写体の状態変化が検出されたとき、撮像部における撮像パラメータの再設定が行われる。例えば、被写体の状態変化は、注目特定物体画像のサイズ変化、消失、または変更に基づいて検出される。また、例えば、被写体の状態変化は、明るさ変化に基づいて検出される。また、例えば、被写体の状態変化は、ユーザによるズーム操作、露出調整に基づいて検出される。 When a change in the state of the subject is detected, the imaging parameters are reset in the imaging unit. For example, the state change of the subject is detected based on the size change, disappearance, or change of the target specific object image. Further, for example, a change in the state of the subject is detected based on a change in brightness. Further, for example, a change in the state of the subject is detected based on a zoom operation and exposure adjustment by the user.
このように、この発明においては、撮像画像に含まれる特定物体画像が検出されたとき撮像部における撮像パラメータが設定され、この状態で特定物体画像が特定状態となるとき撮影が行われるものにあって、被写体の状態変化が検出されるとき、撮像部における撮像パラメータの再設定が行われる。そのため、被写体の状態変化があるとき、例えば注目特定物体画像にピントが合わない状態で自動撮影が行われる等ということがなく、常に良好な状態で自動撮影が行われるようになる。 As described above, according to the present invention, when a specific object image included in a captured image is detected, an imaging parameter is set in the imaging unit, and in this state, shooting is performed when the specific object image is in a specific state. Thus, when a change in the state of the subject is detected, the imaging parameters are reset in the imaging unit. Therefore, when there is a change in the state of the subject, for example, automatic shooting is not performed in a state where the focused specific object image is not in focus, and automatic shooting is always performed in a good state.
この発明において、例えば、ユーザがシャッター操作を行うためのユーザ操作部をさらに備え、撮影制御部は、ユーザ操作部で行われるシャッター操作に基づいて撮影指示を行う、ようにされてもよい。この場合、例えば、撮像パラメータ設定部で撮像部における撮像パラメータが設定されていない状態でシャッター操作が行われたときには、撮像部で得られた画像情報に基づいて当該撮像部における撮像パラメータが設定された後に、撮影指示が行われる。また、この場合、例えば、撮像パラメータ設定部で撮像部における撮像パラメータが設定されている状態でシャッター操作が行われたときには、撮影指示が直ちに行われる。 In the present invention, for example, a user operation unit for a user to perform a shutter operation may be further provided, and the imaging control unit may perform an imaging instruction based on a shutter operation performed by the user operation unit. In this case, for example, when the shutter operation is performed in a state where the imaging parameter setting unit has not set the imaging parameter in the imaging unit, the imaging parameter in the imaging unit is set based on the image information obtained by the imaging unit. After that, a shooting instruction is given. In this case, for example, when the shutter operation is performed in a state where the imaging parameter setting unit sets the imaging parameter in the imaging unit, the imaging instruction is immediately given.
このようにユーザ操作部で行われるシャッター操作に基づいて撮影指示が行われるようにすることで、例えば、撮像画像に笑顔の画像が検出されたとき自動撮影が行われる笑顔シャッターモードにあっても、ユーザのシャッター操作により撮影を行うことが可能となる。 In this way, by giving a shooting instruction based on a shutter operation performed by the user operation unit, for example, even in a smile shutter mode in which automatic shooting is performed when a smiling image is detected in a captured image. It becomes possible to take a picture by the user's shutter operation.
また、この発明において、例えば、撮像パラメータ設定部が撮像部の撮像パラメータの再設定を行う際、その旨を、少なくとも、被写体側または撮影者側に報知する報知部をさらに備える、ようにされてもよい。 In the present invention, for example, when the imaging parameter setting unit resets the imaging parameters of the imaging unit, it further includes a notification unit that notifies the subject side or the photographer side of that fact. Also good.
この場合、被写体側または撮影者側では、撮像パラメータの再設定が行われる場合には、報知部による報知により、その旨を認識できる。そのため、例えば、撮像画像に笑顔の画像が検出されたとき自動撮影が行われる笑顔シャッターモードにあって、撮像パラメータの再設定が行われるとき、被写体側では、当該通知により、その旨を認識でき、笑顔のままずっと待っているということを回避できる。 In this case, when the imaging parameter is reset on the subject side or the photographer side, it can be recognized by notification by the notification unit. Therefore, for example, in the smile shutter mode in which automatic shooting is performed when a smiling image is detected in the captured image, and when the imaging parameter is reset, the subject can recognize that by the notification. You can avoid waiting with a smile.
この発明によれば、撮像画像に含まれる特定物体画像が検出されたとき撮像部における撮像パラメータが設定され、この状態で特定物体画像が特定状態となるとき撮影が行われるものにあって、被写体の状態変化が検出されるとき、撮像部における撮像パラメータの再設定を行うものであり、常に良好な状態で自動撮影が行われる。 According to the present invention, when a specific object image included in a captured image is detected, an imaging parameter is set in the imaging unit, and shooting is performed when the specific object image is in a specific state in this state. When the state change is detected, the imaging parameter is reset in the imaging unit, and automatic imaging is always performed in a good state.
以下、図面を参照しながら、この発明の実施の形態について説明する。まず、実施の形態としての撮像装置10の構成について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, the configuration of the imaging device 10 as an embodiment will be described.
図1は、撮像装置10の外観構成例を示している。図1(a)は、撮像装置10の上面図、図1(b)は撮像装置10の正面図、図1(c)は撮像装置10の背面図である。撮像装置10は、電源スイッチ11と、画像取り込みタイミングを設定するトリガ手段、すなわちシャッターボタンとして機能するレリーズスイッチ12と、撮像画像(スルー画像)や操作情報などを表示するモニタ13を有している。 FIG. 1 shows an external configuration example of the imaging apparatus 10. 1A is a top view of the imaging device 10, FIG. 1B is a front view of the imaging device 10, and FIG. 1C is a rear view of the imaging device 10. FIG. The imaging apparatus 10 includes a power switch 11, a trigger unit that sets image capture timing, that is, a release switch 12 that functions as a shutter button, and a monitor 13 that displays a captured image (through image) and operation information. .
また、撮像装置10は、撮像素子としてのイメージャ14と、ズーム制御を行うためのズームボタン15と、マニュアルフォーカス処理など各種の操作情報を入力する操作ボタン16と、被写体の撮像画像(スルー画)を確認するためのビューファインダ17を有している。また、撮像装置10は、露出調整において駆動されるアイリス21と、フォーカス調整において駆動されるフォーカスレンズ18と、ズーム調整において駆動されるズームレンズ19と、撮影モードを設定するためのモードダイアル20と、笑顔シャッターモードにおいて、被写体側に撮像パラメータの再設定を報知するためのLED(Light Emitting Diode)22を有している。 The imaging apparatus 10 also includes an imager 14 as an imaging device, a zoom button 15 for performing zoom control, an operation button 16 for inputting various operation information such as manual focus processing, and a captured image (through image) of a subject. Has a viewfinder 17 for confirming. The imaging device 10 also includes an iris 21 that is driven in exposure adjustment, a focus lens 18 that is driven in focus adjustment, a zoom lens 19 that is driven in zoom adjustment, and a mode dial 20 for setting a shooting mode. In the smile shutter mode, the subject side has an LED (Light Emitting Diode) 22 for notifying the resetting of the imaging parameters.
被写体の撮像画像は、表示部であるビューファインダ17およびモニタ13に表示される。ビューファインダ17およびモニタ13は、例えばLCD(Liquid Crystal Display)により構成され、被写体の撮像画像が動画像として表示される。この動画像はスルー画と呼ばれる。ユーザは、ビューファインダ17またはモニタ13を確認して、撮影する目標被写体を確認して、シャッターとして機能するレリーズスイッチ12を押すことで、撮影処理、つまり撮影画像に対応した画像信号の記録処理を実行できる。 The captured image of the subject is displayed on the viewfinder 17 and the monitor 13 which are display units. The viewfinder 17 and the monitor 13 are configured by, for example, an LCD (Liquid Crystal Display), and a captured image of the subject is displayed as a moving image. This moving image is called a through image. The user checks the viewfinder 17 or the monitor 13, confirms the target subject to be photographed, and presses the release switch 12 that functions as a shutter, thereby performing photographing processing, that is, recording processing of an image signal corresponding to the photographed image. Can be executed.
図2は、撮像装置10の内部構成例を示している。ズームレンズ19、フォーカスレンズ18およびアイリス21を介する入射光は、イメージャ14に入力し、このイメージャ14において光電変換される。光電変換データは、アナログ信号処理部104に入力され、このアナログ信号処理部104においてノイズ除去等の処理がなされ、A/D変換部105においてデジタル信号に変換される。 FIG. 2 shows an internal configuration example of the imaging apparatus 10. Incident light that passes through the zoom lens 19, the focus lens 18, and the iris 21 is input to the imager 14, and is photoelectrically converted in the imager 14. The photoelectric conversion data is input to the analog signal processing unit 104, processing such as noise removal is performed in the analog signal processing unit 104, and converted into a digital signal in the A / D conversion unit 105.
A/D変換部105においてデジタル変換されたデータは、例えばフラッシュメモリなどによって構成される記録デバイス115に記録される。さらに、モニタ13、ビューファインダ(EVF)17には、A/D変換部105においてデジタル変換されたデータによる撮像が表示される。モニタ13、ビューファインダ17には、撮影の有無に関わらず、イメージャ14で撮像された撮像画像がスルー画として表示される。 The data digitally converted by the A / D conversion unit 105 is recorded in a recording device 115 configured by, for example, a flash memory. Further, on the monitor 13 and the viewfinder (EVF) 17, the image pickup by the data digitally converted by the A / D conversion unit 105 is displayed. On the monitor 13 and the viewfinder 17, a captured image captured by the imager 14 is displayed as a through image regardless of whether or not shooting is performed.
操作部118は、上述のレリーズスイッチ12、ズームボタン15、マニュアルフォーカス処理操作情報などの各種の操作情報を入力する操作ボタン16、撮影モードを設定するためのモードダイアル20等を含む。制御部110は、CPU(Central Processing Unit)を有し、撮像装置10の各種の処理の制御を、予めメモリ(ROM)120などに格納されたプログラムに従って実行する。 The operation unit 118 includes the release switch 12, the zoom button 15, the operation button 16 for inputting various types of operation information such as manual focus processing operation information, the mode dial 20 for setting the shooting mode, and the like. The control unit 110 includes a CPU (Central Processing Unit), and executes control of various processes of the imaging apparatus 10 according to a program stored in advance in a memory (ROM) 120 or the like.
メモリ(EEPROM)119は不揮発性メモリであり、画像データ、各種の補助情報、プログラムなどが格納される。メモリ(ROM)120は、制御部(CPU)110が使用するプログラムや演算パラメータ等を格納する。メモリ(RAM)121は、制御部(CPU)110において使用するプログラムや、その実行において適宜変化するパラメータ等を格納する。ジャイロ111は、撮像装置の傾き、揺れなどを検出する。ジャイロ111の検出情報は、制御部(CPU)110に入力され、手ぶれ防止などの処理が実行される。 A memory (EEPROM) 119 is a non-volatile memory, and stores image data, various auxiliary information, programs, and the like. The memory (ROM) 120 stores programs, calculation parameters, and the like used by the control unit (CPU) 110. The memory (RAM) 121 stores programs used in the control unit (CPU) 110, parameters that change as appropriate during the execution, and the like. The gyro 111 detects the tilt and shake of the imaging device. Detection information of the gyro 111 is input to the control unit (CPU) 110, and processing such as camera shake prevention is executed.
モータドライバ112は、ズームレンズ19に対応して設定されたズームレンズ駆動モータ113を駆動し、フォーカスレンズ18に対応して設定されたフォーカスレンズ駆動モータ114を駆動する。アイリスドライバ116は、アイリス21を駆動する。 The motor driver 112 drives a zoom lens driving motor 113 set corresponding to the zoom lens 19 and drives a focus lens driving motor 114 set corresponding to the focus lens 18. The iris driver 116 drives the iris 21.
顔検出部130は、デジタル信号処理部108から被写体の撮像画像に対応した画像情報(画像データ)を取得し、この画像情報の解析を行って、撮像画像に含まれる人物の顔画像の検出、その笑顔スコアの測定等の処理を行う。顔検出部130で得られた各種情報は、制御部110に送られる。
The face detection unit 130 acquires image information (image data) corresponding to the captured image of the subject from the digital signal processing unit 108, analyzes the image information, detects a human face image included in the captured image, Processing such as measuring the smile score is performed. Various information obtained by the face detection unit 130 is sent to the control unit 110.
「撮影モード」
撮像装置10における撮影モードについて説明する。撮像装置10は、撮影モードとして、通常撮影モードおよび笑顔検出モードを有する。通常撮影モードは、ユーザのシャッター操作に基づいて撮影を行う撮影モードである。また、笑顔シャッターモードは、撮像画像に笑顔の顔画像が検出されたとき自動的に撮影を行う撮影モードである。
"Shooting mode"
A shooting mode in the imaging apparatus 10 will be described. The imaging device 10 has a normal shooting mode and a smile detection mode as shooting modes. The normal shooting mode is a shooting mode in which shooting is performed based on a user's shutter operation. The smile shutter mode is a shooting mode in which shooting is automatically performed when a smiling face image is detected in the captured image.
図3は、通常撮影モードにおける状態遷移図を示している。この通常撮影モードにおいて、制御部110は、モニタリング、ロックおよび撮影の3状態を有する。モニタリング状態では、ユーザがシャッターボタンとして機能するレリーズスイッチ12を操作して半押し状態とすると、制御部110は、撮像画像に設定された所定の測定枠に対応した画像情報を解析して、フォーカス調整および露出調整を行って、ロック状態となる。 FIG. 3 shows a state transition diagram in the normal photographing mode. In this normal shooting mode, the control unit 110 has three states: monitoring, locking, and shooting. In the monitoring state, when the user operates the release switch 12 functioning as a shutter button to make it half-pressed, the control unit 110 analyzes image information corresponding to a predetermined measurement frame set in the captured image, and focuses Adjustment and exposure adjustment are performed, and the locked state is obtained.
このロック状態では、ユーザがレリーズスイッチ12の半押し状態を解除すると、制御部110は、モニタリング状態に戻る。一方、このロック状態では、ユーザがレリーズスイッチ12を操作して深押し状態とすると、制御部110は、撮影状態となって、デジタル信号処理部108等に撮影指示を行って、記録デバイス115に撮影画像に対応した画像信号を記録する。撮影後、制御部110は、モニタリング状態に戻る。 In this locked state, when the user releases the half-pressed state of the release switch 12, the control unit 110 returns to the monitoring state. On the other hand, in this locked state, when the user operates the release switch 12 to bring it into the deep-pressed state, the control unit 110 enters a shooting state, issues a shooting instruction to the digital signal processing unit 108 and the like, and An image signal corresponding to the photographed image is recorded. After shooting, the control unit 110 returns to the monitoring state.
図4は、笑顔シャッターモードにおける状態遷移図を示している。この笑顔シャッターモードにおいて、制御部110は、モニタリング、笑顔待ちおよび撮影の3状態を有する。モニタリング状態では、顔検出部130で撮像画像に顔画像が検出されると、制御部110は、顔画像の検出枠に対応した画像情報を解析して、フォーカス調整および露出調整を行って、笑顔待ち状態となる。 FIG. 4 shows a state transition diagram in the smile shutter mode. In the smile shutter mode, the control unit 110 has three states: monitoring, waiting for a smile, and shooting. In the monitoring state, when a face image is detected in the captured image by the face detection unit 130, the control unit 110 analyzes the image information corresponding to the detection frame of the face image, performs focus adjustment and exposure adjustment, and smiles. It will be in a waiting state.
なお、撮像画像に顔画像が検出されたとしても、制御部110は、この顔画像が移動している場合、直ぐにはフォーカス調整(AF)および露出調整(AE)を行わない。制御部110は、当該顔画像の移動が停止してその位置が安定したか否かを判断し、安定したと判断した後に、フォーカス調整(AF)および露出調整(AE)を行って、笑顔待ち状態となる。 Even if a face image is detected in the captured image, the control unit 110 does not immediately perform focus adjustment (AF) and exposure adjustment (AE) when the face image is moving. The control unit 110 determines whether or not the movement of the face image is stopped and the position is stable. After determining that the position is stable, the control unit 110 performs focus adjustment (AF) and exposure adjustment (AE), and waits for a smile. It becomes a state.
すなわち、図5(a)に示すように、撮像画像内の人物がA1位置→A2位置→A3位置と移動してA3位置で移動が停止してその位置が安定する場合、A1位置にある人物の顔画像の検出枠DFに対応した画像情報を解析してフォーカス調整等を行うと、A3位置に移動した人物に対してピントが外れる。そのため、図5(b)に示すように、人物がA3位置に移動して静止した後に、A3位置にある人物の顔画像の検出枠DFに対応した画像情報を解析してフォーカス調整等を行う。 That is, as shown in FIG. 5A, when the person in the captured image moves from the A1 position → A2 position → A3 position and stops moving at the A3 position and the position is stabilized, the person at the A1 position When the image information corresponding to the detection frame DF of the face image is analyzed and focus adjustment or the like is performed, the person who has moved to the A3 position is out of focus. For this reason, as shown in FIG. 5B, after the person moves to the A3 position and stops, the image information corresponding to the detection frame DF of the face image of the person at the A3 position is analyzed to perform focus adjustment or the like. .
ここで、顔画像が移動しているか否かの判断は、顔重心速度Vを用いて判断する。顔重心速度Vは、顔画像の検出周期で取得できる。この顔重心速度Vは、(1)式で算出される。|Vx|は、検出周期における、顔画像の検出枠DFの重心位置の水平方向の移動ピクセル数を示している。|Vy|は、検出周期における、顔画像の検出枠DFの重心位置の垂直方向の移動ピクセル数を示している。
V=|Vx|+|Vy| ・・・(1)
Here, whether or not the face image is moving is determined using the face gravity center speed V. The face center-of-gravity speed V can be acquired at the detection period of the face image. This face center-of-gravity velocity V is calculated by equation (1). | Vx | indicates the number of horizontally moving pixels of the barycentric position of the detection frame DF of the face image in the detection cycle. | Vy | indicates the number of moving pixels in the vertical direction of the barycentric position of the detection frame DF of the face image in the detection cycle.
V = | Vx | + | Vy | (1)
制御部110は、以下の(2)式の安定条件を満たすとき、顔画像は移動しておらず、その位置が安定していると判断する。例えば、撮像画像が30fpsで得られ、顔画像が1フレーム毎に検出される場合iは6程度に設定される。また、この(2)式における閾値THは、0または0近傍の値とされる。
Σ(Vi)≦TH(i=0→k) ・・・(2)
The control unit 110 determines that the face image is not moved and the position is stable when the stability condition of the following expression (2) is satisfied. For example, when a captured image is obtained at 30 fps and a face image is detected for each frame, i is set to about 6. The threshold value TH in the equation (2) is 0 or a value near 0.
Σ (Vi) ≦ TH (i = 0 → k) (2)
なお、撮像画像から1個の顔画像が検出される場合、制御部110は、その1個の顔画像を注目顔画像とする。また、撮像画像から複数の顔画像が検出される場合、制御部110は、複数の顔画像の顔重要度を求め、最も顔重要度の高い顔画像を注目顔画像とする。制御部110は、上述の顔画像位置の安定判断を、上述の注目顔画像について行う。 Note that when one face image is detected from the captured image, the control unit 110 sets the one face image as the attention face image. Further, when a plurality of face images are detected from the captured image, the control unit 110 obtains the face importance of the plurality of face images and sets the face image having the highest face importance as the attention face image. The control unit 110 performs the above-described face image position stability determination on the above-described attention face image.
制御部110は、その位置が安定していると判断された注目顔画像の検出枠に対応した画像情報を解析し、フォーカス調整および露出調整を行って、撮像部におけるフォーカスおよび露出に係る撮像パラメータを設定し、その後に、笑顔待ち状態となる。この笑顔待ち状態では、制御部110は、被写体の状態変化を検出するとき、モニタリング状態に戻る。 The control unit 110 analyzes image information corresponding to the detection frame of the target face image whose position is determined to be stable, performs focus adjustment and exposure adjustment, and performs imaging parameters related to focus and exposure in the imaging unit. After that, the camera enters a smile waiting state. In the smile waiting state, the control unit 110 returns to the monitoring state when detecting a change in the state of the subject.
制御部110は、注目顔画像のサイズが閾値Th1以上に変化したとき、被写体の状態が変化したものとする。撮像画像から検出される顔画像のサイズは、後述するが、段階的に設定された複数サイズのいずれかとなる。制御部110は、注目顔画像のサイズが、例えば2段階以上変化したときは、被写体の状態が変化したものと判断する。 The control unit 110 assumes that the state of the subject has changed when the size of the face image of interest has changed to a threshold value Th1 or more. As will be described later, the size of the face image detected from the captured image is one of a plurality of sizes set in stages. The control unit 110 determines that the state of the subject has changed when the size of the face image of interest has changed, for example, by two or more levels.
例えば、図6(a)は、前回検出された注目顔画像を示しており、そのサイズの段階は2であるとする。これに対して、図6(b)は、今回検出された注目顔画像を示しており、そのサイズの段階は4であるとする。この場合、制御部110は、注目顔画像のサイズが閾値Th1である2段階以上に変化しているので、被写体の状態が変化したものと判断する。 For example, FIG. 6A shows the attention face image detected last time, and the size stage is 2. On the other hand, FIG. 6B shows the target face image detected this time, and the size stage is 4. In this case, the control unit 110 determines that the state of the subject has changed because the size of the face image of interest has changed in two or more stages that is the threshold value Th1.
また、制御部110は、注目顔画像が撮像画像から消失したとき、被写体の状態が変化したものとする。例えば、図7(a)は、前回の撮像画像を示しており、この撮像画像には注目顔画像としての顔画像が存在する。これに対して、図7(b)は、今回の撮像画像を示しており、前回検出されていた注目顔画像が消失している。この場合、制御部110は、今回の撮像画像から注目顔画像が消失しているので、被写体の状態が変化したものと判断する。 In addition, the control unit 110 assumes that the state of the subject has changed when the face image of interest has disappeared from the captured image. For example, FIG. 7A shows a previous captured image, and the captured image includes a face image as a focused face image. On the other hand, FIG. 7B shows the current captured image, and the attention face image detected last time has disappeared. In this case, the control unit 110 determines that the state of the subject has changed since the face image of interest has disappeared from the current captured image.
また、制御部110は、注目顔画像がある顔画像から他の顔画像に変更されたとき、被写体の状態が変化したものとする。例えば、図8(a)は、前回の撮像画像を示しており、この撮像画像には注目顔画像としての顔画像Iaがただ一つだけ存在する。これに対して、図8(b)は、今回の撮像画像を示しており、前回検出されていた顔画像Iaの他に、今回新たに顔画像Ibが検出され、この顔画像Ibが注目顔画像となっている。この場合、制御部110は、今回の撮像画像における注目顔画像が前回とは別の顔画像となっているので、被写体の状態が変化したものと判断する。 Further, it is assumed that the control unit 110 changes the state of the subject when the face image of interest is changed from one face image to another face image. For example, FIG. 8A shows the previous captured image, and there is only one face image Ia as the face image of interest in this captured image. On the other hand, FIG. 8B shows the current captured image. In addition to the previously detected face image Ia, a new face image Ib is detected this time, and this face image Ib is the face of interest. It is an image. In this case, the control unit 110 determines that the state of the subject has changed because the target face image in the current captured image is a face image different from the previous one.
また、制御部110は、撮像画像の明るさが変化したとき、被写体の状態が変化したものとする。制御部110は、例えば、前回と今回の注目顔画像の検出枠内の平均輝度レベルの差分が閾値Th2以上となるとき、被写体の状態が変化したものと判断する。例えば、図9(a)は、前回の撮像画像を示しており、この撮像画像は明るく、この撮像画像に含まれる顔画像の検出枠内の平均輝度レベルはLVaとなっている。これに対して、図9(b)は、今回の撮像画像を示しており、この撮像画像は暗く、この撮像画像に含まれる顔画像の検出枠内の平均輝度レベルはLVb(LVa−LVb≧Th2)となっている。この場合、前回と今回の注目顔画像の検出枠内の平均輝度レベルの差分が閾値Th2以上となるので、制御部110は、被写体の状態が変化したものと判断する。 Further, it is assumed that the control unit 110 changes the state of the subject when the brightness of the captured image changes. For example, the control unit 110 determines that the state of the subject has changed when the difference between the average luminance levels in the detection frame of the previous and current attention face images is equal to or greater than the threshold Th2. For example, FIG. 9A shows the previous captured image. This captured image is bright, and the average luminance level in the detection frame of the face image included in this captured image is LVa. On the other hand, FIG. 9B shows the current captured image, this captured image is dark, and the average luminance level within the detection frame of the face image included in this captured image is LVb (LVa−LVb ≧ Th2). In this case, since the difference between the average luminance levels in the detection frame of the previous and current attention face images is equal to or greater than the threshold Th2, the control unit 110 determines that the state of the subject has changed.
また、図4に戻って、上述の笑顔待ち状態では、顔画像として笑顔の顔画像が検出されるとき(笑顔発見時)、制御部110は、撮影状態となって、デジタル信号処理部108等に撮影指示を行って、記録デバイス115に撮影画像に対応した画像信号を記録する。撮影後、制御部110は、笑顔待ち状態に戻る。 Returning to FIG. 4, when a smiling face image is detected as a face image in the smile waiting state described above (when a smiling face is detected), the control unit 110 enters a shooting state, and the digital signal processing unit 108 and the like. Then, a shooting instruction is issued, and an image signal corresponding to the shot image is recorded in the recording device 115. After shooting, the control unit 110 returns to the smile wait state.
また、制御部110は、ユーザによるズーム操作あるいは露出調整に基づいて、被写体の状態変化を検出する。すなわち、制御部110は、ユーザが操作部118からズーム操作あるいは露出調整を行った場合、被写体の状態が変化したものと判断する。
Further, the control unit 110 detects a change in the state of the subject based on a zoom operation or exposure adjustment by the user. That is, the control unit 110 determines that the state of the subject has changed when the user performs a zoom operation or exposure adjustment from the operation unit 118.
「笑顔シャッターモードにおけるシャッター操作時の状態遷移」
撮像装置10においては、ユーザは、笑顔シャッターモードにあっても、シャッターボタンとして機能するレリーズスイッチ12を操作することで、撮影を行うことができる。撮像装置10において、笑顔シャッターモードにおけるシャッター操作時の状態遷移について説明する。
"State transition during shutter operation in smile shutter mode"
In the imaging device 10, even in the smile shutter mode, the user can take a picture by operating the release switch 12 that functions as a shutter button. The state transition at the time of the shutter operation in the smile shutter mode in the imaging device 10 will be described.
図10は、笑顔シャッターモードのモニタリング状態にある場合において、ユーザがシャッターボタンとして機能するレリーズスイッチ12を操作した場合の状態遷移を示している。この場合、制御部110は、矢印P1,P2に示すように、通常撮影モードのモニタリング状態に遷移し、その後に、ロック状態に遷移する。レリーズスイッチ12が深押し状態にあるときには、制御部110は、撮影状態となって、デジタル信号処理部108等に撮影指示を行って、記録デバイス115に撮影画像に対応した画像信号を記録する。撮影後、図10には図示していないが、制御部110は、笑顔シャッターモードのモニタリング状態に戻る。 FIG. 10 shows a state transition when the user operates the release switch 12 functioning as a shutter button in the monitoring state of the smile shutter mode. In this case, as indicated by arrows P1 and P2, the control unit 110 transitions to the monitoring state in the normal shooting mode, and then transitions to the lock state. When the release switch 12 is in the fully depressed state, the control unit 110 enters a shooting state, issues a shooting instruction to the digital signal processing unit 108 and the like, and records an image signal corresponding to the shot image on the recording device 115. After shooting, although not shown in FIG. 10, the control unit 110 returns to the monitoring state in the smile shutter mode.
また、図11は、笑顔シャッターモードの笑顔待ち状態にある場合において、ユーザがシャッターボタンとして機能するレリーズスイッチ12を操作した場合の状態遷移を示している。この場合、制御部110は、矢印P3,P4,P5に示すように、モニタリング状態を経て、通常撮影モードのモニタリング状態に遷移し、その後に、ロック状態に遷移する。そして、レリーズスイッチ12が深押し状態にあるときには、制御部110は、撮影状態となって、デジタル信号処理部108等に撮影指示を行って、記録デバイス115に撮影画像に対応した画像信号を記録する。撮影後、図11には図示していないが、制御部110は、笑顔シャッターモードのモニタリング状態に戻る。 FIG. 11 shows a state transition when the user operates the release switch 12 functioning as a shutter button in the smile waiting mode in the smile shutter mode. In this case, as indicated by arrows P3, P4, and P5, the control unit 110 transitions to the monitoring state in the normal photographing mode through the monitoring state, and then transitions to the lock state. When the release switch 12 is in the fully depressed state, the control unit 110 enters a shooting state, issues a shooting instruction to the digital signal processing unit 108 and the like, and records an image signal corresponding to the shot image on the recording device 115. To do. After shooting, although not shown in FIG. 11, the control unit 110 returns to the monitoring state of the smile shutter mode.
なお、笑顔シャッターモードの笑顔待ち状態にある場合、上述したように、既にフォーカス調整および露出調整が行われている。そのため、この場合、上述の矢印P3,P4,P5の遷移経路ではなく、矢印P6に示すように、直ちに、通常撮影モードのロック状態に遷移することも考えられる。この場合、レリーズスイッチ12が深押し状態にあるときには、制御部110は、直ちに撮影状態となって、デジタル信号処理部108等に撮影指示を行って、記録デバイス115に撮影画像に対応した画像信号を記録する。この場合、撮影後、図11には図示していないが、制御部110は、笑顔シャッターモードのモニタリング状態、あるいは笑顔待ち状態に戻る。 Note that when the camera is in the smile waiting state in the smile shutter mode, focus adjustment and exposure adjustment have already been performed as described above. Therefore, in this case, instead of the above-described transition paths of the arrows P3, P4, and P5, it is possible to immediately transition to the locked state of the normal photographing mode as indicated by the arrow P6. In this case, when the release switch 12 is in the deep-pressed state, the control unit 110 immediately enters the shooting state, issues a shooting instruction to the digital signal processing unit 108 and the like, and sends an image signal corresponding to the shot image to the recording device 115. Record. In this case, after shooting, although not shown in FIG. 11, the control unit 110 returns to the smile shutter mode monitoring state or the smile wait state.
図12のフローチャートは、笑顔シャッターモードのモニタリング状態にある場合における制御部110の処理動作を示している(図10の経路P1,P2参照)。制御部110は、例えば、フレーム周期で当該フローチャートに示す処理を実行する。 The flowchart in FIG. 12 shows the processing operation of the control unit 110 when the smile shutter mode is in the monitoring state (see paths P1 and P2 in FIG. 10). For example, the control unit 110 executes the processing shown in the flowchart in the frame cycle.
制御部110は、ステップST1で、処理を開始し、その後に、ステップST2の処理に移る。このステップST2において、制御部110は、シャッター操作(レリーズスイッチ12の操作)があるか否かを判断する。シャッター操作がないとき、制御部110は、ステップST3において、モニタリング状態を維持し、その後、ステップST4において、処理を終了する。 Control unit 110 starts processing in step ST1, and then proceeds to processing in step ST2. In step ST2, control unit 110 determines whether there is a shutter operation (operation of release switch 12). When there is no shutter operation, the control unit 110 maintains the monitoring state in step ST3, and then ends the process in step ST4.
ステップST2でシャッター操作があるとき、制御部110は、ステップST5において、深押し状態にあるか否かを判断する。深押し状態にあるとき、制御部110は、ステップST6において、通常撮影モードのロック状態にあるか否かを判断する。ステップST5で深押し状態にないとき、あるいはステップST6でロック状態にないとき、制御部110は、ステップST7において、通常撮影モードのモニタリング状態となり、その後、ステップST8において、通常撮影モードのロック状態となる。制御部110は、ステップST8の処理の後、ステップST4において、処理を終了する。 When there is a shutter operation in step ST2, control unit 110 determines in step ST5 whether or not it is in a deeply pressed state. When in the deeply pressed state, in step ST6, control unit 110 determines whether or not the normal photographing mode is locked. When it is not in the deeply pressed state in step ST5 or when it is not in the locked state in step ST6, the control unit 110 enters the normal photographing mode monitoring state in step ST7, and then, in step ST8, the normal photographing mode is locked. Become. After the process in step ST8, control unit 110 ends the process in step ST4.
また、ステップST6でロック状態にあるとき、制御部110は、ステップST9において、撮影状態となって、デジタル信号処理部108等に撮影指示を行って、記録デバイス115に撮影画像に対応した画像信号を記録する。そして、制御部110は、ステップST9の処理の後、ステップST3において、笑顔シャッターモードのモニタリング状態に戻り、その後、ステップST4において、処理を終了する。 When the lock state is set in step ST6, the control unit 110 enters the shooting state in step ST9 and instructs the digital signal processing unit 108 and the like to take a shooting instruction, and sends an image signal corresponding to the shot image to the recording device 115. Record. Then, after the process of step ST9, the control unit 110 returns to the smile shutter mode monitoring state in step ST3, and then ends the process in step ST4.
図13のフローチャートは、笑顔シャッターモードの笑顔待ち状態にある場合における制御部110の処理動作を示している(図11の経路P3,P4,P5参照)。制御部110は、例えば、フレーム周期で当該フローチャートに示す処理を実行する。 The flowchart in FIG. 13 shows the processing operation of the control unit 110 when the smile shutter mode is in the smile waiting state (see paths P3, P4, and P5 in FIG. 11). For example, the control unit 110 executes the processing shown in the flowchart in the frame cycle.
制御部110は、ステップST11で、処理を開始し、その後に、ステップST12の処理に移る。このステップST12において、制御部110は、シャッター操作(レリーズスイッチ12の操作)があるか否かを判断する。シャッター操作がないとき、制御部110は、ステップST13において、通常撮影モードのロック状態にあるか否かを判断する。ロック状態にないとき、制御部110は、ステップST14において、笑顔待ち状態を維持し、その後、ステップST15において、処理を終了する。 Control part 110 starts processing at Step ST11, and moves to processing of Step ST12 after that. In step ST12, the control unit 110 determines whether there is a shutter operation (operation of the release switch 12). When there is no shutter operation, the control unit 110 determines whether or not the normal shooting mode is locked in step ST13. When not in the locked state, control unit 110 maintains a smile waiting state in step ST14, and then ends the process in step ST15.
ステップST13で、ロック状態にあるときは、シャッター操作が半押しの状態から解除されたことを意味する。この場合、制御部110は、ステップST16の処理に移る。このステップST16において、制御部110は、笑顔シャッターモードのモニタリング状態となり、その後に、ステップST15において、処理を終了する。 In step ST13, when it is in the locked state, it means that the shutter operation is released from the half-pressed state. In this case, the control unit 110 proceeds to the process of step ST16. In step ST16, the control unit 110 enters the monitoring state of the smile shutter mode, and then ends the process in step ST15.
ステップST12でシャッター操作があるとき、制御部110は、ステップST17において、深押し状態にあるか否かを判断する。深押し状態にあるとき、制御部110は、ステップST18において、通常撮影モードのロック状態にあるか否かを判断する。ステップST17で深押し状態にないとき、あるいはステップST18でロック状態にないとき、制御部110は、ステップST19において、通常撮影モードのモニタリング状態となり、その後、ステップST20において、通常撮影モードのロック状態となる。制御部110は、ステップST20の処理の後、ステップST15において、処理を終了する。 When there is a shutter operation in step ST12, control unit 110 determines in step ST17 whether or not it is in a deeply pressed state. When in the deeply pressed state, control unit 110 determines in step ST18 whether or not the normal shooting mode is locked. When it is not in the deeply pressed state in step ST17 or when it is not in the locked state in step ST18, the control unit 110 enters the normal photographing mode monitoring state in step ST19, and then in step ST20, the normal photographing mode is locked. Become. After step ST20, control unit 110 ends the process in step ST15.
また、ステップST18でロック状態にあるとき、制御部110は、ステップST21において、撮影状態となって、デジタル信号処理部108等に撮影指示を行って、記録デバイス115に撮影画像に対応した画像信号を記録する。そして、制御部110は、ステップST21の処理の後、ステップST16において、笑顔シャッターモードのモニタリング状態に戻り、その後、ステップST15において、処理を終了する。 Further, when in the locked state in step ST18, the control unit 110 enters a shooting state in step ST21, instructs the digital signal processing unit 108 and the like to take a picture, and sends an image signal corresponding to the shot image to the recording device 115. Record. Then, after the process of step ST21, the control unit 110 returns to the smile shutter mode monitoring state in step ST16, and thereafter ends the process in step ST15.
図14のフローチャートは、笑顔シャッターモードの笑顔待ち状態にある場合における制御部110の処理動作を示している(図11の経路P6参照)。制御部110は、例えば、フレーム周期で当該フローチャートに示す処理を実行する。 The flowchart in FIG. 14 shows the processing operation of the control unit 110 when the smile shutter mode is in the smile waiting state (see the route P6 in FIG. 11). For example, the control unit 110 executes the processing shown in the flowchart in the frame cycle.
制御部110は、ステップST31で、処理を開始し、その後に、ステップST32の処理に移る。このステップST32において、制御部110は、シャッター操作(レリーズスイッチ12の操作)があるか否かを判断する。シャッター操作がないとき、制御部110は、ステップST33において、通常撮影モードのロック状態にあるか否かを判断する。ロック状態にないとき、制御部110は、ステップST34において、笑顔待ち状態を維持し、その後、ステップST35において、処理を終了する。 Control part 110 starts processing at Step ST31, and moves to processing of Step ST32 after that. In step ST32, the control unit 110 determines whether there is a shutter operation (operation of the release switch 12). When there is no shutter operation, the control unit 110 determines whether or not the normal shooting mode is locked in step ST33. When not in the locked state, the control unit 110 maintains a smile waiting state in step ST34, and thereafter ends the process in step ST35.
ステップST33で、ロック状態にあるときは、シャッター操作が半押しの状態から解除されたことを意味する。この場合、制御部110は、ステップST36の処理に移る。このステップST36において、制御部110は、笑顔シャッターモードのモニタリング状態となり、その後に、ステップST35において、処理を終了する。 In step ST33, when it is in the locked state, it means that the shutter operation is released from the half-pressed state. In this case, the control unit 110 proceeds to the process of step ST36. In step ST36, the control unit 110 enters a smile shutter mode monitoring state, and then ends the process in step ST35.
なお、この場合、制御部110は、ステップST32でシャッター操作がないとき、通常撮影モードのロック状態にあるか否かに拘わらず、笑顔シャッターモードの笑顔待ち状態となるようにしてもよい。 In this case, when there is no shutter operation in step ST32, the control unit 110 may enter a smile waiting state in the smile shutter mode regardless of whether or not the normal shooting mode is locked.
ステップST32でシャッター操作があるとき、制御部110は、ステップST37において、通常撮影モードのロック状態となり、その後に、ステップST38の処理に移る。このステップST38において、制御部110は、深押し状態にあるか否かを判断する。深押し状態にないとき、制御部110は、直ちに、ステップST35に進んで処理を終了する。一方、深押し状態にあるとき、制御部110は、ステップST39において、撮影状態となって、デジタル信号処理部108等に撮影指示を行って、記録デバイス115に撮影画像に対応した画像信号を記録する。 When there is a shutter operation in step ST32, the control unit 110 enters the normal shooting mode locked state in step ST37, and then proceeds to processing in step ST38. In step ST38, the control unit 110 determines whether or not it is in the deeply pressed state. When not in the deeply pressed state, the control unit 110 immediately proceeds to step ST35 and ends the process. On the other hand, when in the deeply pressed state, in step ST39, the control unit 110 enters a shooting state, issues a shooting instruction to the digital signal processing unit 108 and the like, and records an image signal corresponding to the shot image on the recording device 115. To do.
制御部110は、ステップST39の処理の後、ステップST36において、笑顔シャッターモードのモニタリング状態に戻り、その後、ステップST35において、処理を終了する。なお、ステップST39の処理の後、ステップST34において、笑顔シャッターモードの笑顔待ち状態に戻り、その後、ステップST35において、処理を終了するようにしてもよい。
After step ST39, control unit 110 returns to the smile shutter mode monitoring state in step ST36, and then ends the process in step ST35. Note that after the process of step ST39, the process returns to the smile waiting mode in the smile shutter mode in step ST34, and then the process may be ended in step ST35.
「笑顔シャッターモードにおける動作」
次に、笑顔シャッターモードにおける、制御部110の制御処理について説明する。図15のフローチャートは、笑顔シャッターモードにおける制御処理を示している。
"Operation in smile shutter mode"
Next, control processing of the control unit 110 in the smile shutter mode will be described. The flowchart in FIG. 15 shows control processing in the smile shutter mode.
制御部110は、ユーザが操作部118により笑顔シャッターモードに設定すると、ステップST51において、処理を開始する。そして、制御部110は、ステップST52において、顔検出部130を制御し、撮像画像に含まれる顔画像の検出処理を行う。顔画像が検出されるとき(顔発見時)、ステップST53において、顔画像位置の安定判断を行う。この顔画像の安定判断は、注目顔画像について行う。 When the user sets the smile shutter mode using the operation unit 118, the control unit 110 starts processing in step ST51. Then, in step ST52, the control unit 110 controls the face detection unit 130 to perform detection processing of a face image included in the captured image. When a face image is detected (when a face is found), the stability of the face image position is determined in step ST53. The determination of the stability of the face image is performed for the attention face image.
なお、撮像画像から1個の顔画像が検出される場合には、その顔画像が注目顔画像となる。また、撮像画像から複数の顔画像が検出される場合、最も顔重要度の高い顔画像が注目顔画像(主要被写体)となる。制御部110は、顔検出部130で検出された注目顔画像の検出枠の重心位置情報に基づき、上述の(2)式の安定条件を満たすとき、顔画像は移動しておらず、その位置が安定していると判断する。 When one face image is detected from the captured image, the face image becomes the attention face image. Further, when a plurality of face images are detected from the captured image, the face image having the highest face importance level is the attention face image (main subject). Based on the gravity center position information of the detection frame of the target face image detected by the face detection unit 130, the control unit 110 does not move the face image when the stability condition of the above expression (2) is satisfied. Is determined to be stable.
注目顔画像の位置が安定していると判断するとき、制御部110は、ステップST54において、注目顔画像の検出枠に対応した画像情報を解析し、フォーカス調整および露出調整を行って、撮像部におけるフォーカス、露出に係る撮像パラメータを設定する。このフォーカス調整および露出調整が完了するとき、制御部110は、ステップST55において、注目顔画像が笑顔となったか判断する。この場合、制御部110は、顔検出部130で得られる笑顔スコアが閾値より高いとき笑顔であると判断する。なお、顔画像検出、優先度、笑顔スコア算出、フォーカス調整および露出調整の詳細については、後述する。 When determining that the position of the target face image is stable, in step ST54, the control unit 110 analyzes the image information corresponding to the detection frame of the target face image, performs focus adjustment and exposure adjustment, and performs the imaging unit. Sets imaging parameters related to focus and exposure. When the focus adjustment and the exposure adjustment are completed, the control unit 110 determines whether the face image of interest has become a smile in step ST55. In this case, the control unit 110 determines that it is a smile when the smile score obtained by the face detection unit 130 is higher than a threshold value. Details of face image detection, priority, smile score calculation, focus adjustment, and exposure adjustment will be described later.
制御部110は、ステップST55で笑顔判断を行っている状態で、被写体の状態変化があったと判断するとき、ステップST56において、撮像パラメータの再設定を行うことを、被写体側および撮影者側に報知し、その後に、ステップST52の処理に戻る。ここで、制御部110は、上述したように、注目顔画像のサイズ変化、注目顔画像の消失、変更、撮像画像の明るさ変化、ユーザによるズーム操作、露出調整等がある場合、被写体の状態変化があったと判断する。 When controller 110 determines that there has been a change in the state of the subject while making a smile determination in step ST55, in step ST56, controller 110 informs the subject and photographer that the imaging parameter will be reset. Then, the process returns to step ST52. Here, as described above, the control unit 110 changes the size of the target face image, disappears or changes the target face image, changes the brightness of the captured image, zoom operation by the user, exposure adjustment, and the like. Judge that there was a change.
制御部110は、被写体側に報知するために、例えば、LED22を点滅発光させる。ここで、LED22の点滅発光は、例えば、撮像パラメータの再設定が完了するまでの間続くようにされてもよい。この報知は、LED22を点滅発光で行う報知に限定されるものではなく、例えば、音声出力などで行うことも考えられる。なお、LED22の点滅発光は、例えば、制御部15がステップST51で処理を開始してから最初に撮像パラメータの設定が完了するまでの間でさらに行われてもよい。 For example, the control unit 110 causes the LED 22 to flash and emit light in order to notify the subject side. Here, the blinking emission of the LED 22 may be continued until the resetting of the imaging parameters is completed, for example. This notification is not limited to notification performed by flashing the LED 22, but may be performed by, for example, audio output. Note that the flashing light emission of the LED 22 may be further performed, for example, after the control unit 15 starts processing in step ST51 until the first setting of the imaging parameter is completed.
また、制御部110は、撮影者側に報知するために、例えば、モニタ13およびビューファインダ17に表示される画像上に、撮像パラメータを再設定する旨の文字表示などを行う。この文字表示は、例えば、撮像パラメータの再設定が完了するまでの間続くようにされてもよい。なお、例えば、制御部110がステップST51で処理を開始してから最初に撮像パラメータの設定が完了するまでの間でも、モニタ13およびビューファインダ17に表示される画像上に、撮像パラメータの設定中である旨の文字表示などを行ってもよい。 Further, in order to notify the photographer, the control unit 110 performs, for example, a character display indicating that the imaging parameter is reset on the image displayed on the monitor 13 and the viewfinder 17. This character display may be continued until the resetting of the imaging parameters is completed, for example. Note that, for example, the imaging parameter is being set on the image displayed on the monitor 13 and the viewfinder 17 even after the control unit 110 starts processing in step ST51 until the first imaging parameter setting is completed. It may be possible to display a character to the effect.
ステップST55の笑顔判断で注目顔画像が笑顔となったと判断するとき、制御部110は、ステップST57において、デジタル信号処理部108等に撮影指示を行って、記録デバイス115に撮影画像に対応した画像信号を記録する。撮影後、制御部110は、ステップ55の処理に戻る。 When it is determined in step ST55 that the face image of interest has become a smile, the control unit 110 instructs the digital signal processing unit 108 and the like to capture an image corresponding to the captured image in the recording device 115 in step ST57. Record the signal. After shooting, the control unit 110 returns to the process of step 55.
図16のフローチャートは、上述した図15のフローチャートにおけるステップST52〜ステップST54の処理に対応した、制御部110の処理手順を示している。 The flowchart of FIG. 16 shows the processing procedure of the control unit 110 corresponding to the processing of step ST52 to step ST54 in the flowchart of FIG. 15 described above.
制御部110は、ステップST61において、処理を開始し、その後に、ステップST62の処理に移る。このステップST62において、制御部110は、顔画像が検出されたか否かを判断する。顔画像が検出されたとき、制御部110は、ステップST63において、顔画像(注目顔画像)の位置が安定したか否かを判断する。 In step ST61, the control unit 110 starts processing, and then proceeds to processing in step ST62. In step ST62, the control unit 110 determines whether a face image is detected. When the face image is detected, the control unit 110 determines in step ST63 whether or not the position of the face image (attention face image) has been stabilized.
顔画像の位置が安定したとき、制御部110は、ステップST64において、AF(オートフォーカス)、AE(オートアイリス)の要求を発行し、その後に、ステップST65において、処理を終了する。制御部110は、ステップST64におけるAF,AEの要求の発行により、フォーカス調整および露出調整を行って、撮像部におけるフォーカス、露出に係る撮像パラメータを設定し、笑顔待ち状態となる。 When the position of the face image is stabilized, the control unit 110 issues a request for AF (autofocus) and AE (auto iris) in step ST64, and then ends the process in step ST65. Control unit 110 performs focus adjustment and exposure adjustment by issuing AF and AE requests in step ST64, sets imaging parameters relating to focus and exposure in the imaging unit, and enters a smile waiting state.
図17のフローチャートは、上述した図15のフローチャートにおけるステップST55〜ステップST56の処理に対応した、制御部110の処理手順を示している。 The flowchart of FIG. 17 shows a processing procedure of the control unit 110 corresponding to the processes of steps ST55 to ST56 in the flowchart of FIG. 15 described above.
制御部110は、ステップST71で処理を開始し、その後、ステップST72の処理に移る。このステップST72において、制御部110は、ユーザによるズーム操作または露出調整があったか否かを判断する。ズーム操作または露出調整があったとき、制御部110は、被写体の状態変化があったと判断し、ステップST73において、AF,AEの要求を発行する。そして、制御部110は、ステップST74において、被写体側および撮影者側に撮像パラメータの再設定を報知し、その後に、ステップST75において処理を終了する。 Control unit 110 starts processing in step ST71, and then proceeds to processing in step ST72. In step ST72, the control unit 110 determines whether or not there has been a zoom operation or exposure adjustment by the user. When the zoom operation or the exposure adjustment is performed, the control unit 110 determines that there is a change in the state of the subject, and issues an AF / AE request in step ST73. Then, in step ST74, the control unit 110 notifies the subject side and the photographer of the resetting of the imaging parameters, and thereafter ends the process in step ST75.
制御部110は、ステップST73におけるAF,AEの要求の発行により、モニタリング状態となり、再度顔画像を検出して、フォーカス調整および露出調整を行って、撮像部におけるフォーカス、露出に係る撮像パラメータを設定する処理に移行する。 The control unit 110 enters a monitoring state by issuing an AF / AE request in step ST73, detects a face image again, performs focus adjustment and exposure adjustment, and sets imaging parameters related to focus and exposure in the imaging unit. Move on to processing.
また、制御部110は、ステップST72でユーザによるズーム操作も露出調整もないとき、ステップST76において、注目顔画像を特定する処理を行う。この場合、制御部110は、撮像画像から1個の顔画像が検出されている場合には、その顔画像を注目顔画像とする。また、撮像画像から複数の顔画像が検出されている場合には、各顔画像の顔重要度を算出し、最も顔重要度の高い顔画像を注目顔画像する。 In addition, when there is no zoom operation or exposure adjustment by the user in step ST72, the control unit 110 performs a process of specifying a face image of interest in step ST76. In this case, when one face image is detected from the captured image, the control unit 110 sets the face image as the attention face image. When a plurality of face images are detected from the captured image, the face importance level of each face image is calculated, and the face image with the highest face importance level is used as the attention face image.
次に、制御部110は、ステップST77において、注目顔画像が変化したか否かを判断する。ここで、注目顔画像の変化とは、注目顔画像が消失(図7参照)あるいは注目画像の変更(図8参照)を意味している。注目顔画像が変化したとき、制御部110は、被写体の状態変化があったと判断し、ステップST73において、AF,AEの要求を発行し、ステップST74において被写体側および撮影者側に撮像パラメータの再設定を報知し、その後に、ステップST75において、処理を終了する。 Next, in step ST77, the control unit 110 determines whether or not the attention face image has changed. Here, the change in the attention face image means the disappearance of the attention face image (see FIG. 7) or the change of the attention image (see FIG. 8). When the face image of interest changes, the control unit 110 determines that there has been a change in the state of the subject, issues a request for AF, AE in step ST73, and resets the imaging parameters to the subject side and the photographer side in step ST74. The setting is notified, and then the process ends in step ST75.
また、ステップST77で注目顔画像が変化していないとき、制御部110は、ステップST78において、サイズ変化が閾値Th1以上であるか否かを判断する。ここで、サイズ変化とは、例えば、前回および今回の注目顔画像のサイズの段階変化数を意味する。制御部110は、サイズ変化が閾値Th1以上であるとき、制御部110は、被写体の状態変化があったと判断し、ステップST73において、AF,AEの要求を発行し、ステップST74において被写体側および撮影者側に撮像パラメータの再設定を報知し、その後に、ステップST75において、処理を終了する。 When the face image of interest has not changed in step ST77, control unit 110 determines in step ST78 whether the size change is equal to or greater than threshold value Th1. Here, the size change means, for example, the number of step changes in the size of the previous and current attention face images. When the size change is greater than or equal to the threshold Th1, the control unit 110 determines that there has been a change in the state of the subject, issues a request for AF, AE in step ST73, and in step ST74, takes the subject side and shooting. The user is notified of the resetting of the imaging parameters, and then the process ends in step ST75.
また、ステップST78でサイズ変化が閾値Th1より小さいとき、制御部110は、ステップST79において、明るさ変化が閾値Th2以上であるか否かを判断する。ここで、明るさ変化とは、例えば、前回と今回の注目顔画像の検出枠内の平均輝度レベルの差分を意味する。明るさ変化が閾値Th2以上であるとき、制御部110は、被写体の状態変化があったと判断し、ステップST73において、AF,AEの要求を発行し、ステップST74において被写体側および撮影者側に撮像パラメータの再設定を報知し、その後に、ステップST75において、処理を終了する。 When the size change is smaller than the threshold value Th1 in step ST78, the control unit 110 determines whether or not the brightness change is equal to or greater than the threshold value Th2 in step ST79. Here, the brightness change means, for example, the difference between the average luminance levels in the detection frame of the attention face image of the previous time and the current time. When the change in brightness is equal to or greater than the threshold Th2, the control unit 110 determines that there has been a change in the state of the subject, issues an AF / AE request in step ST73, and takes an image on the subject side and the photographer side in step ST74. The resetting of the parameter is notified, and then the process ends in step ST75.
また、ステップST79で明るさ変化が閾値Th2より小さいとき、制御部110は、ステップST80において、注目顔画像の笑顔を検出したか否かを判断する。この場合、制御部110は、顔検出部130から供給される注目顔画像の笑顔スコアが閾値以上となるとき、笑顔を検出したと判断する。 Further, when the brightness change is smaller than the threshold value Th2 in step ST79, in step ST80, the control unit 110 determines whether or not a smile of the face image of interest has been detected. In this case, the control unit 110 determines that a smile has been detected when the smile score of the face image of interest supplied from the face detection unit 130 is equal to or greater than a threshold value.
笑顔を検出したとき、制御部110は、ステップST81において、撮影状態となって、デジタル信号処理部108等に撮影指示を行って、記録デバイス115に撮影画像に対応した画像信号を記録する。制御部110は、ステップST81の処理の後、あるいはステップST80で笑顔を検出しなかったとき、ステップST72の処理に戻り、上記したと同様の処理を繰り返す。
When a smile is detected, in step ST81, the control unit 110 enters a shooting state, issues a shooting instruction to the digital signal processing unit 108 and the like, and records an image signal corresponding to the shot image on the recording device 115. Control unit 110 returns to the process of step ST72 after the process of step ST81 or when no smile is detected in step ST80, and repeats the same process as described above.
「フォーカス調整、露出調整」
次に、フォーカス調整(AF)について説明する。注目顔画像に対応したフォーカス調整は、注目顔画像のコントラストの高低を判断することで行われる。すなわち、制御部110は、注目顔画像の検出枠をフォーカス調整用の信号取得領域(空間周波数抽出エリア)として設定する。そして、制御部110は、検出枠内の画像のコントラストが高いときはフォーカスが合っていると判定し、検出枠内の画像のコントラストが低いときはフォーカスがずれていると判定し、コントラストをより高くする位置にフォーカスレンズ18を駆動して調整する。ここで、フォーカスレンズ18の位置データが、フォーカスに係る撮像パラメータとなる。フォーカス調整(AF)では、フォーカスレンズ18の位置データが所定の値に設定される。
"Focus adjustment, exposure adjustment"
Next, focus adjustment (AF) will be described. The focus adjustment corresponding to the attention face image is performed by determining the level of contrast of the attention face image. That is, the control unit 110 sets the detection frame of the face image of interest as a focus adjustment signal acquisition area (spatial frequency extraction area). The control unit 110 determines that the image is in focus when the image in the detection frame is high, and determines that the image is out of focus when the image in the detection frame is low. The focus lens 18 is driven to adjust the position to be raised. Here, the position data of the focus lens 18 is an imaging parameter related to the focus. In focus adjustment (AF), the position data of the focus lens 18 is set to a predetermined value.
具体的には、制御部110は、検出枠内の画像情報(画像データ)の高周波成分を抽出して、抽出した高周波成分の積分データを生成し、その積分データに基づいてコントラストの高低を判定する。すなわち、フォーカスレンズ18を複数の位置へと動かしながら複数枚の画像を取得し、各画像の輝度信号に対しハイパスフィルタに代表されるフィルタ処理をすることにより、各画像のコントラスト強度を示すAF評価値を得る。 Specifically, the control unit 110 extracts high-frequency components of image information (image data) within the detection frame, generates integrated data of the extracted high-frequency components, and determines the contrast level based on the integrated data. To do. That is, an AF evaluation indicating contrast intensity of each image is obtained by acquiring a plurality of images while moving the focus lens 18 to a plurality of positions and performing filter processing represented by a high-pass filter on the luminance signal of each image. Get the value.
このとき、あるフォーカス位置でピントが合ったジャスピンとなる被写体が存在する場合、フォーカスレンズ位置に対するAF評価値は、図18のような曲線を描く。この曲線のピーク位置P1、すなわち、画像のコントラスト値が最大となる位置がジャスピンである。この方式では、イメージャ14で撮像して得られた撮像画像の情報のみをもとに合焦動作を行うことができ、撮像光学系の他に測距光学系を持つ必要がないことから、今般デジタルスチルカメラにおいて広く行われている。 At this time, when there is a subject that is in focus at a certain focus position, the AF evaluation value for the focus lens position draws a curve as shown in FIG. The peak position P1 of this curve, that is, the position where the contrast value of the image is the maximum is justin. In this method, the focusing operation can be performed based only on the information of the captured image obtained by imaging with the imager 14, and it is not necessary to have a distance measuring optical system in addition to the imaging optical system. Widely used in digital still cameras.
次に、露出調整(AE)について説明する。注目顔画像に対応した露出調整は、注目顔画像の輝度などを判断することで行われる。すなわち、制御部110は、注目顔画像の検出枠に対応した画像情報(画像データ)に基づいて、注目顔画像に対応する輝度のヒストグラムデータおよび色検波値を取得する。また、制御部110は、注目顔画像の輝度のヒストグラムデータのピークを判定し、そのピークでの頻度値および輝度に基づいて、ピーク領域を定義する限界輝度値Yf_lおよびYf_hを検索する。また、制御部110は、注目顔画像の色、外光情報に基づいて、目標輝度範囲を設定する。 Next, exposure adjustment (AE) will be described. The exposure adjustment corresponding to the target face image is performed by determining the brightness of the target face image. That is, the control unit 110 acquires luminance histogram data and color detection values corresponding to the target face image based on image information (image data) corresponding to the detection frame of the target face image. Further, the control unit 110 determines the peak of the histogram data of the luminance of the face image of interest, and searches for the limiting luminance values Yf_l and Yf_h that define the peak region based on the frequency value and luminance at the peak. Further, the control unit 110 sets a target luminance range based on the color of the face image of interest and external light information.
そして、制御部110は、注目顔画像の輝度のヒストグラムデータと、目標輝度範囲と、一般的な処理によって演算された露出制御量に基づいて、注目顔画像に対応した露出制御量を求める。ここで、一般的な処理によって演算された露出制御量は、基本的には、撮像画像の全体に対応した画像情報から検波した輝度情報等に基づいて求められた露出制御量である。制御部110は、この露出制御量に基づいて、アイリスドライバ116を制御し、露出を制御する。ここで、露出制御量が、露出に係る撮像パラメータとなる。露出調整(AE)では、露出制御量が所定の値に設定される。 Then, the control unit 110 obtains an exposure control amount corresponding to the target face image based on the histogram data of the luminance of the target face image, the target luminance range, and the exposure control amount calculated by general processing. Here, the exposure control amount calculated by the general process is basically an exposure control amount obtained based on luminance information detected from image information corresponding to the entire captured image. The control unit 110 controls the iris driver 116 based on the exposure control amount to control exposure. Here, the exposure control amount is an imaging parameter related to exposure. In exposure adjustment (AE), the exposure control amount is set to a predetermined value.
なお、上述の注目顔画像に対応した露出調整の詳細に関しては、本出願人による先願である特開2007−201980号公報に記載されている。ただし、注目顔画像に対応した露出調整は、この先願に記載された方法に限定されるものではなく、単に、注目顔画像の検出枠に対応した画像情報(輝度データ)から得られる、当該検出枠内の平均輝度レベルが所定値となるように露出調整を行うものであってもよい。
The details of the exposure adjustment corresponding to the noted face image are described in Japanese Patent Application Laid-Open No. 2007-201980, which is a prior application by the present applicant. However, the exposure adjustment corresponding to the attention face image is not limited to the method described in the prior application, and the detection is simply obtained from the image information (luminance data) corresponding to the detection frame of the attention face image. Exposure adjustment may be performed so that the average luminance level in the frame becomes a predetermined value.
「顔画像検出、笑顔スコア測定」
最初に、顔検出部130における顔画像検出処理について説明する。検出部130は、撮像画像に対応した画像情報(画像データ)に基づいて、撮像画像に含まれる顔画像を検出する。顔検出部130は、撮像画像の画像情報に基づいて、顔画像を検出する。顔検出部130は、撮像画像の画像情報を、デジタル信号処理部108から取得する。
"Face image detection, smile score measurement"
First, the face image detection process in the face detection unit 130 will be described. The detection unit 130 detects a face image included in the captured image based on image information (image data) corresponding to the captured image. The face detection unit 130 detects a face image based on the image information of the captured image. The face detection unit 130 acquires image information of the captured image from the digital signal processing unit 108.
顔検出部130は、撮像画像IM-0が図19(a)に示すようであるとき、図19(b)に破線枠で囲んで示すように、撮像画像IM-0に含まれている顔画像IM-1を検出する。 When the captured image IM-0 is as illustrated in FIG. 19A, the face detection unit 130 includes the face included in the captured image IM-0 as illustrated in FIG. 19B surrounded by a broken line frame. Image IM-1 is detected.
顔検出部130は、顔画像が検出されるとき、当該顔画像を、図19(c)に示すように、所定のサイズ、例えば、水平サイズが80ピクセル、垂直サイズが80ピクセルとなるように正規化し、当該正規化された顔画像IM-2の情報を、図示しない記憶装置部に記憶する。また、顔検出部130は、顔画像が検出されるとき、顔検出情報(位置情報、サイズ情報等)を、制御部110に送る。 When a face image is detected, the face detection unit 130 sets the face image to a predetermined size, for example, a horizontal size of 80 pixels and a vertical size of 80 pixels, as shown in FIG. The information of the normalized face image IM-2 is stored in a storage device (not shown). Further, the face detection unit 130 sends face detection information (position information, size information, etc.) to the control unit 110 when a face image is detected.
ここで、顔検出部130における顔画像の検出処理の一例について説明する。この検出処理では、図20に示すように、撮像画像IM-0上に、所定サイズ、例えば、水平サイズがSピクセル、垂直サイズがSピクセルである、検出枠FR-faが設定される。この実施の形態において、Sピクセルは、80ピクセル以上である。この検出枠FR-faは、図20に矢印で示すように、撮像画像IM-0上を走査され、その位置が順次変化するようにされる。そして、各位置の検出枠FR-faで囲まれる画像に対し、顔辞書を用いて顔スコアSCORE_faの測定が行われ、当該顔スコアSCORE_faに基づいて、顔画像であるか否かの判定が行われる。 Here, an example of face image detection processing in the face detection unit 130 will be described. In this detection process, as shown in FIG. 20, a detection frame FR-fa having a predetermined size, for example, a horizontal size of S pixels and a vertical size of S pixels is set on the captured image IM-0. In this embodiment, the S pixel is 80 pixels or more. This detection frame FR-fa is scanned on the captured image IM-0 as indicated by an arrow in FIG. 20, and its position is changed sequentially. Then, the face score SCORE_fa is measured using the face dictionary for the image surrounded by the detection frame FR-fa at each position, and whether or not it is a face image is determined based on the face score SCORE_fa. Is called.
顔辞書は、図21(b)に示すように、t4組(数百ペア)の、pix_fa1(i),pix_fa2(i)、θ_fa(i)、およびα_fa(i)の組みあわせからなっている。ここで、pix_fa1(i),pix_fa2(i)は、図22に示すように、検出枠FR-faで囲まれる画像における2点の位置を示している。なお、図22には、図面の簡単化のため、3組だけを示している。θ_fa(i)は、pix_fa1(i)の輝度値およびpix_fa2(i)の輝度値の差に関する閾値を示している。また、α_fa(i)は、pix_fa1(i)の輝度値およびpix_fa2(i)の輝度値の差と閾値θ_fa(i)の比較結果に基づいて加算または減算される重みを示している。これらpix_fa1(i),pix_fa2(i)、θ_fa(i)、およびα_fa(i)の各値は、詳細説明は省略するが、アダブースト(AdaBoost)等の機械学習アルゴリズムにより学習されて取得されたものである。 As shown in FIG. 21 (b), the face dictionary is composed of t4 (several hundred pairs) combinations of pix_fa1 (i), pix_fa2 (i), θ_fa (i), and α_fa (i). . Here, pix_fa1 (i) and pix_fa2 (i) indicate the positions of two points in the image surrounded by the detection frame FR-fa, as shown in FIG. In FIG. 22, only three sets are shown for simplification of the drawing. θ_fa (i) represents a threshold value regarding the difference between the luminance value of pix_fa1 (i) and the luminance value of pix_fa2 (i). Further, α_fa (i) represents a weight to be added or subtracted based on the comparison result of the difference between the luminance value of pix_fa1 (i) and the luminance value of pix_fa2 (i) and the threshold value θ_fa (i). These values for pix_fa1 (i), pix_fa2 (i), θ_fa (i), and α_fa (i) are obtained by learning with a machine learning algorithm such as AdaBoost, although detailed explanation is omitted. It is.
顔スコアSCORE_faの測定は、図21(a)に示すように、顔辞書のpix_fa1(i),pix_fa2(i)、θ_fa(i)、およびα_fa(i)の各組に対応して、(3)式を満たすか否かを判断し、満たす場合には(4)式の演算を行い、一方、満たさない場合には(5)式の演算を行うことで、行われる。なお、(3)式で、pix_fa1(i)はその位置の輝度値を示し、pix_fa2(i)はその位置の輝度値を示している。 As shown in FIG. 21A, the measurement of the face score SCORE_fa corresponds to each set of face dictionary pix_fa1 (i), pix_fa2 (i), θ_fa (i), and α_fa (i), It is determined whether the expression (4) is satisfied or not. If the expression is satisfied, the expression (4) is calculated. On the other hand, if the expression is not satisfied, the expression (5) is calculated. In equation (3), pix_fa1 (i) indicates the luminance value at that position, and pix_fa2 (i) indicates the luminance value at that position.
pix_fa1(i)−pix_fa2(i)<θ_fa(i) ・・・(3)
SCORE_fa=SCORE_fa+α_fa(i) ・・・(4)
SCORE_fa=SCORE_fa−α_fa(i) ・・・(5)
pix_fa1 (i) −pix_fa2 (i) <θ_fa (i) (3)
SCORE_fa = SCORE_fa + α_fa (i) (4)
SCORE_fa = SCORE_fa−α_fa (i) (5)
検出枠FR-faで囲まれる画像が顔画像であるか否かの判定は、上述したように測定された顔スコアSCORE_faに基づいて行われる。なお、上述の顔スコアSCORE_faの測定において、(3)式を満たす場合はh(i)=1とし、逆に、(3)式を満たさない場合はh(i)=−1とするとき、測定された顔スコアSCORE_faは、(6)式で表される。
顔スコアSCORE_faが0より大きいとき、検出枠FR-faで囲まれる画像は顔画像であると判定される。一方、顔スコアSCORE_faが0以下であるとき、検出枠FR-faで囲まれる画像は顔画像ではないと判定される。なお、判定の基準を0ではなく、0以外の多少調整された値が用いられることもある。 When the face score SCORE_fa is greater than 0, it is determined that the image surrounded by the detection frame FR-fa is a face image. On the other hand, when the face score SCORE_fa is 0 or less, it is determined that the image surrounded by the detection frame FR-fa is not a face image. Note that a slightly adjusted value other than 0 may be used instead of 0 as a criterion for determination.
なお、撮像画像に含まれる顔画像には種々の大きさが考えられる。そのため、図20に示すように、撮像画像IM-0上に所定サイズの検出枠FR-faを設定して顔画像を検出するものにあっては、当該撮像画像IM-0に含まれる顔画像の内、当該検出枠FR-faのサイズに対応した顔画像だけしか検出できない。そこで、撮像画像IM-0に含まれる種々の顔画像を検出可能とするために、上述した顔画像の検出処理は、図23に示すように、撮像画像IM-0の他に、この撮像画像IM-0を、適宜縮小した縮小画像IM-0a,IM-0b,・・・に対しても行われる。これにより、撮像画像IM-0から検出される顔画像のサイズは、段階的に設定された複数サイズのいずれかとなる。 Note that the face image included in the captured image may have various sizes. Therefore, as shown in FIG. 20, in the case of detecting a face image by setting a detection frame FR-fa of a predetermined size on the captured image IM-0, the face image included in the captured image IM-0 Only the face image corresponding to the size of the detection frame FR-fa can be detected. Therefore, in order to be able to detect various face images included in the captured image IM-0, the face image detection process described above is performed in addition to the captured image IM-0 as shown in FIG. .. Is also performed on the reduced images IM-0a, IM-0b,. As a result, the size of the face image detected from the captured image IM-0 is one of a plurality of sizes set in stages.
図24のフローチャートは、顔検出部121における、顔画像検出処理の手順を示している。 The flowchart in FIG. 24 shows the procedure of face image detection processing in the face detection unit 121.
まず、顔検出部130は、ステップST91において、顔画像検出処理を開始し、その後に、ステップST92に移る。このステップST92において、顔検出部130は、撮像画像IM-0の縮小段階S_NOを1に設定する。そして、顔検出部130は、ステップST93において、デジタル信号処理部108から撮像画像IM-0の画像情報を取得し、縮小段階S_NOのスケーリング(縮小処理)を施し、顔画像を検出するための縮小画像(縮小された撮像画像)を生成する。なお、S_NO=1であるとき、縮小率は1とされ、顔画像を検出するための縮小画像は、撮像画像IM-0と同じものとされる。また、縮小段階S_NOが大きくなるにつれて、縮小率は小さくなっていく。縮小率が小さな縮小画像で検出される顔画像ほど、撮像画像IM-0上では大きな顔画像である。顔検出情報に含まれるサイズ情報および位置情報は、撮像画像IM-0におけるものとされる。 First, in step ST91, the face detection unit 130 starts face image detection processing, and then proceeds to step ST92. In step ST92, the face detection unit 130 sets the reduction stage S_NO of the captured image IM-0 to 1. In step ST93, the face detection unit 130 acquires the image information of the captured image IM-0 from the digital signal processing unit 108, performs scaling (reduction processing) in the reduction step S_NO, and performs reduction for detecting the face image. An image (reduced captured image) is generated. When S_NO = 1, the reduction ratio is 1, and the reduced image for detecting the face image is the same as the captured image IM-0. Further, as the reduction stage S_NO increases, the reduction rate decreases. The face image detected as a reduced image with a smaller reduction rate is a larger face image on the captured image IM-0. The size information and position information included in the face detection information are assumed to be in the captured image IM-0.
次に、顔検出部130は、ステップST94において、ステップST93で生成された縮小画像上の左上に検出枠FR-faを設定する。そして、顔検出部130は、ステップST95において、上述したように、顔辞書を用いて、顔スコアSCORE_faを測定する。 Next, in step ST94, the face detection unit 130 sets a detection frame FR-fa on the upper left on the reduced image generated in step ST93. In step ST95, the face detection unit 130 measures the face score SCORE_fa using the face dictionary as described above.
次に、顔検出部130は、ステップST96において、ステップST95で測定された顔スコアSCORE_faに基づいて、検出枠FR-faで囲まれた画像が顔画像であるか否かを判定する。この場合、顔検出部130は、SCORE_fa>0であるとき顔画像であると判定し、SCORE_fa>0でないとき顔画像ではないと判定する。 Next, in step ST96, the face detection unit 130 determines whether the image surrounded by the detection frame FR-fa is a face image based on the face score SCORE_fa measured in step ST95. In this case, the face detection unit 130 determines that the image is a face image when SCORE_fa> 0, and determines that the image is not a face image when SCORE_fa> 0.
顔画像であると判定するとき、顔検出部130は、ステップST97に移る。このステップST97において、顔検出部130は、検出枠FR-faで囲まれている画像を顔画像として、図示しない記憶装置部に記憶し、さらに当該顔画像に対応した顔検出情報(位置情報、サイズ情報等)を制御部110に送る。なお、顔検出部130は、上述したように、Sピクセル×Sピクセルの検出顔画像を、80ピクセル×80ピクセルの大きさに正規化した後に、記憶装置部に記憶する。顔検出部130は、ステップST97の処理の後、ステップST98に進む。ステップST96で顔画像でないと判定するとき、顔検出部130は、直ちに、ステップST98に移る。 When determining that the image is a face image, the face detection unit 130 proceeds to step ST97. In step ST97, the face detection unit 130 stores an image surrounded by the detection frame FR-fa as a face image in a storage device (not shown), and further detects face detection information (position information, position information, Size information) is sent to the control unit 110. As described above, the face detection unit 130 normalizes the detected face image of S pixels × S pixels to a size of 80 pixels × 80 pixels, and then stores the normalized face image in the storage device unit. The face detection unit 130 proceeds to step ST98 after the process of step ST97. When determining in step ST96 that the face image is not a face image, the face detection unit 130 immediately moves to step ST98.
このステップST98において、顔検出部130は、検出枠FR-faが最後の位置まで移動したか否かを判定する。最後の位置まで移動していないとき、顔検出部130は、ステップST99において、検出枠FR-faを次の位置に移動し、その後に、上述したステップST95に戻って、上述したと同様の処理を繰り返す。なお、検出枠FR-faは、ある垂直位置においては水平方向に1ピクセルずつ移動していき、当該垂直位置における水平方向の移動が終わると、垂直方向に1ピクセル移動して、次の垂直位置に移る。 In step ST98, the face detection unit 130 determines whether or not the detection frame FR-fa has moved to the last position. When the face detection unit 130 has not moved to the last position, the face detection unit 130 moves the detection frame FR-fa to the next position in step ST99, and then returns to step ST95 described above to perform the same processing as described above. repeat. The detection frame FR-fa moves one pixel at a time in the horizontal direction at a certain vertical position. When the horizontal movement at the vertical position ends, the detection frame FR-fa moves one pixel in the vertical direction and moves to the next vertical position. Move on.
ステップST98で検出枠FR-faが最後の位置まで移動しているとき、顔検出部130は、ステップST100において、縮小段階S_NOが最後の段階S_NOmaxにあるか否かを判定する。S_NO=S_NOmaxでないとき、顔検出部121は、ステップST101において、縮小段階S_NOを次の段階とし、その後、ステップST93に移り、上述したと同様の処理を繰り返す。 When the detection frame FR-fa has moved to the last position in step ST98, the face detection unit 130 determines whether or not the reduction stage S_NO is in the last stage S_NOmax in step ST100. When S_NO = S_NOmax is not satisfied, the face detection unit 121 sets the reduction step S_NO to the next step in step ST101, and then moves to step ST93 to repeat the same processing as described above.
また、ステップST100で、S_NO=S_NOmaxであるとき、全ての縮小段階S_NOでの顔画像の検出処理が終了したことを意味するので、顔検出部130は、ステップST102において、顔画像検出処理を終了する。 Further, when S_NO = S_NOmax in step ST100, it means that the face image detection processing in all the reduction stages S_NO has been completed, so the face detection unit 130 ends the face image detection processing in step ST102. To do.
次に、顔検出部130における笑顔スコア測定処理について説明する。顔検出部130は、顔画像の画像情報に基づいて、笑顔の程度を示す笑顔スコアを測定する。顔検出部130は、図25に示すように、顔画像IM-2に対して、左目、右目の位置が所定座標になるように正規化(アフィン変換)を行って、所定サイズ、この実施の形態においては、水平サイズが48ピクセル、垂直サイズが48ピクセルの正規化顔画像IM-3を生成する。 Next, the smile score measurement process in the face detection unit 130 will be described. The face detection unit 130 measures a smile score indicating the degree of smile based on the image information of the face image. As shown in FIG. 25, the face detection unit 130 performs normalization (affine transformation) on the face image IM-2 so that the positions of the left eye and the right eye become predetermined coordinates, and performs a predetermined size. In the form, a normalized face image IM-3 having a horizontal size of 48 pixels and a vertical size of 48 pixels is generated.
顔検出部130は、顔特徴位置としての左目、右目を、例えば、AAM(Active Appearance Models)と呼ばれる方法を適用して検出する。このAAAについては、以下の文献に記載がある。 The face detection unit 130 detects the left eye and the right eye as face feature positions by applying a method called AAM (Active Appearance Models), for example. This AAA is described in the following document.
T.F.Cootes, G.J.Edwards, and C.J.Taylor, "Active AppearanceModels",Proc.Fift
h EuropeanConf. Computer Vision, H. Burkhardt and B. Neumann,eds, vol.2, pp.484
-498, 1998
TFCootes, GJEdwards, and CJTaylor, "Active AppearanceModels", Proc.Fift
h EuropeanConf.Computer Vision, H. Burkhardt and B. Neumann, eds, vol.2, pp.484
-498, 1998
なお、上述した正規化顔画像IM-2のピクセル数(80ピクセル×80ピクセル)に比べて、左目、右目の位置に基づいて正規化された正規化顔画像IM-3のピクセル数(48ピクセル×48ピクセル)が少なくされている。これは、以下の理由からである。すなわち、顔画像の顔特徴量を精度よく検出するために正規化顔画像IM-2はある程度のピクセル数(解像度)を持つ必要がある。 Note that the number of pixels of the normalized face image IM-3 normalized based on the positions of the left eye and the right eye (48 pixels) compared to the number of pixels of the normalized face image IM-2 described above (80 pixels × 80 pixels). × 48 pixels) is reduced. This is for the following reason. That is, the normalized face image IM-2 needs to have a certain number of pixels (resolution) in order to accurately detect the facial feature amount of the face image.
しかし、正規化顔画像IM-3に関しては、顔全体に広がる特徴(笑顔スコア)を検出するためのものであり、少ないピクセル数でも十分である。このように正規化顔画像IM-3のピクセル数を少なくすることで、メモリ使用量を節約でき、また、特徴検出の処理を簡単、かつ高速に行うことができる。 However, the normalized face image IM-3 is for detecting a feature (smile score) spreading over the entire face, and a small number of pixels is sufficient. Thus, by reducing the number of pixels of the normalized face image IM-3, the memory usage can be saved, and the feature detection process can be performed easily and at high speed.
顔検出部130は、図25に示すように、笑顔辞書を適用して、笑顔スコアSCORE_smを測定する。この笑顔スコアSCORE_smは、正規化顔画像IM-3の状態が笑顔であるか否かを判定するためのスコアである。 As shown in FIG. 25, the face detection unit 130 applies a smile dictionary and measures a smile score SCORE_sm. This smile score SCORE_sm is a score for determining whether or not the state of the normalized face image IM-3 is a smile.
笑顔スコアSCORE_smの測定処理について説明する。笑顔辞書は、図26(b)に示すように、t3組(数百ペア)の、pix_sm1(i),pix_sm2(i)、θ_sm(i)、およびα_sm(i)の組み合わせからなっている。ここで、pix_sm1(i),pix_sm2(i)は、正規化画像IM-3における2点の位置を示している。θ_sm(i)は、pix_sm1(i)の輝度値およびpix_sm2(i)の輝度値の差に関する閾値を示している。また、α_sm(i)は、pix_sm1(i)の輝度値およびpix_sm2(i)の輝度値の差と閾値θ_sm(i)の比較結果に基づいて加算または減算される重みを示している。これらpix_sm1(i),pix_sm2(i)、θ_sm(i)、およびα_sm(i)の各値は、詳細説明は省略するが、アダブースト(AdaBoost)等の機械学習アルゴリズムにより学習されて取得されたものである。 A process for measuring the smile score SCORE_sm will be described. As shown in FIG. 26B, the smile dictionary is composed of t3 (several hundred pairs) combinations of pix_sm1 (i), pix_sm2 (i), θ_sm (i), and α_sm (i). Here, pix_sm1 (i) and pix_sm2 (i) indicate the positions of two points in the normalized image IM-3. θ_sm (i) represents a threshold value regarding the difference between the luminance value of pix_sm1 (i) and the luminance value of pix_sm2 (i). Further, α_sm (i) represents a weight that is added or subtracted based on the comparison result of the difference between the luminance value of pix_sm1 (i) and the luminance value of pix_sm2 (i) and the threshold value θ_sm (i). These values of pix_sm1 (i), pix_sm2 (i), θ_sm (i), and α_sm (i) are obtained by learning with a machine learning algorithm such as AdaBoost, although detailed explanation is omitted. It is.
笑顔スコアSCORE_smの測定は、図26(a)に示すように、顔辞書のpix_sm1(i),pix_sm2(i)、θ_sm(i)、およびα_sm(i)の各組に対応して、(7)式を満たすか否かを判断し、満たす場合には(8)式の演算を行い、一方、満たさない場合には(9)式の演算を行うことで、行われる。なお、(7)式で、pix_sm1(i)はその位置の輝度値を示し、pix_sm2(i)はその位置の輝度値を示している。 As shown in FIG. 26A, the smile score SCORE_sm is measured according to (7) corresponding to each set of face dictionary pix_sm1 (i), pix_sm2 (i), θ_sm (i), and α_sm (i). It is determined whether or not the expression (9) is satisfied. If the expression is satisfied, the calculation of the expression (8) is performed. If the expression is not satisfied, the calculation of the expression (9) is performed. In equation (7), pix_sm1 (i) indicates the luminance value at that position, and pix_sm2 (i) indicates the luminance value at that position.
pix_sm1(i)−pix_sm2(i)<θ_sm(i) ・・・(7)
SCORE_sm=SCORE_sm+α_sm(i) ・・・(8)
SCORE_sm=SCORE_sm−α_sm(i) ・・・(9)
pix_sm1 (i) −pix_sm2 (i) <θ_sm (i) (7)
SCORE_sm = SCORE_sm + α_sm (i) (8)
SCORE_sm = SCORE_sm−α_sm (i) (9)
図27のフローチャートは、笑顔スコアSCORE_smの測定処理の手順を示している。まず、顔検出部130は、ステップST111において、スコア測定処理を開始し、その後に、ステップST112に移る。このステップST112において、顔検出部130は、笑顔スコアSCORE_smを0に設定する。そして、顔検出部130は、ステップST113において、iを1に設定する。 The flowchart of FIG. 27 shows the procedure of the smile score SCORE_sm measurement process. First, in step ST111, the face detection unit 130 starts a score measurement process, and then proceeds to step ST112. In step ST112, the face detection unit 130 sets the smile score SCORE_sm to 0. Then, face detection section 130 sets i to 1 in step ST113.
次に、顔検出部130は、ステップST114において、pix_sm1(i)およびpix_sm2(i)に対応する輝度値を選択し、ステップST115において、pix_sm1(i)の輝度値からpix_sm2(i)の輝度値を差し引く演算を行う。そして、顔検出部130は、ステップST116において、演算結果であるpix_sm1(i)−pix_sm2(i)が閾値θ_sm(i)より小さいか否かを判定する((7)式参照))。 Next, the face detection unit 130 selects luminance values corresponding to pix_sm1 (i) and pix_sm2 (i) in step ST114, and in step ST115, the luminance value of pix_sm2 (i) from the luminance value of pix_sm1 (i). Perform the operation of subtracting. In step ST116, the face detection unit 130 determines whether or not the calculation result pix_sm1 (i) −pix_sm2 (i) is smaller than the threshold θ_sm (i) (see formula (7)).
pix_sm1(i)−pix_sm2(i)<θ_sm(i)を満たすとき、顔検出部130は、ステップST117において、笑顔スコアSCORE_smに重みα_sm(i)を加算する((8)式参照)。一方、pix_sm1(i)−pix_sm2(i)<θ_sm(i)を満たさないとき、顔検出部130は、ステップST118において、笑顔スコアSCORE_smから重みα_sm(i)を減算する((9)式参照)。 When pix_sm1 (i) −pix_sm2 (i) <θ_sm (i) is satisfied, the face detection unit 130 adds the weight α_sm (i) to the smile score SCORE_sm in step ST117 (see equation (8)). On the other hand, when pix_sm1 (i) −pix_sm2 (i) <θ_sm (i) is not satisfied, the face detection unit 130 subtracts the weight α_sm (i) from the smile score SCORE_sm in step ST118 (see equation (9)). .
顔検出部130は、ステップST117およびステップST118の処理の後、ステップST119に移る。このステップST119において、顔検出部130は、iをインクリメントする。そして、顔検出部130は、ステップST120において、iがt3より大きいか否かを判定する。iがt3より大きいとき、笑顔辞書のt3組の各組み合わせの処理を終了したことを意味する。顔検出部130は、i>t3でないときステップST74に戻って上述した処理を繰り返し、一方、i>t3であるとき、ステップST121において、笑顔スコア測定処理を終了する。
The face detection unit 130 proceeds to step ST119 after the processes of step ST117 and step ST118. In step ST119, the face detection unit 130 increments i. In step ST120, the face detection unit 130 determines whether i is greater than t3. When i is larger than t3, it means that the processing of each combination of t3 sets in the smile dictionary is finished. When i> t3 is not the case, the face detection unit 130 returns to step ST74 and repeats the above-described processing. When i> t3, the face detection unit 130 ends the smile score measurement processing at step ST121.
「注目顔画像の特定」
次に、注目顔画像の特定処理について説明する。制御部110は、顔検出部130で検出された各顔画像について顔の重要度を計算し、最も重要度の高い顔画像を注目顔画像(主要被写体)とする。
"Identification of attention face image"
Next, the process of specifying the attention face image will be described. The control unit 110 calculates the importance level of each face image detected by the face detection unit 130, and sets the face image with the highest importance level as the attention face image (main subject).
図28のフローチャートは、制御部110における顔の重要度の計算処理の手順を示している。ここで、制御部110は、顔画像のサイズ情報および位置情報に基づいて顔の重要度を求める。この処理手順では、顔画像のサイズ情報に基づいて第1の重要度因子を演算するとともに、顔画像の位置情報に基づいて第2の重要度因子を演算し、これら第1および第2の重要度因子に基づいて、最終的な重要度を求める。 The flowchart of FIG. 28 shows the procedure of face importance calculation processing in the control unit 110. Here, the control unit 110 obtains the importance level of the face based on the size information and position information of the face image. In this processing procedure, the first importance factor is calculated based on the size information of the face image, and the second importance factor is calculated based on the position information of the face image, and the first and second importance factors are calculated. Determine the final importance based on the degree factor.
制御部110は、ステップST131において、処理を開始し、その後に、ステップST132の処理に移る。このステップST132において、制御部110は、顔検出部130から、各顔画像(各検出顔)の、サイズ情報、位置情報および傾き情報を取得する。なお、上述の顔画像検出の説明では、顔画像の傾き情報については説明していない。この顔画像の傾き情報については、以下のようにして、顔画像検出部130における顔画像の検出時に同時に得ることができる。 In step ST131, control unit 110 starts processing, and then proceeds to processing in step ST132. In step ST132, the control unit 110 acquires size information, position information, and tilt information of each face image (each detected face) from the face detection unit 130. In the description of face image detection described above, the tilt information of the face image is not described. The face image inclination information can be obtained at the same time as the face image detection unit 130 detects the face image as follows.
すなわち、顔検出部130は、上述したように、アダブースト(AdaBoost)等の機械学習アルゴリズムにより学習された顔辞書を用いて顔画像の検出を行う際に、複数の顔の傾きに対応した顔辞書を並行して使用する。顔検出部130は、顔画像が検出されたとき、その検出で使用された顔辞書に対応付けられている顔の傾きを、検出された顔画像の傾きとする。なお、顔検出部102は、複数の顔辞書で測定された顔スコアSCORE_faが0より大きくなった場合、最も大きな顔スコアSCORE_faが得られる顔辞書に対応付けられている顔回転角度を、検出された顔画像の顔の傾きとする。顔検出部130は、図24のステップST97において、この顔画像の傾き情報も、記憶装置部に記憶する。 That is, as described above, the face detection unit 130 detects a face image using a face dictionary learned by a machine learning algorithm such as AdaBoost, and the face dictionary corresponding to a plurality of face inclinations. Are used in parallel. When a face image is detected, the face detection unit 130 sets the inclination of the face associated with the face dictionary used in the detection as the inclination of the detected face image. Note that when the face score SCORE_fa measured in a plurality of face dictionaries is greater than 0, the face detection unit 102 detects the face rotation angle associated with the face dictionary that provides the largest face score SCORE_fa. The inclination of the face of the face image. In step ST97 of FIG. 24, the face detection unit 130 also stores the inclination information of the face image in the storage device unit.
図28に戻って、次に、制御部110は、ステップST133において、各顔画像について、そのサイズと画面全体のサイズとの比(顔の割合)を計算し、メモリ(RAM)121などに一時的に記憶する。そして、制御部110は、ステップST134において、ステップST133の計算結果に基づいて、画面全体に対する顔のサイズ比から想定される重要度を示す顔のサイズ重要度因子Wsizeを、最初の顔画像(検出顔)について計算する。 Returning to FIG. 28, next, in step ST133, the control unit 110 calculates a ratio (face ratio) between the size of each face image and the size of the entire screen and temporarily stores it in the memory (RAM) 121 or the like. Remember me. Then, in step ST134, the control unit 110 calculates the face size importance factor Wsize indicating the importance assumed from the face size ratio with respect to the entire screen, based on the calculation result of step ST133, for the first face image (detection). Face).
顔のサイズ重要度因子Wsizeは、例えば、顔の割合r_sizeの大きさに応じて以下の(10)〜(12)式により計算される。なお、Rfb1,Rfb2はそれぞれ閾値であり、Rfb1<Rfb2である。 The face size importance factor Wsize is calculated by, for example, the following equations (10) to (12) according to the size of the face ratio r_size. Rfb1 and Rfb2 are threshold values, and Rfb1 <Rfb2.
r_size>Rfb2のとき:
Wsize=100[%] …(10)
Rfb1≦r_size≦Rfb2のとき:
Wsize=100*(r_size−Rfb1)/(Rfb2−Rfb1)
…(11)
r_size<Rfb1のとき:
Wsize=0[%] ……(12)
When r_size> Rfb2:
Wsize = 100 [%] (10)
When Rfb1 ≦ r_size ≦ Rfb2:
Wsize = 100 * (r_size-Rfb1) / (Rfb2-Rfb1)
... (11)
When r_size <Rfb1:
Wsize = 0 [%] (12)
図29には、顔の割合r_sizeと顔のサイズ重要度因子Wsizeとの対応関係を示している。上記の式(10)〜(12)、および図29によれば、画面に対する顔の割合r_sizeが一定の閾値Rfb2を超えている場合には、撮影者がその顔を意図的に撮像対象としたものと判断して、顔のサイズ重要度因子Wsizeを最大値の100%としている。 FIG. 29 shows the correspondence between the face ratio r_size and the face size importance factor Wsize. According to the above formulas (10) to (12) and FIG. 29, when the ratio r_size of the face to the screen exceeds a certain threshold value Rfb2, the photographer intentionally selected the face as an imaging target. The face size importance factor Wsize is set to 100% of the maximum value.
逆に、顔の割合r_sizeが一定のしきい値Rfb1未満の場合には、その顔が撮像対象ではなく、他の顔や背景などが撮像対象になっていると判断して、顔のサイズ重要度因子Wsizeを0%としている。また、顔の割合r_sizeがある範囲(Rfb1〜Rfb2)の場合には、その顔が撮像対象であるか否かについて明確な判断ができないため、その割合に応じて顔のサイズ重要度因子Wsizeを連続的に変化させている。すなわち、顔の割合r_sizeが大きいほど、撮像対象である確率が高く、重要度が高いと判断する。 On the other hand, when the face ratio r_size is less than a certain threshold value Rfb1, it is determined that the face is not an imaging target, and other faces and backgrounds are the imaging target, and the size of the face is important. The degree factor Wsize is set to 0%. In addition, when the face ratio r_size is within a certain range (Rfb1 to Rfb2), it is not possible to clearly determine whether or not the face is an imaging target. It is changing continuously. That is, the larger the face ratio r_size, the higher the probability of being an imaging target, and the higher the importance.
次に、制御部110は、ステップST135において、顔のサイズ重要度因子Wsizeが0%であるか否かを判定する。Wsizeが0%でないとき、制御部110は、ステップST136の処理に移る。このステップST136において、制御部110は、予め設定された画面中心領域と顔画像との距離Lを計算する。そして、制御部110は、ステップST137において、画面内における顔の位置から想定される重要度を示す顔の位置重要度因子PosWを計算する。すなわち、制御部110は、距離Lに応じて、顔の位置重要度因子の最大値PosWhと最小値PosWlを計算する。 Next, in step ST135, the control unit 110 determines whether or not the face size importance factor Wsize is 0%. When Wsize is not 0%, control unit 110 proceeds to the process of step ST136. In step ST136, the control unit 110 calculates a distance L between the preset screen center area and the face image. In step ST137, the control unit 110 calculates a face position importance factor PosW indicating the importance assumed from the position of the face in the screen. That is, the control unit 110 calculates the maximum value PosWh and the minimum value PosWl of the face position importance factor according to the distance L.
次に、制御部110は、ステップST138において、挟角を計算する。この場合、制御部110は、顔の位置と傾きの情報に基づいて、顔から足への予測重心射線LineAと、顔から画面中心への射線LineBとがなす夾角angを計算する。そして、制御部110は、ステップST139において、ステップST137の計算結果と、ステップST138の計算結果とに基づいて、顔の位置姿勢重要度因子Wposを計算する。 Next, in step ST138, control unit 110 calculates the included angle. In this case, the control unit 110 calculates the depression angle ang formed by the predicted center-of-gravity ray LineA from the face to the foot and the ray LineB from the face to the center of the screen, based on the face position and tilt information. Then, in step ST139, the control unit 110 calculates the face position / posture importance factor Wpos based on the calculation result of step ST137 and the calculation result of step ST138.
この顔の位置姿勢重要度因子Wposは、画面内の顔の位置と傾きとから想定される重要度を示すものである。この顔の位置姿勢重要度因子Wposの採る範囲は、ステップST136での計算結果に基づき、画面中心領域と顔画像との距離Lの値に応じて制限される。 The face position / posture importance factor Wpos indicates the importance assumed from the position and inclination of the face in the screen. The range taken by the face position / posture importance factor Wpos is limited according to the value of the distance L between the screen center region and the face image, based on the calculation result in step ST136.
次に、制御部110は、ステップST140において、以下の(13)式を用いて、各顔画像(各検出顔)についての最終的な重要度Wfを計算する。
Wf=Wsize×Wpos …(13)
Next, in step ST140, the control unit 110 calculates the final importance Wf for each face image (each detected face) using the following equation (13).
Wf = Wsize × Wpos (13)
この(13)式を用いることにより、顔の重要度Wfは、画面上の顔画像の大きさ、位置、および傾きの3つのパラメータに基づいて算出される。 By using this equation (13), the importance Wf of the face is calculated based on three parameters of the size, position and inclination of the face image on the screen.
なお、顔の重要度Wfの計算式の変形例として、以下の(14)式も考えられる。この(14)式によれば、顔の重要度Wfは、画面上の顔画像の大きさ、位置に基づいて算出される。
Wf=(サイズ係数)×r_size
−(x係数)×(画面中心から検出顔までのx距離)
−(y係数)×(画面中心から検出顔までのy距離) …(14)
It should be noted that the following formula (14) is also conceivable as a modification of the formula for calculating the importance Wf of the face. According to this equation (14), the importance Wf of the face is calculated based on the size and position of the face image on the screen.
Wf = (size factor) × r_size
-(X coefficient) x (x distance from the center of the screen to the detected face)
− (Y coefficient) × (y distance from the center of the screen to the detected face) (14)
この(14)式において、サイズ係数を大きくとることによって、撮像画像中で大きく映されている顔画像ほど、顔の重要度Wfが大きくなり、注目顔画像(主要被写体)と判定され易くなる。また、(14)式において、x係数並びにy係数を大きくとることにより、撮像画像中で水平方向並びに垂直方向のそれぞれで真ん中に近い位置に存在するほど、顔の重要度Wfが大きくなり、注目顔画像と判定され易くなる。 In the equation (14), by increasing the size coefficient, the face image that is shown larger in the captured image has a larger face importance Wf, and is more likely to be determined as the attention face image (main subject). Further, in the equation (14), by increasing the x coefficient and the y coefficient, the importance Wf of the face increases as the position is closer to the center in the horizontal direction and the vertical direction in the captured image, and attention is paid. A face image is easily determined.
また、制御部110は、ステップST135で顔のサイズ重要度因子Wsizeが0%であったときには、ステップST141において、最終的な顔の重要度Wfを0とする。制御部110は、ステップST140またはステップST141の処理を実行した後、ステップST142の処理に移る。このステップST142において、制御部110は、検出部130で検出された全ての顔画像について、顔の重要度Wfの計算が終了したか否かを判断する。終了していないときは、ステップST134に戻って、次の顔画像(検出顔)について、同様に顔の重要度Wfの計算を実行する。そして、全ての顔画像についての計算が終了したとき、制御部110は、ステップST143において、処理を終了する。 If the face size importance factor Wsize is 0% in step ST135, the control unit 110 sets the final face importance Wf to 0 in step ST141. After executing the process of step ST140 or step ST141, control unit 110 proceeds to the process of step ST142. In step ST142, the control unit 110 determines whether or not the calculation of the importance level Wf of the face has been completed for all the face images detected by the detection unit 130. If not completed, the process returns to step ST134, and the face importance Wf is similarly calculated for the next face image (detected face). Then, when the calculation for all the face images is completed, the control unit 110 ends the process in step ST143.
なお、図28のフローチャートのステップST136〜ステップST139の処理の詳細に関しては、本出願人による先願である特開2007−201980号公報に記載されている。 The details of the processing in steps ST136 to ST139 in the flowchart of FIG. 28 are described in Japanese Patent Application Laid-Open No. 2007-201980, which is a prior application by the present applicant.
制御部110は、上述の(13)式または(14)式を用いて、各顔画像(各検出顔)について顔の重要度Wfを計算する。そして、最も重要度の高い顔画像を、注目顔画像として特定する。なお、顔の重要度Wfの計算式は、上述の(13)式、(14)式に限定されるものではない。 The control unit 110 calculates the importance Wf of the face for each face image (each detected face) using the above-described expression (13) or (14). Then, the face image having the highest importance is specified as the attention face image. Note that the formula for calculating the importance Wf of the face is not limited to the above formulas (13) and (14).
笑顔シャッターモードにおいては、このように特定された注目顔画像に対して、制御部110は、その位置の安定を判断する。また、制御部110は、当該注目顔画像の検出枠に対応した画像情報を解析して、フォーカス調整および露出調整を行って、モニタリング状態から笑顔待ち状態に移行する。
In the smile shutter mode, the control unit 110 determines the stability of the position of the attention face image specified in this way. Further, the control unit 110 analyzes the image information corresponding to the detection frame of the target face image, performs focus adjustment and exposure adjustment, and shifts from the monitoring state to the smile waiting state.
以上説明したように、図1、図2に示す撮像装置10においては、笑顔シャッターモードにあるとき、撮像画像に含まれる顔画像が検出されると、撮像部におけるフォーカスおよび露出に係る撮像パラメータが設定されて笑顔待ち状態となり、この状態で笑顔が検出されたとき撮影が行われる。 As described above, in the imaging apparatus 10 shown in FIGS. 1 and 2, when a face image included in the captured image is detected in the smile shutter mode, the imaging parameters related to focus and exposure in the imaging unit are set. It is set to enter a smile waiting state, and shooting is performed when a smile is detected in this state.
この場合、笑顔待ち状態において、注目顔画像のサイズ変化、注目顔画像の消失、変更、撮像画像の明るさ変化、ユーザによるズーム操作、露出調整等がある場合には、被写体の状態変化があったと判断されて、モニタリング状態に戻り(図4参照)、撮像部におけるフォーカスおよび露出に係る撮像パラメータの再設定が行われる。そのため、被写体の状態変化があるとき、例えば注目顔画像(主要被写体)にピントが合わない状態で自動撮影が行われる等ということがなく、常に良好な状態で自動撮影が行われる。 In this case, when there is a change in the size of the target face image, disappearance or change of the target face image, change in brightness of the captured image, zoom operation by the user, exposure adjustment, etc. It is determined that the image pickup parameter is returned to the monitoring state (see FIG. 4), and the image pickup parameters relating to the focus and exposure in the image pickup unit are reset. Therefore, when there is a change in the state of the subject, for example, automatic shooting is not performed in a state where the focused face image (main subject) is out of focus, and automatic shooting is always performed in a good state.
また、図1、図2に示す撮像装置10においては、笑顔シャッターモードの笑顔待ち状態にあるとき、被写体の状態変化があってモニタリング状態に戻り、撮像部におけるフォーカスおよび露出に係る撮像パラメータの再設定が行われる際には、その旨が、LED22の点滅発光、あるいはモニタ13、ビューファインダ17への文字表示などによって、被写体側および撮影者側に報知される。そのため、例えば、被写体側では、当該報知により、撮像部におけるフォーカスおよび露出に係る撮像パラメータの再設定が行われることがわかるので、笑顔のままずっと待っているということを回避できる。 Also, in the imaging apparatus 10 shown in FIGS. 1 and 2, when the smiling shutter mode is in the smile waiting state, the state of the subject is changed and the monitoring state is restored, and the imaging parameters relating to the focus and exposure in the imaging unit are restored. When the setting is performed, this is notified to the subject side and the photographer side by flashing light emission of the LED 22 or displaying characters on the monitor 13 and the viewfinder 17. Therefore, for example, on the subject side, it can be understood that the imaging parameter related to the focus and exposure in the imaging unit is reset by the notification, so that it is possible to avoid waiting for a while with a smile.
また、図1、図2に示す撮像装置10においては、笑顔シャッターモードにあるとき、ユーザ操作部で行われるシャッター操作に基づいて、一時的に通常撮影モードに遷移し(図10、図11参照)、撮影を行うことができる。これにより、笑顔シャッターモードにある場合にあっても、撮影者は、必要に応じて、適宜撮影を行うことができる。なお、撮像部におけるフォーカスおよび露出に係る撮像パラメータが既に設定されている笑顔待ち状態でシャッター操作があった場合、通常撮影モードの固定状態に遷移する場合には(図11の経路P6参照)、撮像部におけるフォーカスおよび露出に係る撮像パラメータの設定を経ずに撮影を行うことができるので、シャッターチャンスを逃さずに撮影を行うことができる。 Also, in the imaging apparatus 10 shown in FIGS. 1 and 2, when in the smile shutter mode, the camera temporarily shifts to the normal shooting mode based on the shutter operation performed by the user operation unit (see FIGS. 10 and 11). ), You can shoot. Thereby, even when the camera is in the smile shutter mode, the photographer can appropriately perform photographing as necessary. In addition, when a shutter operation is performed in a smile waiting state in which imaging parameters related to focus and exposure in the imaging unit are already set, or when transitioning to a fixed state of the normal shooting mode (see path P6 in FIG. 11), Since imaging can be performed without setting imaging parameters related to focus and exposure in the imaging unit, imaging can be performed without missing a photo opportunity.
また、図1,図2に示す撮像装置10においては、笑顔シャッターモードにあるとき、モニタリング状態で顔画像が検出されるとき、フォーカス調整および露出調整が行われて、撮像部におけるフォーカスおよび露出に係る撮像パラメータが設定された後に、笑顔待ち状態に移行する。図1,図2に示す撮像装置10においては、このフォーカス調整および露出調整は、顔画像の移動が停止し、その位置が安定した後に行われる。そのため、例えば、最終的な顔画像位置にピントが合わない状態で撮像部における撮像パラメータが設定されるということがなくなる。 Also, in the imaging apparatus 10 shown in FIGS. 1 and 2, when a face image is detected in the monitoring state when in the smile shutter mode, focus adjustment and exposure adjustment are performed to adjust the focus and exposure in the imaging unit. After such imaging parameters are set, the process shifts to a smile wait state. In the imaging apparatus 10 shown in FIGS. 1 and 2, the focus adjustment and the exposure adjustment are performed after the movement of the face image is stopped and the position is stabilized. For this reason, for example, the imaging parameter in the imaging unit is not set in a state where the final face image position is out of focus.
なお、上述実施の形態においては、撮像画像から検出される特定画像が顔画像であるものを示したが、この発明は、撮像画像から顔画像以外の特定物体画像(例えば、犬、猫などの動物)を検出し、当該特定物体画像が特定状態(例えば、犬、猫などの動物の特定の姿勢)となるとき自動的に撮影を行う撮像装置にも同様に適用できる。また、上述実施の形態においては、顔画像から検出される特定の表情が笑顔であるものを示したが、その他の表情、例えば泣き顔、怒り顔等であってもよい。 In the above-described embodiment, the specific image detected from the captured image is a facial image. However, the present invention is not limited to a specific object image other than the facial image (for example, a dog, a cat, etc.). The present invention can be similarly applied to an imaging apparatus that detects an animal and automatically captures an image when the specific object image is in a specific state (for example, a specific posture of an animal such as a dog or a cat). In the above-described embodiment, the specific facial expression detected from the face image is a smile, but other facial expressions such as a crying face and an angry face may be used.
また、上述実施の形態においては、注目顔画像のサイズ変化、注目顔画像の消失、変更、撮像画像の明るさ変化、ユーザによるズーム操作、露出調整等がある場合に、被写体の状態変化があったと判断するが、被写体の状態変化があったと判断する場合(態様)はこれに限定されない。撮像部におけるフォーカス、露出に係る撮像パラメータの再設定を行うことが必要となる、その他の場合にあっても同様に被写体の状態変化があったと判断するようにしてもよい。 In the above-described embodiment, there is a change in the state of the subject when there is a change in the size of the target face image, a disappearance or change of the target face image, a change in brightness of the captured image, a zoom operation by the user, an exposure adjustment, or the like. However, the case (mode) in which it is determined that there has been a change in the state of the subject is not limited to this. In other cases where it is necessary to reset imaging parameters relating to focus and exposure in the imaging unit, it may be determined that there has been a change in the state of the subject.
また、上述実施の形態においては、笑顔シャッターモードの笑顔待ち受け状態にあるとき、被写体の状態変化があったと判断される場合には、撮像部におけるフォーカス、露出に係る撮像パラメータの再設定を行うものを示したが、必ずしもフォーカス、露出の双方に係る撮像パラメータの再設定を行う必要はなく、いずれか一方のみを再設定することも考えられる。あるいは、これらフォーカス、露出に係る撮像パラメータの他に、ホワイトバランス等の画質に係る撮像パラメータの再設定も行われるようにしてもよい。 Further, in the above-described embodiment, when it is determined that there has been a change in the state of the subject in the smile standby mode in the smile shutter mode, the imaging parameters relating to the focus and exposure in the imaging unit are reset. However, it is not always necessary to reset the imaging parameters relating to both focus and exposure, and it is possible to reset only one of them. Alternatively, in addition to the imaging parameters related to focus and exposure, the imaging parameters related to image quality such as white balance may be reset.
この発明は、被写体の状態変化があっても常に良好な状態で自動撮影が行われるものであり、デジタルスチルカメラ等の静止画撮影が可能な撮像装置に適用できる。 The present invention allows automatic shooting to always be performed in a good state even when the state of the subject changes, and can be applied to an imaging apparatus capable of shooting still images, such as a digital still camera.
10・・・撮像装置、11・・・電源スイッチ、12・・・レリーズスイッチ、13・・・モニタ、14・・・イメージャ、15・・・ズームボタン、16・・・操作ボタン、17・・・ビューファインダ、18・・・フォーカスレンズ、19・・・ズームレンズ、20・・・モードダイアル、21・・・アイリス、22・・・LED、104・・・アナログ信号処理部、105・・・A/D変換部、108・・・デジタル信号処理部、110・・・制御部、111・・・ジャイロ、112・・・モータドライバ、113・・・ズームレンズ駆動モータ、114・・・フォーカスレンズ駆動モータ、115・・・記録デバイス、116・・・アイリスドライバ、118・・・操作部、119・・・メモリ(EEPROM)、120・・・メモリ(ROM)、121・・・メモリ(RAM)、130・・・顔検出部 DESCRIPTION OF SYMBOLS 10 ... Imaging device, 11 ... Power switch, 12 ... Release switch, 13 ... Monitor, 14 ... Imager, 15 ... Zoom button, 16 ... Operation button, 17 ... Viewfinder, 18 ... focus lens, 19 ... zoom lens, 20 ... mode dial, 21 ... iris, 22 ... LED, 104 ... analog signal processing unit, 105 ... A / D conversion unit, 108 ... digital signal processing unit, 110 ... control unit, 111 ... gyro, 112 ... motor driver, 113 ... zoom lens drive motor, 114 ... focus lens Drive motor 115 ... Recording device 116 ... Iris driver 118 ... Operation unit 119 ... Memory (EEPROM) 120 ... Memo (ROM), 121 ··· memory (RAM), 130 ··· face detection unit
Claims (15)
上記撮像部で得られた画像情報に基づいて、上記撮像画像に含まれる特定物体画像を検出する物体検出部と、
上記物体検出部で上記撮像画像に含まれる上記特定物体画像が検出されたとき、該特定物体画像に対応した画像情報に基づいて、上記撮像部における撮像パラメータを設定する撮像パラメータ設定部と、
上記物体検出部で検出された上記特定物体画像に対応した画像情報に基づいて、上記特定物体画像の特定状態を検出する特定状態検出部と、
上記撮像パラメータ設定部で上記撮像部における撮像パラメータが設定された状態で、上記特定状態検出部で上記特定状態が検出されたとき、撮影指示を行う撮影制御部と、
上記撮像部で撮像される被写体の状態変化を検出する状態変化検出部を備え、
上記撮像パラメータ設定部により上記撮像部における撮像パラメータが設定された状態で、上記状態変化検出部で上記被写体の状態変化が検出されたとき、上記撮像パラメータ設定部は、上記物体検出部で上記撮像画像に含まれる上記特定物体画像が検出された後、該特定物体画像に対応した画像情報に基づいて、上記撮像部における撮像パラメータを再設定する
撮像装置。 An imaging unit that images a subject and obtains image information corresponding to the captured image of the subject;
An object detection unit that detects a specific object image included in the captured image based on image information obtained by the imaging unit;
An imaging parameter setting unit for setting imaging parameters in the imaging unit based on image information corresponding to the specific object image when the specific object image included in the captured image is detected by the object detection unit;
A specific state detection unit for detecting a specific state of the specific object image based on image information corresponding to the specific object image detected by the object detection unit;
A shooting control unit that issues a shooting instruction when the specific state is detected by the specific state detection unit in a state in which the imaging parameters in the imaging unit are set by the imaging parameter setting unit;
A state change detection unit for detecting a state change of a subject imaged by the imaging unit;
When the imaging parameter setting unit sets the imaging parameters in the imaging unit, and the state change detection unit detects a change in the state of the subject, the imaging parameter setting unit performs the imaging in the object detection unit. An imaging apparatus that resets imaging parameters in the imaging unit based on image information corresponding to the specific object image after the specific object image included in the image is detected.
請求項1に記載の撮像装置。 When the specific object image detected by the object detection unit is moving, the imaging parameter setting unit is based on image information corresponding to the specific object image after the movement of the specific object image is stopped. The imaging device according to claim 1, wherein imaging parameters in the imaging unit are set.
請求項1に記載の撮像装置。 2. The information processing apparatus according to claim 1, further comprising: a notifying unit that notifies at least the subject side or the photographer that the imaging parameter setting unit resets the imaging parameter when the imaging parameter is reset in the imaging unit. The imaging device described.
請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein the state change detection unit detects a state change of the subject based on a change in the specific object image detected by the object detection unit.
請求項4に記載の撮像装置。 The imaging device according to claim 4, wherein the change in the specific object image is a size change in the target specific object image detected by the object detection unit.
請求項4に記載の撮像装置。 The imaging apparatus according to claim 4, wherein the change in the specific object image is a disappearance or a change of the target specific object image detected by the object detection unit.
請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein the state change detection unit detects a state change of the subject based on a change in brightness of the subject imaged by the imaging unit.
請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein the imaging parameter set by the imaging parameter setting unit is an imaging parameter related to at least focus or exposure in the imaging unit.
上記特定状態検出部で検出される特定状態は上記顔画像の特定の表情である
請求項1に記載の撮像装置。 The specific object image detected by the object detection unit is a face image,
The imaging device according to claim 1, wherein the specific state detected by the specific state detection unit is a specific facial expression of the face image.
請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein the state change detection unit detects a state change of the subject based on a zoom operation or exposure adjustment by a user.
上記撮影制御部は、上記ユーザ操作部で行われるシャッター操作に基づいて上記撮影指示を行う
請求項1に記載の撮像装置、 A user operation unit for a user to perform a shutter operation;
The imaging apparatus according to claim 1, wherein the imaging control unit issues the imaging instruction based on a shutter operation performed by the user operation unit.
請求項11に記載の撮像装置。 When the shutter operation is performed when the imaging parameter setting unit does not set the imaging parameter in the imaging unit, the imaging control unit adds the image information obtained by the imaging unit to the image information obtained by the imaging parameter setting unit. The imaging apparatus according to claim 11, wherein the imaging instruction is issued after imaging parameters in the imaging unit are set based on the imaging parameters.
請求項11に記載お撮像装置。 The imaging apparatus according to claim 11, wherein the imaging control unit immediately gives the imaging instruction when the shutter operation is performed in a state where imaging parameters in the imaging unit are set by the imaging parameter setting unit.
上記物体検出ステップで上記特定物体画像が検出されたとき、該特定物体画像に対応した画像情報に基づいて、上記撮像部における撮像パラメータを設定する撮像パラメータ設定ステップと、
上記物体検出ステップで検出された上記特定物体画像に対応した画像情報に基づいて、上記特定物体画像の特定状態を検出する特定状態検出ステップと、
上記撮像パラメータ設定ステップで上記撮像部における撮像パラメータが設定された状態で、上記特定状態検出ステップで上記特定状態が検出されたとき、撮影指示を行う撮影制御ステップと、
上記撮像部で撮像される被写体の状態変化を検出する状態変化検出ステップを備え、
上記撮像部における撮像パラメータが設定されている状態で、上記状態変化検出ステップで上記被写体の状態変化が検出されたとき、上記撮像パラメータ設定ステップでは、上記物体検出ステップで上記撮像画像に含まれる上記特定物体画像が検出された後、該特定物体画像に対応した画像情報に基づき、上記撮像部における撮像パラメータを再設定する
撮像方法。 An object detection step of detecting a specific object image included in the captured image based on image information corresponding to the captured image obtained by the imaging unit;
An imaging parameter setting step for setting an imaging parameter in the imaging unit based on image information corresponding to the specific object image when the specific object image is detected in the object detection step;
A specific state detection step for detecting a specific state of the specific object image based on image information corresponding to the specific object image detected in the object detection step;
A shooting control step for giving a shooting instruction when the specific state is detected in the specific state detection step in a state where the imaging parameters in the imaging unit are set in the imaging parameter setting step;
A state change detecting step for detecting a state change of a subject imaged by the imaging unit;
When a change in the state of the subject is detected in the state change detection step in the state where the imaging parameter is set in the imaging unit, the imaging parameter setting step includes the captured image included in the captured image in the object detection step. An imaging method for resetting imaging parameters in the imaging unit based on image information corresponding to the specific object image after a specific object image is detected.
撮像部で得られる撮像画像に対応した画像情報に基づいて、該撮像画像に含まれる特定物体画像を検出する物体検出手段と、
上記物体検出手段で上記特定物体画像が検出されたとき、該特定物体画像に対応した画像情報に基づいて、上記撮像部における撮像パラメータを設定する撮像パラメータ設定手段と、
上記物体検出手段で検出された上記特定物体画像に対応した画像情報に基づいて、上記特定物体画像の特定状態を検出する特定状態検出手段と、
上記撮像パラメータ設定手段で上記撮像部における撮像パラメータが設定された状態で、上記特定状態検出ステップで上記特定状態が検出されたとき、撮影指示を行う撮影制御手段と、
上記撮像部で撮像される被写体の状態変化を検出する状態変化検出手段と
して機能させ、
上記撮像パラメータ設定手段により上記撮像部における撮像パラメータが設定されている状態で、上記状態変化検出手段で上記被写体の状態変化が検出されたとき、上記撮像パラメータ設定手段は、上記物体検出手段で上記撮像画像に含まれる上記特定物体画像が検出された後、該特定物体画像に対応した画像情報に基づいて、上記撮像部における撮像パラメータを再設定する
プログラム。 Computer
Object detection means for detecting a specific object image included in the captured image based on image information corresponding to the captured image obtained by the imaging unit;
An imaging parameter setting unit configured to set an imaging parameter in the imaging unit based on image information corresponding to the specific object image when the specific object image is detected by the object detection unit;
Specific state detection means for detecting a specific state of the specific object image based on image information corresponding to the specific object image detected by the object detection means;
An imaging control means for giving an imaging instruction when the specific state is detected in the specific state detection step in a state where the imaging parameters in the imaging unit are set by the imaging parameter setting means,
Function as state change detection means for detecting a change in the state of the subject imaged by the imaging unit,
When a change in the state of the subject is detected by the state change detection unit in a state where the imaging parameter is set in the imaging unit by the imaging parameter setting unit, the imaging parameter setting unit is the object detection unit. A program for resetting imaging parameters in the imaging unit based on image information corresponding to the specific object image after the specific object image included in the captured image is detected.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008200227A JP2010041255A (en) | 2008-08-01 | 2008-08-01 | Imaging device, imaging method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008200227A JP2010041255A (en) | 2008-08-01 | 2008-08-01 | Imaging device, imaging method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010041255A true JP2010041255A (en) | 2010-02-18 |
Family
ID=42013349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008200227A Pending JP2010041255A (en) | 2008-08-01 | 2008-08-01 | Imaging device, imaging method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010041255A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103763476A (en) * | 2014-02-20 | 2014-04-30 | 北京百纳威尔科技有限公司 | Shooting parameter setting method and device |
JP2019197947A (en) * | 2018-05-07 | 2019-11-14 | シャープ株式会社 | Electronic device, imaging method, control device, and control program |
JP2020188448A (en) * | 2019-05-14 | 2020-11-19 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Imaging apparatus and imaging method |
JP2021034875A (en) * | 2019-08-23 | 2021-03-01 | 株式会社東海理化電機製作所 | Imaging control system, control device, and computer program |
CN112995522A (en) * | 2021-04-27 | 2021-06-18 | 浙江华创视讯科技有限公司 | Face focusing method and device, electronic equipment and storage medium |
CN113452899A (en) * | 2020-03-25 | 2021-09-28 | 卡西欧计算机株式会社 | Image processing apparatus, image processing method, and storage medium |
WO2023020006A1 (en) * | 2021-08-20 | 2023-02-23 | 荣耀终端有限公司 | Photographing control method based on foldable screen and electronic device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02256041A (en) * | 1988-12-28 | 1990-10-16 | Konica Corp | Camera |
JP2003121721A (en) * | 2001-10-18 | 2003-04-23 | Canon Inc | Imaging device and its focusing control method, and program |
JP2005331590A (en) * | 2004-05-18 | 2005-12-02 | Canon Inc | Imaging unit |
JP2006208558A (en) * | 2005-01-26 | 2006-08-10 | Canon Inc | Imaging device |
JP2007281536A (en) * | 2006-04-03 | 2007-10-25 | Seiko Epson Corp | Object shake detector, photographing device, and method of controlling them, control program, and recording medium |
JP2008131204A (en) * | 2006-11-17 | 2008-06-05 | Canon Inc | Imaging apparatus and its control method and program and storage medium |
-
2008
- 2008-08-01 JP JP2008200227A patent/JP2010041255A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02256041A (en) * | 1988-12-28 | 1990-10-16 | Konica Corp | Camera |
JP2003121721A (en) * | 2001-10-18 | 2003-04-23 | Canon Inc | Imaging device and its focusing control method, and program |
JP2005331590A (en) * | 2004-05-18 | 2005-12-02 | Canon Inc | Imaging unit |
JP2006208558A (en) * | 2005-01-26 | 2006-08-10 | Canon Inc | Imaging device |
JP2007281536A (en) * | 2006-04-03 | 2007-10-25 | Seiko Epson Corp | Object shake detector, photographing device, and method of controlling them, control program, and recording medium |
JP2008131204A (en) * | 2006-11-17 | 2008-06-05 | Canon Inc | Imaging apparatus and its control method and program and storage medium |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103763476A (en) * | 2014-02-20 | 2014-04-30 | 北京百纳威尔科技有限公司 | Shooting parameter setting method and device |
JP2019197947A (en) * | 2018-05-07 | 2019-11-14 | シャープ株式会社 | Electronic device, imaging method, control device, and control program |
JP7145638B2 (en) | 2018-05-07 | 2022-10-03 | シャープ株式会社 | ELECTRONIC DEVICE, IMAGING METHOD, CONTROL DEVICE, AND CONTROL PROGRAM |
JP2020188448A (en) * | 2019-05-14 | 2020-11-19 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Imaging apparatus and imaging method |
JP2021034875A (en) * | 2019-08-23 | 2021-03-01 | 株式会社東海理化電機製作所 | Imaging control system, control device, and computer program |
WO2021039260A1 (en) * | 2019-08-23 | 2021-03-04 | 株式会社東海理化電機製作所 | Imaging control system, control device, and non-transitory computer-readable medium |
CN113452899A (en) * | 2020-03-25 | 2021-09-28 | 卡西欧计算机株式会社 | Image processing apparatus, image processing method, and storage medium |
CN112995522A (en) * | 2021-04-27 | 2021-06-18 | 浙江华创视讯科技有限公司 | Face focusing method and device, electronic equipment and storage medium |
WO2023020006A1 (en) * | 2021-08-20 | 2023-02-23 | 荣耀终端有限公司 | Photographing control method based on foldable screen and electronic device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4254873B2 (en) | Image processing apparatus, image processing method, imaging apparatus, and computer program | |
US8830343B2 (en) | Digital camera | |
JP5789091B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP2010041255A (en) | Imaging device, imaging method, and program | |
EP1522952B1 (en) | Digital camera | |
JP5171468B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP3907397B2 (en) | Video surveillance device | |
US7957633B2 (en) | Focus adjusting apparatus and focus adjusting method | |
KR20080027443A (en) | Imaging apparatus, control method of imaging apparatus, and computer program | |
JP2003344891A (en) | Automatic photographing mode setting camera | |
KR20060050472A (en) | Image capture apparatus and control method therefor | |
JP2001330882A (en) | Camera with subject recognizing function | |
US8350918B2 (en) | Image capturing apparatus and control method therefor | |
JP2007304280A (en) | Imaging apparatus, its control method, program and storage medium | |
JP6116277B2 (en) | Imaging apparatus and control method thereof | |
TW201102938A (en) | Image capturing apparatus, face area detecting method and program recording medium | |
JP5384273B2 (en) | Camera and camera recording method | |
JP4551270B2 (en) | Image processing apparatus, image processing method, image processing program, and camera | |
JP2008028747A (en) | Imaging device and program thereof | |
JP2007133301A (en) | Autofocus camera | |
US7916206B2 (en) | Focus detection apparatus and focusing control apparatus utilizing photoelectric converting element output | |
US20090102936A1 (en) | Camera | |
JP2007328213A (en) | Imaging apparatus, imaging apparatus control method, and computer program | |
JP2019121815A (en) | Imaging apparatus, control method of imaging apparatus and program | |
JP2009025686A (en) | Photographing apparatus and method of controlling of the same, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110628 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120605 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20121023 |