JP5324684B2 - Imaging apparatus and imaging method - Google Patents
Imaging apparatus and imaging method Download PDFInfo
- Publication number
- JP5324684B2 JP5324684B2 JP2012146905A JP2012146905A JP5324684B2 JP 5324684 B2 JP5324684 B2 JP 5324684B2 JP 2012146905 A JP2012146905 A JP 2012146905A JP 2012146905 A JP2012146905 A JP 2012146905A JP 5324684 B2 JP5324684 B2 JP 5324684B2
- Authority
- JP
- Japan
- Prior art keywords
- scene
- information
- face
- process proceeds
- control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は撮像装置及び撮像方法に係り、特にシーンの認識結果に基づいて顔検出の利用方法を変化させる技術に関する。 The present invention relates to an imaging apparatus and an imaging method, and more particularly to a technique for changing a method of using face detection based on a scene recognition result.
特許文献1には、デジタルスチルカメラにおいて、設定された撮影モードがシーンに対して適切であるか否かを、デジタル画像信号やEV値に基づいて判定することが開示されている。
特許文献2には、顔認識手段と状態検出手段の出力情報に基づいてカメラの撮影モードを設定する撮影モード自動設定カメラが開示されている。特許文献2に記載のカメラは、被写体の動き、撮像倍率又は被写体距離の出力情報に基づいてカメラ撮影モードを自動設定するものである。また、特許文献2には、人の顔を検出するだけでなく、人数や撮影倍率に応じて撮影モードとして、ポートレートモード、複数人物モード、集合写真モードを区別することが記載されている。
Japanese Patent Application Laid-Open No. 2004-228561 discloses an imaging mode automatic setting camera that sets the imaging mode of the camera based on output information from the face recognition unit and the state detection unit. The camera described in
特許文献1に記載の発明は、設定された撮影モードが撮影シーンに対して適切であるか否かを判定するものであり、シーンを認識するものではない。
The invention described in
また、特許文献2に記載の発明は、顔認識手段と状態検出手段の出力情報に基づいてシーン認識を行い、人物モードを含む各種の撮影モードを自動的に設定するものであるが、特許文献2には、シーン認識結果と顔検出結果とを利用した各種機能をどのように制御するかについては記載されていない。
The invention described in
本発明はこのような事情に鑑みてなされたもので、顔検出を利用した各種機能の制御をシーンの認識結果に応じて個別に制御することができ、より良好な撮像や画像処理を実現することができる撮像装置及び撮像方法を提供することを目的とする。 The present invention has been made in view of such circumstances, and can control various functions using face detection individually according to the recognition result of the scene, thereby realizing better imaging and image processing. It is an object to provide an imaging apparatus and an imaging method that can be used.
上記課題を解決するために本発明の一の態様に係る撮像装置は、撮影シーンの情報を取得する情報取得手段と、取得した情報からシーンを認識するシーン認識手段と、撮影シーンに顔があるか否かを検出する顔検出手段と、シーンの認識結果と顔の検出結果とに基づいて各種の制御を行う制御手段と、を備え、シーン認識手段は、認識したシーンに対応する情報を基準情報として記憶する記憶手段と、記憶手段に記憶された基準情報と情報取得手段により取得された情報からシーンが変動したか否かを判別するシーン変動判別手段と、シーン認識を行う所定の周期を設定する周期設定手段と、を有し、シーンが変動したことが判別されると、情報取得手段により取得した情報に基づいて、予め定義した複数のシーン及びいずれのシーンにも当てはまらないシーンのうちのいずれかのシーンであって、周期設定手段により設定された所定の周期毎に情報取得手段により取得された情報に基づいてシーンを認識し、n回(n:3以上の整数)認識したシーンのうちの最大頻度のシーンを現在のシーンとして認識し、認識した現在のシーンに対応する情報を基準情報とし、記憶手段に記憶させた基準情報を更新する。 In order to solve the above-described problem, an imaging apparatus according to an aspect of the present invention includes an information acquisition unit that acquires information about a shooting scene, a scene recognition unit that recognizes a scene from the acquired information, and a face in the shooting scene. A face detection means for detecting whether or not, and a control means for performing various controls based on the scene recognition result and the face detection result. The scene recognition means uses information corresponding to the recognized scene as a reference. Storage means for storing information, scene change determination means for determining whether or not the scene has changed from the reference information stored in the storage means and the information acquired by the information acquisition means, and a predetermined cycle for performing scene recognition. And a period setting means for setting, and when it is determined that the scene has changed, a plurality of predefined scenes and any of the scenes are detected based on the information acquired by the information acquisition means. Recognize the scene based on the information acquired by the information acquisition means for each predetermined period set by the period setting means, and n times (n: 3 or more) (Integer) The scene with the highest frequency among the recognized scenes is recognized as the current scene, information corresponding to the recognized current scene is used as reference information, and the reference information stored in the storage means is updated.
即ち、シーンの認識結果と顔の検出結果とに基づいて各種の制御を行うようにしたため、顔検出を利用した各種の制御を行う際に、シーンの認識結果に応じてその制御をどのように行うべきか(制御を行うべきか否かを含む)等を個別に制御することができ、シーンに応じてより良好な撮像や画像処理を実現することができる。 In other words, since various types of control are performed based on the scene recognition result and the face detection result, when performing various types of control using face detection, how is the control performed according to the scene recognition result? Whether it should be performed (including whether to perform control) or the like can be individually controlled, and better imaging and image processing can be realized according to the scene.
また、シーンが変動したことが判別されると、所定の周期毎に取得されたシーンの情報に基づいてシーンを認識し、n回(n:3以上の整数)認識したシーンのうちの最大頻度のシーンを現在のシーンとして認識するようにしたため、シーンの認識結果を安定して得ることができる。 Further, when it is determined that the scene has changed, the scene is recognized based on the scene information acquired every predetermined period, and the maximum frequency of the scenes recognized n times (n: integer of 3 or more). Since this scene is recognized as the current scene, the scene recognition result can be obtained stably.
本発明の他の態様に係る撮像装置において、情報取得手段は、撮影シーン中に顔があるか否かを示す情報、被写体距離に相当する情報、被写体の明るさに相当する情報のうちの少なくとも1つの情報を取得することが好ましい。尚、顔があるか否かを示す情報は、顔検出手段から取得することができる。 In the imaging apparatus according to another aspect of the present invention, the information acquisition means includes at least one of information indicating whether or not there is a face in the shooting scene, information corresponding to the subject distance, and information corresponding to the brightness of the subject. It is preferable to acquire one piece of information. Information indicating whether or not there is a face can be acquired from the face detection means.
本発明の更に他の態様に係る撮像装置において、制御手段は、ライブビュー画像を表示する表示手段の画面上において、検出された顔の位置を明示的に表示する表示制御手段、検出された顔の領域の明るさに基づいて露出を制御する露出制御手段、検出された顔に焦点が合うように焦点調節を行う自動焦点調節手段、検出された顔の領域の色情報に基づいてホワイトバランスを調整するホワイトバランス調整手段、及び検出された顔の領域の明るさに基づいて階調補正を行う顔階調補正手段のうちの2以上の手段を含む。即ち、制御手段は、顔の検出結果に応じてライブビュー画像に検出された顔の位置を顔枠等により明示的に表示し、検出された顔の領域の明るさに基づいて露出を制御し、検出された顔に焦点が合うように焦点調節を行い、検出された顔の領域の色情報に基づいてホワイトバランスを調整し、又は検出された顔の領域の明るさに基づいて階調補正を行うが、これらの各種の制御をシーンの認識結果に応じて個別に制御できるようになっている。 In the imaging apparatus according to still another aspect of the present invention, the control means includes a display control means for explicitly displaying the position of the detected face on the screen of the display means for displaying the live view image, and the detected face. Exposure control means for controlling the exposure based on the brightness of the area, automatic focus adjustment means for adjusting the focus so that the detected face is in focus, and white balance based on the color information of the detected face area It includes two or more means of white balance adjustment means for adjustment and face gradation correction means for performing gradation correction based on the brightness of the detected face area. That is, the control means explicitly displays the position of the detected face in the live view image according to the face detection result by a face frame or the like, and controls the exposure based on the brightness of the detected face area. Adjust the focus so that the detected face is in focus, adjust the white balance based on the color information of the detected face area, or correct the gradation based on the brightness of the detected face area However, these various controls can be individually controlled according to the recognition result of the scene.
本発明の更に他の態様に係る撮像装置において、制御手段は、シーンの種類と各種の制御の種類とに対応して、各制御の種類毎に制御を行うか否を示す情報又は制御の強弱を示す情報が記憶されたテーブルを有し、シーンの認識結果と顔の検出結果とに基づいてテーブルから対応する情報を読み出して各種の制御を行う。 In the imaging apparatus according to still another aspect of the present invention, the control unit corresponds to the type of scene and the various types of control, and indicates whether or not the control is performed for each type of control or the strength of control. Is stored, and the corresponding information is read from the table based on the scene recognition result and the face detection result, and various controls are performed.
本発明の更に他の態様に係る撮像装置において、テーブルに記憶されている情報をユーザーが自由に設定するカスタム設定手段を備えることが好ましい。即ち、顔検出を利用した各種の制御を行う際に、シーンの認識結果に応じてその制御をどのように行うべきか等をユーザーが自由に設定することができ、ユーザーの好みに合わせた制御を可能にしている。 In the imaging apparatus according to still another aspect of the present invention, it is preferable that the imaging apparatus includes a custom setting unit that allows the user to freely set information stored in the table. In other words, when performing various controls using face detection, the user can freely set how to perform the control according to the recognition result of the scene, and control according to the user's preference Is possible.
本発明の更に他の態様に係る撮像装置において、シーン認識手段は、認識したn回のシーンのうちの最大頻度のシーンが複数存在する場合、シーン認識の履歴のうちの最も新しいシーンが属するシーンを現在のシーンとして認識する。 In the imaging apparatus according to still another aspect of the present invention, the scene recognizing unit may include a scene to which the latest scene in the history of scene recognition belongs when there are a plurality of scenes with the highest frequency among the n recognized scenes. Is recognized as the current scene.
本発明の更に他の態様に係る撮像方法は、所定の周期毎に撮影シーンの情報を取得するステップと、取得した撮影シーンの情報からシーンを認識するステップと、認識したシーンに対応する情報を基準情報として記憶手段に記憶させるステップと、撮影シーンに顔があるか否かを検出するステップと、シーンの認識結果と顔の検出結果とに基づいて各種の制御を行うステップと、を含み、シーンを認識するステップは、所定の周期毎に記憶手段に記憶された基準情報と取得されたシーンの情報とからシーンが変動したか否かを判別し、シーンが変動したことが判別されると、所定の周期毎に取得したシーンの情報に基づいて、予め定義した複数のシーン及びいずれのシーンにも当てはまらないシーンのうちのいずれかのシーンを認識し、n回(n:3以上の整数)認識したシーンのうちの最大頻度のシーンを現在のシーンとして認識し、認識した現在のシーンに対応する情報を基準情報として記憶手段に記憶させた基準情報を更新する。 An imaging method according to still another aspect of the present invention includes a step of acquiring shooting scene information at predetermined intervals, a step of recognizing a scene from the acquired shooting scene information, and information corresponding to the recognized scene. Storing in the storage means as reference information, detecting whether or not there is a face in the shooting scene, and performing various controls based on the recognition result of the scene and the detection result of the face, The step of recognizing the scene determines whether or not the scene has changed from the reference information stored in the storage means and the acquired scene information every predetermined period, and if it is determined that the scene has changed. Based on the scene information acquired every predetermined period, recognize any scene among a plurality of predefined scenes and scenes that do not apply to any scene, and n times n: 3 or more integer) the maximum frequency of the scene of the recognized scene recognized as the current scene, updates the reference information stored information corresponding to the recognized current scene in the storage means as the reference information.
本発明の更に他の態様に係る撮像方法において、撮影シーンの情報を取得するステップは、撮影シーン中に顔があるか否かを示す情報、被写体距離に相当する情報、被写体の明るさに相当する情報のうちの少なくとも1つの情報を取得することが好ましい。 In the imaging method according to still another aspect of the present invention, the step of acquiring shooting scene information includes information indicating whether or not there is a face in the shooting scene, information corresponding to a subject distance, and brightness of the subject. It is preferable that at least one piece of information to be acquired is acquired.
本発明の更に他の態様に係る撮像方法において、各種の制御を行うステップは、ライブビュー画像を表示する表示手段の画面上において、検出された顔の位置を明示的に表示する表示制御、検出された顔の領域の明るさに基づいて露出を制御する露出制御、検出された顔に焦点が合うように焦点調節を行う自動焦点調節、検出された顔の領域の色情報に基づいてホワイトバランスを調整するホワイトバランス調整、及び検出された顔の領域の明るさに基づいて階調補正を行う顔階調補正のうちの2以上の制御を含む。 In the imaging method according to still another aspect of the present invention, the step of performing various controls includes display control and detection for explicitly displaying the position of the detected face on the screen of the display means for displaying the live view image. Exposure control to control the exposure based on the brightness of the detected face area, automatic focus adjustment to adjust the focus so that the detected face is in focus, white balance based on the color information of the detected face area Control of two or more of the white balance adjustment for adjusting the face and the face gradation correction for performing the gradation correction based on the detected brightness of the face area.
本発明の更に他の態様に係る撮像方法において、各種の制御を行うステップは、シーンの種類と各種の制御の種類とに対応して、各制御の種類毎に制御を行うか否を示す情報又は制御の強弱を示す情報が記憶されたテーブルを使用し、シーンの認識結果と顔の検出結果とに基づいてテーブルから対応する情報を読み出して各種の制御を行う。 In the imaging method according to still another aspect of the present invention, the step of performing various controls includes information indicating whether to perform control for each type of control corresponding to the type of scene and the various types of control. Alternatively, a table in which information indicating the strength of control is stored is used, and various types of control are performed by reading the corresponding information from the table based on the scene recognition result and the face detection result.
本発明の更に他の態様に係る撮像方法において、テーブルに記憶されている情報は、ユーザーが自由に設定するカスタム設定手段により設定される。 In the imaging method according to still another aspect of the present invention, the information stored in the table is set by custom setting means that is freely set by the user.
本発明の更に他の態様に係る撮像方法において、シーンを認識するステップは、認識したn回のシーンのうちの最大頻度のシーンが複数存在する場合、シーン認識の履歴のうちの最も新しいシーンが属するシーンを現在のシーンとして認識する。 In the imaging method according to still another aspect of the present invention, the step of recognizing a scene includes the step of recognizing the newest scene in the history of scene recognition when there are a plurality of scenes with the highest frequency among the n recognized scenes. The scene to which it belongs is recognized as the current scene.
本発明によれば、顔検出を利用した各種の制御を行う際に、シーンの認識結果に応じてその制御をどのように行うべきか(制御を行うべきか否かを含む)等を個別に制御することができ、シーンに応じてより良好な撮像や画像処理を実現することができ、また、シーン変動時にシーンの認識結果を安定して得ることができる。 According to the present invention, when various types of control using face detection are performed, how the control should be performed according to the recognition result of the scene (including whether or not to perform control) is individually determined. Therefore, it is possible to realize better imaging and image processing according to the scene, and it is possible to stably obtain a scene recognition result when the scene changes.
以下、添付図面に従って本発明に係る撮像装置及び撮像方法の好ましい実施の形態について説明する。 Hereinafter, preferred embodiments of an imaging apparatus and an imaging method according to the present invention will be described with reference to the accompanying drawings.
[撮像装置の構成]
図1は、本発明に係る撮像装置(デジタルカメラ)の第1の実施形態を示すブロック図である。
[Configuration of imaging device]
FIG. 1 is a block diagram showing a first embodiment of an imaging apparatus (digital camera) according to the present invention.
この撮像装置(以下、デジタルカメラ1という。)は、撮影により取得した画像データを、Exif形式の画像ファイルに変換して、本体に着脱可能な外部記録メディアなどの記録部70へ記録するものである。 This imaging device (hereinafter referred to as a digital camera 1) converts image data acquired by photographing into an image file in Exif format and records it in a recording unit 70 such as an external recording medium that can be attached to and detached from the main body. is there.
図1に示すように、デジタルカメラ1は、操作部11と、ユーザーによる操作部11への操作内容を解釈して各部を制御する制御回路74とを有している。
As shown in FIG. 1, the
操作部11は、画像を撮影する撮影モードと、記録部70に記録された画像を読み出して表示部71に表示する再生モードとの間で動作モードを切り替える動作モードスイッチ、メニュー/OKボタン、ズーム/上下矢印レバー、左右矢印ボタン、Back(戻る)ボタン、表示切替ボタン、シャッタボタン、電源スイッチを含んでいる。
The
制御回路74は、情報処理を行うCPU75、本発明に係るシーン認識等の情報処理を規定したプログラム、ファームウェア、プログラムでの各種判定に用いる閾値その他の定数などを記録したROM68、情報処理に必要な変数やデータなどを格納するRAM69を備えている。
The
CPU75は、操作部11やAF処理部62等の各種処理部からの信号に応じてデジタルカメラ1の本体各部を制御する。ROM68は、デジタルカメラ1において設定される各種定数、及びCPU75が実行するプログラム等を格納する。RAM69は、CPU75がプログラムの実行に必要なデータを一時的に格納する。
The
レンズ20は、フォーカスレンズ及びズームレンズを有している。レンズ20は、レンズ駆動部51によって光軸方向に移動可能である。レンズ駆動部51は、CPU75から出力されるフォーカス駆動量データに基づいて、フォーカスレンズの位置を制御する。また、レンズ駆動部51は、操作部11のズーム/上下矢印レバーの操作量データに基づいてズームレンズの位置を制御する。
The lens 20 has a focus lens and a zoom lens. The lens 20 can be moved in the optical axis direction by the
また、絞り54は、モータとモータドライバとからなる絞り駆動部55によって駆動される。絞り駆動部55は、CPU75から出力される絞り値データに基づいて絞り径の調整を行う。
The
レンズ20、絞り54を含む撮像光学系の後方には、撮像素子(CCD)58が配置されている。尚、撮像素子58としては、CCDの代わりにCMOSイメージセンサを用いることもできる。
An imaging element (CCD) 58 is disposed behind the imaging optical system including the lens 20 and the
撮像素子58は、多数の受光素子が2次元的に配列された光電面を有している。撮像光学系を通過した被写体光はこの光電面に結像し、光電変換される。光電面の前方には、各画素に光を集光するためのマイクロレンズアレイと、R,G,B各色のフィルタが規則的に配列されたカラーフィルタアレイとが配置されている。撮像素子58は、撮像素子制御部59から供給される垂直転送クロック及び水平転送クロックに同期して、画素毎に蓄積された電荷を1ラインずつシリアルなアナログ撮影信号として出力する。各画素において電荷を蓄積する時間、すなわち、露出時間は、撮像素子制御部59から与えられる電子シャッタ駆動信号によって決定される。また、撮像素子58は、あらかじめ定められた大きさのアナログ撮像信号が得られるように、撮像素子制御部59によりゲインが調整されて
いる。
The
撮像素子58から取り込まれたアナログ撮影信号は、アナログ信号処理部60に入力される。アナログ信号処理部60は、アナログ信号のノイズを除去する相関2重サンプリング回路(CDS)と、アナログ信号のゲインを調節するオートゲインコントローラ(AGC)とからなる。アナログ信号処理部60におけるR、G、B信号の増幅ゲインは、撮影感度(ISO感度)に相当する。CPU75は、この増幅ゲインを調整することにより撮影感度を設定する。
The analog photographing signal captured from the
A/D変換部61は、アナログ信号処理部60により処理されたアナログ画像信号をデジタル画像データに変換する。このデジタル信号に変換された画像データは、画素毎にR,G,Bの濃度値を持つCCD−RAWデータである。
The A /
制御回路74は、発振子(不図示)から供給される発振信号を逓倍又は分周してタイミング信号を発生させて撮像素子制御部59に入力することにより、操作部11のシャッタボタンの操作時における撮像素子58からの電荷の取込み及びアナログ信号処理部60の処理のタイミングを調整している。
The
制御回路74は、撮像素子58で生成された画像信号の輝度を検出することにより測光を行う。制御回路74は、被写界輝度が低い場合、自動焦点調節(AF)時(シャッタボタン半押し時)に補助光制御部25に指示して補助光発光部26(例えば、LED)から補助光を照射させる。
The
A/D変換部61から出力されたR,G,Bの各画像データ(CCD−RAWデータ)は、デジタル信号処理部65によって、ホワイトバランス(WB)調整、ガンマ補正、及びYC処理が施される。処理後の画像データは、メモリ66に書き込まれる。
The R, G, B image data (CCD-RAW data) output from the A /
メモリ66は、画像データに対して後述の各種デジタル画像処理(信号処理)を行う際に使用する作業用メモリであり、例えば、一定周期のバスクロック信号に同期してデータ転送を行うSDRAM(Synchronous Dynamic Random Access Memory)が使用される。
The
表示部71は、例えば、液晶モニタを含んでおり、撮影モード設定以後から本撮影指示がされるまでの間メモリ66に逐次格納された画像データをライブビュー画像(スルー画像)として液晶モニタに表示させたり、再生モード時に記録部70に保存されている画像データを液晶モニタに表示させる。尚、スルー画像は、撮影モードが選択されている間、所定の時間間隔で撮像素子58により撮影される。
The
本実施形態のデジタルカメラ1は、動作モードが撮影モードに設定されると、画像の撮像を開始し、ライブビュー画像(スルー画)が表示部71の液晶モニタに表示される。スルー画表示時には、CPU75は、後述のAF処理部62及びAE/AWB処理部63による演算結果に基づいて、コンティニュアスAE(CAE)及びコンティニュアスAF(CAF)を実行する。ここで、コンティニュアスAEとは、スルー画撮影の継続中に繰り返し露出値の演算を行って、連続的に撮像素子(CCD)58の電子シャッタ機能及び/又は絞り54を制御する機能である。コンティニュアスAFとは、スルー画撮影の継続中に繰り返しAF評価値の演算を行って、連続的にフォーカスレンズ位置を制御する機能である。撮影モード時にシャッタボタンが半押しされると(S1オン)、デジタルカメラ1は、AE処理(S1AE)及びAF処理(S1AF)を実行し、AEロック及びAFロックを実行する。
When the operation mode is set to the shooting mode, the
以下、AE処理及びAF処理について説明する。撮像素子58から出力された画像信号はA/D変換後にバッファメモリ(不図示)を介してAF処理部62及びAE/AWB処理部63に入力される。
Hereinafter, the AE process and the AF process will be described. The image signal output from the
AE/AWB処理部63は、1画面を複数の分割エリア(例えば、8×8又は16×16)に分割し、この分割エリアごとにR、G、B信号を積算し、その積算値をCPU75に提供する。CPU75は、AE/AWB処理部63から得た積算値に基づいて被写体の明るさ(被写体輝度)を検出し、撮影に適した露出値(撮影EV値)を算出する。CPU75は、上記露出値と所定のプログラム線図に従って、絞り値とシャッタスピードを決定し、これに従い撮像素子58の電子シャッタ機能及び絞り54を制御して適正な露光量を得る。
The AE /
更に、CPU75は、フラッシュ発光モードがオンに設定された場合にフラッシュ制御部73にコマンドを送って動作させる。フラッシュ制御部73は、フラッシュ発光部(放電管)24を発光させるための電流を供給するためのメインコンデンサを含んでおり、CPU75からのフラッシュ発光指令に従ってメインコンデンサの充電制御、フラッシュ発光部24への放電(発光)のタイミング及び放電時間の制御等を行う。尚、フラッシュ発光手段としては、放電管に代えて発光ダイオード(LED)を用いることも可能である。
Further, the
また、AE/AWB処理部63は、自動ホワイトバランス調整時に、分割エリアごとにR、G、B信号の色別の平均積算値を算出し、その算出結果をCPU75に提供する。CPU75は、Rの積算値、Bの積算値、Gの積算値を得て、分割エリアごとにR/G及びB/Gの比を求め、これらR/G、B/Gの値のR/G、B/G軸座標の色空間における分布等に基づいて光源種判別を行い、判別された光源種に応じてホワイトバランス調整回路のR、G、B信号に対するゲイン値(ホワイトバランスゲイン)を制御し、各色チャンネルの信号に補正をかける。
Further, the AE /
本実施形態に係るデジタルカメラ1におけるAF制御は、例えば、画像信号のG信号の高周波成分が極大になるようにフォーカスレンズを移動させるコントラストAFが適用される。即ち、AF処理部62は、G信号の高周波成分のみを通過させるハイパスフィルタ、絶対値化処理部、画面内(例えば、画面中央部)にあらかじめ設定されているフォーカス対象エリア内の信号を切り出すAFエリア抽出部及びAFエリア内の絶対値データを積算する積算部から構成される。
For the AF control in the
AF処理部62により求められた積算値のデータはCPU75に通知される。CPU75は、レンズ駆動部51を制御してフォーカスレンズを移動させながら、複数のAF検出ポイントで焦点評価値(AF評価値)を演算し、演算した焦点評価値が極大となるレンズ位置を合焦位置として決定する。そして、CPU75は、レンズ駆動部51を制御して上記合焦位置にフォーカスレンズを移動させる。尚、コンティニュアスAF(CAF)時には、S1AFのときに比べて、合焦位置のサーチ範囲(AFサーチ時のフォーカスレンズの移動範囲)が狭く、AF検出ポイントの数が少なくなっている。また、AF評価値の演算はG信号を利用する態様に限らず、輝度信号(Y信号)を利用してもよい。
The accumulated value data obtained by the
尚、露出及びホワイトバランスについては、撮影モードがマニュアルモードに設定されている場合には、デジタルカメラ1のユーザーがマニュアル操作により設定可能である。また、露出及びホワイトバランスが自動で設定された場合にも、ユーザーがメニュー/OKボタン等の操作部11から指示を行うことにより、露出及びホワイトバランスをマニュアル調整することが可能である。
The exposure and white balance can be set manually by the user of the
シャッタボタンが半押し(S1オン)された後に全押し(S2オン)されると、撮像素子58から記録用の本画像データが取り込まれる。この本画像データは、シャッタボタンが全押しされることによって実行される本撮影時に撮像素子58から取り込まれ、アナログ信号処理部60、A/D変換部61、デジタル信号処理部65経由でメモリ66に格納された画像データである。デジタル信号処理部65は、本画像の画像データに対して、ガンマ補正、シャープネス補正、コントラスト補正等の画質補正処理、CCD−RAWデータを輝度信号であるYデータと、青色色差信号であるCbデータ及び赤色色差信号であるCrデータとからなるYCデータに変換するYC変換処理を行う。本画像の画素数の上限は、撮像素子58の画素数によって決定されるが、例えば、ファイン、ノーマル等の設定により、記録画素数を変更することができる。一方、スルー画像及びシャッタボタン半押し時のプレ画像の画像数は、例えば、本画像よりも少ない画素数、例えば、本画像の1/16程度の画素数で取り込まれる。
When the shutter button is pressed halfway (S1 on) and then fully pressed (S2 on), the main image data for recording is captured from the
また、デジタル信号処理部65は、フラッシュ発光部24の発光量が通常の撮影時よりも小さくされた場合には、本画像における顔領域の輝度を求め、輝度が所定のしきい値Th1よりも小さい場合には顔領域の輝度をしきい値Th1に調整する処理を行う。
The digital signal processing unit 65 obtains the luminance of the face area in the main image when the light emission amount of the flash
圧縮伸張処理部67は、補正・変換処理が行われた本画像の画像データに対して、例えば、所定の圧縮形式で圧縮処理を行い、画像ファイルを生成する。この画像ファイルは、記録部70に記録される。この画像ファイルには、例えば、Exifフォーマット等に基づいて、撮影日時等の付帯情報が格納されたタグが付加される。また、圧縮伸張処理部67は、再生モードの場合に、記録部70から読み出された画像ファイルに対して伸張処理を行う。伸張後の画像データは表示部71の液晶モニタに表示される。
The compression /
顔検出処理部80は、画像照合部及び顔画像テンプレートを含み、スルー画像、プレ画像、あるいは本画像から人物の顔を検出し、その顔の位置や大きさの情報を制御回路74に出力する。
The face
具体的には、顔検出処理部80の画像照合部が、スルー画像等の画面内で、対象領域の位置を移動させながら、対象領域の画像と顔画像テンプレートとを照合し、両者の相関を調べる。そして、相関スコアが予め設定された閾値を越えると、その対象領域を顔領域として認定する。顔が検出されない場合には、対象領域の大きさを変えながら上記の処理を繰り返し行う。尚、顔検出方法としては、顔に含まれる顔の特徴を有する領域(例えば、肌色の領域を有する、肌色領域の中に黒色領域(目)を有する、肌色領域が顔の形状を有する等)を顔領域として検出する方法等の公知の方法を利用することができる。
Specifically, the image collation unit of the face
<撮影制御>
図2は本発明に係る撮像方法の概要を示すフローチャートである。
<Shooting control>
FIG. 2 is a flowchart showing an outline of the imaging method according to the present invention.
同図に示すように、本実施形態に係るデジタルカメラ1は、顔検出処理(ステップS200)とシーン認識処理(ステップS202)とを、シャッタボタンが半押し(S1オン)されるまで(ステップS204)、繰り返し実施する。尚、顔検出処理及びシーン認識処理の詳細については後述する。
As shown in the figure, the
シーン認識は、ユーザーが撮ろうとしている、もしくは撮ったシーンが、どのようなシーンであるのかを認識する技術である。予めいくつかのシーンを定義しておき、認識した結果を表示部71に表示する。例えば、図3に示すように、「人物」、「風景」、「夜景」又は「接写」等のシーン認識結果は、テキスト又はアイコン表示などによりユーザーに分かりやすいように通知される。尚、定義したシーンのいずれにも当てはまらない場合の認識結果は、「AUTO」とし、また、自動シーン認識が「OFF」の場合には、何も表示しないようにする。
Scene recognition is a technique for recognizing what kind of scene a user is going to take or has taken. Several scenes are defined in advance, and the recognized results are displayed on the
ここで注意すべき点は、顔検出の結果はシーン認識に利用するが、顔検出の結果更新のタイミングと、シーン認識の結果更新のタイミングは必ずしも一致するとは限らないことである。即ち、顔検出処理とシーン認識処理とは、それぞれ独立に動いていて、顔検出の結果が更新されないと、シーン認識が動かない仕組みになっていない。また、図2のフローチャートで示すように、シーン認識とは全く別のタイミングで顔を検出することも可能である。例えば、シーン認識は本露光(ステップS220)の前に確定するが、顔検出は本露光後にも実行することができる(ステップS222参照)。 It should be noted that the face detection result is used for scene recognition, but the face detection result update timing does not always match the scene recognition result update timing. That is, the face detection process and the scene recognition process move independently of each other, and the scene recognition does not move unless the face detection result is updated. As shown in the flowchart of FIG. 2, it is also possible to detect a face at a timing completely different from scene recognition. For example, scene recognition is determined before the main exposure (step S220), but face detection can be performed after the main exposure (see step S222).
このように、顔検出の結果とシーン認識の結果はいつも同じような関係が成り立つとは限らない。(「顔が検出されている」=「人物モード」が常に成り立っているわけではない)。 As described above, the same relationship is not always established between the result of face detection and the result of scene recognition. ("Face is detected" = "Portrait mode" does not always hold).
そのため、後述するようにシーン認識の結果に応じて、顔検出を利用した各種機能の制御方法を個別に制御することで、より高性能なカメラとすることができる。 For this reason, as described later, according to the result of scene recognition, the control method of various functions using face detection is individually controlled, so that a higher-performance camera can be obtained.
S204において、シャッタボタンの半押し(S1オン)が判別され、"Yes"の場合は、S206に遷移し、"No"の場合はスタートに戻る。 In S204, it is determined whether the shutter button is half-pressed (S1 on). If “Yes”, the process proceeds to S206, and if “No”, the process returns to the start.
S206では、AE処理(S1AE)が行われ、S208ではAF処理(S1AF)が行われ、それぞれAEロック及びAFロックされる。 In S206, AE processing (S1AE) is performed, and in S208, AF processing (S1AF) is performed, and AE lock and AF lock are performed, respectively.
S210では、S202と同様にシーン認識が行われるが、S202がCAE,CAFの結果を利用しているのに対し、S1AE、S1AFの結果を利用する点で異なる。 In S210, scene recognition is performed in the same manner as in S202, except that S202 uses the results of CAE and CAF, but uses the results of S1AE and S1AF.
S212では、S210でのシーン認識結果に応じてシーンに適したプログラム線図を選択し、選択したプログラム線図とS206でのS1AEの測光結果(EV値)とに基づいて絞り値とシャッタスピードとを決定する。 In S212, a program diagram suitable for the scene is selected according to the scene recognition result in S210, and based on the selected program diagram and the S1AE photometry result (EV value) in S206, the aperture value and shutter speed are determined. To decide.
S214では、シャッタボタンの全押し(S2オン)が判別され、"Yes"の場合はS220に遷移し、"No"の場合はS216に遷移する。 In S214, it is determined whether the shutter button is fully pressed (S2 is on). If “Yes”, the flow proceeds to S220, and if “No”, the flow proceeds to S216.
S216では、シャッタボタンの半押し(S1オン)が判別され、"Yes"の場合はS218に遷移し、ここで顔検出処理が行われ、一方、"No"の場合はスタートに戻る。 In S216, it is determined whether the shutter button is half-pressed (S1 is on). If “Yes”, the process proceeds to S218, where face detection processing is performed, whereas if “No”, the process returns to the start.
S220では、S212で決定した絞り値及びシャッタスピードに基づいて本露光を行い、本画像の撮像を行う。 In S220, the main exposure is performed based on the aperture value and the shutter speed determined in S212, and the main image is captured.
S222では、本画像に対して顔検出処理が行われる。S224では、本画像に対してホワイトバランス調整、ガンマ補正等の階調補正などの信号処理が行われる。 In S222, face detection processing is performed on the main image. In S224, signal processing such as white balance adjustment and gradation correction such as gamma correction is performed on the main image.
S226では、信号処理後の本画像を所定フォーマットで圧縮処理し、画像ファイルを生成して記録部70に記録する。 In S226, the main image after the signal processing is compressed in a predetermined format, an image file is generated and recorded in the recording unit 70.
次に、シーンの認識結果と顔の検出結果とに基づいて各種機能を制御する場合の実施の形態について説明する。 Next, an embodiment in which various functions are controlled based on a scene recognition result and a face detection result will be described.
図4に、シーンの認識結果と顔検出を利用した各種機能の関係の一例を示す。 FIG. 4 shows an example of the relationship between various recognition functions using scene recognition results and face detection.
同図に示す例では、5つのシーン認識結果と、5種類の顔検出を利用した制御との関係を示している。 In the example shown in the figure, the relationship between five scene recognition results and control using five types of face detection is shown.
まず、「顔枠表示」、「顔AE」、「顔AF」、「顔AWB」、「顔階調補正」の5種類の顔検出を利用した制御について簡単に説明する。 First, control using five types of face detections of “face frame display”, “face AE”, “face AF”, “face AWB”, and “face gradation correction” will be briefly described.
「顔枠表示」制御は、ライブビュー画像(スルー画像)の表示中に顔検出処理により顔が検出されると(図2のS200)、検出された顔の位置及び大きさに基づいてスルー画像上で顔の領域を囲む顔枠を表示させる制御である。これにより、ユーザーは顔が正しく検出されているかどうかを判断することができる。尚、顔枠の代わりに、矢印、その他のマークを表示するようにしてもよい。 In the “face frame display” control, when a face is detected by the face detection process during the display of the live view image (through image) (S200 in FIG. 2), the through image is based on the detected position and size of the face. This is control for displaying a face frame surrounding the face area. Thereby, the user can determine whether the face is correctly detected. An arrow or other mark may be displayed instead of the face frame.
「顔AE」制御は、顔の検出結果に基づいてCAE、S1AEでの露出制御を行うもので、検出された顔の領域の明るさに基づいて測光値(EV値)を決定し、露出を制御する。 “Face AE” control performs exposure control in CAE and S1AE based on the detection result of the face, determines a photometric value (EV value) based on the brightness of the detected face area, and sets the exposure. Control.
「顔AF」制御は、顔の検出結果に基づいてCAF、S1AFでの自動焦点調節を行うもので、検出された顔の領域をAFエリアとし、このAFエリア(顔領域)に焦点が合うように焦点調節を行う。 “Face AF” control performs automatic focus adjustment in CAF and S1AF based on the detection result of the face. The detected face area is set as an AF area, and the AF area (face area) is focused. Adjust the focus.
「顔AWB」制御は、顔の検出結果に基づいてホワイトバランス調整を行うもので、検出された顔の領域の色情報に基づいて、例えば肌色がきれいになるようにホワイトバランス調整を行う。 “Face AWB” control performs white balance adjustment based on the detection result of the face, and performs white balance adjustment so that, for example, the skin color is clean based on the color information of the detected face area.
「顔階調補正」制御は、顔の検出結果に基づいて画像の階調補正を行うもので、検出された顔の領域の明るさが適正な明るさになるようにガンマ補正等の階調補正を行う。 “Face Tone Correction” control is to perform image tone correction based on the face detection result, and to adjust the brightness of the detected face area to the appropriate brightness. Make corrections.
図4に示す例では、〇印は制御を行い、×印は制御を行い場合に関して示しており「顔枠表示」、「顔AE」、及び「顔AF」の制御は、「AUTO」、「人物」、「風景」、「夜景」、「接写」の5つのシーン認識結果にかかわらず、常に制御を行っている。 In the example shown in FIG. 4, a circle mark indicates that control is performed, and a cross mark indicates that control is performed. Controls of “face frame display”, “face AE”, and “face AF” are “AUTO”, “ Regardless of the five scene recognition results of “person”, “landscape”, “night view”, and “close-up”, control is always performed.
一方、「顔AWB」、及び「顔階調補正」の制御は、「AUTO」、「人物」、及び「接写」のシーンのみで行い、「風景」、「夜景」のシーンでは制御を行わないようにしている。 On the other hand, the control of “face AWB” and “face gradation correction” is performed only in the “AUTO”, “person”, and “close-up” scenes, and is not performed in the “landscape” and “night scene” scenes. I am doing so.
尚、シーンの認識結果と顔の検出結果とに基づく各種機能の制御は、図4に示す例に限定されず、また、シーン認識の種類及び顔検出を利用した制御の種類も図4に示す例に限定されず、種々のものが考えられる。 The control of various functions based on the scene recognition result and the face detection result is not limited to the example shown in FIG. 4, and the type of scene recognition and the type of control using face detection are also shown in FIG. It is not limited to an example, Various things can be considered.
また、各種機能をON/OFFレベルで制御するようにしているが、各種機能の強度をいくつかのレベルに分けておき、そのレベルを設定するような仕組みでもよい(「強、中、弱」、「レベル1〜5」など)。 In addition, the various functions are controlled at the ON / OFF level, but the strength of the various functions may be divided into several levels and the level may be set (“strong, medium, weak”). , “Levels 1-5”, etc.).
尚、前述したようにシーン認識と顔検出とは必ずしも同じタイミングで行う必要はなく、そのため、図2に示した例では、本露光の後にシーン認識をするステップは記載されていないが、特にそれに限定するものではない。 As described above, scene recognition and face detection are not necessarily performed at the same timing. Therefore, in the example shown in FIG. 2, the step of scene recognition after the main exposure is not described. It is not limited.
このようにシーン認識の結果に応じて、顔検出を利用した各種機能の制御方法を個別に制御することで、より高性能なカメラとすることができる(きれいな画像を撮像・作成する、表示を見やすくする、画像検索をしやすくするなど)。 In this way, by individually controlling the control method of various functions using face detection according to the result of scene recognition, it can be made a higher performance camera (capturing and creating a beautiful image, displaying Make it easier to see and search for images).
[シーン認識処理]
次に、図2に示したS200、S210での「シーン認識」(S200、S218、S222での「顔検出」を含む)について詳述する。
[Scene recognition processing]
Next, “scene recognition” (including “face detection” in S200, S218, and S222) in S200 and S210 shown in FIG. 2 will be described in detail.
図5は、シーン認識メイン処理のフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。この処理は、撮影モードが操作部11から設定され、かつ、そのときに「自動シーン認識ON」が操作部11から設定されていた場合に開始する。「自動シーン認識OFF」が操作部11から設定されている場合には開始しない。
FIG. 5 is a flowchart of the scene recognition main process. The execution of this process is controlled by the
S1では、この処理の実行が初回であるか否かを判断する。“Yes”の場合はS2、“No”の場合はS3に進む。 In S1, it is determined whether or not this process is executed for the first time. If “Yes”, the process proceeds to S2. If “No”, the process proceeds to S3.
S2では、RAM69のフレーム変動基準情報を初期化する。フレーム変動基準情報には、分割測光値、フォーカスレンズの位置、合焦AFエリアのタイプ(合焦状態となったAFエリアが顔検出処理部80の検出した顔領域であるか否か、あるいは、デフォルトの画面中央近傍領域であるか否か)、合焦AFフィルタ(例えば特許公開2006−145964のローパスフィルタ、ハイパスフィルタ)、顔検出処理部80による顔検出の有無が含まれる。また、RAM69のstatusをサーチ状態に、チェックカウンタを0に、シーン認識履歴保持フラグをOFFに設定する。
In S2, the frame variation reference information in the
S3では、RAM69のstatus=確定状態か否かを判断する。“Yes”の場合はS4、“No”の場合はS7に進む。
In S3, it is determined whether or not status of the
S4では、フレーム変動チェックを行う。この処理は後述する。 In S4, a frame variation check is performed. This process will be described later.
S5では、フレーム変動チェックの結果、フレーム変動があったか否かを判断する。“Yes”の場合はS6、“No”の場合はS1に戻る。 In S5, it is determined whether or not there is a frame variation as a result of the frame variation check. If “Yes”, the process returns to S6. If “No”, the process returns to S1.
S6では、シーン変動があったと判断し、RAM69のstatusをサーチ状態に設定する。
In S6, it is determined that the scene has changed, and the status of the
S7では、RAM69のシーン認識履歴保持フラグがONに設定されているか否かを判断する。“Yes”の場合はS9、“No”の場合はS8に進む。
In S7, it is determined whether or not the scene recognition history retention flag in the
S8では、RAM69のシーン認識カウンタを0に設定する。また、RAM69のシーン認識履歴をクリアする。
In S8, the scene recognition counter in the
S9では、認識部のシーン認識動作を行う。この処理は後述する。この処理の結果、RAM69にシーン認識結果SRが記憶される。シーン認識結果SRは、風景、AUTO、人物、夜景、接写などを含む。これら各シーンの認識の処理の詳細は後述する。
In S9, the recognition unit performs a scene recognition operation. This process will be described later. As a result of this processing, the scene recognition result SR is stored in the
S10では、RAM69のシーン認識カウンタを1だけインクリメントする。
In S10, the scene recognition counter in the
S11では、RAM69のシーン認識カウンタおよびROM68の所定のシーン認識履歴数閾値(E_AUTOSR_SR_HISTORY_BEFORE_S1)を比較し、シーン認識カウンタ≧シーン認識履歴数閾値であるか否かを判断する。“Yes”の場合はS12、“No”の場合はS17に進む。
In S11, the scene recognition counter of the
S12では、RAM69のシーン認識履歴をチェックする。シーン認識履歴は、statusが確定状態になるまで繰り返されたS9によりそれぞれ個別に記憶された、複数のシーン
認識結果SRで構成される。
In S12, the scene recognition history in the
S13では、RAM69のシーン認識結果SRを、S9で異なる時間に記憶された複数のシーン認識結果SRで構成されたシーン認識履歴の中で、最大の出現頻度を有するものに更新する。また、RAM69のフレーム変動情報を、当該最大の出現頻度を有するシーン認識結果SRと同じ時点で取得されたフレーム変動情報に更新する。
In S13, the scene recognition result SR in the
S14では、RAM69のシーン認識結果SRが「AUTO」と異なるか否かを判断する。“Yes”の場合はS16、“No”の場合はS15に進む。
In S14, it is determined whether or not the scene recognition result SR in the
S15では、RAM69のstatusをサーチ状態に設定し、S1に戻る。
In S15, the status of the
S16では、RAM69のstatusを確定状態に設定し、S1に戻る。
In S16, the status of the
図6は、フレーム変動チェック(S4)の詳細な処理の流れを示すフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。
FIG. 6 is a flowchart showing the detailed processing flow of the frame variation check (S4). The execution of this process is controlled by the
S21では、RAM69のパラメータであるchangeをOFFに、change_measureを0に設定する。
In S21, change which is a parameter of the
S22では、1回目のフレーム変動チェックを行う。ここでは、フレーム変動チェックは、測光値変動チェック、フォーカス位置変動チェック、顔有無変動チェックのうちのいずれか1つであるものとするがその他の種類を含んでいてもよい。これらの処理は後述する。1回目のフレーム変動チェックの結果は、RAM69のパラメータであるE_AUTOSP_FRAME_CHECK1として記憶される。
In S22, a first frame variation check is performed. Here, the frame variation check is one of a photometric value variation check, a focus position variation check, and a face presence / absence variation check, but may include other types. These processes will be described later. The result of the first frame variation check is stored as E_AUTOSP_FRAME_CHECK1, which is a parameter of the
S23では、S22の1回目のフレーム変動チェックの結果、フレーム変動があったか否かを判断する。“Yes”の場合はS24、“No”の場合はS26に進む。
In S23, it is determined whether or not there is a frame variation as a result of the first frame variation check in S22. If “Yes”, the process proceeds to
S24では、RAM69のchange_measureを1だけインクリメントする。
In S24, the change_measure in the
S25では、RAM69のchange_measureとROM68の所定閾値E_AUTOSP_FRAME_CHANGE_MEASUREとを比較し、change_measure≧E_AUTOSP_FRAME_CHANGE_MEASUREであるか否かを判断する。“No”の場合はS26、“Yes”の場合はS35に進む。
In S25, the change_measure in the
S26では、2回目のフレーム変動チェックを行う。ここでは、フレーム変動チェックは、測光値変動チェック、フォーカス位置変動チェック、顔有無変動チェックのうち、1回目と異なるいずれか1つである。2回目のフレーム変動チェックの結果は、RAM69のパラメータであるE_AUTOSP_FRAME_CHECK2として記憶される。
In S26, a second frame variation check is performed. Here, the frame variation check is any one of the photometry value variation check, the focus position variation check, and the face presence / absence variation check different from the first time. The result of the second frame fluctuation check is stored as E_AUTOSP_FRAME_CHECK2 which is a parameter of the
S27では、S26の2回目のフレーム変動チェックの結果、フレーム変動があったか否かを判断する。“Yes”の場合はS28、“No”の場合はS30に進む。
In S27, it is determined whether or not there is a frame variation as a result of the second frame variation check in S26. If “Yes”, the process proceeds to
S28では、RAM69のchange_measureを1だけインクリメントする。
In S28, the change_measure in the
S29では、RAM69のchange_measureと、ROM68に記憶された閾値E_AUTOSP_FRAME_CHANGE_MEASUREとを比較し、change_measure≧E_AUTOSP_FRAME_CHANGE_MEASUREであるか否かを判断する。“No”の場合はS30、“Yes”の場合はS35に進む。
In S29, the change_measure in the
S30では、3回目のフレーム変動チェックを行う。ここでは、フレーム変動チェックは、測光値変動チェック、フォーカス位置変動チェック、顔有無変動チェックのうち、1回目および2回目と異なるものである。3回目のフレーム変動チェックの結果は、RAM69のパラメータであるE_AUTOSP_FRAME_CHECK3として記憶される。
In S30, a third frame variation check is performed. Here, the frame variation check is different from the first time and the second time among the photometric value variation check, the focus position variation check, and the face presence / absence variation check. The result of the third frame variation check is stored as E_AUTOSP_FRAME_CHECK3, which is a parameter of the
S31では、S30の3回目のフレーム変動チェックの結果、フレーム変動があったか否かを判断する。“Yes”の場合はS32、“No”の場合はS34に進む。 In S31, it is determined whether or not there is a frame variation as a result of the third frame variation check in S30. If “Yes”, the process proceeds to S 32. If “No”, the process proceeds to S 34.
S32では、RAM69のchange_measureを1だけインクリメントする。
In S32, change_measure in the
S33では、RAM69のchange_measureと、ROM68に記憶された閾値E_AUTOSP_FRAME_CHANGE_MEASUREとを比較し、change_measure≧E_AUTOSP_FRAME_CHANGE_MEASUREであるか否かを判断する。“No”の場合はS34、“Yes”の場合はS35に進む。
In S33, the change_measure in the
S34では、フレーム変動なしと判断する。その判断を示すフラグをRAM69に記憶してもよい。そして、シーン認識メイン処理のS5に戻る。
In S34, it is determined that there is no frame variation. A flag indicating the determination may be stored in the
S35では、フレーム変動ありと判断する。「フレーム変動あり」のフラグであるchange=ONに設定しRAM69に記憶する。そして、シーン認識メイン処理のS5に戻る。
In S35, it is determined that there is a frame fluctuation. The flag “change in frame” is set to change = ON and stored in the
図7は測光値変動チェックのフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。
FIG. 7 is a flowchart of the photometric value fluctuation check. The execution of this process is controlled by the
S41では、RAM69のパラメータchange_evをOFFに設定する。また、RAM69のパラメータev[i]を今回のフレーム画像について測光部46から得られた測光値とする。iは、所定の単位で画像を分割して得たN個の各ブロックに対応する添え字である。ここではi=0〜N−1とする。)。また、RAM69のパラメータev_base[i]をフレーム変動基準情報の分割測光値とし、その値をRAM69に確保する。なお、ev_base[i]はメイン処理のS2で初期化され、S13で更新される。また、各ブロックに対応する重みw [i]をROM68から読み出す。
In S41, the parameter change_ev in the
S42では、次式によりdelta_evをRAM69に設定する。総和はi=0〜N−1について行われる。delta_evは全画面の明るさ同士の差分でもよい。
In S42, delta_ev is set in the
delta_ev=ΣW[i]*|ev[i]-ev_base[i]|/ ΣW[i]
各領域ごとの差の絶対値を総和するのは次の理由による。絶対値をとらないと、実際には領域ごとに大きな変化が生じているにもかかわらず、総和により各領域ごとの変化が相殺され、全体として変化がなくなるのを防ぐためである。
delta_ev = ΣW [i] * | ev [i] -ev_base [i] | / ΣW [i]
The sum of the absolute values of the differences for each region is as follows. If the absolute value is not taken, it is to prevent the change for each region from being canceled out by the sum, even though a large change actually occurs for each region, and to prevent the change from being lost as a whole.
S43では、RAM69のdelta_evと、ROM68に記憶された閾値E_AUTOSP_FRAME_DELTA_EV とを比較し、delta_ev≧E_AUTOSP_FRAME_DELTA_EVであるか否かを判断する。“
Yes”の場合はS44、“No”の場合はS45に進む。
In S43, the delta_ev in the
If “Yes”, the process proceeds to S 44. If “No”, the process proceeds to S 45.
S44では、測光値の変動があったと判断する。そして、測光値の変動があったことを示すフラグchange_evをONに設定しRAM69に記憶する。
In S44, it is determined that the photometric value has changed. Then, the flag change_ev indicating that the photometric value has changed is set to ON and stored in the
S45では、測光値の変動がなかったと判断する。測光値の変動がなかったことを示すフラグRAM69に記憶してもよい。 In S45, it is determined that there is no change in the photometric value. You may memorize | store in flag RAM69 which shows that there was no fluctuation | variation of a photometric value.
図8はフォーカス位置変動チェックのフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。
FIG. 8 is a flowchart of the focus position variation check. The execution of this process is controlled by the
S51では、RAM69のパラメータchange_focal_pointをOFFに、focal_pointを今回のフレーム画像を取得したときにレンズ駆動部51が設定したフォーカスレンズの位置(駆動パルス数)に、focal_point_baseをフレーム変動基準情報のフォーカスレンズの位置(S2で初期化あるいはS13で更新されるもの)とし、その記憶領域をRAM69に確保する。
In S51, the parameter change_focal_point of the
S52では、次式によりdelta_ focal_pointをRAM69に設定する。
In S52, delta_focal_point is set in the
delta_focal_point=| focal_point- focal_point_base|
S53では、RAM69のdelta_focal_pointと、ROM68に記憶された所定のフォーカス位置変動閾値とを比較し、delta_focal_point>フォーカス位置変動閾値であるか否かを判断する。“Yes”の場合はS54、“No”の場合はS55に進む。
delta_focal_point = | focal_point- focal_point_base |
In S53, delta_focal_point in the
S54では、フォーカス位置の変動があったと判断する。そして、フォーカス位置の変動があったことを示すフラグchange_ focal_pointをONに設定しRAM69に記憶する。
In S54, it is determined that the focus position has changed. Then, the flag change_focal_point indicating that the focus position has changed is set to ON and stored in the
S55では、フォーカス位置の変動がなかったと判断する。フォーカス位置の変動がなかったことを示すフラグRAM69に記憶してもよい。 In S55, it is determined that the focus position has not changed. You may memorize | store in flag RAM69 which shows that there was no fluctuation | variation of a focus position.
図9は顔有無変動チェックのフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。
FIG. 9 is a flowchart of the face presence / absence variation check. The execution of this process is controlled by the
S61では、RAM69のパラメータchange_face_resultをOFFに設定する。
In S61, the parameter change_face_result of the
S62では、今回のフレーム画像を取得したときに顔検出処理部80が出力した顔検出の有無が、フレーム変動基準情報の顔検出の有無(S2で初期化あるいはS13で更新されるもの)と一致するか否かを判断する。“Yes”の場合はS64、“No”の場合はS63に進む。
In S62, the presence or absence of face detection output by the face
S63では、顔検出の有無の変動があったと判断する。そして、顔検出の有無の変動があったことを示すフラグchange_face_resultをONに設定しRAM69に記憶する。
In S63, it is determined that there has been a change in the presence or absence of face detection. Then, a flag change_face_result indicating that there has been a change in the presence or absence of face detection is set to ON and stored in the
S64では、顔検出の有無の変動がなかったと判断する。顔検出の有無の変動がなかったことを示すフラグRAM69に記憶してもよい。 In S64, it is determined that there is no change in the presence or absence of face detection. You may memorize | store in the flag RAM69 which shows that there was no change of the presence or absence of face detection.
図7はの認識部のシーン認識動作(S9)の詳細を示すフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。
FIG. 7 is a flowchart showing details of the scene recognition operation (S9) of the recognition unit. The execution of this process is controlled by the
S71では、RAM69に格納された、シーン依存サーチを実施するフラグ(E_AUTOSR_SEARCH_TYPE)が0であるか否かを判断する。“Yes”の場合はS80、“No”の場合はS72に進む。なお、E_AUTOSR_SEARCH_TYPEの値は操作部11から任意に設定できるものとする。
In S71, it is determined whether or not the flag (E_AUTOSR_SEARCH_TYPE) for executing the scene-dependent search stored in the
S72では、RAM69のシーン認識結果SRにAUTOを設定する。
In S72, AUTO is set in the scene recognition result SR of the
S73では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE1を代入する。E_AUTOSR_MODULE1は0〜4のうちのいずれかの整数である。そして、module[i]に相当するシーン判定サブルーチンを実施する。module[0]は何もしない。module[1]は後述の人物判定を行う。module[2]は後述の風景判定を行う。module[3]は後述の夜景判定を行う。module[4]は後述の接写判定を行う。
In S73, E_AUTOSR_MODULE1 stored in advance in the
S74では、S73でのmodule[i]の実施の結果、RAM69のシーン認識結果SRがAUTOであるか否かを判断する。“Yes”の場合はS75に進み、“No”の場合はメイン処理のS10に戻る。
In S74, it is determined whether or not the scene recognition result SR in the
S75では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE2を代入する。E_AUTOSR_MODULE2は0〜4のうちのいずれかの整数であり、かつE_AUTOSR_MODULE1と異なる。そして、module[i]に相当するシーン判定サブルーチンを実施する。
In S75, E_AUTOSR_MODULE2 stored in advance in the
S76では、S75でのmodule[i]の実施の結果、RAM69のシーン認識結果SRが
AUTOであるか否かを判断する。“Yes”の場合はS77に進み、“No”の場合はメイン処理のS10に戻る。
In S76, it is determined whether or not the scene recognition result SR in the
S77では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE3を代入する。E_AUTOSR_MODULE3は0〜4のうちのいずれかの整数であり、かつE_AUTOSR_MODULE1およびE_AUTOSR_MODULE2と異なる。そして、module[i]に相当するシーン判定サブルーチンを実施する。
In S77, E_AUTOSR_MODULE3 stored in the
S78では、S77でのmodule[i]の実施の結果、RAM69のシーン認識結果SRがAUTOであるか否かを判断する。“Yes”の場合はS79に進み、“No”の場合はメイン処理のS10に戻る。
In S78, it is determined whether or not the scene recognition result SR of the
S79では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE4を代入する。E_AUTOSR_MODULE3は0〜4のうちのいずれかの整数であり、かつE_AUTOSR_MODULE1およびE_AUTOSR_MODULE2およびE_AUTOSR_MODULE3と異なる。そして、module[i]に相当するシーン判定サブルーチンを実施する。E_AUTOSR_MODULE1、E_AUTOSR_MODULE2、E_AUTOSR_MODULE3、E_AUTOSR_MODULE4の値はどのように設定してもよいが、優先的にシーン判定を行いたい種類には若い番号を付するとよい。例えば、人物判定>風景判定>夜景判定>接写判定の順にシーン判定を行いたい場合は、E_AUTOSR_MODULE1=1、E_AUTOSR_MODULE2=2、E_AUTOSR_MODULE3=3、E_AUTOSR_MODULE4=4とする。これらの値を操作部11から任意に設定できてもよい。
In S79, E_AUTOSR_MODULE4 stored in advance in the
S80では、現在のRAM69のシーン認識結果SRがAUTOであるか否かを判断する。“Yes”の場合はS72に進み、“No”の場合はS81に進む。
In S80, it is determined whether or not the current scene recognition result SR in the
S81では、RAM69のパラメータSR_oldに、現在のRAM69のシーン認識結果SRを設定する。すなわち、現在のRAM69のシーン認識結果SRがAUTOであればSR_old=0、現在のRAM69のシーン認識結果SRが人物であればSR_old=1、現在のRAM69のシーン認識結果SRが風景であればSR_old=2、現在のRAM69のシーン認識結果SRが夜景であればSR_old=3、現在のRAM69のシーン認識結果SRが接写であればSR_old=4とする。
In S81, the current scene recognition result SR of the
S82では、RAM69のパラメータiに、SR_oldを代入する。そして、module[i]に相当するシーン判定サブルーチンを実施する。
In S82, SR_old is substituted for the parameter i of the
S83では、S82でのmodule[i]の実施の結果、RAM69のシーン認識結果SRがAUTOであるか否かを判断する。“Yes”の場合はS84に進み、“No”の場合はメイン処理のS10に戻る。
In S83, it is determined whether or not the scene recognition result SR of the
S84では、SR_old=E_AUTOSR_MODULE1であるか否かを判断する。“Yes”の場合はS87に進み、“No”の場合はS85に進む。 In S84, it is determined whether SR_old = E_AUTOSR_MODULE1. If “Yes”, the process proceeds to S87. If “No”, the process proceeds to S85.
S85では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE1を代入する。そして、module[i]に相当するシーン判定サブルーチンを実施する。
In S85, E_AUTOSR_MODULE1 stored in advance in the
S86では、S85でのmodule[i]の実施の結果、RAM69のシーン認識結果SRがAUTOであるか否かを判断する。“Yes”の場合はS87に進み、“No”の場合はメイン処理のS10に戻る。
In S86, it is determined whether or not the scene recognition result SR in the
S87では、SR_old=E_AUTOSR_MODULE2であるか否かを判断する。“Yes”の場合はS90に進み、“No”の場合はS88に進む。 In S87, it is determined whether SR_old = E_AUTOSR_MODULE2. If “Yes”, the process proceeds to S90, and if “No”, the process proceeds to S88.
S88では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE2を代入する。そして、module[i]に相当するシーン判定サブルーチンを実施する。
In S88, E_AUTOSR_MODULE2 stored in advance in the
S89では、S88でのmodule[i]の実施の結果、RAM69のシーン認識結果SRがAUTOであるか否かを判断する。“Yes”の場合はS90に進み、“No”の場合はメイン処理のS10に戻る。
In S89, it is determined whether or not the scene recognition result SR in the
S90では、SR_old=E_AUTOSR_MODULE3であるか否かを判断する。“Yes”の場合はS93に進み、“No”の場合はS91に進む。 In S90, it is determined whether SR_old = E_AUTOSR_MODULE3. If “Yes”, the process proceeds to S93. If “No”, the process proceeds to S91.
S91では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE3を代入する。そして、module[i]に相当するシーン判定サブルーチンを実施する。
In S91, E_AUTOSR_MODULE3 stored in the
S92では、S91でのmodule[i]の実施の結果、RAM69のシーン認識結果SRがAUTOであるか否かを判断する。“Yes”の場合はS93に進み、“No”の場合はメイン処理のS10に戻る。
In S92, it is determined whether or not the scene recognition result SR in the
S93では、SR_old=E_AUTOSR_MODULE4であるか否かを判断する。“Yes”の場合はメイン処理のS10に戻り、“No”の場合はS94に進む。 In S93, it is determined whether SR_old = E_AUTOSR_MODULE4. If “Yes”, the process returns to S10 of the main process, and if “No”, the process proceeds to S94.
S94では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE4を代入する。そして、module[i]に相当するシーン判定サブルーチンを実施する。その後、メイン処理のS10に戻る。
In S94, E_AUTOSR_MODULE4 stored in advance in the
図11は以上の処理(S9)とS13によって決まるシーン認識結果SRを概念的に示している。 FIG. 11 conceptually shows the scene recognition result SR determined by the above process (S9) and S13.
シーン認識結果SRは、古いものから新しいものにかけて連続的に5個格納される。その履歴SRには添え字j=0〜4が付され、番号が若いものほど新しい履歴である。履歴の蓄積個数=5は一例であって、3以上の整数であれば何でもよい。 Five scene recognition results SR are stored successively from old to new. Subscripts j = 0 to 4 are added to the history SR, and the smaller the number, the newer the history. The accumulated number of histories = 5 is an example, and any number may be used as long as it is an integer of 3 or more.
S73・S75・S77・S79あるいはS85・S88・S91・S94で、module[i]が実行されるごとに、新たなシーン認識結果SRが取得される。この結果、これまでに蓄積した過去のシーン認識結果SRの添え字には1がインクリメントされ、1世代古い履歴になる。新たなシーン認識結果SRには0の添え字が付され、現在のシーン認識結果となる。 Each time module [i] is executed in S73, S75, S77, S79 or S85, S88, S91, S94, a new scene recognition result SR is acquired. As a result, 1 is incremented to the subscript of the past scene recognition result SR accumulated so far, and the history becomes one generation old. A new scene recognition result SR is given a subscript of 0 and becomes the current scene recognition result.
図11では、SR[0]=3, SR[1]=3, SR[2]=3, SR[3]=0, SR[4]=1であったのが、新たな履歴SR[0]=2が追加されることで、SR[1]=3, SR[2]=3, SR[3]=3, SR[4]=0となる。新たな履歴SR[0]の追加前に最も古い世代の履歴SR[4]=1は、新たな履歴の追加とともにRAM69から消去してもよいし保存してもよい。
In FIG. 11, SR [0] = 3, SR [1] = 3, SR [2] = 3, SR [3] = 0, SR [4] = 1 are replaced with a new history SR [0 ] = 2 is added, SR [1] = 3, SR [2] = 3, SR [3] = 3, SR [4] = 0. Prior to the addition of a new history SR [0], the history SR [4] = 1 of the oldest generation may be deleted from the
S13では、新たな履歴の追加がされると、SR[0], SR[1], SR[2], SR[3], SR[4]のうち最も出現頻度の高い履歴を特定し、それを改めてシーン認識結果SRとする。図8では3の出現頻度が最大であるからSR=3となる。 In S13, when a new history is added, the most frequently occurring history is identified from SR [0], SR [1], SR [2], SR [3], SR [4] Is a scene recognition result SR. In FIG. 8, since the appearance frequency of 3 is the maximum, SR = 3.
図示は省略するが、最大頻度の履歴が複数の場合は、最も新しい世代の履歴を含む方をシーン認識結果SRとする。例えば、SR[0]=2, SR[1]=3, SR[2]=3, SR[3]=2, SR[4]=0の場合、SR[0]= SR[3]=2、SR[1]= SR[2]=3となり、2も3も出現頻度が同じである。この場合、最も新しい世代の履歴SR[0]を含む2がシーン認識結果SRとなる。 Although illustration is omitted, when there are a plurality of maximum frequency histories, the scene recognition result SR is the one that includes the latest generation history. For example, if SR [0] = 2, SR [1] = 3, SR [2] = 3, SR [3] = 2, SR [4] = 0, SR [0] = SR [3] = 2 SR [1] = SR [2] = 3 and 2 and 3 have the same appearance frequency. In this case, 2 including the latest generation history SR [0] is the scene recognition result SR.
図12はシーン判定サブルーチン(人物判定、module[1])の詳細を示すフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。
FIG. 12 is a flowchart showing details of the scene determination subroutine (person determination, module [1]). The execution of this process is controlled by the
S101では、顔検出処理部80が顔検出したか否かを判断する。“Yes”の場合はS102、“No”の場合はS105に進む。
In S101, the face
S102では、RAM69の顔制限フラグがオンであるか否かを判断する。“Yes”の場合はS103、“No”の場合はS104に進む。
In S102, it is determined whether or not the face restriction flag in the
S103では、AF評価値の算出領域に設定された顔領域について、顔の大きさが所定範囲内かつ顔の傾きが所定の範囲内かつ顔の向きが所定の範囲内かつ顔の確からしさのスコアが所定の範囲内かつ顔の位置が所定の範囲内であるか否かを判断する。“No”の場合はS103、“Yes”の場合はS104に進む。 In S103, for the face area set as the AF evaluation value calculation area, the face size is within a predetermined range, the face inclination is within the predetermined range, the face orientation is within the predetermined range, and the face probability score Is determined within a predetermined range and whether the face position is within the predetermined range. If “No”, the process proceeds to S103, and if “Yes”, the process proceeds to S104.
S104では、シーン認識結果SR=人物に設定する。そして、module[1]の後に続く処理、すなわち、S73・S75・S77・S79のうちいずれか1つの次の処理、あるいはS85・S88・S91・S94のうちいずれか1つの次の処理に進む。 In S104, the scene recognition result SR = person is set. Then, the process proceeds after module [1], that is, the next process of any one of S73, S75, S77, and S79, or the next process of any one of S85, S88, S91, and S94.
S105では、シーン認識結果SR=AUTOに設定する。 In S105, the scene recognition result SR is set to AUTO.
図13は、シーン判定サブルーチン(風景判定、module[2])の詳細を示すフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。
FIG. 13 is a flowchart showing details of the scene determination subroutine (landscape determination, module [2]). The execution of this process is controlled by the
S111では、レリーズボタンの半押し(S1)がロックされているか否かを判断する。“Yes”の場合はS124、“No”の場合はS112に進む。
In S111, it is determined whether or not the half-press (S1) of the release button is locked. If “Yes”, the process proceeds to
S112では、設定メニューや操作部11を介して予めコンティニュアスAF(以下「CAF」と表記)の実行が設定されているか否かを判断する。“Yes”の場合はS113、“No”の場合はS129に進む。
In S <b> 112, it is determined whether execution of continuous AF (hereinafter referred to as “CAF”) is set in advance via the setting menu or the
S113では、本撮像前AF処理部81の算出したAF評価値が、ROM68に記憶された所定の閾値よりも高いか否かを判断する。“Yes”の場合はS114、“No”の場合はS119に進む。なお、本ステップS113を省略してもよい。この場合、S112で“Yes”の場合はS114に進み、また、S113で“No”と判断された場合に続く諸処理(S119、S120、S121、S122、S123)も省略される。
In S113, it is determined whether the AF evaluation value calculated by the pre-imaging AF processing unit 81 is higher than a predetermined threshold stored in the
S114では、ROM68に記憶されたE_AUTOSR_CHECK_CAFSTATUS_HIGH=0であるか否かを判断する。“Yes”の場合はS115、“No”の場合はS116に進む。
In S114, it is determined whether or not E_AUTOSR_CHECK_CAFSTATUS_HIGH = 0 stored in the
S115では、CAFの結果定まった合焦位置が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち合焦被写体が所定距離よりも遠いか否かを判断する。“Yes”の場合はS125、“No”の場合はS129に進む。
In S115, it is determined whether the in-focus position determined as a result of the CAF is on the infinity side (INF) side from the predetermined focal length threshold stored in the
S116では、E_AUTOSR_CHECK_CAFSTATUS_HIGH=1であるか否かを判断する。“Yes”の場合はS117、“No”の場合はS118に進む。 In S116, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_HIGH = 1. If “Yes”, the operation proceeds to S117, and if “No”, the operation proceeds to S118.
S117では、CAFの結果、AF評価値の極大点が検出され、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS125、“No”の場合はS129に進む。
In S117, as a result of the CAF, the maximum point of the AF evaluation value is detected, and the focal length corresponding to the in-focus position determined by the maximum point is infinity (INF) than the predetermined focal length threshold stored in the ROM 68. ) Side, that is, whether it is farther than a predetermined distance. If “Yes”, the operation proceeds to
S118では、CAFの結果、AF評価値の極大点が検出されるかまたはAF評価値がその極大点の近傍にあり(例えば本出願人による特開2003−348426号公報段落0041の「微動調整」の段階にある場合)、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS125、“No”の場合はS129に進む。
In S118, as a result of CAF, the maximum point of the AF evaluation value is detected or the AF evaluation value is in the vicinity of the maximum point (for example, “fine adjustment” in paragraph 0041 of Japanese Patent Laid-Open No. 2003-348426 by the present applicant). And the focal length corresponding to the in-focus position determined at the local maximum point is on the infinity side (INF) side of the predetermined focal length threshold stored in the
S119では、ROM68に記憶されたE_AUTOSR_CHECK_CAFSTATUS_LOW=0であるか否かを判断する。“Yes”の場合はS120、“No”の場合はS121に進む。
In S119, it is determined whether or not E_AUTOSR_CHECK_CAFSTATUS_LOW = 0 stored in the
S120では、CAFの結果定まった合焦位置が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS125、“No”の場合はS129に進む。
In S120, it is determined whether the in-focus position determined as a result of CAF is on the infinity side (INF) side of the predetermined focal length threshold stored in the
S121では、E_AUTOSR_CHECK_CAFSTATUS_LOW=1であるか否かを判断する。“Yes”の場合はS122、“No”の場合はS123に進む。 In S121, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_LOW = 1. If “Yes”, the process proceeds to S122. If “No”, the process proceeds to S123.
S122では、CAFの結果、AF評価値の極大点が検出され、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS125、“No”の場合はS129に進む。
In S122, as a result of the CAF, the maximum point of the AF evaluation value is detected, and the focal length corresponding to the in-focus position determined by the maximum point is infinity (INF) than the predetermined focal length threshold stored in the ROM 68. ) Side, that is, whether it is farther than a predetermined distance. If “Yes”, the operation proceeds to
S123では、CAFの結果、AF評価値の極大点が検出されるかまたはAF評価値がその極大点の近傍にあり(例えば本出願人による特開2003−348426号公報段落0041の「微動調整」の段階にある場合)、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側
にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS125、“No”の場合はS129に進む。
In S123, as a result of CAF, the maximum point of the AF evaluation value is detected or the AF evaluation value is in the vicinity of the maximum point (for example, “fine adjustment” in paragraph 0041 of JP-A-2003-348426 by the present applicant). And the focal length corresponding to the in-focus position determined at the local maximum point is on the infinity side (INF) side of the predetermined focal length threshold stored in the
S124では、AF処理部62のAF処理により合焦位置が決定され、かつその合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS125、“No”の場合はS129に進む。
In S124, the in-focus position is determined by the AF processing of the
S125では、制御回路74の測光した被写界輝度が、ROM68に記憶された所定の閾値よりも低いか否かを判断する。“Yes”の場合はS126、“No”の場合はS129に進む。
In S125, it is determined whether or not the field luminance measured by the
S126では、ROM68の設定パラメータとしてあるいは操作部11から、予め風景ズーム情報フラグがオンに設定されているか否かを判断する。“Yes”の場合はS126、“No”の場合はS129に進む。
In S126, it is determined whether or not the landscape zoom information flag is set in advance as a setting parameter of the
S127では、ズームレンズ位置が所定範囲内例えば所定位置よりもワイド側にあるか否かを判断する。“Yes”の場合はS128、“No”の場合はS129に進む。なお、ズーム位置が所定範囲内にないとは、例えばズームレンズ位置がテレ端あるいはその近傍にある場合である。この場合、全景を画角に収めることができず、風景撮影に適していないから、撮影シーンはAUTOと判断する。 In S127, it is determined whether or not the zoom lens position is within a predetermined range, for example, on the wide side of the predetermined position. If “Yes”, the process proceeds to S128. If “No”, the process proceeds to S129. The zoom position is not within the predetermined range when, for example, the zoom lens position is at or near the tele end. In this case, since the entire view cannot be included in the angle of view and is not suitable for landscape photography, the photographing scene is determined to be AUTO.
S128では、SR=風景に設定する。そして、module[2]の後に続く処理に進む。 In S128, SR = landscape is set. Then, the process proceeds after module [2].
S129では、SR=AUTOに設定する。そして、module[2]の後に続く処理に進む。 In S129, SR = AUTO is set. Then, the process proceeds after module [2].
図14は、シーン判定サブルーチン(夜景判定、module[3])の詳細を示すフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。
FIG. 14 is a flowchart showing details of the scene determination subroutine (night scene determination, module [3]). The execution of this process is controlled by the
S131では、制御回路74の測光した被写界輝度が、ROM68に記憶された所定の閾値よりも低いか否かを判断する。“Yes”の場合はS132、“No”の場合はS152に進む。
In S 131, it is determined whether or not the field luminance measured by the
S132では、レリーズボタンの半押し(S1)がロックされているか否かを判断する。“Yes”の場合はS147、“No”の場合はS133に進む。
In S132, it is determined whether or not the release button half-press (S1) is locked. If “Yes”, the process proceeds to
S133では、RAM69に記憶されている半押し(S1)前の夜景判定フラグがオンに設定さているか否かを判断する。“Yes”の場合はS134、“No”の場合はS152に進む。
In S133, it is determined whether or not the night scene determination flag stored in the
S134では、操作部11からの入力あるいはROM68に記憶されたパラメータにより夜景判定で距離情報を使うか否かのいずれが設定されているかを判断する。夜景判定で距離情報を使う設定がされている場合はS135、夜景判定で距離情報を使う設定がされていない場合はS149に進む。
In S134, it is determined whether the distance information is to be used in the night scene determination based on the input from the
S135では、設定メニューや操作部11を介して予めCAFの実行が設定されているか否かを判断する。“Yes”の場合はS136、“No”の場合はS152に進む。
In S135, it is determined whether or not CAF execution is set in advance via the setting menu or the
S136では、本撮像前AF処理部81の算出したAF評価値が、ROM68に記憶された所定の閾値よりも高いか否かを判断する。“Yes”の場合はS137、“No”の場合はS142に進む。なお、本ステップS136を省略してもよい。この場合、S135で“Yes”の場合はS137に進み、また、S136で“No”と判断された場合に続く諸処理も省略される。
In
S137では、E_AUTOSR_CHECK_CAFSTATUS_HIGH=0であるか否かを判断する。“Yes”の場合はS138、“No”の場合はS139に進む。
In S137, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_HIGH = 0. If “Yes”, the process proceeds to S 138. If “No”, the process proceeds to
S138では、CAFの結果定まった合焦位置が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS149、“No”の場合はS152に進む。
In S138, it is determined whether the in-focus position determined as a result of CAF is on the infinity side (INF) side of the predetermined focal length threshold stored in the
S139では、E_AUTOSR_CHECK_CAFSTATUS_HIGH=1であるか否かを判断する。“Yes”の場合はS140、“No”の場合はS141に進む。 In S139, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_HIGH = 1. If “Yes”, the process proceeds to S140. If “No”, the process proceeds to S141.
S140では、CAFの結果、AF評価値の極大点が検出され、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS149、“No”の場合はS152に進む。
In S140, as a result of CAF, the maximum point of the AF evaluation value is detected, and the focal length corresponding to the in-focus position determined by the maximum point is infinity (INF) than the predetermined focal length threshold stored in the ROM 68. ) Side, that is, whether it is farther than a predetermined distance. If “Yes”, the process proceeds to
S141では、CAFの結果、AF評価値の極大点が検出されるかまたはAF評価値がその極大点の近傍にあり(例えば本出願人による特開2003−348426号公報段落0041の「微動調整」の段階にある場合)、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS149、“No”の場合はS152に進む。
In S141, as a result of CAF, the maximum point of the AF evaluation value is detected or the AF evaluation value is in the vicinity of the maximum point (for example, “fine adjustment” in paragraph 0041 of Japanese Patent Laid-Open No. 2003-348426 by the present applicant). And the focal length corresponding to the in-focus position determined at the local maximum point is on the infinity side (INF) side of the predetermined focal length threshold stored in the
S142では、E_AUTOSR_CHECK_CAFSTATUS_LOW=0であるか否かを判断する。“Yes”の場合はS143、“No”の場合はS144に進む。 In S142, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_LOW = 0. If “Yes”, the process proceeds to S143. If “No”, the process proceeds to S144.
S143では、CAFの結果定まった合焦位置が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS149、“No”の場合はS152に進む。
In S143, it is determined whether the in-focus position determined as a result of the CAF is on the infinity side (INF) side of the predetermined focal length threshold stored in the
S144では、E_AUTOSR_CHECK_CAFSTATUS_LOW=1であるか否かを判断する。“Yes”の場合はS145、“No”の場合はS146に進む。 In S144, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_LOW = 1. If “Yes”, the process proceeds to S145. If “No”, the process proceeds to S146.
S145では、CAFの結果、AF評価値の極大点が検出され、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS149、“No”の場合はS152に進む。
In S145, as a result of CAF, the maximum point of the AF evaluation value is detected, and the focal length corresponding to the in-focus position determined by the maximum point is infinity (INF) than the predetermined focal length threshold stored in the ROM 68. ) Side, that is, whether it is farther than a predetermined distance. If “Yes”, the process proceeds to
S146では、CAFの結果、AF評価値の極大点が検出されるかまたはAF評価値がその極大点の近傍にあり(例えば本出願人による特開2003−348426号公報段落0041の「微動調整」の段階にある場合)、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS149、“No”の場合はS152に進む。
In S146, as a result of CAF, a maximum point of the AF evaluation value is detected or the AF evaluation value is in the vicinity of the maximum point (for example, “fine adjustment” in paragraph 0041 of Japanese Patent Application Laid-Open No. 2003-348426 by the present applicant). And the focal length corresponding to the in-focus position determined at the local maximum point is on the infinity side (INF) side of the predetermined focal length threshold stored in the
S147では、操作部11からの入力あるいはROM68に記憶されたパラメータにより夜景判定で距離情報を使うか否かのいずれが設定されているかを判断する。夜景判定で距離情報を使う設定がされている場合はS148、夜景判定で距離情報を使う設定がされていない場合はS149に進む。
In S147, it is determined whether the distance information is to be used in the night scene determination based on an input from the
S148では、AF処理部62のAF処理により合焦位置が決定され、かつその合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS149、“No”の場合はS152に進む。
In S148, the in-focus position is determined by the AF processing of the
S149では、ROM68の設定パラメータとしてあるいは操作部11から、予め夜景ズーム情報フラグがオンに設定されているか否かを判断する。“Yes”の場合はS150、“No”の場合はS151に進む。
In S149, it is determined whether the night view zoom information flag is set to ON in advance as a setting parameter of the
S150では、ズームレンズ位置が所定範囲内、例えば所定位置よりもワイド側にあるか否かを判断する。“Yes”の場合はS151、“No”の場合はS152に進む。なお、ズーム位置が所定範囲内にないとは、例えばズームレンズ位置がテレ端あるいはその近傍にある場合である。この場合、入射光量の乏しいバック遠景を画角に収めることができず、夜景撮影に適していないから、AUTOと判定する。 In S150, it is determined whether or not the zoom lens position is within a predetermined range, for example, on the wide side of the predetermined position. If “Yes”, the process proceeds to S 151. If “No”, the process proceeds to S 152. The zoom position is not within the predetermined range when, for example, the zoom lens position is at or near the tele end. In this case, the back distant view with a small amount of incident light cannot be included in the angle of view, and is not suitable for night view photography, so it is determined as AUTO.
S151では、SR=夜景に設定する。そして、module[3]の後に続く処理に進む。 In S151, SR = night view is set. Then, the process proceeds after module [3].
S152では、SR=AUTOに設定する。そして、module[3]の後に続く処理に進む。 In S152, SR = AUTO is set. Then, the process proceeds after module [3].
図15は、シーン判定サブルーチン(夜景判定、module[3])の他の一例を示すフロー
チャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。夜景判定は、図11または12のいずれかを採用すれば足りる。いずれか一方を選択的に実行できてもよい。
FIG. 15 is a flowchart illustrating another example of the scene determination subroutine (night scene determination, module [3]). The execution of this process is controlled by the
S161では、制御回路74の測光した被写界輝度が、ROM68に記憶された所定の閾値よりも低いか否かを判断する。“Yes”の場合はS162、“No”の場合はS168に進む。なお、この閾値は、補助光制御部25へ発光を指示するか否かを判別する閾値と同じであってもよいし異なっていてもよい。
In
S162では、レリーズボタンの半押し(S1)がロックされているか否かを判断する。“Yes”の場合はS163、“No”の場合はS168に進む。
In S162, it is determined whether or not the release button half-press (S1) is locked. If “Yes”, the process proceeds to
S163では、補助光制御部25に補助光発光部26の発光を指示したか否かを判断する。“Yes”の場合はS164、“No”の場合はS168に進む。
In S163, it is determined whether or not the auxiliary
S164では、補助光制御部25が補助光発光部26を発光させる直前と直後にそれぞれ制御回路74の測光した被写界輝度の差が、ROM68に記憶された所定の閾値を超えているか否かを判断する。“Yes”の場合はS168、“No”の場合はS165に進む。なお、当該差が当該閾値を超えておらず、微小であれば、補助光照射による被写体輝度の増加の寄与がほとんどなく、被写体が近くないといえる。
In S164, whether or not the difference in the field luminance measured by the
S165では、ROM68の設定パラメータとしてあるいは操作部11から、予め夜景ズーム情報フラグがオンに設定されているか否かを判断する。“Yes”の場合はS166、“No”の場合はS167に進む。
In S165, it is determined whether the night view zoom information flag is set to ON in advance as a setting parameter of the
S166では、ズームレンズ位置が所定範囲内、例えば所定位置よりもワイド側にあるか否かを判断する。“Yes”の場合はS167、“No”の場合はS168に進む。なお、ズーム位置が所定範囲内にないとは、例えばズームレンズ位置がテレ端あるいはその近傍にある場合である。この場合、バック遠景を画角に収めることができず、夜景撮影に適していない。 In S166, it is determined whether or not the zoom lens position is within a predetermined range, for example, on the wide side of the predetermined position. If “Yes”, the process proceeds to S 167. If “No”, the process proceeds to S 168. The zoom position is not within the predetermined range when, for example, the zoom lens position is at or near the tele end. In this case, the back distant view cannot be included in the angle of view and is not suitable for night view photography.
S167では、SR=夜景に設定する。そして、module[3]の後に続く処理に進む。 In S167, SR = night scene is set. Then, the process proceeds after module [3].
S168では、SR=AUTOに設定する。そして、module[3]の後に続く処理に進む。 In S168, SR = AUTO is set. Then, the process proceeds after module [3].
図16は、シーン判定サブルーチン(接写判定、module[4])の詳細を示すフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。
FIG. 16 is a flowchart showing details of the scene determination subroutine (close-up determination, module [4]). The execution of this process is controlled by the
S171では、レリーズボタンの半押し(S1)がロックされているか否かを判断する。“Yes”の場合はS184、“No”の場合はS172に進む。
In S171, it is determined whether or not the release button half-press (S1) is locked. If “Yes”, the process proceeds to S 184. If “No”, the process proceeds to
S172では、設定メニューや操作部11を介して予めCAFの実行が設定されているか否かを判断する。“Yes”の場合はS173、“No”の場合はS188に進む。
In S172, it is determined whether or not CAF execution is set in advance via the setting menu or the
S173では、本撮像前AF処理部81の算出したAF評価値が、ROM68に記憶された所定の閾値よりも高いか否かを判断する。“Yes”の場合はS174、“No”の場合はS179に進む。なお、本ステップS173を省略してもよい。この場合、S172で“Yes”の場合はS174に進み、また、S173で“No”と判断された場合に続く諸処理も省略される。
In
S174では、E_AUTOSR_CHECK_CAFSTATUS_HIGH=0であるか否かを判断する。“Yes”の場合はS175、“No”の場合はS176に進む。 In S174, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_HIGH = 0. If “Yes”, the process proceeds to S175. If “No”, the process proceeds to S176.
S175では、CAFの結果定まった合焦位置が、ROM68に記憶された所定の焦点距離閾値よりも至近(NEAR)側にあるか、すなわち所定距離よりも近いか否かを判断する。“Yes”の場合はS185、“No”の場合はS188に進む。
In S175, it is determined whether the in-focus position determined as a result of CAF is closer to the near (NEAR) side than the predetermined focal distance threshold stored in the
S176では、E_AUTOSR_CHECK_CAFSTATUS_HIGH=1であるか否かを判断する。“Yes”の場合はS177、“No”の場合はS178に進む。
In S176, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_HIGH = 1. If “Yes”, the process proceeds to
S177では、CAFの結果、AF評価値の極大点が検出され、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも至近(NEAR)側にあるか、すなわち所定距離よりも近いか否かを判断する。“Yes”の場合はS185、“No”の場合はS188に進む。
In S177, as a result of CAF, the maximum point of the AF evaluation value is detected, and the focal length corresponding to the in-focus position determined by the maximum point is closer than the predetermined focal length threshold value stored in the ROM 68 (NEAR). It is determined whether it is on the side, that is, whether it is closer than a predetermined distance. If “Yes”, the process proceeds to
S178では、CAFの結果、AF評価値の極大点が検出されるかまたはAF評価値がその極大点の近傍にあり(例えば本出願人による特開2003−348426号公報段落0041の「微動調整」の段階にある場合)、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも至近(NEAR)側にあるか、すなわち所定距離よりも近いか否かを判断する。“Yes”の場合はS185、“No”の場合はS188に進む。
In S178, as a result of CAF, the maximum point of the AF evaluation value is detected or the AF evaluation value is in the vicinity of the maximum point (for example, “fine adjustment” in paragraph 0041 of JP-A-2003-348426 by the present applicant). And the focal length corresponding to the in-focus position determined by the local maximum point is closer to the near (NEAR) side than the predetermined focal length threshold stored in the
S179では、E_AUTOSR_CHECK_CAFSTATUS_LOW=0であるか否かを判断する。“Yes”の場合はS180、“No”の場合はS181に進む。 In S179, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_LOW = 0. If “Yes”, the process proceeds to S180. If “No”, the process proceeds to S181.
S180では、CAFの結果定まった合焦位置が、ROM68に記憶された所定の焦点距離閾値よりも至近(NEAR)側にあるか、すなわち所定距離よりも近いか否かを判断する。“Yes”の場合はS185、“No”の場合はS188に進む。
In S180, it is determined whether the in-focus position determined as a result of CAF is closer to the nearer (NEAR) side than the predetermined focal length threshold stored in the
S181では、E_AUTOSR_CHECK_CAFSTATUS_LOW=1であるか否かを判断する。“Yes”の場合はS182、“No”の場合はS183に進む。
In S181, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_LOW = 1. If “Yes”, the process proceeds to
S182では、CAFの結果、AF評価値の極大点が検出され、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも至近(NEAR)側にあるか、すなわち所定距離よりも近いか否かを判断する。“Yes”の場合はS185、“No”の場合はS188に進む。
In S182, as a result of CAF, the maximum point of the AF evaluation value is detected, and the focal length corresponding to the in-focus position determined by the maximum point is closer than the predetermined focal length threshold value stored in the ROM 68 (NEAR). It is determined whether it is on the side, that is, whether it is closer than a predetermined distance. If “Yes”, the process proceeds to
S183では、CAFの結果、AF評価値の極大点が検出されるかまたはAF評価値がその極大点の近傍にあり(例えば本出願人による特開2003−348426号公報段落0041の「微動調整」の段階にある場合)、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも至近(NEAR)側にあるか、すなわち所定距離よりも近いか否かを判断する。“Yes”の場合はS185、“No”の場合はS188に進む。
In S183, as a result of CAF, the maximum point of the AF evaluation value is detected or the AF evaluation value is in the vicinity of the maximum point (for example, “fine adjustment” in Japanese Patent Application Laid-Open No. 2003-348426, paragraph 0041 by the present applicant). And the focal length corresponding to the in-focus position determined by the local maximum point is closer to the near (NEAR) side than the predetermined focal length threshold stored in the
S184では、AF処理部62のAF処理により合焦位置が決定され、かつその合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも至近(NEAR)側にあるか、すなわち所定距離よりも近いか否かを判断する。“Yes”の場合はS185、“No”の場合はS188に進む。
In S184, the focus position is determined by the AF process of the
S185では、ROM68の設定パラメータとしてあるいは操作部11から、予め接写ズーム情報フラグがオンに設定されているか否かを判断する。“Yes”の場合はS186、“No”の場合はS187に進む。
In S185, it is determined whether the close-up zoom information flag is set to ON in advance as a setting parameter of the
S186では、ズームレンズ位置がROM68に記憶された所定範囲内、例えば所定位置よりもワイド側にあるか否かを判断する。“Yes”の場合はS187、“No”の場合はS188に進む。なお、ズーム位置が所定範囲内にないとは、例えばズームレンズ位置がワイド端あるいはその近傍にある場合以外である。この場合、近接被写体の合焦ができず、近接撮影に適していない。
In S186, it is determined whether or not the zoom lens position is within a predetermined range stored in the
S187では、SR=接写に設定する。そして、module[4]の後に続く処理に進む。 In S187, SR = close-up is set. Then, the process proceeds after module [4].
S188では、SR=AUTOに設定する。そして、module[4]の後に続く処理に進む。 In S188, SR = AUTO is set. Then, the process proceeds after module [4].
図12〜図16のシーン判定の結果は、CPU75が表示部71に表示するよう制御する。
The
例えば、図3に示したように、シーン判定の結果である「風景」、「AUTO」、「人物」、「夜景」、「接写」といった文字を、スルー画像にあるいはレリーズボタン全押し後の記録用画像に重畳して、表示部71に表示する。シーン判定の結果を示す文字列、アイコン、記号その他の情報は、図示しないOSD回路によって生成される。カメラ1に音声処理回路やスピーカが備えられていれば、シーン判定の結果に対応する報知音を出力するようCPU75が制御してもよい。「自動シーン認識OFF」が設定されていれば、シーン判定結果は表示されない。
For example, as shown in FIG. 3, characters such as “landscape”, “AUTO”, “person”, “night view”, and “close-up”, which are the results of the scene determination, are recorded on the through image or after the release button is fully pressed. The image is displayed on the
以上の処理により、ユーザーが撮ろうとしている、もしくは撮ったシーンが、どのようなシーンであるのかを認識できる。 Through the above processing, it is possible to recognize what kind of scene the user is going to take or has taken.
図5のメイン処理では、シーン変動時にシーン認識を行う。前回のシーン認識結果が確定されたときのフレームの状態と、現フレームの状態の変動を監視する(S4、図6)。変化があった場合にシーン変動ありと判断されると(S5)、status=サーチ状態となり
(S6)、シーン変動のタイミングで認識部が動作する(S9)。
In the main process of FIG. 5, scene recognition is performed when the scene changes. The state of the frame when the previous scene recognition result is confirmed and the change in the state of the current frame are monitored (S4, FIG. 6). If it is determined that there is a scene change when there is a change (S5), status = search state (S6), and the recognition unit operates at the scene change timing (S9).
図6のフレーム変動チェックでは、変動を検知する因子を複数持つことが可能で、順序の入れ換えなども、E_AUTOSR_FRAME_CHECK1〜3の設定により可能である。そして、変動を検知した場合には、フレーム変動の指標となるchange_measureの値をインクリメントする(S24、S28、S32)。change_measureの値がE_AUTOSR_FRAME_CHANGE_MEASURE以上の場合には(S25、S29、S33で“Yes”)、フレーム変動ありと判断される(S35)。 In the frame variation check of FIG. 6, it is possible to have a plurality of factors for detecting variation, and the order can be changed by setting E_AUTOSR_FRAME_CHECK1 to 3. When a change is detected, the value of change_measure that is an index of the frame change is incremented (S24, S28, S32). If the value of change_measure is greater than or equal to E_AUTOSR_FRAME_CHANGE_MEASURE (“Yes” in S25, S29, and S33), it is determined that there is a frame variation (S35).
ここでは、フレーム変動を検知する具体的な処理として、測光値変動チェック(図7)、フォーカス位置変動チェック(図8)、顔有無変動チェック(図9)を示している。なお図示は省略するが、本撮像前AF処理部81の合焦検出の有無に応じてフレーム変動を検知してもよい。 Here, as specific processing for detecting frame fluctuation, a photometric value fluctuation check (FIG. 7), a focus position fluctuation check (FIG. 8), and a face presence / absence fluctuation check (FIG. 9) are shown. Although illustration is omitted, frame variation may be detected according to whether or not the pre-imaging AF processing unit 81 has detected focus.
図7の測光値変動チェックでは、測光値の変動量の指標となるdelta_evは、N分割の分割エリアごとに測光値変動量を算出し、各エリアに対応した重みをかけて総和をとったものである。そして、delta_evの値がE_AUTOSP_FRAME_DELTA_EV以上の場合に、測光値変動
ありと判断する。
In the photometric value fluctuation check in FIG. 7, delta_ev, which is an index of the photometric value fluctuation amount, is calculated by calculating the photometric value fluctuation amount for each of the N-divided areas and summing them by applying a weight corresponding to each area. It is. If the value of delta_ev is equal to or greater than E_AUTOSP_FRAME_DELTA_EV, it is determined that there is a change in the photometric value.
図8のフォーカス位置変動チェックでは、フォーカス位置の変動量の指標となるdelta_focal_pointは、基準情報のフォーカス位置と今回のフォーカス位置の差分によって算出される。delta_focal_pointの値がフォーカス位置変動閾値以上の場合に、フォーカス位置変動ありと判断する。なお、ここで使用される閾値は、ズーム位置ごとにROM68に設定されているものとする。
In the focus position variation check of FIG. 8, delta_focal_point, which is an index of the variation amount of the focus position, is calculated from the difference between the focus position of the reference information and the current focus position. When the value of delta_focal_point is equal to or greater than the focus position fluctuation threshold, it is determined that there is a focus position fluctuation. Note that the threshold used here is set in the
図9の顔有無変動チェックでは、基準情報の顔有無結果と今回の顔有無結果が異なる場合に、顔有無変動ありと判断する。 In the face presence / absence variation check in FIG. 9, it is determined that there is a face presence / absence variation when the face presence / absence result of the reference information is different from the current face presence / absence result.
認識部動作の差異に使用するシーン認識履歴は、自動シーン認識の結果として採用するSRを求めた後にクリアする(S8)。これは、認識部は常時動作することを想定しておらず、離れた時刻の情報を参照することがないようにするためである。 The scene recognition history used for the difference in the recognition unit operation is cleared after obtaining the SR to be adopted as a result of the automatic scene recognition (S8). This is because the recognizing unit is not assumed to always operate and does not refer to information at a distant time.
ここで、シーン認識履歴がクリアされるために、サーチ状態となってから(S6)、参照するシーン認識履歴数回分だけ認識部が動作するまでは(S11で“Y”となるまでは)、SRが更新されない仕組みとなる。 Here, since the scene recognition history is cleared, after the search state is entered (S6), until the recognition unit operates for the number of scene recognition histories to be referred to (until “Y” in S11), The SR is not updated.
また、SRを決定した際、フレーム変動をチェックするための基準情報として、採用されたSRが最大頻度になった(最新側の)情報を記憶する(S13)。 In addition, when the SR is determined, the information on which the adopted SR has the maximum frequency (latest side) is stored as reference information for checking the frame variation (S13).
なお、決定したSRがAUTO以外の場合は「確定状態」となり(S16)、シーンが変動するまでは認識部は動作しない。これに対し、決定したSRがAUTOの場合は「サーチ状態」となり(S15)、引き続き認識部を動作させる。これはシーン変動の途中で認識した結果を「確定状態」にすることで、シーン変動を正しく検知できなくなってしまう可能性があるためである。 If the determined SR is other than AUTO, the state becomes “determined” (S16), and the recognition unit does not operate until the scene changes. On the other hand, when the determined SR is AUTO, the “search state” is set (S15), and the recognition unit is continuously operated. This is because there is a possibility that the scene change cannot be detected correctly by setting the result recognized in the middle of the scene change to the “determined state”.
仮に、シーン変動の途中の状態を基準情報として登録した後、フレーム変動を見に行ってしまうと、最終的にシーン変動が完了した状態で認識部に動作してほしいと思っても、基準情報との差分が小さい故に、認識部が動作しない現象が起こってしまう。そこで、これを回避するため、上記のように確定したシーンに対応する情報で基準情報を更新する処理を行う(S13)。 If, after registering the state in the middle of a scene change as reference information, if you go to see the frame change, even if you want the recognizer to operate with the scene change completed, the reference information Since the difference between and is small, the recognition unit does not operate. Therefore, in order to avoid this, a process of updating the reference information with information corresponding to the scene determined as described above is performed (S13).
シーン認識は結果が安定しないと、出力結果がユーザの混乱を招く。そこで、どのようなシーンであるのかという判断をする処理(S7〜S16)と、認識したシーンから変動があったかという監視をする処理(S4〜S6)とを混合的に動作させることにより、正確で安定したシーン認識を行うことが可能となる。 If the result of scene recognition is not stable, the output result causes user confusion. Therefore, the process (S7 to S16) for determining what kind of scene it is and the process (S4 to S6) for monitoring whether or not there is a change from the recognized scene are mixed and operated accurately. It is possible to perform stable scene recognition.
<他の実施の形態>
次に、シーンの認識結果と顔の検出結果とに基づいて各種機能を制御する場合の他の実施の形態について説明する。
<Other embodiments>
Next, another embodiment for controlling various functions based on the scene recognition result and the face detection result will be described.
図17は顔検出利用による各種機能の制御の設定方法を示すフローチャートを示す。 FIG. 17 is a flowchart showing a setting method for controlling various functions using face detection.
S300では、ユーザーによる「カスタム設定」を行うか、「デフォルト設定」を行うが判別され、"Yes"の場合はS310に遷移し、"No"の場合はS320に遷移する。 In S300, it is determined whether “custom setting” or “default setting” is performed by the user. If “Yes”, the process proceeds to S310, and if “No”, the process proceeds to S320.
図18に、上記「カスタム設定」、「デフォルト設定」を選択するデジタルカメラ1の設定画面の一例を示す。
FIG. 18 shows an example of a setting screen of the
例えば、デジタルカメラ1のメニュー/OKボタン等を操作し、図18(a)に示す顔検出利用設定のメニューを表示部71に表示させ、上下矢印レバーを操作することで、「カスタム設定」、又は「デフォルト設定」を任意に選択することができる。
For example, by operating the menu / OK button or the like of the
ここで、「カスタム設定」を選択し、メニュー/OKボタンを押すと、図18(b)に示すように「カスタム設定」の詳細画面に遷移する。ユーザーは、この画面上で顔検出を利用した各種機能の制御方法を任意に設定することができる。 Here, when “custom setting” is selected and the menu / OK button is pressed, the screen changes to a “custom setting” detail screen as shown in FIG. The user can arbitrarily set a control method for various functions using face detection on this screen.
図18(b)に示す例では、「風景」、「夜景」及び「接写」のシーンの場合には、「顔AF」、「顔AWB」、「顔階調補正」の制御は実施しないようにしている。 In the example shown in FIG. 18B, in the case of “landscape”, “night view”, and “close-up” scenes, the control of “face AF”, “face AWB”, and “face gradation correction” is not performed. I have to.
図17のS310では、「カスタム設定」が設定され、顔検出利用による各種機能の制御方法として、ユーザーにより設定された各種機能の設定が適用される。 In S310 of FIG. 17, “custom setting” is set, and various function settings set by the user are applied as a method for controlling various functions by using face detection.
一方、S320では、「デフォルト設定」が設定され、顔検出利用による各種機能の制御方法として、デジタルカメラ1の出荷前に予め設定された各種機能の設定が適用される。
On the other hand, in S320, “default setting” is set, and various function settings set in advance before shipment of the
即ち、デジタルカメラ1には、「デフォルト設定」用のテーブルと、「カスタム設定」用のテーブルとを有し、ユーザーによりいずれのテーブルを適用するかが選択できるようになっている。また、「カスタム設定」用のテーブルは、その内容(制御のON/OFFなど)がユーザーからの指示入力により書き替え可能になっている。
That is, the
尚、図18(b)に示す例では、図4に示した例と同様に、各種機能をON/OFFレベルで制御するようにしているが、各種機能の強度をいくつかのレベルに分けておき、そのレベルを設定するような仕組みでもよい。 In the example shown in FIG. 18B, as in the example shown in FIG. 4, various functions are controlled at the ON / OFF level, but the strength of the various functions is divided into several levels. Alternatively, a mechanism for setting the level may be used.
また、本発明は、以上の例には限定されず、本発明の要旨を逸脱しない範囲において、各種の改良や変形を行ってもよいことは言うまでもない。 The present invention is not limited to the above examples, and it goes without saying that various improvements and modifications may be made without departing from the scope of the present invention.
1…デジタルカメラ、11…操作部、20…レンズ、24…フラッシュ発光部、25…補助光制御部、26…補助光発光部、51…レンズ駆動部、54…絞り、55…絞り駆動部、58…撮像素子(CCD)、59…撮像素子制御部、60…アナログ信号処理部、61…A/D変換部、62…AF処理部、63…AE/AWB処理部、65…デジタル信号処理部、66…メモリ、67…圧縮伸張処理部、68…ROM、69…RAM、70…記録部、71…表示部、73…フラッシュ制御部、74…制御回路、75…CPU、80…顔検出処理部
DESCRIPTION OF
Claims (12)
取得した情報からシーンを認識するシーン認識手段と、
撮影シーンに顔があるか否かを検出する顔検出手段と、
シーンの認識結果と顔の検出結果とに基づいて各種の制御を行う制御手段と、を備え、
前記シーン認識手段は、
認識したシーンに対応する情報を基準情報として記憶する記憶手段と、
記憶手段に記憶された基準情報と前記情報取得手段により取得された情報からシーンが変動したか否かを判別するシーン変動判別手段と、
シーン認識を行う所定の周期を設定する周期設定手段と、を有し、
シーンが変動したことが判別されると、前記情報取得手段により取得した情報に基づいて、予め定義した複数のシーン及びいずれのシーンにも当てはまらないシーンのうちのいずれかのシーンであって、前記周期設定手段により設定された所定の周期毎に前記情報取得手段により取得された情報に基づいてシーンを認識し、n回(n:3以上の整数)認識したシーンのうちの最大頻度のシーンを現在のシーンとして認識し、認識した現在のシーンに対応する情報を基準情報とし、前記記憶手段に記憶させた基準情報を更新する撮像装置。 Information acquisition means for acquiring information of a shooting scene;
Scene recognition means for recognizing a scene from the acquired information;
Face detection means for detecting whether or not there is a face in the shooting scene;
Control means for performing various controls based on the recognition result of the scene and the detection result of the face,
The scene recognition means includes
Storage means for storing information corresponding to the recognized scene as reference information;
Scene variation determining means for determining whether or not the scene has changed from the reference information stored in the storage means and the information acquired by the information acquiring means;
Cycle setting means for setting a predetermined cycle for performing scene recognition,
When it is determined that the scene has changed, based on the information acquired by the information acquisition means, any one of a plurality of predefined scenes and a scene that does not apply to any scene, A scene is recognized on the basis of information acquired by the information acquisition means for each predetermined period set by the period setting means, and a scene having the highest frequency among the scenes recognized n times (n: an integer of 3 or more). An imaging apparatus that recognizes a current scene, uses information corresponding to the recognized current scene as reference information, and updates the reference information stored in the storage unit.
取得した撮影シーンの情報からシーンを認識するステップと、
認識したシーンに対応する情報を基準情報として記憶手段に記憶させるステップと、
撮影シーンに顔があるか否かを検出するステップと、
シーンの認識結果と顔の検出結果とに基づいて各種の制御を行うステップと、を含み、
前記シーンを認識するステップは、
所定の周期毎に記憶手段に記憶された基準情報と前記取得されたシーンの情報とからシーンが変動したか否かを判別し、
シーンが変動したことが判別されると、前記所定の周期毎に取得したシーンの情報に基づいて、予め定義した複数のシーン及びいずれのシーンにも当てはまらないシーンのうちのいずれかのシーンを認識し、
n回(n:3以上の整数)認識したシーンのうちの最大頻度のシーンを現在のシーンとして認識し、認識した現在のシーンに対応する情報を基準情報として前記記憶手段に記憶させた基準情報を更新する撮像方法。 Acquiring information of a shooting scene at predetermined intervals;
A step of recognizing the scene from the acquired shooting scene information;
Storing information corresponding to the recognized scene in the storage means as reference information;
Detecting whether or not there is a face in the shooting scene;
Performing various controls based on a scene recognition result and a face detection result,
The step of recognizing the scene includes
It is determined whether or not the scene has fluctuated from the reference information stored in the storage means for each predetermined period and the acquired scene information,
When it is determined that the scene has changed, one of a plurality of predefined scenes and a scene that does not apply to any of the scenes is recognized based on the scene information acquired every predetermined period. And
Reference information in which the scene with the highest frequency among the scenes recognized n times (n: an integer of 3 or more) is recognized as the current scene, and information corresponding to the recognized current scene is stored in the storage means as reference information An imaging method for updating.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012146905A JP5324684B2 (en) | 2012-06-29 | 2012-06-29 | Imaging apparatus and imaging method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012146905A JP5324684B2 (en) | 2012-06-29 | 2012-06-29 | Imaging apparatus and imaging method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008197003A Division JP2010035048A (en) | 2008-07-30 | 2008-07-30 | Imaging apparatus and imaging method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012182856A JP2012182856A (en) | 2012-09-20 |
JP5324684B2 true JP5324684B2 (en) | 2013-10-23 |
Family
ID=47013600
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012146905A Active JP5324684B2 (en) | 2012-06-29 | 2012-06-29 | Imaging apparatus and imaging method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5324684B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6227083B2 (en) * | 2016-10-04 | 2017-11-08 | オリンパス株式会社 | Imaging apparatus and imaging method |
CN110929613A (en) * | 2019-11-14 | 2020-03-27 | 上海眼控科技股份有限公司 | Image screening algorithm for intelligent traffic violation audit |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4886210B2 (en) * | 2005-04-21 | 2012-02-29 | キヤノン株式会社 | Imaging device |
JP2007194917A (en) * | 2006-01-19 | 2007-08-02 | Seiko Epson Corp | Setting of effect processing suitable for photographing scene of image |
JP4818999B2 (en) * | 2006-07-25 | 2011-11-16 | 富士フイルム株式会社 | Imaging apparatus, method, and program |
-
2012
- 2012-06-29 JP JP2012146905A patent/JP5324684B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012182856A (en) | 2012-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010035048A (en) | Imaging apparatus and imaging method | |
JP4655054B2 (en) | Imaging device | |
JP4518131B2 (en) | Imaging method and apparatus | |
EP2148499B1 (en) | Imaging apparatus and method | |
JP5166370B2 (en) | Imaging apparatus and imaging method | |
JP2019215489A (en) | Imaging device and focus adjustment method | |
JP2008236534A (en) | Digital camera, and information display method and information display control program | |
JP2008070611A (en) | Imaging apparatus, exposure condition adjustment method and program | |
JP5027580B2 (en) | Imaging apparatus, method, and program | |
JP2008278354A (en) | Imaging device | |
JP5883564B2 (en) | Imaging device | |
JP5324684B2 (en) | Imaging apparatus and imaging method | |
JP2010287919A (en) | Imaging device | |
JP2008298847A (en) | Photographing method and digital camera | |
JP5421682B2 (en) | Imaging apparatus and method | |
JP2013097312A (en) | Focus adjustment device and control method thereof | |
JP2012119756A (en) | Imaging apparatus and white-balance control method | |
JP6084316B2 (en) | Imaging device | |
JP2008219367A (en) | Imaging apparatus and imaging method | |
JP4908321B2 (en) | Imaging device | |
JP5406958B2 (en) | Image processing apparatus, method, and program | |
KR101442152B1 (en) | User adaptive image photographing apparatus and method for controlling the apparatus | |
KR101417818B1 (en) | Apparatus and method for recognizing scene mode in digital image processing device | |
JP2008311921A (en) | Imaging apparatus | |
JP2012227658A (en) | Imaging apparatus and imaging apparatus control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120710 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130627 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130709 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130718 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5324684 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |