JP5324684B2 - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP5324684B2
JP5324684B2 JP2012146905A JP2012146905A JP5324684B2 JP 5324684 B2 JP5324684 B2 JP 5324684B2 JP 2012146905 A JP2012146905 A JP 2012146905A JP 2012146905 A JP2012146905 A JP 2012146905A JP 5324684 B2 JP5324684 B2 JP 5324684B2
Authority
JP
Japan
Prior art keywords
scene
information
face
process proceeds
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012146905A
Other languages
Japanese (ja)
Other versions
JP2012182856A (en
Inventor
雅彦 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2012146905A priority Critical patent/JP5324684B2/en
Publication of JP2012182856A publication Critical patent/JP2012182856A/en
Application granted granted Critical
Publication of JP5324684B2 publication Critical patent/JP5324684B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable face detection based various functions to be controlled individually according to scene recognition results. <P>SOLUTION: Information on a photographing scene is acquired as scenes are recognized, and detection is made of the photographing scene at the same time to see if it contains a face. Then various controls are exerted based on a scene recognition result and a face detection result. When various controls making use of face detection, such as face frame display, face AE, face AF, face AWB, face gradation correction, etc., are exerted, those are made individually controllable according to the scene recognition result so that they will suit the need, thus making it possible to realize excellent photographing and image processing according to the scene concerned. Furthermore, if the scene changes, scene recognition is performed based on information about scenes acquired every prescribed cycle. Out of scenes recognized 5 times, the one with highest frequency is recognized as a current scene, in which way scene recognition results are obtained stably. <P>COPYRIGHT: (C)2012,JPO&amp;INPIT

Description

本発明は撮像装置及び撮像方法に係り、特にシーンの認識結果に基づいて顔検出の利用方法を変化させる技術に関する。   The present invention relates to an imaging apparatus and an imaging method, and more particularly to a technique for changing a method of using face detection based on a scene recognition result.

特許文献1には、デジタルスチルカメラにおいて、設定された撮影モードがシーンに対して適切であるか否かを、デジタル画像信号やEV値に基づいて判定することが開示されている。   Patent Document 1 discloses that in a digital still camera, whether or not a set shooting mode is appropriate for a scene is determined based on a digital image signal or an EV value.

特許文献2には、顔認識手段と状態検出手段の出力情報に基づいてカメラの撮影モードを設定する撮影モード自動設定カメラが開示されている。特許文献2に記載のカメラは、被写体の動き、撮像倍率又は被写体距離の出力情報に基づいてカメラ撮影モードを自動設定するものである。また、特許文献2には、人の顔を検出するだけでなく、人数や撮影倍率に応じて撮影モードとして、ポートレートモード、複数人物モード、集合写真モードを区別することが記載されている。   Japanese Patent Application Laid-Open No. 2004-228561 discloses an imaging mode automatic setting camera that sets the imaging mode of the camera based on output information from the face recognition unit and the state detection unit. The camera described in Patent Document 2 automatically sets a camera shooting mode based on output information of subject movement, imaging magnification, or subject distance. Patent Document 2 describes not only detecting a human face but also distinguishing a portrait mode, a multiple-person mode, and a group photo mode as shooting modes according to the number of people and shooting magnification.

特開2003−244530号公報JP 2003-244530 A 特開2003−344891号公報JP 2003-344891 A

特許文献1に記載の発明は、設定された撮影モードが撮影シーンに対して適切であるか否かを判定するものであり、シーンを認識するものではない。   The invention described in Patent Document 1 determines whether or not a set shooting mode is appropriate for a shooting scene, and does not recognize a scene.

また、特許文献2に記載の発明は、顔認識手段と状態検出手段の出力情報に基づいてシーン認識を行い、人物モードを含む各種の撮影モードを自動的に設定するものであるが、特許文献2には、シーン認識結果と顔検出結果とを利用した各種機能をどのように制御するかについては記載されていない。   The invention described in Patent Document 2 performs scene recognition based on output information from the face recognition means and the state detection means, and automatically sets various shooting modes including a person mode. 2 does not describe how to control various functions using the scene recognition result and the face detection result.

本発明はこのような事情に鑑みてなされたもので、顔検出を利用した各種機能の制御をシーンの認識結果に応じて個別に制御することができ、より良好な撮像や画像処理を実現することができる撮像装置及び撮像方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and can control various functions using face detection individually according to the recognition result of the scene, thereby realizing better imaging and image processing. It is an object to provide an imaging apparatus and an imaging method that can be used.

上記課題を解決するために本発明の一の態様に係る撮像装置は、撮影シーンの情報を取得する情報取得手段と、取得した情報からシーンを認識するシーン認識手段と、撮影シーンに顔があるか否かを検出する顔検出手段と、シーンの認識結果と顔の検出結果とに基づいて各種の制御を行う制御手段と、を備え、シーン認識手段は、認識したシーンに対応する情報を基準情報として記憶する記憶手段と、記憶手段に記憶された基準情報と情報取得手段により取得された情報からシーンが変動したか否かを判別するシーン変動判別手段と、シーン認識を行う所定の周期を設定する周期設定手段と、を有し、シーンが変動したことが判別されると、情報取得手段により取得した情報に基づいて、予め定義した複数のシーン及びいずれのシーンにも当てはまらないシーンのうちのいずれかのシーンであって、周期設定手段により設定された所定の周期毎に情報取得手段により取得された情報に基づいてシーンを認識し、n回(n:3以上の整数)認識したシーンのうちの最大頻度のシーンを現在のシーンとして認識し、認識した現在のシーンに対応する情報を基準情報とし、記憶手段に記憶させた基準情報を更新する。   In order to solve the above-described problem, an imaging apparatus according to an aspect of the present invention includes an information acquisition unit that acquires information about a shooting scene, a scene recognition unit that recognizes a scene from the acquired information, and a face in the shooting scene. A face detection means for detecting whether or not, and a control means for performing various controls based on the scene recognition result and the face detection result. The scene recognition means uses information corresponding to the recognized scene as a reference. Storage means for storing information, scene change determination means for determining whether or not the scene has changed from the reference information stored in the storage means and the information acquired by the information acquisition means, and a predetermined cycle for performing scene recognition. And a period setting means for setting, and when it is determined that the scene has changed, a plurality of predefined scenes and any of the scenes are detected based on the information acquired by the information acquisition means. Recognize the scene based on the information acquired by the information acquisition means for each predetermined period set by the period setting means, and n times (n: 3 or more) (Integer) The scene with the highest frequency among the recognized scenes is recognized as the current scene, information corresponding to the recognized current scene is used as reference information, and the reference information stored in the storage means is updated.

即ち、シーンの認識結果と顔の検出結果とに基づいて各種の制御を行うようにしたため、顔検出を利用した各種の制御を行う際に、シーンの認識結果に応じてその制御をどのように行うべきか(制御を行うべきか否かを含む)等を個別に制御することができ、シーンに応じてより良好な撮像や画像処理を実現することができる。   In other words, since various types of control are performed based on the scene recognition result and the face detection result, when performing various types of control using face detection, how is the control performed according to the scene recognition result? Whether it should be performed (including whether to perform control) or the like can be individually controlled, and better imaging and image processing can be realized according to the scene.

また、シーンが変動したことが判別されると、所定の周期毎に取得されたシーンの情報に基づいてシーンを認識し、n回(n:3以上の整数)認識したシーンのうちの最大頻度のシーンを現在のシーンとして認識するようにしたため、シーンの認識結果を安定して得ることができる。   Further, when it is determined that the scene has changed, the scene is recognized based on the scene information acquired every predetermined period, and the maximum frequency of the scenes recognized n times (n: integer of 3 or more). Since this scene is recognized as the current scene, the scene recognition result can be obtained stably.

本発明の他の態様に係る撮像装置において、情報取得手段は、撮影シーン中に顔があるか否かを示す情報、被写体距離に相当する情報、被写体の明るさに相当する情報のうちの少なくとも1つの情報を取得することが好ましい。尚、顔があるか否かを示す情報は、顔検出手段から取得することができる。   In the imaging apparatus according to another aspect of the present invention, the information acquisition means includes at least one of information indicating whether or not there is a face in the shooting scene, information corresponding to the subject distance, and information corresponding to the brightness of the subject. It is preferable to acquire one piece of information. Information indicating whether or not there is a face can be acquired from the face detection means.

本発明の更に他の態様に係る撮像装置において、制御手段は、ライブビュー画像を表示する表示手段の画面上において、検出された顔の位置を明示的に表示する表示制御手段、検出された顔の領域の明るさに基づいて露出を制御する露出制御手段、検出された顔に焦点が合うように焦点調節を行う自動焦点調節手段、検出された顔の領域の色情報に基づいてホワイトバランスを調整するホワイトバランス調整手段、及び検出された顔の領域の明るさに基づいて階調補正を行う顔階調補正手段のうちの2以上の手段を含む。即ち、制御手段は、顔の検出結果に応じてライブビュー画像に検出された顔の位置を顔枠等により明示的に表示し、検出された顔の領域の明るさに基づいて露出を制御し、検出された顔に焦点が合うように焦点調節を行い、検出された顔の領域の色情報に基づいてホワイトバランスを調整し、又は検出された顔の領域の明るさに基づいて階調補正を行うが、これらの各種の制御をシーンの認識結果に応じて個別に制御できるようになっている。   In the imaging apparatus according to still another aspect of the present invention, the control means includes a display control means for explicitly displaying the position of the detected face on the screen of the display means for displaying the live view image, and the detected face. Exposure control means for controlling the exposure based on the brightness of the area, automatic focus adjustment means for adjusting the focus so that the detected face is in focus, and white balance based on the color information of the detected face area It includes two or more means of white balance adjustment means for adjustment and face gradation correction means for performing gradation correction based on the brightness of the detected face area. That is, the control means explicitly displays the position of the detected face in the live view image according to the face detection result by a face frame or the like, and controls the exposure based on the brightness of the detected face area. Adjust the focus so that the detected face is in focus, adjust the white balance based on the color information of the detected face area, or correct the gradation based on the brightness of the detected face area However, these various controls can be individually controlled according to the recognition result of the scene.

本発明の更に他の態様に係る撮像装置において、制御手段は、シーンの種類と各種の制御の種類とに対応して、各制御の種類毎に制御を行うか否を示す情報又は制御の強弱を示す情報が記憶されたテーブルを有し、シーンの認識結果と顔の検出結果とに基づいてテーブルから対応する情報を読み出して各種の制御を行う。   In the imaging apparatus according to still another aspect of the present invention, the control unit corresponds to the type of scene and the various types of control, and indicates whether or not the control is performed for each type of control or the strength of control. Is stored, and the corresponding information is read from the table based on the scene recognition result and the face detection result, and various controls are performed.

本発明の更に他の態様に係る撮像装置において、テーブルに記憶されている情報をユーザーが自由に設定するカスタム設定手段を備えることが好ましい。即ち、顔検出を利用した各種の制御を行う際に、シーンの認識結果に応じてその制御をどのように行うべきか等をユーザーが自由に設定することができ、ユーザーの好みに合わせた制御を可能にしている。   In the imaging apparatus according to still another aspect of the present invention, it is preferable that the imaging apparatus includes a custom setting unit that allows the user to freely set information stored in the table. In other words, when performing various controls using face detection, the user can freely set how to perform the control according to the recognition result of the scene, and control according to the user's preference Is possible.

本発明の更に他の態様に係る撮像装置において、シーン認識手段は、認識したn回のシーンのうちの最大頻度のシーンが複数存在する場合、シーン認識の履歴のうちの最も新しいシーンが属するシーンを現在のシーンとして認識する。   In the imaging apparatus according to still another aspect of the present invention, the scene recognizing unit may include a scene to which the latest scene in the history of scene recognition belongs when there are a plurality of scenes with the highest frequency among the n recognized scenes. Is recognized as the current scene.

本発明の更に他の態様に係る撮像方法は、所定の周期毎に撮影シーンの情報を取得するステップと、取得した撮影シーンの情報からシーンを認識するステップと、認識したシーンに対応する情報を基準情報として記憶手段に記憶させるステップと、撮影シーンに顔があるか否かを検出するステップと、シーンの認識結果と顔の検出結果とに基づいて各種の制御を行うステップと、を含み、シーンを認識するステップは、所定の周期毎に記憶手段に記憶された基準情報と取得されたシーンの情報とからシーンが変動したか否かを判別し、シーンが変動したことが判別されると、所定の周期毎に取得したシーンの情報に基づいて、予め定義した複数のシーン及びいずれのシーンにも当てはまらないシーンのうちのいずれかのシーンを認識し、n回(n:3以上の整数)認識したシーンのうちの最大頻度のシーンを現在のシーンとして認識し、認識した現在のシーンに対応する情報を基準情報として記憶手段に記憶させた基準情報を更新する。   An imaging method according to still another aspect of the present invention includes a step of acquiring shooting scene information at predetermined intervals, a step of recognizing a scene from the acquired shooting scene information, and information corresponding to the recognized scene. Storing in the storage means as reference information, detecting whether or not there is a face in the shooting scene, and performing various controls based on the recognition result of the scene and the detection result of the face, The step of recognizing the scene determines whether or not the scene has changed from the reference information stored in the storage means and the acquired scene information every predetermined period, and if it is determined that the scene has changed. Based on the scene information acquired every predetermined period, recognize any scene among a plurality of predefined scenes and scenes that do not apply to any scene, and n times n: 3 or more integer) the maximum frequency of the scene of the recognized scene recognized as the current scene, updates the reference information stored information corresponding to the recognized current scene in the storage means as the reference information.

本発明の更に他の態様に係る撮像方法において、撮影シーンの情報を取得するステップは、撮影シーン中に顔があるか否かを示す情報、被写体距離に相当する情報、被写体の明るさに相当する情報のうちの少なくとも1つの情報を取得することが好ましい。   In the imaging method according to still another aspect of the present invention, the step of acquiring shooting scene information includes information indicating whether or not there is a face in the shooting scene, information corresponding to a subject distance, and brightness of the subject. It is preferable that at least one piece of information to be acquired is acquired.

本発明の更に他の態様に係る撮像方法において、各種の制御を行うステップは、ライブビュー画像を表示する表示手段の画面上において、検出された顔の位置を明示的に表示する表示制御、検出された顔の領域の明るさに基づいて露出を制御する露出制御、検出された顔に焦点が合うように焦点調節を行う自動焦点調節、検出された顔の領域の色情報に基づいてホワイトバランスを調整するホワイトバランス調整、及び検出された顔の領域の明るさに基づいて階調補正を行う顔階調補正のうちの2以上の制御を含む。   In the imaging method according to still another aspect of the present invention, the step of performing various controls includes display control and detection for explicitly displaying the position of the detected face on the screen of the display means for displaying the live view image. Exposure control to control the exposure based on the brightness of the detected face area, automatic focus adjustment to adjust the focus so that the detected face is in focus, white balance based on the color information of the detected face area Control of two or more of the white balance adjustment for adjusting the face and the face gradation correction for performing the gradation correction based on the detected brightness of the face area.

本発明の更に他の態様に係る撮像方法において、各種の制御を行うステップは、シーンの種類と各種の制御の種類とに対応して、各制御の種類毎に制御を行うか否を示す情報又は制御の強弱を示す情報が記憶されたテーブルを使用し、シーンの認識結果と顔の検出結果とに基づいてテーブルから対応する情報を読み出して各種の制御を行う。   In the imaging method according to still another aspect of the present invention, the step of performing various controls includes information indicating whether to perform control for each type of control corresponding to the type of scene and the various types of control. Alternatively, a table in which information indicating the strength of control is stored is used, and various types of control are performed by reading the corresponding information from the table based on the scene recognition result and the face detection result.

本発明の更に他の態様に係る撮像方法において、テーブルに記憶されている情報は、ユーザーが自由に設定するカスタム設定手段により設定される。   In the imaging method according to still another aspect of the present invention, the information stored in the table is set by custom setting means that is freely set by the user.

本発明の更に他の態様に係る撮像方法において、シーンを認識するステップは、認識したn回のシーンのうちの最大頻度のシーンが複数存在する場合、シーン認識の履歴のうちの最も新しいシーンが属するシーンを現在のシーンとして認識する。   In the imaging method according to still another aspect of the present invention, the step of recognizing a scene includes the step of recognizing the newest scene in the history of scene recognition when there are a plurality of scenes with the highest frequency among the n recognized scenes. The scene to which it belongs is recognized as the current scene.

本発明によれば、顔検出を利用した各種の制御を行う際に、シーンの認識結果に応じてその制御をどのように行うべきか(制御を行うべきか否かを含む)等を個別に制御することができ、シーンに応じてより良好な撮像や画像処理を実現することができ、また、シーン変動時にシーンの認識結果を安定して得ることができる。   According to the present invention, when various types of control using face detection are performed, how the control should be performed according to the recognition result of the scene (including whether or not to perform control) is individually determined. Therefore, it is possible to realize better imaging and image processing according to the scene, and it is possible to stably obtain a scene recognition result when the scene changes.

デジタルカメラの構成を示す概略ブロック図Schematic block diagram showing the configuration of the digital camera 本発明に係る撮像方法の概要を示すフローチャートThe flowchart which shows the outline | summary of the imaging method which concerns on this invention シーン判定の結果表示の一例を示す図The figure which shows an example of the result display of a scene determination シーンの認識結果と顔検出を利用した各種機能の関係の一例を示す図表Chart showing an example of the relationship between scene recognition results and various functions using face detection シーン認識メイン処理のフローチャートFlow chart of main scene recognition process フレーム変動チェックのフローチャートFlow chart of frame fluctuation check 測光値変動チェックのフローチャートPhotometric value variation check flowchart フォーカス位置変動チェックのフローチャートFlow chart of focus position fluctuation check 顔有無変動チェックのフローチャートFlow chart of face presence / absence variation check シーン認識の詳細を示すフローチャートFlowchart showing scene recognition details シーン認識結果SRを概念的に示した図The figure which showed scene recognition result SR notionally シーン判定サブルーチン(人物判定)のフローチャートFlow chart of scene determination subroutine (person determination) シーン判定サブルーチン(風景判定)のフローチャートFlow chart of scene determination subroutine (landscape determination) シーン判定サブルーチン(夜景判定)のフローチャートFlowchart of scene determination subroutine (night scene determination) シーン判定サブルーチン(夜景判定)のフローチャートの他の一例Another example of flowchart of scene determination subroutine (night scene determination) シーン判定サブルーチン(接写判定)のフローチャートFlowchart of scene determination subroutine (close-up determination) 顔検出利用による各種機能の制御の設定方法を示すフローチャートFlowchart showing a setting method for controlling various functions by using face detection 顔形機能設定画面の一例を示す図The figure which shows an example of a face shape function setting screen

以下、添付図面に従って本発明に係る撮像装置及び撮像方法の好ましい実施の形態について説明する。   Hereinafter, preferred embodiments of an imaging apparatus and an imaging method according to the present invention will be described with reference to the accompanying drawings.

[撮像装置の構成]
図1は、本発明に係る撮像装置(デジタルカメラ)の第1の実施形態を示すブロック図である。
[Configuration of imaging device]
FIG. 1 is a block diagram showing a first embodiment of an imaging apparatus (digital camera) according to the present invention.

この撮像装置(以下、デジタルカメラ1という。)は、撮影により取得した画像データを、Exif形式の画像ファイルに変換して、本体に着脱可能な外部記録メディアなどの記録部70へ記録するものである。   This imaging device (hereinafter referred to as a digital camera 1) converts image data acquired by photographing into an image file in Exif format and records it in a recording unit 70 such as an external recording medium that can be attached to and detached from the main body. is there.

図1に示すように、デジタルカメラ1は、操作部11と、ユーザーによる操作部11への操作内容を解釈して各部を制御する制御回路74とを有している。   As shown in FIG. 1, the digital camera 1 includes an operation unit 11 and a control circuit 74 that interprets the operation content of the user on the operation unit 11 and controls each unit.

操作部11は、画像を撮影する撮影モードと、記録部70に記録された画像を読み出して表示部71に表示する再生モードとの間で動作モードを切り替える動作モードスイッチ、メニュー/OKボタン、ズーム/上下矢印レバー、左右矢印ボタン、Back(戻る)ボタン、表示切替ボタン、シャッタボタン、電源スイッチを含んでいる。   The operation unit 11 is an operation mode switch, a menu / OK button, a zoom that switches an operation mode between a shooting mode for shooting an image and a playback mode for reading an image recorded in the recording unit 70 and displaying it on the display unit 71. / Includes an up / down arrow lever, a left / right arrow button, a Back button, a display switching button, a shutter button, and a power switch.

制御回路74は、情報処理を行うCPU75、本発明に係るシーン認識等の情報処理を規定したプログラム、ファームウェア、プログラムでの各種判定に用いる閾値その他の定数などを記録したROM68、情報処理に必要な変数やデータなどを格納するRAM69を備えている。   The control circuit 74 includes a CPU 75 that performs information processing, a program that defines information processing such as scene recognition according to the present invention, firmware, a ROM 68 that records threshold values and other constants used for various determinations in the program, and is necessary for information processing. A RAM 69 for storing variables and data is provided.

CPU75は、操作部11やAF処理部62等の各種処理部からの信号に応じてデジタルカメラ1の本体各部を制御する。ROM68は、デジタルカメラ1において設定される各種定数、及びCPU75が実行するプログラム等を格納する。RAM69は、CPU75がプログラムの実行に必要なデータを一時的に格納する。   The CPU 75 controls each part of the main body of the digital camera 1 in accordance with signals from various processing units such as the operation unit 11 and the AF processing unit 62. The ROM 68 stores various constants set in the digital camera 1, programs executed by the CPU 75, and the like. The RAM 69 temporarily stores data necessary for the CPU 75 to execute the program.

レンズ20は、フォーカスレンズ及びズームレンズを有している。レンズ20は、レンズ駆動部51によって光軸方向に移動可能である。レンズ駆動部51は、CPU75から出力されるフォーカス駆動量データに基づいて、フォーカスレンズの位置を制御する。また、レンズ駆動部51は、操作部11のズーム/上下矢印レバーの操作量データに基づいてズームレンズの位置を制御する。   The lens 20 has a focus lens and a zoom lens. The lens 20 can be moved in the optical axis direction by the lens driving unit 51. The lens driving unit 51 controls the position of the focus lens based on the focus drive amount data output from the CPU 75. Further, the lens driving unit 51 controls the position of the zoom lens based on the operation amount data of the zoom / up / down arrow lever of the operation unit 11.

また、絞り54は、モータとモータドライバとからなる絞り駆動部55によって駆動される。絞り駆動部55は、CPU75から出力される絞り値データに基づいて絞り径の調整を行う。   The diaphragm 54 is driven by a diaphragm driving unit 55 including a motor and a motor driver. The aperture driver 55 adjusts the aperture diameter based on aperture value data output from the CPU 75.

レンズ20、絞り54を含む撮像光学系の後方には、撮像素子(CCD)58が配置されている。尚、撮像素子58としては、CCDの代わりにCMOSイメージセンサを用いることもできる。   An imaging element (CCD) 58 is disposed behind the imaging optical system including the lens 20 and the diaphragm 54. As the image sensor 58, a CMOS image sensor can be used instead of the CCD.

撮像素子58は、多数の受光素子が2次元的に配列された光電面を有している。撮像光学系を通過した被写体光はこの光電面に結像し、光電変換される。光電面の前方には、各画素に光を集光するためのマイクロレンズアレイと、R,G,B各色のフィルタが規則的に配列されたカラーフィルタアレイとが配置されている。撮像素子58は、撮像素子制御部59から供給される垂直転送クロック及び水平転送クロックに同期して、画素毎に蓄積された電荷を1ラインずつシリアルなアナログ撮影信号として出力する。各画素において電荷を蓄積する時間、すなわち、露出時間は、撮像素子制御部59から与えられる電子シャッタ駆動信号によって決定される。また、撮像素子58は、あらかじめ定められた大きさのアナログ撮像信号が得られるように、撮像素子制御部59によりゲインが調整されて
いる。
The image sensor 58 has a photocathode on which a large number of light receiving elements are two-dimensionally arranged. The subject light that has passed through the imaging optical system forms an image on this photocathode and undergoes photoelectric conversion. In front of the photocathode, a microlens array for condensing light on each pixel and a color filter array in which filters of R, G, and B colors are regularly arranged are arranged. The image sensor 58 outputs the charge accumulated for each pixel as a serial analog image signal for each line in synchronization with the vertical transfer clock and the horizontal transfer clock supplied from the image sensor control unit 59. The time for accumulating charges in each pixel, that is, the exposure time is determined by an electronic shutter drive signal provided from the image sensor control unit 59. Further, the gain of the image sensor 58 is adjusted by the image sensor control unit 59 so that an analog image signal having a predetermined size can be obtained.

撮像素子58から取り込まれたアナログ撮影信号は、アナログ信号処理部60に入力される。アナログ信号処理部60は、アナログ信号のノイズを除去する相関2重サンプリング回路(CDS)と、アナログ信号のゲインを調節するオートゲインコントローラ(AGC)とからなる。アナログ信号処理部60におけるR、G、B信号の増幅ゲインは、撮影感度(ISO感度)に相当する。CPU75は、この増幅ゲインを調整することにより撮影感度を設定する。   The analog photographing signal captured from the image sensor 58 is input to the analog signal processing unit 60. The analog signal processing unit 60 includes a correlated double sampling circuit (CDS) that removes noise from the analog signal, and an auto gain controller (AGC) that adjusts the gain of the analog signal. The amplification gains of the R, G, and B signals in the analog signal processing unit 60 correspond to shooting sensitivity (ISO sensitivity). The CPU 75 sets the photographing sensitivity by adjusting the amplification gain.

A/D変換部61は、アナログ信号処理部60により処理されたアナログ画像信号をデジタル画像データに変換する。このデジタル信号に変換された画像データは、画素毎にR,G,Bの濃度値を持つCCD−RAWデータである。   The A / D conversion unit 61 converts the analog image signal processed by the analog signal processing unit 60 into digital image data. The image data converted into the digital signal is CCD-RAW data having R, G, and B density values for each pixel.

制御回路74は、発振子(不図示)から供給される発振信号を逓倍又は分周してタイミング信号を発生させて撮像素子制御部59に入力することにより、操作部11のシャッタボタンの操作時における撮像素子58からの電荷の取込み及びアナログ信号処理部60の処理のタイミングを調整している。   The control circuit 74 multiplies or divides an oscillation signal supplied from an oscillator (not shown) to generate a timing signal and input it to the image sensor control unit 59, thereby operating the shutter button of the operation unit 11. The timing of taking in the charge from the image sensor 58 and the processing of the analog signal processing unit 60 is adjusted.

制御回路74は、撮像素子58で生成された画像信号の輝度を検出することにより測光を行う。制御回路74は、被写界輝度が低い場合、自動焦点調節(AF)時(シャッタボタン半押し時)に補助光制御部25に指示して補助光発光部26(例えば、LED)から補助光を照射させる。   The control circuit 74 performs photometry by detecting the luminance of the image signal generated by the image sensor 58. When the field brightness is low, the control circuit 74 instructs the auxiliary light control unit 25 during automatic focus adjustment (AF) (when the shutter button is half-pressed) to provide auxiliary light from the auxiliary light emitting unit 26 (for example, LED). Is irradiated.

A/D変換部61から出力されたR,G,Bの各画像データ(CCD−RAWデータ)は、デジタル信号処理部65によって、ホワイトバランス(WB)調整、ガンマ補正、及びYC処理が施される。処理後の画像データは、メモリ66に書き込まれる。   The R, G, B image data (CCD-RAW data) output from the A / D converter 61 is subjected to white balance (WB) adjustment, gamma correction, and YC processing by the digital signal processor 65. The The processed image data is written into the memory 66.

メモリ66は、画像データに対して後述の各種デジタル画像処理(信号処理)を行う際に使用する作業用メモリであり、例えば、一定周期のバスクロック信号に同期してデータ転送を行うSDRAM(Synchronous Dynamic Random Access Memory)が使用される。   The memory 66 is a working memory used when various digital image processing (signal processing) described later is performed on the image data. For example, an SDRAM (Synchronous) that performs data transfer in synchronization with a bus clock signal having a fixed period. Dynamic Random Access Memory) is used.

表示部71は、例えば、液晶モニタを含んでおり、撮影モード設定以後から本撮影指示がされるまでの間メモリ66に逐次格納された画像データをライブビュー画像(スルー画像)として液晶モニタに表示させたり、再生モード時に記録部70に保存されている画像データを液晶モニタに表示させる。尚、スルー画像は、撮影モードが選択されている間、所定の時間間隔で撮像素子58により撮影される。   The display unit 71 includes, for example, a liquid crystal monitor, and displays the image data sequentially stored in the memory 66 from the setting of the shooting mode until the main shooting instruction is given on the liquid crystal monitor as a live view image (through image). Or the image data stored in the recording unit 70 in the playback mode is displayed on the liquid crystal monitor. The through image is captured by the image sensor 58 at a predetermined time interval while the shooting mode is selected.

本実施形態のデジタルカメラ1は、動作モードが撮影モードに設定されると、画像の撮像を開始し、ライブビュー画像(スルー画)が表示部71の液晶モニタに表示される。スルー画表示時には、CPU75は、後述のAF処理部62及びAE/AWB処理部63による演算結果に基づいて、コンティニュアスAE(CAE)及びコンティニュアスAF(CAF)を実行する。ここで、コンティニュアスAEとは、スルー画撮影の継続中に繰り返し露出値の演算を行って、連続的に撮像素子(CCD)58の電子シャッタ機能及び/又は絞り54を制御する機能である。コンティニュアスAFとは、スルー画撮影の継続中に繰り返しAF評価値の演算を行って、連続的にフォーカスレンズ位置を制御する機能である。撮影モード時にシャッタボタンが半押しされると(S1オン)、デジタルカメラ1は、AE処理(S1AE)及びAF処理(S1AF)を実行し、AEロック及びAFロックを実行する。   When the operation mode is set to the shooting mode, the digital camera 1 according to the present embodiment starts image capturing, and a live view image (through image) is displayed on the liquid crystal monitor of the display unit 71. At the time of displaying a through image, the CPU 75 executes continuous AE (CAE) and continuous AF (CAF) based on calculation results by an AF processing unit 62 and an AE / AWB processing unit 63 described later. Here, the continuous AE is a function of repeatedly calculating an exposure value while continuing through image shooting and continuously controlling the electronic shutter function and / or the aperture 54 of the image sensor (CCD) 58. . Continuous AF is a function for continuously controlling the focus lens position by repeatedly calculating an AF evaluation value while continuing through image shooting. When the shutter button is half-pressed in the shooting mode (S1 on), the digital camera 1 executes AE processing (S1AE) and AF processing (S1AF), and executes AE lock and AF lock.

以下、AE処理及びAF処理について説明する。撮像素子58から出力された画像信号はA/D変換後にバッファメモリ(不図示)を介してAF処理部62及びAE/AWB処理部63に入力される。   Hereinafter, the AE process and the AF process will be described. The image signal output from the image sensor 58 is input to the AF processing unit 62 and the AE / AWB processing unit 63 via a buffer memory (not shown) after A / D conversion.

AE/AWB処理部63は、1画面を複数の分割エリア(例えば、8×8又は16×16)に分割し、この分割エリアごとにR、G、B信号を積算し、その積算値をCPU75に提供する。CPU75は、AE/AWB処理部63から得た積算値に基づいて被写体の明るさ(被写体輝度)を検出し、撮影に適した露出値(撮影EV値)を算出する。CPU75は、上記露出値と所定のプログラム線図に従って、絞り値とシャッタスピードを決定し、これに従い撮像素子58の電子シャッタ機能及び絞り54を制御して適正な露光量を得る。   The AE / AWB processing unit 63 divides one screen into a plurality of divided areas (for example, 8 × 8 or 16 × 16), integrates R, G, and B signals for each divided area, and calculates the integrated value as a CPU 75. To provide. The CPU 75 detects the brightness of the subject (subject brightness) based on the integrated value obtained from the AE / AWB processing unit 63, and calculates an exposure value (shooting EV value) suitable for shooting. The CPU 75 determines an aperture value and a shutter speed according to the exposure value and a predetermined program diagram, and controls the electronic shutter function and the aperture 54 of the image sensor 58 according to this to obtain an appropriate exposure amount.

更に、CPU75は、フラッシュ発光モードがオンに設定された場合にフラッシュ制御部73にコマンドを送って動作させる。フラッシュ制御部73は、フラッシュ発光部(放電管)24を発光させるための電流を供給するためのメインコンデンサを含んでおり、CPU75からのフラッシュ発光指令に従ってメインコンデンサの充電制御、フラッシュ発光部24への放電(発光)のタイミング及び放電時間の制御等を行う。尚、フラッシュ発光手段としては、放電管に代えて発光ダイオード(LED)を用いることも可能である。   Further, the CPU 75 sends a command to the flash control unit 73 to operate when the flash emission mode is set to ON. The flash control unit 73 includes a main capacitor for supplying a current for causing the flash light emitting unit (discharge tube) 24 to emit light. In accordance with a flash light emission command from the CPU 75, charging control of the main capacitor and the flash light emitting unit 24 The discharge (light emission) timing and discharge time are controlled. As the flash light emitting means, a light emitting diode (LED) can be used instead of the discharge tube.

また、AE/AWB処理部63は、自動ホワイトバランス調整時に、分割エリアごとにR、G、B信号の色別の平均積算値を算出し、その算出結果をCPU75に提供する。CPU75は、Rの積算値、Bの積算値、Gの積算値を得て、分割エリアごとにR/G及びB/Gの比を求め、これらR/G、B/Gの値のR/G、B/G軸座標の色空間における分布等に基づいて光源種判別を行い、判別された光源種に応じてホワイトバランス調整回路のR、G、B信号に対するゲイン値(ホワイトバランスゲイン)を制御し、各色チャンネルの信号に補正をかける。   Further, the AE / AWB processing unit 63 calculates an average integrated value for each color of the R, G, and B signals for each divided area during automatic white balance adjustment, and provides the calculation result to the CPU 75. The CPU 75 obtains an integrated value of R, an integrated value of B, and an integrated value of G, obtains a ratio of R / G and B / G for each divided area, and calculates R / G and R / G of the values of B / G. The light source type is determined based on the distribution in the color space of the G and B / G axis coordinates, and the gain value (white balance gain) for the R, G, and B signals of the white balance adjustment circuit is determined according to the determined light source type. Control and correct the signal of each color channel.

本実施形態に係るデジタルカメラ1におけるAF制御は、例えば、画像信号のG信号の高周波成分が極大になるようにフォーカスレンズを移動させるコントラストAFが適用される。即ち、AF処理部62は、G信号の高周波成分のみを通過させるハイパスフィルタ、絶対値化処理部、画面内(例えば、画面中央部)にあらかじめ設定されているフォーカス対象エリア内の信号を切り出すAFエリア抽出部及びAFエリア内の絶対値データを積算する積算部から構成される。   For the AF control in the digital camera 1 according to the present embodiment, for example, contrast AF that moves the focus lens so that the high-frequency component of the G signal of the image signal is maximized is applied. That is, the AF processing unit 62 cuts out a signal in a focus target area set in advance in a high-pass filter that passes only high-frequency components of the G signal, an absolute value processing unit, and a screen (for example, the center of the screen). An area extraction unit and an integration unit that integrates absolute value data in the AF area are configured.

AF処理部62により求められた積算値のデータはCPU75に通知される。CPU75は、レンズ駆動部51を制御してフォーカスレンズを移動させながら、複数のAF検出ポイントで焦点評価値(AF評価値)を演算し、演算した焦点評価値が極大となるレンズ位置を合焦位置として決定する。そして、CPU75は、レンズ駆動部51を制御して上記合焦位置にフォーカスレンズを移動させる。尚、コンティニュアスAF(CAF)時には、S1AFのときに比べて、合焦位置のサーチ範囲(AFサーチ時のフォーカスレンズの移動範囲)が狭く、AF検出ポイントの数が少なくなっている。また、AF評価値の演算はG信号を利用する態様に限らず、輝度信号(Y信号)を利用してもよい。   The accumulated value data obtained by the AF processing unit 62 is notified to the CPU 75. The CPU 75 calculates a focus evaluation value (AF evaluation value) at a plurality of AF detection points while controlling the lens driving unit 51 to move the focus lens, and focuses the lens position where the calculated focus evaluation value is maximized. Determine as position. Then, the CPU 75 controls the lens driving unit 51 to move the focus lens to the in-focus position. In continuous AF (CAF), the focus position search range (focus lens movement range during AF search) is narrower and the number of AF detection points is smaller than in S1AF. Further, the calculation of the AF evaluation value is not limited to the mode using the G signal, and a luminance signal (Y signal) may be used.

尚、露出及びホワイトバランスについては、撮影モードがマニュアルモードに設定されている場合には、デジタルカメラ1のユーザーがマニュアル操作により設定可能である。また、露出及びホワイトバランスが自動で設定された場合にも、ユーザーがメニュー/OKボタン等の操作部11から指示を行うことにより、露出及びホワイトバランスをマニュアル調整することが可能である。   The exposure and white balance can be set manually by the user of the digital camera 1 when the shooting mode is set to the manual mode. Even when the exposure and white balance are automatically set, the user can manually adjust the exposure and white balance by giving an instruction from the operation unit 11 such as a menu / OK button.

シャッタボタンが半押し(S1オン)された後に全押し(S2オン)されると、撮像素子58から記録用の本画像データが取り込まれる。この本画像データは、シャッタボタンが全押しされることによって実行される本撮影時に撮像素子58から取り込まれ、アナログ信号処理部60、A/D変換部61、デジタル信号処理部65経由でメモリ66に格納された画像データである。デジタル信号処理部65は、本画像の画像データに対して、ガンマ補正、シャープネス補正、コントラスト補正等の画質補正処理、CCD−RAWデータを輝度信号であるYデータと、青色色差信号であるCbデータ及び赤色色差信号であるCrデータとからなるYCデータに変換するYC変換処理を行う。本画像の画素数の上限は、撮像素子58の画素数によって決定されるが、例えば、ファイン、ノーマル等の設定により、記録画素数を変更することができる。一方、スルー画像及びシャッタボタン半押し時のプレ画像の画像数は、例えば、本画像よりも少ない画素数、例えば、本画像の1/16程度の画素数で取り込まれる。   When the shutter button is pressed halfway (S1 on) and then fully pressed (S2 on), the main image data for recording is captured from the image sensor 58. This main image data is captured from the image sensor 58 during the main photographing executed when the shutter button is fully pressed, and is stored in the memory 66 via the analog signal processing unit 60, the A / D conversion unit 61, and the digital signal processing unit 65. Is stored in the image data. The digital signal processing unit 65 performs image quality correction processing such as gamma correction, sharpness correction, and contrast correction on the image data of the main image, CCD-RAW data as Y data that is a luminance signal, and Cb data that is a blue color difference signal. And YC conversion processing for converting into YC data composed of Cr data which is a red color difference signal. The upper limit of the number of pixels of the main image is determined by the number of pixels of the image sensor 58. For example, the number of recorded pixels can be changed by setting fine, normal, and the like. On the other hand, the number of images of the through image and the pre-image when the shutter button is half-pressed is captured with, for example, a smaller number of pixels than the main image, for example, about 1/16 of the main image.

また、デジタル信号処理部65は、フラッシュ発光部24の発光量が通常の撮影時よりも小さくされた場合には、本画像における顔領域の輝度を求め、輝度が所定のしきい値Th1よりも小さい場合には顔領域の輝度をしきい値Th1に調整する処理を行う。   The digital signal processing unit 65 obtains the luminance of the face area in the main image when the light emission amount of the flash light emitting unit 24 is smaller than that during normal photographing, and the luminance is higher than a predetermined threshold Th1. If it is smaller, a process of adjusting the brightness of the face area to the threshold value Th1 is performed.

圧縮伸張処理部67は、補正・変換処理が行われた本画像の画像データに対して、例えば、所定の圧縮形式で圧縮処理を行い、画像ファイルを生成する。この画像ファイルは、記録部70に記録される。この画像ファイルには、例えば、Exifフォーマット等に基づいて、撮影日時等の付帯情報が格納されたタグが付加される。また、圧縮伸張処理部67は、再生モードの場合に、記録部70から読み出された画像ファイルに対して伸張処理を行う。伸張後の画像データは表示部71の液晶モニタに表示される。   The compression / decompression processing unit 67 performs a compression process on the image data of the main image that has been subjected to the correction / conversion process, for example, in a predetermined compression format, and generates an image file. This image file is recorded in the recording unit 70. For example, based on the Exif format or the like, a tag that stores additional information such as the shooting date and time is added to the image file. The compression / decompression processing unit 67 performs expansion processing on the image file read from the recording unit 70 in the reproduction mode. The expanded image data is displayed on the liquid crystal monitor of the display unit 71.

顔検出処理部80は、画像照合部及び顔画像テンプレートを含み、スルー画像、プレ画像、あるいは本画像から人物の顔を検出し、その顔の位置や大きさの情報を制御回路74に出力する。   The face detection processing unit 80 includes an image matching unit and a face image template, detects a human face from a through image, a pre-image, or a main image, and outputs information on the position and size of the face to the control circuit 74. .

具体的には、顔検出処理部80の画像照合部が、スルー画像等の画面内で、対象領域の位置を移動させながら、対象領域の画像と顔画像テンプレートとを照合し、両者の相関を調べる。そして、相関スコアが予め設定された閾値を越えると、その対象領域を顔領域として認定する。顔が検出されない場合には、対象領域の大きさを変えながら上記の処理を繰り返し行う。尚、顔検出方法としては、顔に含まれる顔の特徴を有する領域(例えば、肌色の領域を有する、肌色領域の中に黒色領域(目)を有する、肌色領域が顔の形状を有する等)を顔領域として検出する方法等の公知の方法を利用することができる。   Specifically, the image collation unit of the face detection processing unit 80 collates the image of the target area with the face image template while moving the position of the target area in a screen such as a through image, and correlates the two. Investigate. When the correlation score exceeds a preset threshold, the target area is recognized as a face area. If no face is detected, the above process is repeated while changing the size of the target area. In addition, as a face detection method, the area | region which has the feature of the face included in a face (For example, it has a skin color area | region, a black color area | region (eyes) is included in a skin color area | region, a skin color area | region has a face shape, etc.) It is possible to use a known method such as a method for detecting a face region.

<撮影制御>
図2は本発明に係る撮像方法の概要を示すフローチャートである。
<Shooting control>
FIG. 2 is a flowchart showing an outline of the imaging method according to the present invention.

同図に示すように、本実施形態に係るデジタルカメラ1は、顔検出処理(ステップS200)とシーン認識処理(ステップS202)とを、シャッタボタンが半押し(S1オン)されるまで(ステップS204)、繰り返し実施する。尚、顔検出処理及びシーン認識処理の詳細については後述する。   As shown in the figure, the digital camera 1 according to the present embodiment performs face detection processing (step S200) and scene recognition processing (step S202) until the shutter button is half-pressed (S1 is turned on) (step S204). ), Repeatedly. Details of the face detection process and the scene recognition process will be described later.

シーン認識は、ユーザーが撮ろうとしている、もしくは撮ったシーンが、どのようなシーンであるのかを認識する技術である。予めいくつかのシーンを定義しておき、認識した結果を表示部71に表示する。例えば、図3に示すように、「人物」、「風景」、「夜景」又は「接写」等のシーン認識結果は、テキスト又はアイコン表示などによりユーザーに分かりやすいように通知される。尚、定義したシーンのいずれにも当てはまらない場合の認識結果は、「AUTO」とし、また、自動シーン認識が「OFF」の場合には、何も表示しないようにする。   Scene recognition is a technique for recognizing what kind of scene a user is going to take or has taken. Several scenes are defined in advance, and the recognized results are displayed on the display unit 71. For example, as shown in FIG. 3, a scene recognition result such as “person”, “landscape”, “night view”, or “close-up” is notified to the user in an easy-to-understand manner by text or icon display. The recognition result when it does not apply to any of the defined scenes is “AUTO”, and nothing is displayed when the automatic scene recognition is “OFF”.

ここで注意すべき点は、顔検出の結果はシーン認識に利用するが、顔検出の結果更新のタイミングと、シーン認識の結果更新のタイミングは必ずしも一致するとは限らないことである。即ち、顔検出処理とシーン認識処理とは、それぞれ独立に動いていて、顔検出の結果が更新されないと、シーン認識が動かない仕組みになっていない。また、図2のフローチャートで示すように、シーン認識とは全く別のタイミングで顔を検出することも可能である。例えば、シーン認識は本露光(ステップS220)の前に確定するが、顔検出は本露光後にも実行することができる(ステップS222参照)。   It should be noted that the face detection result is used for scene recognition, but the face detection result update timing does not always match the scene recognition result update timing. That is, the face detection process and the scene recognition process move independently of each other, and the scene recognition does not move unless the face detection result is updated. As shown in the flowchart of FIG. 2, it is also possible to detect a face at a timing completely different from scene recognition. For example, scene recognition is determined before the main exposure (step S220), but face detection can be performed after the main exposure (see step S222).

このように、顔検出の結果とシーン認識の結果はいつも同じような関係が成り立つとは限らない。(「顔が検出されている」=「人物モード」が常に成り立っているわけではない)。   As described above, the same relationship is not always established between the result of face detection and the result of scene recognition. ("Face is detected" = "Portrait mode" does not always hold).

そのため、後述するようにシーン認識の結果に応じて、顔検出を利用した各種機能の制御方法を個別に制御することで、より高性能なカメラとすることができる。   For this reason, as described later, according to the result of scene recognition, the control method of various functions using face detection is individually controlled, so that a higher-performance camera can be obtained.

S204において、シャッタボタンの半押し(S1オン)が判別され、"Yes"の場合は、S206に遷移し、"No"の場合はスタートに戻る。   In S204, it is determined whether the shutter button is half-pressed (S1 on). If “Yes”, the process proceeds to S206, and if “No”, the process returns to the start.

S206では、AE処理(S1AE)が行われ、S208ではAF処理(S1AF)が行われ、それぞれAEロック及びAFロックされる。   In S206, AE processing (S1AE) is performed, and in S208, AF processing (S1AF) is performed, and AE lock and AF lock are performed, respectively.

S210では、S202と同様にシーン認識が行われるが、S202がCAE,CAFの結果を利用しているのに対し、S1AE、S1AFの結果を利用する点で異なる。   In S210, scene recognition is performed in the same manner as in S202, except that S202 uses the results of CAE and CAF, but uses the results of S1AE and S1AF.

S212では、S210でのシーン認識結果に応じてシーンに適したプログラム線図を選択し、選択したプログラム線図とS206でのS1AEの測光結果(EV値)とに基づいて絞り値とシャッタスピードとを決定する。   In S212, a program diagram suitable for the scene is selected according to the scene recognition result in S210, and based on the selected program diagram and the S1AE photometry result (EV value) in S206, the aperture value and shutter speed are determined. To decide.

S214では、シャッタボタンの全押し(S2オン)が判別され、"Yes"の場合はS220に遷移し、"No"の場合はS216に遷移する。   In S214, it is determined whether the shutter button is fully pressed (S2 is on). If “Yes”, the flow proceeds to S220, and if “No”, the flow proceeds to S216.

S216では、シャッタボタンの半押し(S1オン)が判別され、"Yes"の場合はS218に遷移し、ここで顔検出処理が行われ、一方、"No"の場合はスタートに戻る。   In S216, it is determined whether the shutter button is half-pressed (S1 is on). If “Yes”, the process proceeds to S218, where face detection processing is performed, whereas if “No”, the process returns to the start.

S220では、S212で決定した絞り値及びシャッタスピードに基づいて本露光を行い、本画像の撮像を行う。   In S220, the main exposure is performed based on the aperture value and the shutter speed determined in S212, and the main image is captured.

S222では、本画像に対して顔検出処理が行われる。S224では、本画像に対してホワイトバランス調整、ガンマ補正等の階調補正などの信号処理が行われる。   In S222, face detection processing is performed on the main image. In S224, signal processing such as white balance adjustment and gradation correction such as gamma correction is performed on the main image.

S226では、信号処理後の本画像を所定フォーマットで圧縮処理し、画像ファイルを生成して記録部70に記録する。   In S226, the main image after the signal processing is compressed in a predetermined format, an image file is generated and recorded in the recording unit 70.

次に、シーンの認識結果と顔の検出結果とに基づいて各種機能を制御する場合の実施の形態について説明する。   Next, an embodiment in which various functions are controlled based on a scene recognition result and a face detection result will be described.

図4に、シーンの認識結果と顔検出を利用した各種機能の関係の一例を示す。   FIG. 4 shows an example of the relationship between various recognition functions using scene recognition results and face detection.

同図に示す例では、5つのシーン認識結果と、5種類の顔検出を利用した制御との関係を示している。   In the example shown in the figure, the relationship between five scene recognition results and control using five types of face detection is shown.

まず、「顔枠表示」、「顔AE」、「顔AF」、「顔AWB」、「顔階調補正」の5種類の顔検出を利用した制御について簡単に説明する。   First, control using five types of face detections of “face frame display”, “face AE”, “face AF”, “face AWB”, and “face gradation correction” will be briefly described.

「顔枠表示」制御は、ライブビュー画像(スルー画像)の表示中に顔検出処理により顔が検出されると(図2のS200)、検出された顔の位置及び大きさに基づいてスルー画像上で顔の領域を囲む顔枠を表示させる制御である。これにより、ユーザーは顔が正しく検出されているかどうかを判断することができる。尚、顔枠の代わりに、矢印、その他のマークを表示するようにしてもよい。   In the “face frame display” control, when a face is detected by the face detection process during the display of the live view image (through image) (S200 in FIG. 2), the through image is based on the detected position and size of the face. This is control for displaying a face frame surrounding the face area. Thereby, the user can determine whether the face is correctly detected. An arrow or other mark may be displayed instead of the face frame.

「顔AE」制御は、顔の検出結果に基づいてCAE、S1AEでの露出制御を行うもので、検出された顔の領域の明るさに基づいて測光値(EV値)を決定し、露出を制御する。   “Face AE” control performs exposure control in CAE and S1AE based on the detection result of the face, determines a photometric value (EV value) based on the brightness of the detected face area, and sets the exposure. Control.

「顔AF」制御は、顔の検出結果に基づいてCAF、S1AFでの自動焦点調節を行うもので、検出された顔の領域をAFエリアとし、このAFエリア(顔領域)に焦点が合うように焦点調節を行う。   “Face AF” control performs automatic focus adjustment in CAF and S1AF based on the detection result of the face. The detected face area is set as an AF area, and the AF area (face area) is focused. Adjust the focus.

「顔AWB」制御は、顔の検出結果に基づいてホワイトバランス調整を行うもので、検出された顔の領域の色情報に基づいて、例えば肌色がきれいになるようにホワイトバランス調整を行う。   “Face AWB” control performs white balance adjustment based on the detection result of the face, and performs white balance adjustment so that, for example, the skin color is clean based on the color information of the detected face area.

「顔階調補正」制御は、顔の検出結果に基づいて画像の階調補正を行うもので、検出された顔の領域の明るさが適正な明るさになるようにガンマ補正等の階調補正を行う。   “Face Tone Correction” control is to perform image tone correction based on the face detection result, and to adjust the brightness of the detected face area to the appropriate brightness. Make corrections.

図4に示す例では、〇印は制御を行い、×印は制御を行い場合に関して示しており「顔枠表示」、「顔AE」、及び「顔AF」の制御は、「AUTO」、「人物」、「風景」、「夜景」、「接写」の5つのシーン認識結果にかかわらず、常に制御を行っている。   In the example shown in FIG. 4, a circle mark indicates that control is performed, and a cross mark indicates that control is performed. Controls of “face frame display”, “face AE”, and “face AF” are “AUTO”, “ Regardless of the five scene recognition results of “person”, “landscape”, “night view”, and “close-up”, control is always performed.

一方、「顔AWB」、及び「顔階調補正」の制御は、「AUTO」、「人物」、及び「接写」のシーンのみで行い、「風景」、「夜景」のシーンでは制御を行わないようにしている。   On the other hand, the control of “face AWB” and “face gradation correction” is performed only in the “AUTO”, “person”, and “close-up” scenes, and is not performed in the “landscape” and “night scene” scenes. I am doing so.

尚、シーンの認識結果と顔の検出結果とに基づく各種機能の制御は、図4に示す例に限定されず、また、シーン認識の種類及び顔検出を利用した制御の種類も図4に示す例に限定されず、種々のものが考えられる。   The control of various functions based on the scene recognition result and the face detection result is not limited to the example shown in FIG. 4, and the type of scene recognition and the type of control using face detection are also shown in FIG. It is not limited to an example, Various things can be considered.

また、各種機能をON/OFFレベルで制御するようにしているが、各種機能の強度をいくつかのレベルに分けておき、そのレベルを設定するような仕組みでもよい(「強、中、弱」、「レベル1〜5」など)。   In addition, the various functions are controlled at the ON / OFF level, but the strength of the various functions may be divided into several levels and the level may be set (“strong, medium, weak”). , “Levels 1-5”, etc.).

尚、前述したようにシーン認識と顔検出とは必ずしも同じタイミングで行う必要はなく、そのため、図2に示した例では、本露光の後にシーン認識をするステップは記載されていないが、特にそれに限定するものではない。   As described above, scene recognition and face detection are not necessarily performed at the same timing. Therefore, in the example shown in FIG. 2, the step of scene recognition after the main exposure is not described. It is not limited.

このようにシーン認識の結果に応じて、顔検出を利用した各種機能の制御方法を個別に制御することで、より高性能なカメラとすることができる(きれいな画像を撮像・作成する、表示を見やすくする、画像検索をしやすくするなど)。   In this way, by individually controlling the control method of various functions using face detection according to the result of scene recognition, it can be made a higher performance camera (capturing and creating a beautiful image, displaying Make it easier to see and search for images).

[シーン認識処理]
次に、図2に示したS200、S210での「シーン認識」(S200、S218、S222での「顔検出」を含む)について詳述する。
[Scene recognition processing]
Next, “scene recognition” (including “face detection” in S200, S218, and S222) in S200 and S210 shown in FIG. 2 will be described in detail.

図5は、シーン認識メイン処理のフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。この処理は、撮影モードが操作部11から設定され、かつ、そのときに「自動シーン認識ON」が操作部11から設定されていた場合に開始する。「自動シーン認識OFF」が操作部11から設定されている場合には開始しない。   FIG. 5 is a flowchart of the scene recognition main process. The execution of this process is controlled by the CPU 75 of the camera 1. A program for defining this processing is stored in the ROM 68. This process starts when the shooting mode is set from the operation unit 11 and “automatic scene recognition ON” is set from the operation unit 11 at that time. If “automatic scene recognition OFF” is set from the operation unit 11, the process does not start.

S1では、この処理の実行が初回であるか否かを判断する。“Yes”の場合はS2、“No”の場合はS3に進む。   In S1, it is determined whether or not this process is executed for the first time. If “Yes”, the process proceeds to S2. If “No”, the process proceeds to S3.

S2では、RAM69のフレーム変動基準情報を初期化する。フレーム変動基準情報には、分割測光値、フォーカスレンズの位置、合焦AFエリアのタイプ(合焦状態となったAFエリアが顔検出処理部80の検出した顔領域であるか否か、あるいは、デフォルトの画面中央近傍領域であるか否か)、合焦AFフィルタ(例えば特許公開2006−145964のローパスフィルタ、ハイパスフィルタ)、顔検出処理部80による顔検出の有無が含まれる。また、RAM69のstatusをサーチ状態に、チェックカウンタを0に、シーン認識履歴保持フラグをOFFに設定する。   In S2, the frame variation reference information in the RAM 69 is initialized. The frame variation reference information includes the divided photometric value, the position of the focus lens, the type of the focus AF area (whether the AF area in the focused state is a face area detected by the face detection processing unit 80, or Whether or not it is the default area near the center of the screen), a focusing AF filter (for example, a low pass filter or a high pass filter disclosed in Japanese Patent Laid-Open No. 2006-145964), and whether or not a face is detected by the face detection processing unit 80. Further, the status of the RAM 69 is set to the search state, the check counter is set to 0, and the scene recognition history holding flag is set to OFF.

S3では、RAM69のstatus=確定状態か否かを判断する。“Yes”の場合はS4、“No”の場合はS7に進む。   In S3, it is determined whether or not status of the RAM 69 is in a final state. If “Yes”, the process proceeds to S 4. If “No”, the process proceeds to S 7.

S4では、フレーム変動チェックを行う。この処理は後述する。   In S4, a frame variation check is performed. This process will be described later.

S5では、フレーム変動チェックの結果、フレーム変動があったか否かを判断する。“Yes”の場合はS6、“No”の場合はS1に戻る。   In S5, it is determined whether or not there is a frame variation as a result of the frame variation check. If “Yes”, the process returns to S6. If “No”, the process returns to S1.

S6では、シーン変動があったと判断し、RAM69のstatusをサーチ状態に設定する。   In S6, it is determined that the scene has changed, and the status of the RAM 69 is set to the search state.

S7では、RAM69のシーン認識履歴保持フラグがONに設定されているか否かを判断する。“Yes”の場合はS9、“No”の場合はS8に進む。   In S7, it is determined whether or not the scene recognition history retention flag in the RAM 69 is set to ON. If “Yes”, the process proceeds to S9. If “No”, the process proceeds to S8.

S8では、RAM69のシーン認識カウンタを0に設定する。また、RAM69のシーン認識履歴をクリアする。   In S8, the scene recognition counter in the RAM 69 is set to zero. Also, the scene recognition history in the RAM 69 is cleared.

S9では、認識部のシーン認識動作を行う。この処理は後述する。この処理の結果、RAM69にシーン認識結果SRが記憶される。シーン認識結果SRは、風景、AUTO、人物、夜景、接写などを含む。これら各シーンの認識の処理の詳細は後述する。   In S9, the recognition unit performs a scene recognition operation. This process will be described later. As a result of this processing, the scene recognition result SR is stored in the RAM 69. The scene recognition result SR includes landscape, AUTO, person, night view, close-up, and the like. Details of the recognition processing of each scene will be described later.

S10では、RAM69のシーン認識カウンタを1だけインクリメントする。   In S10, the scene recognition counter in the RAM 69 is incremented by 1.

S11では、RAM69のシーン認識カウンタおよびROM68の所定のシーン認識履歴数閾値(E_AUTOSR_SR_HISTORY_BEFORE_S1)を比較し、シーン認識カウンタ≧シーン認識履歴数閾値であるか否かを判断する。“Yes”の場合はS12、“No”の場合はS17に進む。   In S11, the scene recognition counter of the RAM 69 and a predetermined scene recognition history number threshold value (E_AUTOSR_SR_HISTORY_BEFORE_S1) of the ROM 68 are compared to determine whether or not the scene recognition counter ≧ the scene recognition history number threshold value. If “Yes”, the process proceeds to S 12. If “No”, the process proceeds to S 17.

S12では、RAM69のシーン認識履歴をチェックする。シーン認識履歴は、statusが確定状態になるまで繰り返されたS9によりそれぞれ個別に記憶された、複数のシーン
認識結果SRで構成される。
In S12, the scene recognition history in the RAM 69 is checked. The scene recognition history is composed of a plurality of scene recognition results SR that are individually stored in S9 that is repeated until status becomes a definite state.

S13では、RAM69のシーン認識結果SRを、S9で異なる時間に記憶された複数のシーン認識結果SRで構成されたシーン認識履歴の中で、最大の出現頻度を有するものに更新する。また、RAM69のフレーム変動情報を、当該最大の出現頻度を有するシーン認識結果SRと同じ時点で取得されたフレーム変動情報に更新する。   In S13, the scene recognition result SR in the RAM 69 is updated to the one having the maximum appearance frequency among the scene recognition histories constituted by the plurality of scene recognition results SR stored at different times in S9. Further, the frame variation information in the RAM 69 is updated to the frame variation information acquired at the same time as the scene recognition result SR having the maximum appearance frequency.

S14では、RAM69のシーン認識結果SRが「AUTO」と異なるか否かを判断する。“Yes”の場合はS16、“No”の場合はS15に進む。   In S14, it is determined whether or not the scene recognition result SR in the RAM 69 is different from “AUTO”. If “Yes”, the process proceeds to S 16. If “No”, the process proceeds to S 15.

S15では、RAM69のstatusをサーチ状態に設定し、S1に戻る。   In S15, the status of the RAM 69 is set to the search state, and the process returns to S1.

S16では、RAM69のstatusを確定状態に設定し、S1に戻る。   In S16, the status of the RAM 69 is set to a confirmed state, and the process returns to S1.

図6は、フレーム変動チェック(S4)の詳細な処理の流れを示すフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。   FIG. 6 is a flowchart showing the detailed processing flow of the frame variation check (S4). The execution of this process is controlled by the CPU 75 of the camera 1. A program for defining this processing is stored in the ROM 68.

S21では、RAM69のパラメータであるchangeをOFFに、change_measureを0に設定する。   In S21, change which is a parameter of the RAM 69 is set to OFF, and change_measure is set to 0.

S22では、1回目のフレーム変動チェックを行う。ここでは、フレーム変動チェックは、測光値変動チェック、フォーカス位置変動チェック、顔有無変動チェックのうちのいずれか1つであるものとするがその他の種類を含んでいてもよい。これらの処理は後述する。1回目のフレーム変動チェックの結果は、RAM69のパラメータであるE_AUTOSP_FRAME_CHECK1として記憶される。   In S22, a first frame variation check is performed. Here, the frame variation check is one of a photometric value variation check, a focus position variation check, and a face presence / absence variation check, but may include other types. These processes will be described later. The result of the first frame variation check is stored as E_AUTOSP_FRAME_CHECK1, which is a parameter of the RAM 69.

S23では、S22の1回目のフレーム変動チェックの結果、フレーム変動があったか否かを判断する。“Yes”の場合はS24、“No”の場合はS26に進む。   In S23, it is determined whether or not there is a frame variation as a result of the first frame variation check in S22. If “Yes”, the process proceeds to S 24. If “No”, the process proceeds to S 26.

S24では、RAM69のchange_measureを1だけインクリメントする。   In S24, the change_measure in the RAM 69 is incremented by 1.

S25では、RAM69のchange_measureとROM68の所定閾値E_AUTOSP_FRAME_CHANGE_MEASUREとを比較し、change_measure≧E_AUTOSP_FRAME_CHANGE_MEASUREであるか否かを判断する。“No”の場合はS26、“Yes”の場合はS35に進む。   In S25, the change_measure in the RAM 69 and the predetermined threshold value E_AUTOSP_FRAME_CHANGE_MEASURE in the ROM 68 are compared to determine whether or not change_measure ≧ E_AUTOSP_FRAME_CHANGE_MEASURE. If “No”, the process proceeds to S26, and if “Yes”, the process proceeds to S35.

S26では、2回目のフレーム変動チェックを行う。ここでは、フレーム変動チェックは、測光値変動チェック、フォーカス位置変動チェック、顔有無変動チェックのうち、1回目と異なるいずれか1つである。2回目のフレーム変動チェックの結果は、RAM69のパラメータであるE_AUTOSP_FRAME_CHECK2として記憶される。   In S26, a second frame variation check is performed. Here, the frame variation check is any one of the photometry value variation check, the focus position variation check, and the face presence / absence variation check different from the first time. The result of the second frame fluctuation check is stored as E_AUTOSP_FRAME_CHECK2 which is a parameter of the RAM 69.

S27では、S26の2回目のフレーム変動チェックの結果、フレーム変動があったか否かを判断する。“Yes”の場合はS28、“No”の場合はS30に進む。   In S27, it is determined whether or not there is a frame variation as a result of the second frame variation check in S26. If “Yes”, the process proceeds to S 28. If “No”, the process proceeds to S 30.

S28では、RAM69のchange_measureを1だけインクリメントする。   In S28, the change_measure in the RAM 69 is incremented by 1.

S29では、RAM69のchange_measureと、ROM68に記憶された閾値E_AUTOSP_FRAME_CHANGE_MEASUREとを比較し、change_measure≧E_AUTOSP_FRAME_CHANGE_MEASUREであるか否かを判断する。“No”の場合はS30、“Yes”の場合はS35に進む。   In S29, the change_measure in the RAM 69 is compared with the threshold value E_AUTOSP_FRAME_CHANGE_MEASURE stored in the ROM 68, and it is determined whether or not change_measure ≧ E_AUTOSP_FRAME_CHANGE_MEASURE. If “No”, the process proceeds to S30, and if “Yes”, the process proceeds to S35.

S30では、3回目のフレーム変動チェックを行う。ここでは、フレーム変動チェックは、測光値変動チェック、フォーカス位置変動チェック、顔有無変動チェックのうち、1回目および2回目と異なるものである。3回目のフレーム変動チェックの結果は、RAM69のパラメータであるE_AUTOSP_FRAME_CHECK3として記憶される。   In S30, a third frame variation check is performed. Here, the frame variation check is different from the first time and the second time among the photometric value variation check, the focus position variation check, and the face presence / absence variation check. The result of the third frame variation check is stored as E_AUTOSP_FRAME_CHECK3, which is a parameter of the RAM 69.

S31では、S30の3回目のフレーム変動チェックの結果、フレーム変動があったか否かを判断する。“Yes”の場合はS32、“No”の場合はS34に進む。   In S31, it is determined whether or not there is a frame variation as a result of the third frame variation check in S30. If “Yes”, the process proceeds to S 32. If “No”, the process proceeds to S 34.

S32では、RAM69のchange_measureを1だけインクリメントする。   In S32, change_measure in the RAM 69 is incremented by 1.

S33では、RAM69のchange_measureと、ROM68に記憶された閾値E_AUTOSP_FRAME_CHANGE_MEASUREとを比較し、change_measure≧E_AUTOSP_FRAME_CHANGE_MEASUREであるか否かを判断する。“No”の場合はS34、“Yes”の場合はS35に進む。   In S33, the change_measure in the RAM 69 is compared with the threshold value E_AUTOSP_FRAME_CHANGE_MEASURE stored in the ROM 68, and it is determined whether or not change_measure ≧ E_AUTOSP_FRAME_CHANGE_MEASURE. If “No”, the process proceeds to S34, and if “Yes”, the process proceeds to S35.

S34では、フレーム変動なしと判断する。その判断を示すフラグをRAM69に記憶してもよい。そして、シーン認識メイン処理のS5に戻る。   In S34, it is determined that there is no frame variation. A flag indicating the determination may be stored in the RAM 69. Then, the process returns to S5 of the scene recognition main process.

S35では、フレーム変動ありと判断する。「フレーム変動あり」のフラグであるchange=ONに設定しRAM69に記憶する。そして、シーン認識メイン処理のS5に戻る。   In S35, it is determined that there is a frame fluctuation. The flag “change in frame” is set to change = ON and stored in the RAM 69. Then, the process returns to S5 of the scene recognition main process.

図7は測光値変動チェックのフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。   FIG. 7 is a flowchart of the photometric value fluctuation check. The execution of this process is controlled by the CPU 75 of the camera 1. A program for defining this processing is stored in the ROM 68.

S41では、RAM69のパラメータchange_evをOFFに設定する。また、RAM69のパラメータev[i]を今回のフレーム画像について測光部46から得られた測光値とする。iは、所定の単位で画像を分割して得たN個の各ブロックに対応する添え字である。ここではi=0〜N−1とする。)。また、RAM69のパラメータev_base[i]をフレーム変動基準情報の分割測光値とし、その値をRAM69に確保する。なお、ev_base[i]はメイン処理のS2で初期化され、S13で更新される。また、各ブロックに対応する重みw [i]をROM68から読み出す。   In S41, the parameter change_ev in the RAM 69 is set to OFF. The parameter ev [i] of the RAM 69 is set to a photometric value obtained from the photometric unit 46 for the current frame image. i is a subscript corresponding to each of N blocks obtained by dividing an image by a predetermined unit. Here, i = 0 to N-1. ). Further, the parameter ev_base [i] of the RAM 69 is set as the divided photometric value of the frame variation reference information, and the value is secured in the RAM 69. Note that ev_base [i] is initialized in S2 of the main process and updated in S13. Also, the weight w [i] corresponding to each block is read from the ROM 68.

S42では、次式によりdelta_evをRAM69に設定する。総和はi=0〜N−1について行われる。delta_evは全画面の明るさ同士の差分でもよい。   In S42, delta_ev is set in the RAM 69 by the following equation. The summation is performed for i = 0 to N-1. delta_ev may be the difference between the brightness of the entire screen.

delta_ev=ΣW[i]*|ev[i]-ev_base[i]|/ ΣW[i]
各領域ごとの差の絶対値を総和するのは次の理由による。絶対値をとらないと、実際には領域ごとに大きな変化が生じているにもかかわらず、総和により各領域ごとの変化が相殺され、全体として変化がなくなるのを防ぐためである。
delta_ev = ΣW [i] * | ev [i] -ev_base [i] | / ΣW [i]
The sum of the absolute values of the differences for each region is as follows. If the absolute value is not taken, it is to prevent the change for each region from being canceled out by the sum, even though a large change actually occurs for each region, and to prevent the change from being lost as a whole.

S43では、RAM69のdelta_evと、ROM68に記憶された閾値E_AUTOSP_FRAME_DELTA_EV とを比較し、delta_ev≧E_AUTOSP_FRAME_DELTA_EVであるか否かを判断する。“
Yes”の場合はS44、“No”の場合はS45に進む。
In S43, the delta_ev in the RAM 69 is compared with the threshold value E_AUTOSP_FRAME_DELTA_EV stored in the ROM 68 to determine whether or not delta_ev ≧ E_AUTOSP_FRAME_DELTA_EV. “
If “Yes”, the process proceeds to S 44. If “No”, the process proceeds to S 45.

S44では、測光値の変動があったと判断する。そして、測光値の変動があったことを示すフラグchange_evをONに設定しRAM69に記憶する。   In S44, it is determined that the photometric value has changed. Then, the flag change_ev indicating that the photometric value has changed is set to ON and stored in the RAM 69.

S45では、測光値の変動がなかったと判断する。測光値の変動がなかったことを示すフラグRAM69に記憶してもよい。   In S45, it is determined that there is no change in the photometric value. You may memorize | store in flag RAM69 which shows that there was no fluctuation | variation of a photometric value.

図8はフォーカス位置変動チェックのフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。   FIG. 8 is a flowchart of the focus position variation check. The execution of this process is controlled by the CPU 75 of the camera 1. A program for defining this processing is stored in the ROM 68.

S51では、RAM69のパラメータchange_focal_pointをOFFに、focal_pointを今回のフレーム画像を取得したときにレンズ駆動部51が設定したフォーカスレンズの位置(駆動パルス数)に、focal_point_baseをフレーム変動基準情報のフォーカスレンズの位置(S2で初期化あるいはS13で更新されるもの)とし、その記憶領域をRAM69に確保する。   In S51, the parameter change_focal_point of the RAM 69 is set to OFF, the focal_point is set to the focus lens position (number of drive pulses) set by the lens driving unit 51 when the current frame image is acquired, and focal_point_base is set to the focus lens of the frame variation reference information. The position (initialized in S2 or updated in S13) is set, and the storage area is secured in the RAM 69.

S52では、次式によりdelta_ focal_pointをRAM69に設定する。   In S52, delta_focal_point is set in the RAM 69 by the following equation.

delta_focal_point=| focal_point- focal_point_base|
S53では、RAM69のdelta_focal_pointと、ROM68に記憶された所定のフォーカス位置変動閾値とを比較し、delta_focal_point>フォーカス位置変動閾値であるか否かを判断する。“Yes”の場合はS54、“No”の場合はS55に進む。
delta_focal_point = | focal_point- focal_point_base |
In S53, delta_focal_point in the RAM 69 is compared with a predetermined focus position fluctuation threshold stored in the ROM 68, and it is determined whether or not delta_focal_point> focus position fluctuation threshold. If “Yes”, the process proceeds to S 54. If “No”, the process proceeds to S 55.

S54では、フォーカス位置の変動があったと判断する。そして、フォーカス位置の変動があったことを示すフラグchange_ focal_pointをONに設定しRAM69に記憶する。   In S54, it is determined that the focus position has changed. Then, the flag change_focal_point indicating that the focus position has changed is set to ON and stored in the RAM 69.

S55では、フォーカス位置の変動がなかったと判断する。フォーカス位置の変動がなかったことを示すフラグRAM69に記憶してもよい。   In S55, it is determined that the focus position has not changed. You may memorize | store in flag RAM69 which shows that there was no fluctuation | variation of a focus position.

図9は顔有無変動チェックのフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。   FIG. 9 is a flowchart of the face presence / absence variation check. The execution of this process is controlled by the CPU 75 of the camera 1. A program for defining this processing is stored in the ROM 68.

S61では、RAM69のパラメータchange_face_resultをOFFに設定する。   In S61, the parameter change_face_result of the RAM 69 is set to OFF.

S62では、今回のフレーム画像を取得したときに顔検出処理部80が出力した顔検出の有無が、フレーム変動基準情報の顔検出の有無(S2で初期化あるいはS13で更新されるもの)と一致するか否かを判断する。“Yes”の場合はS64、“No”の場合はS63に進む。   In S62, the presence or absence of face detection output by the face detection processing unit 80 when the current frame image is acquired matches the presence or absence of face detection (initialized in S2 or updated in S13) in the frame variation reference information. Judge whether to do. If “Yes”, the process proceeds to S 64. If “No”, the process proceeds to S 63.

S63では、顔検出の有無の変動があったと判断する。そして、顔検出の有無の変動があったことを示すフラグchange_face_resultをONに設定しRAM69に記憶する。   In S63, it is determined that there has been a change in the presence or absence of face detection. Then, a flag change_face_result indicating that there has been a change in the presence or absence of face detection is set to ON and stored in the RAM 69.

S64では、顔検出の有無の変動がなかったと判断する。顔検出の有無の変動がなかったことを示すフラグRAM69に記憶してもよい。   In S64, it is determined that there is no change in the presence or absence of face detection. You may memorize | store in the flag RAM69 which shows that there was no change of the presence or absence of face detection.

図7はの認識部のシーン認識動作(S9)の詳細を示すフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。   FIG. 7 is a flowchart showing details of the scene recognition operation (S9) of the recognition unit. The execution of this process is controlled by the CPU 75 of the camera 1. A program for defining this processing is stored in the ROM 68.

S71では、RAM69に格納された、シーン依存サーチを実施するフラグ(E_AUTOSR_SEARCH_TYPE)が0であるか否かを判断する。“Yes”の場合はS80、“No”の場合はS72に進む。なお、E_AUTOSR_SEARCH_TYPEの値は操作部11から任意に設定できるものとする。   In S71, it is determined whether or not the flag (E_AUTOSR_SEARCH_TYPE) for executing the scene-dependent search stored in the RAM 69 is zero. If “Yes”, the process proceeds to S 80. If “No”, the process proceeds to S 72. Note that the value of E_AUTOSR_SEARCH_TYPE can be arbitrarily set from the operation unit 11.

S72では、RAM69のシーン認識結果SRにAUTOを設定する。   In S72, AUTO is set in the scene recognition result SR of the RAM 69.

S73では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE1を代入する。E_AUTOSR_MODULE1は0〜4のうちのいずれかの整数である。そして、module[i]に相当するシーン判定サブルーチンを実施する。module[0]は何もしない。module[1]は後述の人物判定を行う。module[2]は後述の風景判定を行う。module[3]は後述の夜景判定を行う。module[4]は後述の接写判定を行う。   In S73, E_AUTOSR_MODULE1 stored in advance in the ROM 68 is substituted for the parameter i of the RAM 69. E_AUTOSR_MODULE1 is an integer from 0 to 4. Then, a scene determination subroutine corresponding to module [i] is executed. module [0] does nothing. module [1] performs person determination described later. module [2] performs the landscape determination described later. module [3] performs night view judgment described later. module [4] performs the close-up judgment described later.

S74では、S73でのmodule[i]の実施の結果、RAM69のシーン認識結果SRがAUTOであるか否かを判断する。“Yes”の場合はS75に進み、“No”の場合はメイン処理のS10に戻る。   In S74, it is determined whether or not the scene recognition result SR in the RAM 69 is AUTO as a result of the execution of module [i] in S73. If “Yes”, the process proceeds to S75. If “No”, the process returns to S10 of the main process.

S75では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE2を代入する。E_AUTOSR_MODULE2は0〜4のうちのいずれかの整数であり、かつE_AUTOSR_MODULE1と異なる。そして、module[i]に相当するシーン判定サブルーチンを実施する。   In S75, E_AUTOSR_MODULE2 stored in advance in the ROM 68 is substituted for the parameter i of the RAM 69. E_AUTOSR_MODULE2 is an integer from 0 to 4, and is different from E_AUTOSR_MODULE1. Then, a scene determination subroutine corresponding to module [i] is executed.

S76では、S75でのmodule[i]の実施の結果、RAM69のシーン認識結果SRが
AUTOであるか否かを判断する。“Yes”の場合はS77に進み、“No”の場合はメイン処理のS10に戻る。
In S76, it is determined whether or not the scene recognition result SR in the RAM 69 is AUTO as a result of the execution of module [i] in S75. If “Yes”, the process proceeds to S77, and if “No”, the process returns to S10 of the main process.

S77では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE3を代入する。E_AUTOSR_MODULE3は0〜4のうちのいずれかの整数であり、かつE_AUTOSR_MODULE1およびE_AUTOSR_MODULE2と異なる。そして、module[i]に相当するシーン判定サブルーチンを実施する。   In S77, E_AUTOSR_MODULE3 stored in the ROM 68 in advance is substituted for the parameter i of the RAM 69. E_AUTOSR_MODULE3 is an integer from 0 to 4, and is different from E_AUTOSR_MODULE1 and E_AUTOSR_MODULE2. Then, a scene determination subroutine corresponding to module [i] is executed.

S78では、S77でのmodule[i]の実施の結果、RAM69のシーン認識結果SRがAUTOであるか否かを判断する。“Yes”の場合はS79に進み、“No”の場合はメイン処理のS10に戻る。   In S78, it is determined whether or not the scene recognition result SR of the RAM 69 is AUTO as a result of the execution of module [i] in S77. If “Yes”, the process proceeds to S79. If “No”, the process returns to S10 of the main process.

S79では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE4を代入する。E_AUTOSR_MODULE3は0〜4のうちのいずれかの整数であり、かつE_AUTOSR_MODULE1およびE_AUTOSR_MODULE2およびE_AUTOSR_MODULE3と異なる。そして、module[i]に相当するシーン判定サブルーチンを実施する。E_AUTOSR_MODULE1、E_AUTOSR_MODULE2、E_AUTOSR_MODULE3、E_AUTOSR_MODULE4の値はどのように設定してもよいが、優先的にシーン判定を行いたい種類には若い番号を付するとよい。例えば、人物判定>風景判定>夜景判定>接写判定の順にシーン判定を行いたい場合は、E_AUTOSR_MODULE1=1、E_AUTOSR_MODULE2=2、E_AUTOSR_MODULE3=3、E_AUTOSR_MODULE4=4とする。これらの値を操作部11から任意に設定できてもよい。   In S79, E_AUTOSR_MODULE4 stored in advance in the ROM 68 is substituted for the parameter i of the RAM 69. E_AUTOSR_MODULE3 is an integer from 0 to 4, and is different from E_AUTOSR_MODULE1, E_AUTOSR_MODULE2, and E_AUTOSR_MODULE3. Then, a scene determination subroutine corresponding to module [i] is executed. The values of E_AUTOSR_MODULE1, E_AUTOSR_MODULE2, E_AUTOSR_MODULE3, and E_AUTOSR_MODULE4 may be set in any way, but it is better to assign a young number to the type for which scene determination is to be performed preferentially. For example, to perform scene determination in the order of person determination> landscape determination> night scene determination> close-up determination, E_AUTOSR_MODULE1 = 1, E_AUTOSR_MODULE2 = 2, E_AUTOSR_MODULE3 = 3, E_AUTOSR_MODULE4 = 4. These values may be arbitrarily set from the operation unit 11.

S80では、現在のRAM69のシーン認識結果SRがAUTOであるか否かを判断する。“Yes”の場合はS72に進み、“No”の場合はS81に進む。   In S80, it is determined whether or not the current scene recognition result SR in the RAM 69 is AUTO. If “Yes”, the process proceeds to S 72. If “No”, the process proceeds to S 81.

S81では、RAM69のパラメータSR_oldに、現在のRAM69のシーン認識結果SRを設定する。すなわち、現在のRAM69のシーン認識結果SRがAUTOであればSR_old=0、現在のRAM69のシーン認識結果SRが人物であればSR_old=1、現在のRAM69のシーン認識結果SRが風景であればSR_old=2、現在のRAM69のシーン認識結果SRが夜景であればSR_old=3、現在のRAM69のシーン認識結果SRが接写であればSR_old=4とする。   In S81, the current scene recognition result SR of the RAM 69 is set in the parameter SR_old of the RAM 69. That is, SR_old = 0 if the current scene recognition result SR in the RAM 69 is AUTO, SR_old = 1 if the scene recognition result SR in the current RAM 69 is a person, and SR_old if the scene recognition result SR in the current RAM 69 is a landscape. = 2, SR_old = 3 if the current scene recognition result SR in the RAM 69 is a night view, and SR_old = 4 if the current scene recognition result SR in the RAM 69 is a close-up.

S82では、RAM69のパラメータiに、SR_oldを代入する。そして、module[i]に相当するシーン判定サブルーチンを実施する。   In S82, SR_old is substituted for the parameter i of the RAM 69. Then, a scene determination subroutine corresponding to module [i] is executed.

S83では、S82でのmodule[i]の実施の結果、RAM69のシーン認識結果SRがAUTOであるか否かを判断する。“Yes”の場合はS84に進み、“No”の場合はメイン処理のS10に戻る。   In S83, it is determined whether or not the scene recognition result SR of the RAM 69 is AUTO as a result of the execution of module [i] in S82. If “Yes”, the process proceeds to S84. If “No”, the process returns to S10 of the main process.

S84では、SR_old=E_AUTOSR_MODULE1であるか否かを判断する。“Yes”の場合はS87に進み、“No”の場合はS85に進む。   In S84, it is determined whether SR_old = E_AUTOSR_MODULE1. If “Yes”, the process proceeds to S87. If “No”, the process proceeds to S85.

S85では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE1を代入する。そして、module[i]に相当するシーン判定サブルーチンを実施する。   In S85, E_AUTOSR_MODULE1 stored in advance in the ROM 68 is substituted for the parameter i of the RAM 69. Then, a scene determination subroutine corresponding to module [i] is executed.

S86では、S85でのmodule[i]の実施の結果、RAM69のシーン認識結果SRがAUTOであるか否かを判断する。“Yes”の場合はS87に進み、“No”の場合はメイン処理のS10に戻る。   In S86, it is determined whether or not the scene recognition result SR in the RAM 69 is AUTO as a result of the execution of module [i] in S85. If “Yes”, the process proceeds to S87. If “No”, the process returns to S10 of the main process.

S87では、SR_old=E_AUTOSR_MODULE2であるか否かを判断する。“Yes”の場合はS90に進み、“No”の場合はS88に進む。   In S87, it is determined whether SR_old = E_AUTOSR_MODULE2. If “Yes”, the process proceeds to S90, and if “No”, the process proceeds to S88.

S88では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE2を代入する。そして、module[i]に相当するシーン判定サブルーチンを実施する。   In S88, E_AUTOSR_MODULE2 stored in advance in the ROM 68 is substituted for the parameter i of the RAM 69. Then, a scene determination subroutine corresponding to module [i] is executed.

S89では、S88でのmodule[i]の実施の結果、RAM69のシーン認識結果SRがAUTOであるか否かを判断する。“Yes”の場合はS90に進み、“No”の場合はメイン処理のS10に戻る。   In S89, it is determined whether or not the scene recognition result SR in the RAM 69 is AUTO as a result of the execution of module [i] in S88. If “Yes”, the process proceeds to S90, and if “No”, the process returns to S10 of the main process.

S90では、SR_old=E_AUTOSR_MODULE3であるか否かを判断する。“Yes”の場合はS93に進み、“No”の場合はS91に進む。   In S90, it is determined whether SR_old = E_AUTOSR_MODULE3. If “Yes”, the process proceeds to S93. If “No”, the process proceeds to S91.

S91では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE3を代入する。そして、module[i]に相当するシーン判定サブルーチンを実施する。   In S91, E_AUTOSR_MODULE3 stored in the ROM 68 in advance is substituted for the parameter i of the RAM 69. Then, a scene determination subroutine corresponding to module [i] is executed.

S92では、S91でのmodule[i]の実施の結果、RAM69のシーン認識結果SRがAUTOであるか否かを判断する。“Yes”の場合はS93に進み、“No”の場合はメイン処理のS10に戻る。   In S92, it is determined whether or not the scene recognition result SR in the RAM 69 is AUTO as a result of the execution of module [i] in S91. If “Yes”, the process proceeds to S93. If “No”, the process returns to S10 of the main process.

S93では、SR_old=E_AUTOSR_MODULE4であるか否かを判断する。“Yes”の場合はメイン処理のS10に戻り、“No”の場合はS94に進む。   In S93, it is determined whether SR_old = E_AUTOSR_MODULE4. If “Yes”, the process returns to S10 of the main process, and if “No”, the process proceeds to S94.

S94では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE4を代入する。そして、module[i]に相当するシーン判定サブルーチンを実施する。その後、メイン処理のS10に戻る。   In S94, E_AUTOSR_MODULE4 stored in advance in the ROM 68 is substituted for the parameter i of the RAM 69. Then, a scene determination subroutine corresponding to module [i] is executed. Thereafter, the process returns to S10 of the main process.

図11は以上の処理(S9)とS13によって決まるシーン認識結果SRを概念的に示している。   FIG. 11 conceptually shows the scene recognition result SR determined by the above process (S9) and S13.

シーン認識結果SRは、古いものから新しいものにかけて連続的に5個格納される。その履歴SRには添え字j=0〜4が付され、番号が若いものほど新しい履歴である。履歴の蓄積個数=5は一例であって、3以上の整数であれば何でもよい。   Five scene recognition results SR are stored successively from old to new. Subscripts j = 0 to 4 are added to the history SR, and the smaller the number, the newer the history. The accumulated number of histories = 5 is an example, and any number may be used as long as it is an integer of 3 or more.

S73・S75・S77・S79あるいはS85・S88・S91・S94で、module[i]が実行されるごとに、新たなシーン認識結果SRが取得される。この結果、これまでに蓄積した過去のシーン認識結果SRの添え字には1がインクリメントされ、1世代古い履歴になる。新たなシーン認識結果SRには0の添え字が付され、現在のシーン認識結果となる。   Each time module [i] is executed in S73, S75, S77, S79 or S85, S88, S91, S94, a new scene recognition result SR is acquired. As a result, 1 is incremented to the subscript of the past scene recognition result SR accumulated so far, and the history becomes one generation old. A new scene recognition result SR is given a subscript of 0 and becomes the current scene recognition result.

図11では、SR[0]=3, SR[1]=3, SR[2]=3, SR[3]=0, SR[4]=1であったのが、新たな履歴SR[0]=2が追加されることで、SR[1]=3, SR[2]=3, SR[3]=3, SR[4]=0となる。新たな履歴SR[0]の追加前に最も古い世代の履歴SR[4]=1は、新たな履歴の追加とともにRAM69から消去してもよいし保存してもよい。   In FIG. 11, SR [0] = 3, SR [1] = 3, SR [2] = 3, SR [3] = 0, SR [4] = 1 are replaced with a new history SR [0 ] = 2 is added, SR [1] = 3, SR [2] = 3, SR [3] = 3, SR [4] = 0. Prior to the addition of a new history SR [0], the history SR [4] = 1 of the oldest generation may be deleted from the RAM 69 or stored together with the addition of a new history.

S13では、新たな履歴の追加がされると、SR[0], SR[1], SR[2], SR[3], SR[4]のうち最も出現頻度の高い履歴を特定し、それを改めてシーン認識結果SRとする。図8では3の出現頻度が最大であるからSR=3となる。   In S13, when a new history is added, the most frequently occurring history is identified from SR [0], SR [1], SR [2], SR [3], SR [4] Is a scene recognition result SR. In FIG. 8, since the appearance frequency of 3 is the maximum, SR = 3.

図示は省略するが、最大頻度の履歴が複数の場合は、最も新しい世代の履歴を含む方をシーン認識結果SRとする。例えば、SR[0]=2, SR[1]=3, SR[2]=3, SR[3]=2, SR[4]=0の場合、SR[0]= SR[3]=2、SR[1]= SR[2]=3となり、2も3も出現頻度が同じである。この場合、最も新しい世代の履歴SR[0]を含む2がシーン認識結果SRとなる。   Although illustration is omitted, when there are a plurality of maximum frequency histories, the scene recognition result SR is the one that includes the latest generation history. For example, if SR [0] = 2, SR [1] = 3, SR [2] = 3, SR [3] = 2, SR [4] = 0, SR [0] = SR [3] = 2 SR [1] = SR [2] = 3 and 2 and 3 have the same appearance frequency. In this case, 2 including the latest generation history SR [0] is the scene recognition result SR.

図12はシーン判定サブルーチン(人物判定、module[1])の詳細を示すフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。   FIG. 12 is a flowchart showing details of the scene determination subroutine (person determination, module [1]). The execution of this process is controlled by the CPU 75 of the camera 1. A program for defining this processing is stored in the ROM 68.

S101では、顔検出処理部80が顔検出したか否かを判断する。“Yes”の場合はS102、“No”の場合はS105に進む。   In S101, the face detection processing unit 80 determines whether a face is detected. If “Yes”, the process proceeds to S102. If “No”, the process proceeds to S105.

S102では、RAM69の顔制限フラグがオンであるか否かを判断する。“Yes”の場合はS103、“No”の場合はS104に進む。   In S102, it is determined whether or not the face restriction flag in the RAM 69 is on. If “Yes”, the process proceeds to S 103. If “No”, the process proceeds to S 104.

S103では、AF評価値の算出領域に設定された顔領域について、顔の大きさが所定範囲内かつ顔の傾きが所定の範囲内かつ顔の向きが所定の範囲内かつ顔の確からしさのスコアが所定の範囲内かつ顔の位置が所定の範囲内であるか否かを判断する。“No”の場合はS103、“Yes”の場合はS104に進む。   In S103, for the face area set as the AF evaluation value calculation area, the face size is within a predetermined range, the face inclination is within the predetermined range, the face orientation is within the predetermined range, and the face probability score Is determined within a predetermined range and whether the face position is within the predetermined range. If “No”, the process proceeds to S103, and if “Yes”, the process proceeds to S104.

S104では、シーン認識結果SR=人物に設定する。そして、module[1]の後に続く処理、すなわち、S73・S75・S77・S79のうちいずれか1つの次の処理、あるいはS85・S88・S91・S94のうちいずれか1つの次の処理に進む。   In S104, the scene recognition result SR = person is set. Then, the process proceeds after module [1], that is, the next process of any one of S73, S75, S77, and S79, or the next process of any one of S85, S88, S91, and S94.

S105では、シーン認識結果SR=AUTOに設定する。   In S105, the scene recognition result SR is set to AUTO.

図13は、シーン判定サブルーチン(風景判定、module[2])の詳細を示すフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。   FIG. 13 is a flowchart showing details of the scene determination subroutine (landscape determination, module [2]). The execution of this process is controlled by the CPU 75 of the camera 1. A program for defining this processing is stored in the ROM 68.

S111では、レリーズボタンの半押し(S1)がロックされているか否かを判断する。“Yes”の場合はS124、“No”の場合はS112に進む。   In S111, it is determined whether or not the half-press (S1) of the release button is locked. If “Yes”, the process proceeds to S 124. If “No”, the process proceeds to S 112.

S112では、設定メニューや操作部11を介して予めコンティニュアスAF(以下「CAF」と表記)の実行が設定されているか否かを判断する。“Yes”の場合はS113、“No”の場合はS129に進む。   In S <b> 112, it is determined whether execution of continuous AF (hereinafter referred to as “CAF”) is set in advance via the setting menu or the operation unit 11. If “Yes”, the process proceeds to S113. If “No”, the process proceeds to S129.

S113では、本撮像前AF処理部81の算出したAF評価値が、ROM68に記憶された所定の閾値よりも高いか否かを判断する。“Yes”の場合はS114、“No”の場合はS119に進む。なお、本ステップS113を省略してもよい。この場合、S112で“Yes”の場合はS114に進み、また、S113で“No”と判断された場合に続く諸処理(S119、S120、S121、S122、S123)も省略される。   In S113, it is determined whether the AF evaluation value calculated by the pre-imaging AF processing unit 81 is higher than a predetermined threshold stored in the ROM 68. If “Yes”, the process proceeds to S114. If “No”, the process proceeds to S119. Note that step S113 may be omitted. In this case, if “Yes” in S112, the process proceeds to S114, and the processes (S119, S120, S121, S122, and S123) that follow when “No” is determined in S113 are also omitted.

S114では、ROM68に記憶されたE_AUTOSR_CHECK_CAFSTATUS_HIGH=0であるか否かを判断する。“Yes”の場合はS115、“No”の場合はS116に進む。   In S114, it is determined whether or not E_AUTOSR_CHECK_CAFSTATUS_HIGH = 0 stored in the ROM 68. If “Yes”, the process proceeds to S 115. If “No”, the process proceeds to S 116.

S115では、CAFの結果定まった合焦位置が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち合焦被写体が所定距離よりも遠いか否かを判断する。“Yes”の場合はS125、“No”の場合はS129に進む。   In S115, it is determined whether the in-focus position determined as a result of the CAF is on the infinity side (INF) side from the predetermined focal length threshold stored in the ROM 68, that is, whether the in-focus subject is farther than the predetermined distance. To do. If “Yes”, the operation proceeds to S 125. If “No”, the operation proceeds to S 129.

S116では、E_AUTOSR_CHECK_CAFSTATUS_HIGH=1であるか否かを判断する。“Yes”の場合はS117、“No”の場合はS118に進む。   In S116, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_HIGH = 1. If “Yes”, the operation proceeds to S117, and if “No”, the operation proceeds to S118.

S117では、CAFの結果、AF評価値の極大点が検出され、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS125、“No”の場合はS129に進む。   In S117, as a result of the CAF, the maximum point of the AF evaluation value is detected, and the focal length corresponding to the in-focus position determined by the maximum point is infinity (INF) than the predetermined focal length threshold stored in the ROM 68. ) Side, that is, whether it is farther than a predetermined distance. If “Yes”, the operation proceeds to S 125. If “No”, the operation proceeds to S 129.

S118では、CAFの結果、AF評価値の極大点が検出されるかまたはAF評価値がその極大点の近傍にあり(例えば本出願人による特開2003−348426号公報段落0041の「微動調整」の段階にある場合)、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS125、“No”の場合はS129に進む。   In S118, as a result of CAF, the maximum point of the AF evaluation value is detected or the AF evaluation value is in the vicinity of the maximum point (for example, “fine adjustment” in paragraph 0041 of Japanese Patent Laid-Open No. 2003-348426 by the present applicant). And the focal length corresponding to the in-focus position determined at the local maximum point is on the infinity side (INF) side of the predetermined focal length threshold stored in the ROM 68, that is, from the predetermined distance. Judge whether the distance is too far. If “Yes”, the operation proceeds to S 125. If “No”, the operation proceeds to S 129.

S119では、ROM68に記憶されたE_AUTOSR_CHECK_CAFSTATUS_LOW=0であるか否かを判断する。“Yes”の場合はS120、“No”の場合はS121に進む。   In S119, it is determined whether or not E_AUTOSR_CHECK_CAFSTATUS_LOW = 0 stored in the ROM 68. If “Yes”, the process proceeds to S120. If “No”, the process proceeds to S121.

S120では、CAFの結果定まった合焦位置が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS125、“No”の場合はS129に進む。   In S120, it is determined whether the in-focus position determined as a result of CAF is on the infinity side (INF) side of the predetermined focal length threshold stored in the ROM 68, that is, whether it is farther than the predetermined distance. If “Yes”, the operation proceeds to S 125. If “No”, the operation proceeds to S 129.

S121では、E_AUTOSR_CHECK_CAFSTATUS_LOW=1であるか否かを判断する。“Yes”の場合はS122、“No”の場合はS123に進む。   In S121, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_LOW = 1. If “Yes”, the process proceeds to S122. If “No”, the process proceeds to S123.

S122では、CAFの結果、AF評価値の極大点が検出され、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS125、“No”の場合はS129に進む。   In S122, as a result of the CAF, the maximum point of the AF evaluation value is detected, and the focal length corresponding to the in-focus position determined by the maximum point is infinity (INF) than the predetermined focal length threshold stored in the ROM 68. ) Side, that is, whether it is farther than a predetermined distance. If “Yes”, the operation proceeds to S 125. If “No”, the operation proceeds to S 129.

S123では、CAFの結果、AF評価値の極大点が検出されるかまたはAF評価値がその極大点の近傍にあり(例えば本出願人による特開2003−348426号公報段落0041の「微動調整」の段階にある場合)、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側
にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS125、“No”の場合はS129に進む。
In S123, as a result of CAF, the maximum point of the AF evaluation value is detected or the AF evaluation value is in the vicinity of the maximum point (for example, “fine adjustment” in paragraph 0041 of JP-A-2003-348426 by the present applicant). And the focal length corresponding to the in-focus position determined at the local maximum point is on the infinity side (INF) side of the predetermined focal length threshold stored in the ROM 68, that is, from the predetermined distance. Judge whether the distance is too far. If “Yes”, the operation proceeds to S 125. If “No”, the operation proceeds to S 129.

S124では、AF処理部62のAF処理により合焦位置が決定され、かつその合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS125、“No”の場合はS129に進む。   In S124, the in-focus position is determined by the AF processing of the AF processing unit 62, and the focal length corresponding to the in-focus position is on the infinity (INF) side of the predetermined focal length threshold stored in the ROM 68. That is, it is determined whether or not the distance is longer than a predetermined distance. If “Yes”, the operation proceeds to S 125. If “No”, the operation proceeds to S 129.

S125では、制御回路74の測光した被写界輝度が、ROM68に記憶された所定の閾値よりも低いか否かを判断する。“Yes”の場合はS126、“No”の場合はS129に進む。   In S125, it is determined whether or not the field luminance measured by the control circuit 74 is lower than a predetermined threshold stored in the ROM 68. If “Yes”, the process proceeds to S 126. If “No”, the process proceeds to S 129.

S126では、ROM68の設定パラメータとしてあるいは操作部11から、予め風景ズーム情報フラグがオンに設定されているか否かを判断する。“Yes”の場合はS126、“No”の場合はS129に進む。   In S126, it is determined whether or not the landscape zoom information flag is set in advance as a setting parameter of the ROM 68 or from the operation unit 11. If “Yes”, the process proceeds to S 126. If “No”, the process proceeds to S 129.

S127では、ズームレンズ位置が所定範囲内例えば所定位置よりもワイド側にあるか否かを判断する。“Yes”の場合はS128、“No”の場合はS129に進む。なお、ズーム位置が所定範囲内にないとは、例えばズームレンズ位置がテレ端あるいはその近傍にある場合である。この場合、全景を画角に収めることができず、風景撮影に適していないから、撮影シーンはAUTOと判断する。   In S127, it is determined whether or not the zoom lens position is within a predetermined range, for example, on the wide side of the predetermined position. If “Yes”, the process proceeds to S128. If “No”, the process proceeds to S129. The zoom position is not within the predetermined range when, for example, the zoom lens position is at or near the tele end. In this case, since the entire view cannot be included in the angle of view and is not suitable for landscape photography, the photographing scene is determined to be AUTO.

S128では、SR=風景に設定する。そして、module[2]の後に続く処理に進む。   In S128, SR = landscape is set. Then, the process proceeds after module [2].

S129では、SR=AUTOに設定する。そして、module[2]の後に続く処理に進む。   In S129, SR = AUTO is set. Then, the process proceeds after module [2].

図14は、シーン判定サブルーチン(夜景判定、module[3])の詳細を示すフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。   FIG. 14 is a flowchart showing details of the scene determination subroutine (night scene determination, module [3]). The execution of this process is controlled by the CPU 75 of the camera 1. A program for defining this processing is stored in the ROM 68.

S131では、制御回路74の測光した被写界輝度が、ROM68に記憶された所定の閾値よりも低いか否かを判断する。“Yes”の場合はS132、“No”の場合はS152に進む。   In S 131, it is determined whether or not the field luminance measured by the control circuit 74 is lower than a predetermined threshold stored in the ROM 68. If “Yes”, the operation proceeds to S 132. If “No”, the operation proceeds to S 152.

S132では、レリーズボタンの半押し(S1)がロックされているか否かを判断する。“Yes”の場合はS147、“No”の場合はS133に進む。   In S132, it is determined whether or not the release button half-press (S1) is locked. If “Yes”, the process proceeds to S 147. If “No”, the process proceeds to S 133.

S133では、RAM69に記憶されている半押し(S1)前の夜景判定フラグがオンに設定さているか否かを判断する。“Yes”の場合はS134、“No”の場合はS152に進む。   In S133, it is determined whether or not the night scene determination flag stored in the RAM 69 before half-pressing (S1) is set to ON. If “Yes”, the process proceeds to S 134. If “No”, the process proceeds to S 152.

S134では、操作部11からの入力あるいはROM68に記憶されたパラメータにより夜景判定で距離情報を使うか否かのいずれが設定されているかを判断する。夜景判定で距離情報を使う設定がされている場合はS135、夜景判定で距離情報を使う設定がされていない場合はS149に進む。   In S134, it is determined whether the distance information is to be used in the night scene determination based on the input from the operation unit 11 or the parameter stored in the ROM 68. If the setting for using distance information is set for night scene determination, the process proceeds to S135, and if the setting for using distance information is not set for night scene determination, the process proceeds to S149.

S135では、設定メニューや操作部11を介して予めCAFの実行が設定されているか否かを判断する。“Yes”の場合はS136、“No”の場合はS152に進む。   In S135, it is determined whether or not CAF execution is set in advance via the setting menu or the operation unit 11. If “Yes”, the operation proceeds to S136. If “No”, the operation proceeds to S152.

S136では、本撮像前AF処理部81の算出したAF評価値が、ROM68に記憶された所定の閾値よりも高いか否かを判断する。“Yes”の場合はS137、“No”の場合はS142に進む。なお、本ステップS136を省略してもよい。この場合、S135で“Yes”の場合はS137に進み、また、S136で“No”と判断された場合に続く諸処理も省略される。   In S 136, it is determined whether or not the AF evaluation value calculated by the pre-imaging AF processing unit 81 is higher than a predetermined threshold stored in the ROM 68. If “Yes”, the operation proceeds to S 137. If “No”, the operation proceeds to S 142. Note that step S136 may be omitted. In this case, if “Yes” in S135, the process proceeds to S137, and various processes subsequent to “No” in S136 are also omitted.

S137では、E_AUTOSR_CHECK_CAFSTATUS_HIGH=0であるか否かを判断する。“Yes”の場合はS138、“No”の場合はS139に進む。   In S137, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_HIGH = 0. If “Yes”, the process proceeds to S 138. If “No”, the process proceeds to S 139.

S138では、CAFの結果定まった合焦位置が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS149、“No”の場合はS152に進む。   In S138, it is determined whether the in-focus position determined as a result of CAF is on the infinity side (INF) side of the predetermined focal length threshold stored in the ROM 68, that is, whether it is farther than the predetermined distance. If “Yes”, the process proceeds to S 149. If “No”, the process proceeds to S 152.

S139では、E_AUTOSR_CHECK_CAFSTATUS_HIGH=1であるか否かを判断する。“Yes”の場合はS140、“No”の場合はS141に進む。   In S139, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_HIGH = 1. If “Yes”, the process proceeds to S140. If “No”, the process proceeds to S141.

S140では、CAFの結果、AF評価値の極大点が検出され、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS149、“No”の場合はS152に進む。   In S140, as a result of CAF, the maximum point of the AF evaluation value is detected, and the focal length corresponding to the in-focus position determined by the maximum point is infinity (INF) than the predetermined focal length threshold stored in the ROM 68. ) Side, that is, whether it is farther than a predetermined distance. If “Yes”, the process proceeds to S 149. If “No”, the process proceeds to S 152.

S141では、CAFの結果、AF評価値の極大点が検出されるかまたはAF評価値がその極大点の近傍にあり(例えば本出願人による特開2003−348426号公報段落0041の「微動調整」の段階にある場合)、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS149、“No”の場合はS152に進む。   In S141, as a result of CAF, the maximum point of the AF evaluation value is detected or the AF evaluation value is in the vicinity of the maximum point (for example, “fine adjustment” in paragraph 0041 of Japanese Patent Laid-Open No. 2003-348426 by the present applicant). And the focal length corresponding to the in-focus position determined at the local maximum point is on the infinity side (INF) side of the predetermined focal length threshold stored in the ROM 68, that is, from the predetermined distance. Judge whether the distance is too far. If “Yes”, the process proceeds to S 149. If “No”, the process proceeds to S 152.

S142では、E_AUTOSR_CHECK_CAFSTATUS_LOW=0であるか否かを判断する。“Yes”の場合はS143、“No”の場合はS144に進む。   In S142, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_LOW = 0. If “Yes”, the process proceeds to S143. If “No”, the process proceeds to S144.

S143では、CAFの結果定まった合焦位置が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS149、“No”の場合はS152に進む。   In S143, it is determined whether the in-focus position determined as a result of the CAF is on the infinity side (INF) side of the predetermined focal length threshold stored in the ROM 68, that is, whether it is farther than the predetermined distance. If “Yes”, the process proceeds to S 149. If “No”, the process proceeds to S 152.

S144では、E_AUTOSR_CHECK_CAFSTATUS_LOW=1であるか否かを判断する。“Yes”の場合はS145、“No”の場合はS146に進む。   In S144, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_LOW = 1. If “Yes”, the process proceeds to S145. If “No”, the process proceeds to S146.

S145では、CAFの結果、AF評価値の極大点が検出され、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS149、“No”の場合はS152に進む。   In S145, as a result of CAF, the maximum point of the AF evaluation value is detected, and the focal length corresponding to the in-focus position determined by the maximum point is infinity (INF) than the predetermined focal length threshold stored in the ROM 68. ) Side, that is, whether it is farther than a predetermined distance. If “Yes”, the process proceeds to S 149. If “No”, the process proceeds to S 152.

S146では、CAFの結果、AF評価値の極大点が検出されるかまたはAF評価値がその極大点の近傍にあり(例えば本出願人による特開2003−348426号公報段落0041の「微動調整」の段階にある場合)、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS149、“No”の場合はS152に進む。   In S146, as a result of CAF, a maximum point of the AF evaluation value is detected or the AF evaluation value is in the vicinity of the maximum point (for example, “fine adjustment” in paragraph 0041 of Japanese Patent Application Laid-Open No. 2003-348426 by the present applicant). And the focal length corresponding to the in-focus position determined at the local maximum point is on the infinity side (INF) side of the predetermined focal length threshold stored in the ROM 68, that is, from the predetermined distance. Judge whether the distance is too far. If “Yes”, the process proceeds to S 149. If “No”, the process proceeds to S 152.

S147では、操作部11からの入力あるいはROM68に記憶されたパラメータにより夜景判定で距離情報を使うか否かのいずれが設定されているかを判断する。夜景判定で距離情報を使う設定がされている場合はS148、夜景判定で距離情報を使う設定がされていない場合はS149に進む。   In S147, it is determined whether the distance information is to be used in the night scene determination based on an input from the operation unit 11 or a parameter stored in the ROM 68. If the setting for using distance information is set for night scene determination, the process proceeds to S148, and if the setting for using distance information is not set for night scene determination, the process proceeds to S149.

S148では、AF処理部62のAF処理により合焦位置が決定され、かつその合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS149、“No”の場合はS152に進む。   In S148, the in-focus position is determined by the AF processing of the AF processing unit 62, and the focal length corresponding to the in-focus position is on the infinity (INF) side of the predetermined focal length threshold stored in the ROM 68. That is, it is determined whether or not the distance is longer than a predetermined distance. If “Yes”, the process proceeds to S 149. If “No”, the process proceeds to S 152.

S149では、ROM68の設定パラメータとしてあるいは操作部11から、予め夜景ズーム情報フラグがオンに設定されているか否かを判断する。“Yes”の場合はS150、“No”の場合はS151に進む。   In S149, it is determined whether the night view zoom information flag is set to ON in advance as a setting parameter of the ROM 68 or from the operation unit 11. If “Yes”, the process proceeds to S150. If “No”, the process proceeds to S151.

S150では、ズームレンズ位置が所定範囲内、例えば所定位置よりもワイド側にあるか否かを判断する。“Yes”の場合はS151、“No”の場合はS152に進む。なお、ズーム位置が所定範囲内にないとは、例えばズームレンズ位置がテレ端あるいはその近傍にある場合である。この場合、入射光量の乏しいバック遠景を画角に収めることができず、夜景撮影に適していないから、AUTOと判定する。   In S150, it is determined whether or not the zoom lens position is within a predetermined range, for example, on the wide side of the predetermined position. If “Yes”, the process proceeds to S 151. If “No”, the process proceeds to S 152. The zoom position is not within the predetermined range when, for example, the zoom lens position is at or near the tele end. In this case, the back distant view with a small amount of incident light cannot be included in the angle of view, and is not suitable for night view photography, so it is determined as AUTO.

S151では、SR=夜景に設定する。そして、module[3]の後に続く処理に進む。   In S151, SR = night view is set. Then, the process proceeds after module [3].

S152では、SR=AUTOに設定する。そして、module[3]の後に続く処理に進む。   In S152, SR = AUTO is set. Then, the process proceeds after module [3].

図15は、シーン判定サブルーチン(夜景判定、module[3])の他の一例を示すフロー
チャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。夜景判定は、図11または12のいずれかを採用すれば足りる。いずれか一方を選択的に実行できてもよい。
FIG. 15 is a flowchart illustrating another example of the scene determination subroutine (night scene determination, module [3]). The execution of this process is controlled by the CPU 75 of the camera 1. A program for defining this processing is stored in the ROM 68. For night view determination, either of FIGS. 11 and 12 is sufficient. Either one may be selectively executed.

S161では、制御回路74の測光した被写界輝度が、ROM68に記憶された所定の閾値よりも低いか否かを判断する。“Yes”の場合はS162、“No”の場合はS168に進む。なお、この閾値は、補助光制御部25へ発光を指示するか否かを判別する閾値と同じであってもよいし異なっていてもよい。   In S 161, it is determined whether or not the field luminance measured by the control circuit 74 is lower than a predetermined threshold stored in the ROM 68. If “Yes”, the operation proceeds to S 162. If “No”, the operation proceeds to S 168. This threshold value may be the same as or different from the threshold value for determining whether to instruct the auxiliary light control unit 25 to emit light.

S162では、レリーズボタンの半押し(S1)がロックされているか否かを判断する。“Yes”の場合はS163、“No”の場合はS168に進む。   In S162, it is determined whether or not the release button half-press (S1) is locked. If “Yes”, the process proceeds to S 163. If “No”, the process proceeds to S 168.

S163では、補助光制御部25に補助光発光部26の発光を指示したか否かを判断する。“Yes”の場合はS164、“No”の場合はS168に進む。   In S163, it is determined whether or not the auxiliary light control unit 25 is instructed to emit light from the auxiliary light emitting unit 26. If “Yes”, the process proceeds to S 164. If “No”, the process proceeds to S 168.

S164では、補助光制御部25が補助光発光部26を発光させる直前と直後にそれぞれ制御回路74の測光した被写界輝度の差が、ROM68に記憶された所定の閾値を超えているか否かを判断する。“Yes”の場合はS168、“No”の場合はS165に進む。なお、当該差が当該閾値を超えておらず、微小であれば、補助光照射による被写体輝度の増加の寄与がほとんどなく、被写体が近くないといえる。   In S164, whether or not the difference in the field luminance measured by the control circuit 74 immediately before and after the auxiliary light control unit 25 causes the auxiliary light emitting unit 26 to emit light exceeds a predetermined threshold stored in the ROM 68. Judging. If “Yes”, the process proceeds to S168. If “No”, the process proceeds to S165. Note that if the difference does not exceed the threshold and is very small, it can be said that there is almost no contribution to the increase in subject brightness due to irradiation of auxiliary light, and the subject is not close.

S165では、ROM68の設定パラメータとしてあるいは操作部11から、予め夜景ズーム情報フラグがオンに設定されているか否かを判断する。“Yes”の場合はS166、“No”の場合はS167に進む。   In S165, it is determined whether the night view zoom information flag is set to ON in advance as a setting parameter of the ROM 68 or from the operation unit 11. If “Yes”, the process proceeds to S 166. If “No”, the process proceeds to S 167.

S166では、ズームレンズ位置が所定範囲内、例えば所定位置よりもワイド側にあるか否かを判断する。“Yes”の場合はS167、“No”の場合はS168に進む。なお、ズーム位置が所定範囲内にないとは、例えばズームレンズ位置がテレ端あるいはその近傍にある場合である。この場合、バック遠景を画角に収めることができず、夜景撮影に適していない。   In S166, it is determined whether or not the zoom lens position is within a predetermined range, for example, on the wide side of the predetermined position. If “Yes”, the process proceeds to S 167. If “No”, the process proceeds to S 168. The zoom position is not within the predetermined range when, for example, the zoom lens position is at or near the tele end. In this case, the back distant view cannot be included in the angle of view and is not suitable for night view photography.

S167では、SR=夜景に設定する。そして、module[3]の後に続く処理に進む。   In S167, SR = night scene is set. Then, the process proceeds after module [3].

S168では、SR=AUTOに設定する。そして、module[3]の後に続く処理に進む。   In S168, SR = AUTO is set. Then, the process proceeds after module [3].

図16は、シーン判定サブルーチン(接写判定、module[4])の詳細を示すフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。   FIG. 16 is a flowchart showing details of the scene determination subroutine (close-up determination, module [4]). The execution of this process is controlled by the CPU 75 of the camera 1. A program for defining this processing is stored in the ROM 68.

S171では、レリーズボタンの半押し(S1)がロックされているか否かを判断する。“Yes”の場合はS184、“No”の場合はS172に進む。   In S171, it is determined whether or not the release button half-press (S1) is locked. If “Yes”, the process proceeds to S 184. If “No”, the process proceeds to S 172.

S172では、設定メニューや操作部11を介して予めCAFの実行が設定されているか否かを判断する。“Yes”の場合はS173、“No”の場合はS188に進む。   In S172, it is determined whether or not CAF execution is set in advance via the setting menu or the operation unit 11. If “Yes”, the process proceeds to S 173. If “No”, the process proceeds to S 188.

S173では、本撮像前AF処理部81の算出したAF評価値が、ROM68に記憶された所定の閾値よりも高いか否かを判断する。“Yes”の場合はS174、“No”の場合はS179に進む。なお、本ステップS173を省略してもよい。この場合、S172で“Yes”の場合はS174に進み、また、S173で“No”と判断された場合に続く諸処理も省略される。   In S 173, it is determined whether or not the AF evaluation value calculated by the pre-imaging AF processing unit 81 is higher than a predetermined threshold stored in the ROM 68. If “Yes”, the process proceeds to S 174. If “No”, the process proceeds to S 179. Note that step S173 may be omitted. In this case, if “Yes” in S 172, the process proceeds to S 174, and various processes subsequent to “No” in S 173 are also omitted.

S174では、E_AUTOSR_CHECK_CAFSTATUS_HIGH=0であるか否かを判断する。“Yes”の場合はS175、“No”の場合はS176に進む。   In S174, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_HIGH = 0. If “Yes”, the process proceeds to S175. If “No”, the process proceeds to S176.

S175では、CAFの結果定まった合焦位置が、ROM68に記憶された所定の焦点距離閾値よりも至近(NEAR)側にあるか、すなわち所定距離よりも近いか否かを判断する。“Yes”の場合はS185、“No”の場合はS188に進む。   In S175, it is determined whether the in-focus position determined as a result of CAF is closer to the near (NEAR) side than the predetermined focal distance threshold stored in the ROM 68, that is, whether it is closer than the predetermined distance. If “Yes”, the process proceeds to S 185. If “No”, the process proceeds to S 188.

S176では、E_AUTOSR_CHECK_CAFSTATUS_HIGH=1であるか否かを判断する。“Yes”の場合はS177、“No”の場合はS178に進む。   In S176, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_HIGH = 1. If “Yes”, the process proceeds to S 177. If “No”, the process proceeds to S 178.

S177では、CAFの結果、AF評価値の極大点が検出され、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも至近(NEAR)側にあるか、すなわち所定距離よりも近いか否かを判断する。“Yes”の場合はS185、“No”の場合はS188に進む。   In S177, as a result of CAF, the maximum point of the AF evaluation value is detected, and the focal length corresponding to the in-focus position determined by the maximum point is closer than the predetermined focal length threshold value stored in the ROM 68 (NEAR). It is determined whether it is on the side, that is, whether it is closer than a predetermined distance. If “Yes”, the process proceeds to S 185. If “No”, the process proceeds to S 188.

S178では、CAFの結果、AF評価値の極大点が検出されるかまたはAF評価値がその極大点の近傍にあり(例えば本出願人による特開2003−348426号公報段落0041の「微動調整」の段階にある場合)、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも至近(NEAR)側にあるか、すなわち所定距離よりも近いか否かを判断する。“Yes”の場合はS185、“No”の場合はS188に進む。   In S178, as a result of CAF, the maximum point of the AF evaluation value is detected or the AF evaluation value is in the vicinity of the maximum point (for example, “fine adjustment” in paragraph 0041 of JP-A-2003-348426 by the present applicant). And the focal length corresponding to the in-focus position determined by the local maximum point is closer to the near (NEAR) side than the predetermined focal length threshold stored in the ROM 68, that is, more than the predetermined distance. Judge whether it is close or not. If “Yes”, the process proceeds to S 185. If “No”, the process proceeds to S 188.

S179では、E_AUTOSR_CHECK_CAFSTATUS_LOW=0であるか否かを判断する。“Yes”の場合はS180、“No”の場合はS181に進む。   In S179, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_LOW = 0. If “Yes”, the process proceeds to S180. If “No”, the process proceeds to S181.

S180では、CAFの結果定まった合焦位置が、ROM68に記憶された所定の焦点距離閾値よりも至近(NEAR)側にあるか、すなわち所定距離よりも近いか否かを判断する。“Yes”の場合はS185、“No”の場合はS188に進む。   In S180, it is determined whether the in-focus position determined as a result of CAF is closer to the nearer (NEAR) side than the predetermined focal length threshold stored in the ROM 68, that is, whether it is closer than the predetermined distance. If “Yes”, the process proceeds to S 185. If “No”, the process proceeds to S 188.

S181では、E_AUTOSR_CHECK_CAFSTATUS_LOW=1であるか否かを判断する。“Yes”の場合はS182、“No”の場合はS183に進む。   In S181, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_LOW = 1. If “Yes”, the process proceeds to S 182. If “No”, the process proceeds to S 183.

S182では、CAFの結果、AF評価値の極大点が検出され、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも至近(NEAR)側にあるか、すなわち所定距離よりも近いか否かを判断する。“Yes”の場合はS185、“No”の場合はS188に進む。   In S182, as a result of CAF, the maximum point of the AF evaluation value is detected, and the focal length corresponding to the in-focus position determined by the maximum point is closer than the predetermined focal length threshold value stored in the ROM 68 (NEAR). It is determined whether it is on the side, that is, whether it is closer than a predetermined distance. If “Yes”, the process proceeds to S 185. If “No”, the process proceeds to S 188.

S183では、CAFの結果、AF評価値の極大点が検出されるかまたはAF評価値がその極大点の近傍にあり(例えば本出願人による特開2003−348426号公報段落0041の「微動調整」の段階にある場合)、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも至近(NEAR)側にあるか、すなわち所定距離よりも近いか否かを判断する。“Yes”の場合はS185、“No”の場合はS188に進む。   In S183, as a result of CAF, the maximum point of the AF evaluation value is detected or the AF evaluation value is in the vicinity of the maximum point (for example, “fine adjustment” in Japanese Patent Application Laid-Open No. 2003-348426, paragraph 0041 by the present applicant). And the focal length corresponding to the in-focus position determined by the local maximum point is closer to the near (NEAR) side than the predetermined focal length threshold stored in the ROM 68, that is, more than the predetermined distance. Judge whether it is close or not. If “Yes”, the process proceeds to S 185. If “No”, the process proceeds to S 188.

S184では、AF処理部62のAF処理により合焦位置が決定され、かつその合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも至近(NEAR)側にあるか、すなわち所定距離よりも近いか否かを判断する。“Yes”の場合はS185、“No”の場合はS188に進む。   In S184, the focus position is determined by the AF process of the AF processing unit 62, and the focal length corresponding to the focus position is closer to the near (NEAR) side than the predetermined focal distance threshold stored in the ROM 68. That is, it is determined whether or not it is closer than a predetermined distance. If “Yes”, the process proceeds to S 185. If “No”, the process proceeds to S 188.

S185では、ROM68の設定パラメータとしてあるいは操作部11から、予め接写ズーム情報フラグがオンに設定されているか否かを判断する。“Yes”の場合はS186、“No”の場合はS187に進む。   In S185, it is determined whether the close-up zoom information flag is set to ON in advance as a setting parameter of the ROM 68 or from the operation unit 11. If “Yes”, the process proceeds to S186. If “No”, the process proceeds to S187.

S186では、ズームレンズ位置がROM68に記憶された所定範囲内、例えば所定位置よりもワイド側にあるか否かを判断する。“Yes”の場合はS187、“No”の場合はS188に進む。なお、ズーム位置が所定範囲内にないとは、例えばズームレンズ位置がワイド端あるいはその近傍にある場合以外である。この場合、近接被写体の合焦ができず、近接撮影に適していない。   In S186, it is determined whether or not the zoom lens position is within a predetermined range stored in the ROM 68, for example, on the wide side of the predetermined position. If “Yes”, the process proceeds to S 187. If “No”, the process proceeds to S 188. Note that the zoom position is not within the predetermined range, for example, except when the zoom lens position is at or near the wide end. In this case, the close subject cannot be focused and is not suitable for close-up photography.

S187では、SR=接写に設定する。そして、module[4]の後に続く処理に進む。   In S187, SR = close-up is set. Then, the process proceeds after module [4].

S188では、SR=AUTOに設定する。そして、module[4]の後に続く処理に進む。   In S188, SR = AUTO is set. Then, the process proceeds after module [4].

図12〜図16のシーン判定の結果は、CPU75が表示部71に表示するよう制御する。   The CPU 75 controls the display unit 71 to display the scene determination results of FIGS.

例えば、図3に示したように、シーン判定の結果である「風景」、「AUTO」、「人物」、「夜景」、「接写」といった文字を、スルー画像にあるいはレリーズボタン全押し後の記録用画像に重畳して、表示部71に表示する。シーン判定の結果を示す文字列、アイコン、記号その他の情報は、図示しないOSD回路によって生成される。カメラ1に音声処理回路やスピーカが備えられていれば、シーン判定の結果に対応する報知音を出力するようCPU75が制御してもよい。「自動シーン認識OFF」が設定されていれば、シーン判定結果は表示されない。   For example, as shown in FIG. 3, characters such as “landscape”, “AUTO”, “person”, “night view”, and “close-up”, which are the results of the scene determination, are recorded on the through image or after the release button is fully pressed. The image is displayed on the display unit 71 in a superimposed manner. Character strings, icons, symbols, and other information indicating the result of scene determination are generated by an OSD circuit (not shown). If the camera 1 is provided with an audio processing circuit and a speaker, the CPU 75 may control to output a notification sound corresponding to the result of the scene determination. If “automatic scene recognition OFF” is set, the scene determination result is not displayed.

以上の処理により、ユーザーが撮ろうとしている、もしくは撮ったシーンが、どのようなシーンであるのかを認識できる。   Through the above processing, it is possible to recognize what kind of scene the user is going to take or has taken.

図5のメイン処理では、シーン変動時にシーン認識を行う。前回のシーン認識結果が確定されたときのフレームの状態と、現フレームの状態の変動を監視する(S4、図6)。変化があった場合にシーン変動ありと判断されると(S5)、status=サーチ状態となり
(S6)、シーン変動のタイミングで認識部が動作する(S9)。
In the main process of FIG. 5, scene recognition is performed when the scene changes. The state of the frame when the previous scene recognition result is confirmed and the change in the state of the current frame are monitored (S4, FIG. 6). If it is determined that there is a scene change when there is a change (S5), status = search state (S6), and the recognition unit operates at the scene change timing (S9).

図6のフレーム変動チェックでは、変動を検知する因子を複数持つことが可能で、順序の入れ換えなども、E_AUTOSR_FRAME_CHECK1〜3の設定により可能である。そして、変動を検知した場合には、フレーム変動の指標となるchange_measureの値をインクリメントする(S24、S28、S32)。change_measureの値がE_AUTOSR_FRAME_CHANGE_MEASURE以上の場合には(S25、S29、S33で“Yes”)、フレーム変動ありと判断される(S35)。   In the frame variation check of FIG. 6, it is possible to have a plurality of factors for detecting variation, and the order can be changed by setting E_AUTOSR_FRAME_CHECK1 to 3. When a change is detected, the value of change_measure that is an index of the frame change is incremented (S24, S28, S32). If the value of change_measure is greater than or equal to E_AUTOSR_FRAME_CHANGE_MEASURE (“Yes” in S25, S29, and S33), it is determined that there is a frame variation (S35).

ここでは、フレーム変動を検知する具体的な処理として、測光値変動チェック(図7)、フォーカス位置変動チェック(図8)、顔有無変動チェック(図9)を示している。なお図示は省略するが、本撮像前AF処理部81の合焦検出の有無に応じてフレーム変動を検知してもよい。   Here, as specific processing for detecting frame fluctuation, a photometric value fluctuation check (FIG. 7), a focus position fluctuation check (FIG. 8), and a face presence / absence fluctuation check (FIG. 9) are shown. Although illustration is omitted, frame variation may be detected according to whether or not the pre-imaging AF processing unit 81 has detected focus.

図7の測光値変動チェックでは、測光値の変動量の指標となるdelta_evは、N分割の分割エリアごとに測光値変動量を算出し、各エリアに対応した重みをかけて総和をとったものである。そして、delta_evの値がE_AUTOSP_FRAME_DELTA_EV以上の場合に、測光値変動
ありと判断する。
In the photometric value fluctuation check in FIG. 7, delta_ev, which is an index of the photometric value fluctuation amount, is calculated by calculating the photometric value fluctuation amount for each of the N-divided areas and summing them by applying a weight corresponding to each area. It is. If the value of delta_ev is equal to or greater than E_AUTOSP_FRAME_DELTA_EV, it is determined that there is a change in the photometric value.

図8のフォーカス位置変動チェックでは、フォーカス位置の変動量の指標となるdelta_focal_pointは、基準情報のフォーカス位置と今回のフォーカス位置の差分によって算出される。delta_focal_pointの値がフォーカス位置変動閾値以上の場合に、フォーカス位置変動ありと判断する。なお、ここで使用される閾値は、ズーム位置ごとにROM68に設定されているものとする。   In the focus position variation check of FIG. 8, delta_focal_point, which is an index of the variation amount of the focus position, is calculated from the difference between the focus position of the reference information and the current focus position. When the value of delta_focal_point is equal to or greater than the focus position fluctuation threshold, it is determined that there is a focus position fluctuation. Note that the threshold used here is set in the ROM 68 for each zoom position.

図9の顔有無変動チェックでは、基準情報の顔有無結果と今回の顔有無結果が異なる場合に、顔有無変動ありと判断する。   In the face presence / absence variation check in FIG. 9, it is determined that there is a face presence / absence variation when the face presence / absence result of the reference information is different from the current face presence / absence result.

認識部動作の差異に使用するシーン認識履歴は、自動シーン認識の結果として採用するSRを求めた後にクリアする(S8)。これは、認識部は常時動作することを想定しておらず、離れた時刻の情報を参照することがないようにするためである。   The scene recognition history used for the difference in the recognition unit operation is cleared after obtaining the SR to be adopted as a result of the automatic scene recognition (S8). This is because the recognizing unit is not assumed to always operate and does not refer to information at a distant time.

ここで、シーン認識履歴がクリアされるために、サーチ状態となってから(S6)、参照するシーン認識履歴数回分だけ認識部が動作するまでは(S11で“Y”となるまでは)、SRが更新されない仕組みとなる。   Here, since the scene recognition history is cleared, after the search state is entered (S6), until the recognition unit operates for the number of scene recognition histories to be referred to (until “Y” in S11), The SR is not updated.

また、SRを決定した際、フレーム変動をチェックするための基準情報として、採用されたSRが最大頻度になった(最新側の)情報を記憶する(S13)。   In addition, when the SR is determined, the information on which the adopted SR has the maximum frequency (latest side) is stored as reference information for checking the frame variation (S13).

なお、決定したSRがAUTO以外の場合は「確定状態」となり(S16)、シーンが変動するまでは認識部は動作しない。これに対し、決定したSRがAUTOの場合は「サーチ状態」となり(S15)、引き続き認識部を動作させる。これはシーン変動の途中で認識した結果を「確定状態」にすることで、シーン変動を正しく検知できなくなってしまう可能性があるためである。   If the determined SR is other than AUTO, the state becomes “determined” (S16), and the recognition unit does not operate until the scene changes. On the other hand, when the determined SR is AUTO, the “search state” is set (S15), and the recognition unit is continuously operated. This is because there is a possibility that the scene change cannot be detected correctly by setting the result recognized in the middle of the scene change to the “determined state”.

仮に、シーン変動の途中の状態を基準情報として登録した後、フレーム変動を見に行ってしまうと、最終的にシーン変動が完了した状態で認識部に動作してほしいと思っても、基準情報との差分が小さい故に、認識部が動作しない現象が起こってしまう。そこで、これを回避するため、上記のように確定したシーンに対応する情報で基準情報を更新する処理を行う(S13)。   If, after registering the state in the middle of a scene change as reference information, if you go to see the frame change, even if you want the recognizer to operate with the scene change completed, the reference information Since the difference between and is small, the recognition unit does not operate. Therefore, in order to avoid this, a process of updating the reference information with information corresponding to the scene determined as described above is performed (S13).

シーン認識は結果が安定しないと、出力結果がユーザの混乱を招く。そこで、どのようなシーンであるのかという判断をする処理(S7〜S16)と、認識したシーンから変動があったかという監視をする処理(S4〜S6)とを混合的に動作させることにより、正確で安定したシーン認識を行うことが可能となる。   If the result of scene recognition is not stable, the output result causes user confusion. Therefore, the process (S7 to S16) for determining what kind of scene it is and the process (S4 to S6) for monitoring whether or not there is a change from the recognized scene are mixed and operated accurately. It is possible to perform stable scene recognition.

<他の実施の形態>
次に、シーンの認識結果と顔の検出結果とに基づいて各種機能を制御する場合の他の実施の形態について説明する。
<Other embodiments>
Next, another embodiment for controlling various functions based on the scene recognition result and the face detection result will be described.

図17は顔検出利用による各種機能の制御の設定方法を示すフローチャートを示す。   FIG. 17 is a flowchart showing a setting method for controlling various functions using face detection.

S300では、ユーザーによる「カスタム設定」を行うか、「デフォルト設定」を行うが判別され、"Yes"の場合はS310に遷移し、"No"の場合はS320に遷移する。   In S300, it is determined whether “custom setting” or “default setting” is performed by the user. If “Yes”, the process proceeds to S310, and if “No”, the process proceeds to S320.

図18に、上記「カスタム設定」、「デフォルト設定」を選択するデジタルカメラ1の設定画面の一例を示す。   FIG. 18 shows an example of a setting screen of the digital camera 1 for selecting the “custom setting” and “default setting”.

例えば、デジタルカメラ1のメニュー/OKボタン等を操作し、図18(a)に示す顔検出利用設定のメニューを表示部71に表示させ、上下矢印レバーを操作することで、「カスタム設定」、又は「デフォルト設定」を任意に選択することができる。   For example, by operating the menu / OK button or the like of the digital camera 1 to display the face detection usage setting menu shown in FIG. 18A on the display unit 71 and operating the up and down arrow levers, Alternatively, “default setting” can be arbitrarily selected.

ここで、「カスタム設定」を選択し、メニュー/OKボタンを押すと、図18(b)に示すように「カスタム設定」の詳細画面に遷移する。ユーザーは、この画面上で顔検出を利用した各種機能の制御方法を任意に設定することができる。   Here, when “custom setting” is selected and the menu / OK button is pressed, the screen changes to a “custom setting” detail screen as shown in FIG. The user can arbitrarily set a control method for various functions using face detection on this screen.

図18(b)に示す例では、「風景」、「夜景」及び「接写」のシーンの場合には、「顔AF」、「顔AWB」、「顔階調補正」の制御は実施しないようにしている。   In the example shown in FIG. 18B, in the case of “landscape”, “night view”, and “close-up” scenes, the control of “face AF”, “face AWB”, and “face gradation correction” is not performed. I have to.

図17のS310では、「カスタム設定」が設定され、顔検出利用による各種機能の制御方法として、ユーザーにより設定された各種機能の設定が適用される。   In S310 of FIG. 17, “custom setting” is set, and various function settings set by the user are applied as a method for controlling various functions by using face detection.

一方、S320では、「デフォルト設定」が設定され、顔検出利用による各種機能の制御方法として、デジタルカメラ1の出荷前に予め設定された各種機能の設定が適用される。   On the other hand, in S320, “default setting” is set, and various function settings set in advance before shipment of the digital camera 1 are applied as a method for controlling various functions by using face detection.

即ち、デジタルカメラ1には、「デフォルト設定」用のテーブルと、「カスタム設定」用のテーブルとを有し、ユーザーによりいずれのテーブルを適用するかが選択できるようになっている。また、「カスタム設定」用のテーブルは、その内容(制御のON/OFFなど)がユーザーからの指示入力により書き替え可能になっている。   That is, the digital camera 1 has a table for “default setting” and a table for “custom setting”, and the user can select which table to apply. Further, the contents of the “custom setting” table (control ON / OFF, etc.) can be rewritten by an instruction input from the user.

尚、図18(b)に示す例では、図4に示した例と同様に、各種機能をON/OFFレベルで制御するようにしているが、各種機能の強度をいくつかのレベルに分けておき、そのレベルを設定するような仕組みでもよい。   In the example shown in FIG. 18B, as in the example shown in FIG. 4, various functions are controlled at the ON / OFF level, but the strength of the various functions is divided into several levels. Alternatively, a mechanism for setting the level may be used.

また、本発明は、以上の例には限定されず、本発明の要旨を逸脱しない範囲において、各種の改良や変形を行ってもよいことは言うまでもない。   The present invention is not limited to the above examples, and it goes without saying that various improvements and modifications may be made without departing from the scope of the present invention.

1…デジタルカメラ、11…操作部、20…レンズ、24…フラッシュ発光部、25…補助光制御部、26…補助光発光部、51…レンズ駆動部、54…絞り、55…絞り駆動部、58…撮像素子(CCD)、59…撮像素子制御部、60…アナログ信号処理部、61…A/D変換部、62…AF処理部、63…AE/AWB処理部、65…デジタル信号処理部、66…メモリ、67…圧縮伸張処理部、68…ROM、69…RAM、70…記録部、71…表示部、73…フラッシュ制御部、74…制御回路、75…CPU、80…顔検出処理部   DESCRIPTION OF SYMBOLS 1 ... Digital camera, 11 ... Operation part, 20 ... Lens, 24 ... Flash light emission part, 25 ... Auxiliary light control part, 26 ... Auxiliary light emission part, 51 ... Lens drive part, 54 ... Aperture, 55 ... Aperture drive part, 58 ... Image sensor (CCD), 59 ... Image sensor controller, 60 ... Analog signal processor, 61 ... A / D converter, 62 ... AF processor, 63 ... AE / AWB processor, 65 ... Digital signal processor , 66 ... Memory, 67 ... Compression / decompression processing unit, 68 ... ROM, 69 ... RAM, 70 ... Recording unit, 71 ... Display unit, 73 ... Flash control unit, 74 ... Control circuit, 75 ... CPU, 80 ... Face detection processing Part

Claims (12)

撮影シーンの情報を取得する情報取得手段と、
取得した情報からシーンを認識するシーン認識手段と、
撮影シーンに顔があるか否かを検出する顔検出手段と、
シーンの認識結果と顔の検出結果とに基づいて各種の制御を行う制御手段と、を備え、
前記シーン認識手段は、
認識したシーンに対応する情報を基準情報として記憶する記憶手段と、
記憶手段に記憶された基準情報と前記情報取得手段により取得された情報からシーンが変動したか否かを判別するシーン変動判別手段と、
シーン認識を行う所定の周期を設定する周期設定手段と、を有し、
シーンが変動したことが判別されると、前記情報取得手段により取得した情報に基づいて、予め定義した複数のシーン及びいずれのシーンにも当てはまらないシーンのうちのいずれかのシーンであって、前記周期設定手段により設定された所定の周期毎に前記情報取得手段により取得された情報に基づいてシーンを認識し、n回(n:3以上の整数)認識したシーンのうちの最大頻度のシーンを現在のシーンとして認識し、認識した現在のシーンに対応する情報を基準情報とし、前記記憶手段に記憶させた基準情報を更新する撮像装置。
Information acquisition means for acquiring information of a shooting scene;
Scene recognition means for recognizing a scene from the acquired information;
Face detection means for detecting whether or not there is a face in the shooting scene;
Control means for performing various controls based on the recognition result of the scene and the detection result of the face,
The scene recognition means includes
Storage means for storing information corresponding to the recognized scene as reference information;
Scene variation determining means for determining whether or not the scene has changed from the reference information stored in the storage means and the information acquired by the information acquiring means;
Cycle setting means for setting a predetermined cycle for performing scene recognition,
When it is determined that the scene has changed, based on the information acquired by the information acquisition means, any one of a plurality of predefined scenes and a scene that does not apply to any scene, A scene is recognized on the basis of information acquired by the information acquisition means for each predetermined period set by the period setting means, and a scene having the highest frequency among the scenes recognized n times (n: an integer of 3 or more). An imaging apparatus that recognizes a current scene, uses information corresponding to the recognized current scene as reference information, and updates the reference information stored in the storage unit.
前記情報取得手段は、撮影シーン中に顔があるか否かを示す情報、被写体距離に相当する情報、被写体の明るさに相当する情報のうちの少なくとも1つの情報を取得する請求項1に記載の撮像装置。   The information acquisition unit acquires at least one of information indicating whether or not there is a face in a shooting scene, information corresponding to a subject distance, and information corresponding to the brightness of the subject. Imaging device. 前記制御手段は、ライブビュー画像を表示する表示手段の画面上において、検出された顔の位置を明示的に表示する表示制御手段、検出された顔の領域の明るさに基づいて露出を制御する露出制御手段、検出された顔に焦点が合うように焦点調節を行う自動焦点調節手段、検出された顔の領域の色情報に基づいてホワイトバランスを調整するホワイトバランス調整手段、及び検出された顔の領域の明るさに基づいて階調補正を行う顔階調補正手段のうちの2以上の手段を含む請求項1又は2に記載の撮像装置。   The control means controls the exposure based on the brightness of the detected face area, the display control means for explicitly displaying the position of the detected face on the screen of the display means for displaying the live view image. Exposure control means, automatic focus adjustment means for adjusting focus so that the detected face is in focus, white balance adjustment means for adjusting white balance based on color information of the detected face area, and detected face The imaging apparatus according to claim 1, comprising two or more means of face gradation correction means for performing gradation correction based on the brightness of the area. 前記制御手段は、シーンの種類と各種の制御の種類とに対応して、各制御の種類毎に制御を行うか否を示す情報又は制御の強弱を示す情報が記憶されたテーブルを有し、シーンの認識結果と顔の検出結果とに基づいて前記テーブルから対応する情報を読み出して各種の制御を行う請求項1から3のいずれかに記載の撮像装置。   The control means has a table in which information indicating whether to perform control for each type of control or information indicating the strength of control corresponding to the type of scene and various types of control is stored, The imaging apparatus according to claim 1, wherein various controls are performed by reading corresponding information from the table based on a scene recognition result and a face detection result. 前記テーブルに記憶されている情報をユーザーが自由に設定するカスタム設定手段を備えた請求項4に記載の撮像装置。   The imaging apparatus according to claim 4, further comprising custom setting means for allowing a user to freely set information stored in the table. 前記シーン認識手段は、認識したn回のシーンのうちの最大頻度のシーンが複数存在する場合、シーン認識の履歴のうちの最も新しいシーンが属するシーンを現在のシーンとして認識する請求項1から5のいずれかに記載の撮像装置。   The scene recognition means recognizes, as a current scene, a scene to which a newest scene in a history of scene recognition belongs when there are a plurality of scenes having the highest frequency among n recognized scenes. The imaging device according to any one of the above. 所定の周期毎に撮影シーンの情報を取得するステップと、
取得した撮影シーンの情報からシーンを認識するステップと、
認識したシーンに対応する情報を基準情報として記憶手段に記憶させるステップと、
撮影シーンに顔があるか否かを検出するステップと、
シーンの認識結果と顔の検出結果とに基づいて各種の制御を行うステップと、を含み、
前記シーンを認識するステップは、
所定の周期毎に記憶手段に記憶された基準情報と前記取得されたシーンの情報とからシーンが変動したか否かを判別し、
シーンが変動したことが判別されると、前記所定の周期毎に取得したシーンの情報に基づいて、予め定義した複数のシーン及びいずれのシーンにも当てはまらないシーンのうちのいずれかのシーンを認識し、
n回(n:3以上の整数)認識したシーンのうちの最大頻度のシーンを現在のシーンとして認識し、認識した現在のシーンに対応する情報を基準情報として前記記憶手段に記憶させた基準情報を更新する撮像方法。
Acquiring information of a shooting scene at predetermined intervals;
A step of recognizing the scene from the acquired shooting scene information;
Storing information corresponding to the recognized scene in the storage means as reference information;
Detecting whether or not there is a face in the shooting scene;
Performing various controls based on a scene recognition result and a face detection result,
The step of recognizing the scene includes
It is determined whether or not the scene has fluctuated from the reference information stored in the storage means for each predetermined period and the acquired scene information,
When it is determined that the scene has changed, one of a plurality of predefined scenes and a scene that does not apply to any of the scenes is recognized based on the scene information acquired every predetermined period. And
Reference information in which the scene with the highest frequency among the scenes recognized n times (n: an integer of 3 or more) is recognized as the current scene, and information corresponding to the recognized current scene is stored in the storage means as reference information An imaging method for updating.
前記撮影シーンの情報を取得するステップは、撮影シーン中に顔があるか否かを示す情報、被写体距離に相当する情報、被写体の明るさに相当する情報のうちの少なくとも1つの情報を取得する請求項7に記載の撮像方法。   The step of acquiring information on the shooting scene acquires at least one of information indicating whether or not there is a face in the shooting scene, information corresponding to the subject distance, and information corresponding to the brightness of the subject. The imaging method according to claim 7. 前記各種の制御を行うステップは、ライブビュー画像を表示する表示手段の画面上において、検出された顔の位置を明示的に表示する表示制御、検出された顔の領域の明るさに基づいて露出を制御する露出制御、検出された顔に焦点が合うように焦点調節を行う自動焦点調節、検出された顔の領域の色情報に基づいてホワイトバランスを調整するホワイトバランス調整、及び検出された顔の領域の明るさに基づいて階調補正を行う顔階調補正のうちの2以上の制御を含む請求項7又は8に記載の撮像方法。   The various control steps include display control for explicitly displaying the position of the detected face on the screen of the display means for displaying the live view image, and exposure based on the brightness of the detected face area. Exposure control to control the focus, automatic focus adjustment to adjust the focus to the detected face, white balance adjustment to adjust the white balance based on the color information of the detected face area, and the detected face The imaging method according to claim 7 or 8, comprising two or more controls of face gradation correction for performing gradation correction based on the brightness of the area. 前記各種の制御を行うステップは、シーンの種類と各種の制御の種類とに対応して、各制御の種類毎に制御を行うか否を示す情報又は制御の強弱を示す情報が記憶されたテーブルを使用し、シーンの認識結果と顔の検出結果とに基づいて前記テーブルから対応する情報を読み出して各種の制御を行う請求項7から9のいずれかに記載の撮像方法。   In the step of performing the various controls, a table storing information indicating whether to perform control for each type of control or information indicating the strength of control corresponding to the type of scene and the various types of control. The imaging method according to claim 7, wherein various types of control are performed by reading out corresponding information from the table based on a scene recognition result and a face detection result. 前記テーブルに記憶されている情報は、ユーザーが自由に設定するカスタム設定手段により設定される請求項10に記載の撮像方法。   The imaging method according to claim 10, wherein the information stored in the table is set by custom setting means that is freely set by a user. 前記シーンを認識するステップは、認識したn回のシーンのうちの最大頻度のシーンが複数存在する場合、シーン認識の履歴のうちの最も新しいシーンが属するシーンを現在のシーンとして認識する請求項7から11のいずれかに記載の撮像方法。   8. The step of recognizing a scene recognizes, as a current scene, a scene to which a newest scene in a history of scene recognition belongs when a plurality of scenes having the highest frequency among n recognized scenes exist. The imaging method according to any one of 11 to 11.
JP2012146905A 2012-06-29 2012-06-29 Imaging apparatus and imaging method Active JP5324684B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012146905A JP5324684B2 (en) 2012-06-29 2012-06-29 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012146905A JP5324684B2 (en) 2012-06-29 2012-06-29 Imaging apparatus and imaging method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008197003A Division JP2010035048A (en) 2008-07-30 2008-07-30 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2012182856A JP2012182856A (en) 2012-09-20
JP5324684B2 true JP5324684B2 (en) 2013-10-23

Family

ID=47013600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012146905A Active JP5324684B2 (en) 2012-06-29 2012-06-29 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP5324684B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6227083B2 (en) * 2016-10-04 2017-11-08 オリンパス株式会社 Imaging apparatus and imaging method
CN110929613A (en) * 2019-11-14 2020-03-27 上海眼控科技股份有限公司 Image screening algorithm for intelligent traffic violation audit

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4886210B2 (en) * 2005-04-21 2012-02-29 キヤノン株式会社 Imaging device
JP2007194917A (en) * 2006-01-19 2007-08-02 Seiko Epson Corp Setting of effect processing suitable for photographing scene of image
JP4818999B2 (en) * 2006-07-25 2011-11-16 富士フイルム株式会社 Imaging apparatus, method, and program

Also Published As

Publication number Publication date
JP2012182856A (en) 2012-09-20

Similar Documents

Publication Publication Date Title
JP2010035048A (en) Imaging apparatus and imaging method
JP4655054B2 (en) Imaging device
JP4518131B2 (en) Imaging method and apparatus
EP2148499B1 (en) Imaging apparatus and method
JP5166370B2 (en) Imaging apparatus and imaging method
JP2019215489A (en) Imaging device and focus adjustment method
JP2008236534A (en) Digital camera, and information display method and information display control program
JP2008070611A (en) Imaging apparatus, exposure condition adjustment method and program
JP5027580B2 (en) Imaging apparatus, method, and program
JP2008278354A (en) Imaging device
JP5883564B2 (en) Imaging device
JP5324684B2 (en) Imaging apparatus and imaging method
JP2010287919A (en) Imaging device
JP2008298847A (en) Photographing method and digital camera
JP5421682B2 (en) Imaging apparatus and method
JP2013097312A (en) Focus adjustment device and control method thereof
JP2012119756A (en) Imaging apparatus and white-balance control method
JP6084316B2 (en) Imaging device
JP2008219367A (en) Imaging apparatus and imaging method
JP4908321B2 (en) Imaging device
JP5406958B2 (en) Image processing apparatus, method, and program
KR101442152B1 (en) User adaptive image photographing apparatus and method for controlling the apparatus
KR101417818B1 (en) Apparatus and method for recognizing scene mode in digital image processing device
JP2008311921A (en) Imaging apparatus
JP2012227658A (en) Imaging apparatus and imaging apparatus control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120710

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130718

R150 Certificate of patent or registration of utility model

Ref document number: 5324684

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250