JP6418827B2 - Imaging apparatus and control method thereof - Google Patents

Imaging apparatus and control method thereof Download PDF

Info

Publication number
JP6418827B2
JP6418827B2 JP2014145784A JP2014145784A JP6418827B2 JP 6418827 B2 JP6418827 B2 JP 6418827B2 JP 2014145784 A JP2014145784 A JP 2014145784A JP 2014145784 A JP2014145784 A JP 2014145784A JP 6418827 B2 JP6418827 B2 JP 6418827B2
Authority
JP
Japan
Prior art keywords
face
mode
subject
display mode
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014145784A
Other languages
Japanese (ja)
Other versions
JP2016025367A (en
Inventor
椋梨 将行
将行 椋梨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014145784A priority Critical patent/JP6418827B2/en
Publication of JP2016025367A publication Critical patent/JP2016025367A/en
Application granted granted Critical
Publication of JP6418827B2 publication Critical patent/JP6418827B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮像装置及びその制御方法に関し、特に、オートフォーカス機能を備えた撮像装置及びその制御方法に関する。 The present invention relates to an imaging apparatus and a control method thereof, and more particularly to an imaging apparatus having an autofocus function and a control method thereof .

従来から、被写体を自動的に認識し、その被写体の位置に基づいてピント合わせを自動で行うオートフォーカス機能を備えたカメラが知られている。   2. Description of the Related Art Conventionally, a camera having an autofocus function that automatically recognizes a subject and automatically focuses based on the position of the subject is known.

オートフォーカス機能を備えたカメラとしては、撮像モードに応じて被写体の認識アルゴリズムを変更することによって精度良く被写体認識を行うことができるようにしたカメラが提案されている(例えば、特許文献1)。また、シーンに応じて被写体位置の精度を上げる処理と、精度は下がるが負荷の少ない処理を選択することができるカメラが提案されている(例えば、特許文献2)。このような従来技術によれば、被写体を認識するためのアルゴリズムを改善すること等によって処理速度が向上し、より小さい顔や角度のついた顔などをフォーカス対象の被写体として検知できるようになっている。   As a camera having an autofocus function, there has been proposed a camera that can perform subject recognition with high accuracy by changing a subject recognition algorithm in accordance with an imaging mode (for example, Patent Document 1). Further, there has been proposed a camera that can select a process for increasing the accuracy of the subject position according to the scene and a process that reduces the accuracy but reduces the load (for example, Patent Document 2). According to such a conventional technique, the processing speed is improved by improving an algorithm for recognizing a subject, and a smaller face or a face with an angle can be detected as a subject to be focused. Yes.

一方、オートフォーカス位置を自動的に決定するカメラであって、フォーカス位置を決定して表示する表示方式を任意に変更できるカメラがある。フォーカス位置を決定して表示する方式としては、事前表示モードと、事後表示モードがある。事前表示モードは、オートフォーカス開始指示の前にカメラが選んだ被写体を表示して追尾する被写体表示モードである。一方、事後表示モードは、オートフォーカス開始指示の後にカメラが選んだ被写体を表示する被写体表示モードである。   On the other hand, there is a camera that automatically determines the autofocus position and can arbitrarily change the display method for determining and displaying the focus position. As a method of determining and displaying the focus position, there are a pre-display mode and a post-display mode. The prior display mode is a subject display mode in which the subject selected by the camera before the autofocus start instruction is displayed and tracked. On the other hand, the post-display mode is a subject display mode for displaying a subject selected by the camera after an autofocus start instruction.

事前表示モードは、ユーザが選択した被写体又はカメラが自動的に見つけた被写体を追尾し続けるモードであり、目的の被写体があらかじめ画角内に捕えられ、決定されている場合に適している。この事前表示モードでは、ユーザは、カメラが自動的に見つけた主被写体が気に入らなければ、オートフォーカス動作前に別の被写体に切り換えることができる。一方、事後表示モードは、あらかじめ目的の被写体が画角内に存在しなくても撮影直前の撮像画像からメインとなりそうな被写体をカメラが選んでくれるのでカメラ任せの撮影に適している。   The pre-display mode is a mode in which the subject selected by the user or the subject automatically found by the camera is continuously tracked, and is suitable when the target subject is previously captured and determined within the angle of view. In this pre-display mode, the user can switch to another subject before the autofocus operation if the user does not like the main subject that the camera has automatically found. On the other hand, the post-display mode is suitable for photographing that is left to the camera because the camera selects a subject that is likely to be the main from the captured image immediately before photographing even if the target subject does not exist within the angle of view in advance.

特開2001−330882号公報JP 2001-330882 A 特開2011−022203号公報JP 2011-022203 A

しかしながら、上記従来技術では、オートフォーカス対象領域をオートフォーカス操作開始前に表示する事前表示モード、又は操作開始後に表示する事後表示モードによっては、カメラが認識した被写体がユーザにとって好ましくない被写体である場合に問題となる。すなわち、事前表示モードであれば撮影前にフォーカス位置が表示されるので、カメラが認識した被写体がユーザにとって好ましくない場合、ユーザは、撮影前に別の被写体に変更できるので、問題となることはない。一方、事後表示モードでは、オートフォーカス開始後にフォーカス位置が表示されるので、カメラが認識した被写体がユーザにとって好ましくない場合、その後に、被写体を変更すればシャッターチャンスを逃す虞がある。ユーザにとって好ましくない被写体としては、例えば、極端に小さな顔などが挙げられる。   However, in the above prior art, depending on the pre-display mode in which the autofocus target area is displayed before the start of the autofocus operation or the post-display mode in which the autofocus operation is displayed after the start of the operation, the subject recognized by the camera is an object that is not preferable for the user. It becomes a problem. In other words, since the focus position is displayed before shooting in the pre-display mode, if the subject recognized by the camera is undesirable for the user, the user can change to another subject before shooting, which may be a problem. Absent. On the other hand, in the post-display mode, since the focus position is displayed after the start of autofocus, if the subject recognized by the camera is not preferable for the user, there is a possibility that a photo opportunity will be missed if the subject is changed thereafter. As a subject unfavorable for the user, for example, an extremely small face can be cited.

本発明は、このような状況に鑑み、ユーザにとって好ましい被写体を、高い確率でフォーカス対象の被写体として設定することができる撮像装置及びその制御方法を提供することを目的とするIn view of such circumstances, an object of the present invention is to provide an imaging apparatus that can set a subject preferable for a user as a subject to be focused with high probability and a control method thereof .

上記目的を達成するために、請求項1記載の撮像装置は、画像データから特定の被写体を検知する検知手段と、前記検知手段が前記特定の被写体を検知するための判定基準を設定する基準設定手段と、を備え、前記基準設定手段は、オートフォーカス開始指示前にオートフォーカス対象領域を表示する第1のモードの場合に、オートフォーカス開始指示後にオートフォーカス対象領域を表示する第2のモードの場合に比べて前記特定の被写体が検知されやすくなるように前記判定基準を変更することを特徴とする。
To achieve the above object, an imaging apparatus comprising: a detection means for detecting a specific object from the images data, the criteria the detecting means sets a criterion for detecting the specific subject A second mode for displaying the autofocus target area after the autofocus start instruction in the first mode for displaying the autofocus target area before the autofocus start instruction. The determination criterion is changed so that the specific subject can be detected more easily than in the case of .

本発明によれば、被写体表示モードに応じて被写体を検知するための判定基準を変更する。従って、例えば、ユーザが、主となる被写体の変更が可能なオートフォーカス開始指示前にフォーカス対象領域を表示するモードにおける判定基準を、オートフォーカス開始指示後にフォーカス対象領域を表示するモードにおける判定基準よりも低く設定する。これによって、ユーザにとって好ましい被写体を、高い確率でフォーカス対象の被写体として設定することができるようになる。   According to the present invention, the criterion for detecting the subject is changed according to the subject display mode. Therefore, for example, the determination criterion in the mode in which the focus target area is displayed before the autofocus start instruction in which the user can change the main subject is compared with the determination criterion in the mode in which the focus target area is displayed after the autofocus start instruction. Also set it low. This makes it possible to set a subject preferable for the user as a subject to be focused with high probability.

本発明の実施の形態に係る撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device which concerns on embodiment of this invention. 顔認識における顔の角度を規定した図である。It is the figure which prescribed | regulated the angle of the face in face recognition. 図1の撮像装置を適用したオートフォーカス処理の手順を示すフローチャートである。3 is a flowchart illustrating a procedure of autofocus processing to which the imaging apparatus of FIG. 1 is applied. 顔位置決定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a face position determination process. 顔位置決定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a face position determination process. 第2の実施の形態における顔位置決定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the face position determination process in 2nd Embodiment. 第2の実施の形態における顔位置決定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the face position determination process in 2nd Embodiment.

以下、本発明の実施の形態について図面を参照しつつ詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施の形態に係る撮像装置(デジタルカメラ)の構成を示すブロック図である。図1において、デジタルカメラ100は、電源110、カード入出力部119及びカードスロット120を備えている。電源110は、デジタルカメラ100内の各回路に電源を供給する。カードスロット120は、着脱可能な記録媒体としてのメモリカード121を差し込む場所であり、メモリカード121はカードスロット120に差し込まれた状態で、カード入出力部119と電気的に接続する。なお、記録媒体として、メモリカードの他、ハードディスク、光ディスク、光磁気ディスク、磁気ディスク、その他の固体メモリを使用してもよい。   FIG. 1 is a block diagram showing a configuration of an imaging apparatus (digital camera) according to an embodiment of the present invention. In FIG. 1, the digital camera 100 includes a power source 110, a card input / output unit 119, and a card slot 120. The power supply 110 supplies power to each circuit in the digital camera 100. The card slot 120 is a place where a memory card 121 as a detachable recording medium is inserted. The memory card 121 is electrically connected to the card input / output unit 119 while being inserted into the card slot 120. In addition to the memory card, a hard disk, an optical disk, a magneto-optical disk, a magnetic disk, or other solid memory may be used as the recording medium.

また、デジタルカメラ100は、デジタルカメラ100全体を制御するCPU109、フォーカシングレンズ101、ズーミングレンズ102及び絞り103を備えている。フォーカシングレンズ101は光軸方向の進退により焦点調節を行う。ズーミングレンズ102は光軸方向の進退により焦点距離の変更を行う。また、絞り103は撮像素子への光量を調節する。フォーカシングレンズ101、ズーミングレンズ102及び絞り103は、撮像光学系を構成し、CPU109によって制御される。   The digital camera 100 also includes a CPU 109 that controls the entire digital camera 100, a focusing lens 101, a zooming lens 102, and an aperture 103. The focusing lens 101 performs focus adjustment by advancing and retreating in the optical axis direction. The zooming lens 102 changes the focal length by moving back and forth in the optical axis direction. The diaphragm 103 adjusts the amount of light to the image sensor. The focusing lens 101, the zooming lens 102, and the stop 103 constitute an imaging optical system and are controlled by the CPU 109.

また、デジタルカメラ100は、撮像素子104、前処理回路105、A/Dコンバータ106、像信号処理装置107及びフレームメモリ108を備えている。撮像素子104、前処理回路105、A/Dコンバータ106、像信号処理装置107及びフレームメモリ108は、撮像光学系で形成された被写体の光学像をデジタル画像信号又は画像データに変換する光電変換系を構成する。   The digital camera 100 also includes an image sensor 104, a preprocessing circuit 105, an A / D converter 106, an image signal processing device 107, and a frame memory 108. An image sensor 104, a preprocessing circuit 105, an A / D converter 106, an image signal processing device 107, and a frame memory 108 are photoelectric conversion systems that convert an optical image of a subject formed by the imaging optical system into a digital image signal or image data. Configure.

撮像素子104は、CCD撮像素子又はCMOS撮像素子等で構成される光電変換手段である。撮像素子104は、光学部材101〜103からなる撮像光学系で形成された被写体像を光電変換し、画像信号を出力する。撮像素子104は、電子シャッター機能を有しており露光時間を調整することができる。なお、撮像素子104は、電子シャッター機能の代わりに機械式のシャッターを有し、露光時間を調整する構成であっても良い。前処理回路105は、CDS(相関二重サンプリング)回路及びAGC(オートゲインコントロール)回路等を含み、撮像素子104の出力画像信号のノイズを除去し、ゲインを制御する。   The image sensor 104 is a photoelectric conversion unit configured by a CCD image sensor, a CMOS image sensor, or the like. The image sensor 104 photoelectrically converts a subject image formed by the imaging optical system including the optical members 101 to 103 and outputs an image signal. The image sensor 104 has an electronic shutter function and can adjust the exposure time. Note that the image sensor 104 may have a mechanical shutter instead of the electronic shutter function and adjust the exposure time. The preprocessing circuit 105 includes a CDS (correlated double sampling) circuit, an AGC (auto gain control) circuit, and the like, and removes noise from the output image signal of the image sensor 104 and controls the gain.

A/Dコンバータ106は、前処理回路105から出力されるアナログ画像信号をデジタル画像信号に変換する。像信号処理装置107は、デジタル画像信号にシェーディング補正等のカメラで周知の画像信号処理を施す。像信号処理装置107は、いわば、撮像素子104の特性に起因する画像濃度の非線形性、及び光源に起因する画像色の偏りを補正する。フレームメモリ108は、撮像素子104〜像信号処理装置107により生成される画像信号を一時記憶するバッファメモリとして機能する。フレームメモリ108に格納されている画像データは、補正処理等が施されているが、撮像素子104の各画素に蓄積された電化エネルギーをそのままデジタルデータ化したものと考えることができる。   The A / D converter 106 converts the analog image signal output from the preprocessing circuit 105 into a digital image signal. The image signal processing device 107 performs known image signal processing such as shading correction on the digital image signal by a camera. In other words, the image signal processing device 107 corrects non-linearity in image density due to the characteristics of the image sensor 104 and image color deviation due to the light source. The frame memory 108 functions as a buffer memory that temporarily stores image signals generated by the image sensor 104 to the image signal processing device 107. Although the image data stored in the frame memory 108 has been subjected to correction processing or the like, it can be considered that the electric energy accumulated in each pixel of the image sensor 104 is converted into digital data as it is.

CPU109は、撮像素子104の画像信号読み出しを制御するクロック信号を送出し、撮像素子104〜フレームメモリ108の動作タイミングを制御する。   The CPU 109 transmits a clock signal for controlling the image signal reading of the image sensor 104 and controls the operation timing of the image sensor 104 to the frame memory 108.

CPU109は、電源110、不揮発性メモリ111、現像処理部112、RAMメモリ113、表示制御装置114、メインスイッチ116、第1レリーズスイッチ(SW1)117、第2レリーズスイッチ118と接続されている。また、CPU109は、操作ボタン140〜142、カード入出力部119、顔検知部200、人体検知部201、移動量算出部202、オートフォーカス評価値算出部203と接続されている。   The CPU 109 is connected to a power source 110, a nonvolatile memory 111, a development processing unit 112, a RAM memory 113, a display control device 114, a main switch 116, a first release switch (SW1) 117, and a second release switch 118. The CPU 109 is connected to operation buttons 140 to 142, a card input / output unit 119, a face detection unit 200, a human body detection unit 201, a movement amount calculation unit 202, and an autofocus evaluation value calculation unit 203.

不揮発性メモリ111は、EEPROM等で構成されており、電源110がオフにされても、記録されたデータを失わない。不揮発性メモリ111には、電源110がオンされた時にカメラに設定する初期カメラ設定値が記録されている。   The nonvolatile memory 111 is composed of an EEPROM or the like, and does not lose recorded data even when the power supply 110 is turned off. The non-volatile memory 111 stores initial camera setting values that are set in the camera when the power source 110 is turned on.

現像処理部112は、CPU109が読み出したフレームメモリ108上のRAWデータに対し、現像パラメータ設定に基づいて画像処理を実行する。画像処理が施されたそれぞれの画像データは、RAMメモリ113に格納される。現像パラメータとは、デジタル画像データの画質に関するパラメータのことで、デジタル画像データのホワイトバランス、色補間、色補正、γ変換、エッジ強調、解像度に関するパラメータはすべて現像パラメータに相当する。   The development processing unit 112 performs image processing on the RAW data on the frame memory 108 read by the CPU 109 based on the development parameter setting. Each image data subjected to image processing is stored in the RAM memory 113. The development parameter is a parameter related to the image quality of the digital image data, and the white balance, color interpolation, color correction, γ conversion, edge enhancement, and resolution parameters of the digital image data all correspond to the development parameters.

RAMメモリ113は、現像処理結果の画像データの他、CPU109が各種処理を行なう際のデータを一時的に記憶する。表示制御装置114は、液晶表示素子からなるTFT115の駆動及び制御を行い、RAMメモリ113に表示用の画像フォーマットで配置された画像データを表示装置へ出力する。ここで表示用の画像フォーマットを配置するRAMメモリ113をVRAMと呼ぶ。   The RAM memory 113 temporarily stores data when the CPU 109 performs various processes in addition to the image data of the development processing result. The display control device 114 drives and controls the TFT 115 composed of a liquid crystal display element, and outputs image data arranged in the RAM memory 113 in a display image format to the display device. Here, the RAM memory 113 in which an image format for display is arranged is called a VRAM.

顔検知部200は、画像データから特定の画像として人間の顔を検知し、顔の輪郭、顔の部位としての目、鼻、口の特徴を検出し、顔の位置、サイズ、角度(画像奥行き方向と画像平面方向)、信頼度を出力する。複数の顔があれば、複数の顔の位置、サイズ、信頼度を出力する。顔位置は入力する画像データの、例えば、左上を原点の座標とする。ここで、顔検知部200には、出力される顔のサイズを制限する設定を行うことができる。設定したサイズよりも小さな顔は出力されない。   The face detection unit 200 detects a human face as a specific image from the image data, detects facial contours, features of eyes, nose, and mouth as facial parts, and detects the face position, size, and angle (image depth). Direction and image plane direction) and reliability. If there are multiple faces, the position, size, and reliability of the multiple faces are output. The face position is, for example, the coordinates of the origin at the upper left of the input image data. Here, the face detection unit 200 can be set to limit the size of the output face. Faces smaller than the set size are not output.

図2は、顔認識における顔の角度を規定した図である。図2(a)に示すように、画像奥行き方向の角度は、左90度300、左45度301、正面302、右45度303、右90度304として検出される。顔検知部200には、出力される画像奥行き方向の角度を制限する設定を行うことができる。例えば、正面302のみを設定すると、正面302以外の結果は出力されない。また、画像平面方向の角度は、図2(b)に示すように、0度310、90度311、180度312、270度313として検出される。顔検知部200には、出力される平面方向の角度を制限する設定を行うことができる。例えば、0度310のみを設定すると、0度310以外の結果は出力されない。   FIG. 2 is a diagram defining a face angle in face recognition. As shown in FIG. 2A, the angles in the image depth direction are detected as left 90 degrees 300, left 45 degrees 301, front 302, right 45 degrees 303, and right 90 degrees 304. The face detection unit 200 can be set to limit the angle in the output image depth direction. For example, when only the front surface 302 is set, results other than the front surface 302 are not output. Further, the angles in the image plane direction are detected as 0 degrees 310, 90 degrees 311, 180 degrees 312, and 270 degrees 313 as shown in FIG. The face detection unit 200 can be set to limit the angle in the planar direction that is output. For example, if only 0 degree 310 is set, a result other than 0 degree 310 is not output.

顔検知部200が出力する信頼度は、例えば0〜255で出力され、信頼度が高いほど顔である可能性が高い。ここで、顔検知部200には、出力される信頼度を制限する設定を行うことができる。例えば、信頼度を128で設定すると128よりも低い信頼度の顔は出力されない。   The reliability output by the face detection unit 200 is, for example, 0 to 255, and the higher the reliability, the higher the possibility of a face. Here, the face detection unit 200 can be set to limit the output reliability. For example, if the reliability is set to 128, a face with a reliability lower than 128 is not output.

人体検知部201は、画像データから人型(頭から肩までのシルエット)を認識し、顔の位置、サイズ、信頼度を出力する。人体検知部201が出力する信頼度は、例えば0〜255で出力され、信頼度が高いほど人体である可能性が高い。ここで、顔検知部200と同様、人体検知部201も顔のサイズ、信頼度について出力結果を制限する設定を行うことができる。   The human body detection unit 201 recognizes a human type (a silhouette from the head to the shoulder) from the image data, and outputs the position, size, and reliability of the face. The reliability output by the human body detection unit 201 is, for example, 0 to 255, and the higher the reliability, the higher the possibility that the human body is a human body. Here, as with the face detection unit 200, the human body detection unit 201 can also perform settings for limiting the output result for the size and reliability of the face.

移動量算出部202は、第1の画像データと第2の画像データと第1の画像データに対する指定領域(座標とサイズで指定する)を入力すると、第1の画像データの指定領域が、第2の画像データのどの領域へ移動したかの移動量を算出する。移動量算出部202を適用することによって、主被写体と判断した領域を追尾することができる。   When the movement amount calculation unit 202 inputs the first image data, the second image data, and the designated area (designated by coordinates and size) for the first image data, the designated area of the first image data becomes the first image data. The amount of movement to which region of the image data 2 has been moved is calculated. By applying the movement amount calculation unit 202, it is possible to track the area determined to be the main subject.

AF評価値算出部203は、画像データと評価値を取得する位置を指定することによって、オートフォーカスの評価値を算出する。CPU109は、AFの評価値に基づきフォーカシングレンズ101を駆動させることでオートフォーカス動作を行うことができる。オートフォーカス動作については、コントラスト方式、位相差方式などがあるがここでは、方式を特に限定しない。   An AF evaluation value calculation unit 203 calculates an autofocus evaluation value by designating image data and a position from which the evaluation value is acquired. The CPU 109 can perform an autofocus operation by driving the focusing lens 101 based on the AF evaluation value. The autofocus operation includes a contrast method and a phase difference method, but the method is not particularly limited here.

ユーザがメインスイッチ116をオンにすると、CPU109は、所定のプログラムを実行する。また、ユーザがメインスイッチ116をオフにすると、CPU109は、所定のプログラムを実行し、カメラをスタンバイモードにする。第1レリーズスイッチ(SW1)117は、レリーズボタンの第1ストローク(半押し状態)でオンになり、第2レリーズスイッチ118は、レリーズボタンの第2ストローク(全押し状態)でオンとなる。オートフォーカス動作は第1レリーズスイッチ(SW1)117をオンにすることで動作を開始する。また、撮像動作は第2レリーズスイッチ118をオンすることで動作を開始する。   When the user turns on the main switch 116, the CPU 109 executes a predetermined program. When the user turns off the main switch 116, the CPU 109 executes a predetermined program and puts the camera into a standby mode. The first release switch (SW1) 117 is turned on by the first stroke (half-pressed state) of the release button, and the second release switch 118 is turned on by the second stroke (full-pressed state) of the release button. The autofocus operation starts when the first release switch (SW1) 117 is turned on. The imaging operation starts when the second release switch 118 is turned on.

CPU109は、また、左選択ボタン140、右選択ボタン141、設定ボタン142の押下を検知すると、デジタルカメラ100の動作状態に応じて制御を行なう。メニューからライブビューを選択すると、定期的、例えば1秒に30回、撮像素子104からRAWデータを取り込み、現像処理してVRAMへ配信することで、リアルタイムに撮像素子104から取り込んだ画像を表示する。また、メニューからライブビュー中の被写体表示モードを切り替えることができる。被写体表示モードには、事前表示モードと事後表示モードがあり、ユーザが、モードを切り替えることでライブビュー中のオートフォーカス動作位置の表示タイミングや位置を決定する方法を切り替えることができる。事前表示モードは、ユーザのオートフォーカス開始指示前(第1レリーズスイッチ117オン前)にオートフォーカス対象領域をTFT115に表示するモードである。また、事後表示モードは、オートフォーカス開始指示後にオートフォーカスを行う位置をカメラが決定するモードである。   When the CPU 109 detects that the left selection button 140, the right selection button 141, and the setting button 142 are pressed, the CPU 109 performs control according to the operation state of the digital camera 100. When live view is selected from the menu, RAW data is fetched from the image sensor 104 periodically, for example, 30 times per second, developed, processed, and distributed to the VRAM, thereby displaying an image captured from the image sensor 104 in real time. . Also, the subject display mode during live view can be switched from the menu. The subject display mode includes a pre-display mode and a post-display mode, and the user can switch the method for determining the display timing and position of the autofocus operation position during live view by switching the mode. The prior display mode is a mode in which the autofocus target area is displayed on the TFT 115 before the user gives an autofocus start instruction (before the first release switch 117 is turned on). Further, the post-display mode is a mode in which the camera determines a position where autofocus is performed after an autofocus start instruction.

事前表示モードでは、例えば、顔検知部200、人体検知部201、移動量算出部202を使って検知した結果を統合して得られた顔の位置をオートフォーカス位置として表示する。複数の顔を検知した場合には、その中から1つをカメラが選択し表示する。ユーザは、主となる被写体を現在表示されているオートフォーカス位置にある顔とは別の顔に変更したい場合は、左選択ボタン140もしくは右選択ボタン141を押すことで別の顔に切り替えることができる。   In the prior display mode, for example, the face position obtained by integrating the detection results using the face detection unit 200, the human body detection unit 201, and the movement amount calculation unit 202 is displayed as the autofocus position. When a plurality of faces are detected, the camera selects and displays one of them. When the user wants to change the main subject to a face different from the face at the currently displayed autofocus position, the user can switch to another face by pressing the left selection button 140 or the right selection button 141. it can.

以下、図1の撮像装置(デジタルカメラ)を適用したライブビュー中のオートフォーカス処理について説明する。   Hereinafter, autofocus processing during live view to which the imaging apparatus (digital camera) of FIG. 1 is applied will be described.

図3は、図1の撮像装置(デジタルカメラ)を適用したオートフォーカス処理の手順を示すフローチャートである。このオートフォーカス処理は、デジタルカメラ100のCPU109が、図示省略したROMに記憶されたプログラムに従って実行する。本処理は、ライブビューが開始されると同時に実行されるライブビュー中のオートフォーカス処理である。   FIG. 3 is a flowchart illustrating a procedure of autofocus processing to which the imaging apparatus (digital camera) of FIG. 1 is applied. This autofocus process is executed by the CPU 109 of the digital camera 100 in accordance with a program stored in a ROM (not shown). This process is an autofocus process in the live view that is executed simultaneously with the start of the live view.

図3において、オートフォーカス処理が開始されると、CPU109は、被写体表示モードが事前表示モードであるか否かを判定する(ステップS401)。ステップS401の判定の結果、事前表示モードが設定されている(ステップS401で「YES」)場合、CPU109は、後述する図4A及び図4Bの顔位置決定処理で決定された顔位置があるか否かを判定する(ステップS402)。顔位置としては、顔位置決定処理で決定された顔位置があればRAMメモリ113に記憶されているので、これが使われる。ステップS402の判定の結果、決定された顔位置がある(ステップS402で「YES」)場合、CPU109は、顔位置をTFT115へ表示させるためVRAM113への書き込み処理を行い、顔位置に顔枠を表示する(ステップS403)。このとき、顔位置は、例えば白枠で表示される。   In FIG. 3, when the autofocus process is started, the CPU 109 determines whether or not the subject display mode is the prior display mode (step S401). As a result of the determination in step S401, when the pre-display mode is set (“YES” in step S401), the CPU 109 determines whether there is a face position determined in the face position determination process in FIGS. 4A and 4B described later. Is determined (step S402). As the face position, any face position determined by the face position determination process is stored in the RAM memory 113 and used. As a result of the determination in step S402, if there is a determined face position (“YES” in step S402), the CPU 109 performs a writing process to the VRAM 113 to display the face position on the TFT 115, and displays a face frame at the face position. (Step S403). At this time, the face position is displayed with a white frame, for example.

顔位置を白枠表示した後、CPU109は、第1レリーズスイッチ(SW1)117がオンであるか否かを判定する(ステップS404)。ステップS404の判定の結果、第1レリーズスイッチ(SW1)117がオン(ステップS404で「YES」)の場合、CPU109は、白枠表示した顔位置をオートフォーカスの評価値を取得する位置として設定する(ステップS405)。   After displaying the face position as a white frame, the CPU 109 determines whether or not the first release switch (SW1) 117 is on (step S404). If the result of the determination in step S404 is that the first release switch (SW1) 117 is on (“YES” in step S404), the CPU 109 sets the face position displayed with a white frame as the position for acquiring the autofocus evaluation value. (Step S405).

オートフォーカスの評価値を取得する位置を設定した後、CPU109は、オートフォーカスの評価値に基づいてオートフォーカス動作を実行する(ステップS406)。次いで、CPU109は、オートフォーカス動作の結果が合焦と判断される場合は、評価値を取得したフォーカス位置を、例えば緑枠で表示する(ステップS407)。このとき、合焦と判断できない場合は何もしないが、例えば、同じフォーカス位置で10回以上合焦と判断できない場合は、そのフォーカス位置を赤枠で表示する。   After setting the position for acquiring the autofocus evaluation value, the CPU 109 executes an autofocus operation based on the autofocus evaluation value (step S406). Next, when it is determined that the result of the autofocus operation is in focus, the CPU 109 displays the focus position from which the evaluation value has been acquired, for example, with a green frame (step S407). At this time, if it cannot be determined that the focus is achieved, nothing is done.

フォーカス位置を緑枠で表示した後、CPU109は、第1レリーズスイッチ117(SW1)がオフであるか否かを判定し、オフでなければオフになるまで待機する(ステップS408)。一方、ステップS408の判定の結果、第1レリーズスイッチ(SW1)117がオフ(ステップS408で「YES」)であれば、CPU109は、処理をステップS401へ戻す。   After displaying the focus position in a green frame, the CPU 109 determines whether or not the first release switch 117 (SW1) is off, and if not, waits until it is off (step S408). On the other hand, if the result of determination in step S408 is that the first release switch (SW1) 117 is off (“YES” in step S408), the CPU 109 returns the process to step S401.

一方、ステップS402の判定の結果、それ以前に決定された顔位置がない(ステップS402で「NO」)場合、CPU109は、第1レリーズスイッチ(SW1)117がオンであるか否か判定する(ステップS409)。ステップS409の判定の結果、第1レリーズスイッチ117(SW1)がオンである(ステップS409で「YES」)場合、CPU109は、処理をステップS410に進める。すなわち、CPU109は、測距操作を行い、最も近い距離にある物体(被写体)の中心をオートフォーカスの評価値を取得する位置として設定し(ステップS410)、その後、処理をステップS406へ進める。また、ステップS409の判定の結果、第1レリーズスイッチ(SW1)117がオフである(ステップS409で「NO」)場合、CPU109は、処理をステップS401へ戻す。   On the other hand, as a result of the determination in step S402, when there is no face position determined before that ("NO" in step S402), the CPU 109 determines whether or not the first release switch (SW1) 117 is on ( Step S409). If the result of determination in step S409 is that the first release switch 117 (SW1) is on (“YES” in step S409), the CPU 109 advances the process to step S410. That is, the CPU 109 performs a distance measurement operation, sets the center of the object (subject) at the closest distance as a position for acquiring the autofocus evaluation value (step S410), and then advances the processing to step S406. If the result of determination in step S409 is that the first release switch (SW1) 117 is off (“NO” in step S409), the CPU 109 returns the process to step S401.

また、ステップS404の判定の結果、第1レリーズスイッチ(SW1)117がオフ(ステップS404で「NO」)の場合、ステップS409の判定の結果が「NO」の場合と同様に、CPU109は、処理をステップS401へ戻す。   When the first release switch (SW1) 117 is OFF (“NO” in step S404) as a result of the determination in step S404, the CPU 109 performs processing similar to the case where the determination result in step S409 is “NO”. Is returned to step S401.

一方、ステップS401の判定の結果、事前表示モードでない(ステップS401で「NO」)場合、すなわち、被写体表示モードとして事後表示モードが設定されている場合、CPU109は、処理をステップS411へ進める。すなわち、CPU109は、第1レリーズスイッチ(SW1)117がオンであるか否かを判定する(ステップS411)。ステップS411の判定の結果、第1レリーズスイッチ(SW1)117がオンの(ステップS411で「YES」)場合、CPU109は、以前に顔位置決定処理で決定された顔位置があるか否かを判定する(ステップS412)。   On the other hand, if the result of determination in step S401 is not the pre-display mode (“NO” in step S401), that is, if the post-display mode is set as the subject display mode, the CPU 109 advances the processing to step S411. That is, the CPU 109 determines whether or not the first release switch (SW1) 117 is on (step S411). If the result of the determination in step S411 is that the first release switch (SW1) 117 is on (“YES” in step S411), the CPU 109 determines whether there is a face position previously determined in the face position determination process. (Step S412).

そして、ステップS412の判定の結果、決定された顔位置がある(ステップS412で「YES」)場合、CPU109は、処理をステップS413に進める。すなわち、CPU109は、顔位置決定処理で決定された顔位置をオートフォーカスの評価値を取得する位置として設定し、その後、処理をステップS406へ進める。   If the determined face position exists as a result of the determination in step S412 (“YES” in step S412), the CPU 109 advances the process to step S413. That is, the CPU 109 sets the face position determined in the face position determination process as a position for acquiring the autofocus evaluation value, and then advances the process to step S406.

一方、ステップS412の判定の結果、以前に決定された顔位置がない(ステップS412で「NO」)場合、CPU109は、処理をステップS414に進める。すなわち、CPU109は、測距操作を行い、最も近い距離にある物体(被写体)の中心をオートフォーカスの評価値を取得する位置として設定し、その後、処理をテップS406へ進める。なお、ステップS411の判定の結果、第1レリーズスイッチ117(SW1)がオンでない場合、CPU109は、処理をステップS401に戻す。   On the other hand, if the result of determination in step S 412 is that there is no previously determined face position (“NO” in step S 412), the CPU 109 advances the process to step S 414. That is, the CPU 109 performs a distance measurement operation, sets the center of the object (subject) at the closest distance as a position for acquiring the autofocus evaluation value, and then advances the processing to step S406. If the result of determination in step S411 is that the first release switch 117 (SW1) is not on, the CPU 109 returns the process to step S401.

図3の処理によれば、以前に決定された顔位置がある場合、事前表示モードでは、顔位置に顔枠を表示した後、事後表示モードではそのまま、SW1がオンか否かを判定し、オンなら、以前に決定された顔位置をオートフォーカスの評価値取得位置として決定する。一方、以前に決定された顔位置がない場合は、いずれのモードでも、今回の顔位置検出処理において、最も近い距離にある被写体の中心をオートフォーカスの評価値取得位置として設定する。これによって、事前の操作及びライブビュー画面を参照しつつ、ユーザが主被写体としたい被写体位置をオートフォーカスの評価値を取得する位置として設定し易くなり、利便性が向上する。   According to the processing of FIG. 3, when there is a face position that has been determined before, after displaying the face frame at the face position in the pre-display mode, it is determined whether or not SW1 is on in the post-display mode. If it is on, the previously determined face position is determined as the autofocus evaluation value acquisition position. On the other hand, if there is no previously determined face position, the center of the subject at the closest distance is set as the autofocus evaluation value acquisition position in the current face position detection process in any mode. This makes it easy to set the subject position that the user wants to be the main subject as the position for acquiring the autofocus evaluation value while referring to the previous operation and the live view screen, and the convenience is improved.

次に、図3のオートフォーカス処理におけるステップS402の判定の対象となる顔位置を決定するための顔位置決定処理について説明する。   Next, the face position determination process for determining the face position to be determined in step S402 in the autofocus process of FIG. 3 will be described.

図4A及び図4Bは、顔位置決定処理の手順を示すフローチャートである。この顔位置決定処理は、デジタルカメラ100のCPU109が、図示省略したROMに記憶されたプログラムに従って実行する。   4A and 4B are flowcharts illustrating the procedure of the face position determination process. This face position determination process is executed by the CPU 109 of the digital camera 100 in accordance with a program stored in a ROM (not shown).

本顔位置決定処理は、上述のオートフォーカス処理と同様、ライブビューの開始に伴って開始され、画像が取得される毎に実行される。顔検知と人体検知については、処理時に取得された画像を用いて処理が行われ、移動量算出処理については、処理時に取得された画像とそれ以前の前回の処理時における画像を用いて処理が行われる。   The face position determination process is started when the live view is started, and is executed every time an image is acquired, as in the above-described autofocus process. For face detection and human body detection, processing is performed using an image acquired at the time of processing, and for movement amount calculation processing, processing is performed using an image acquired at the time of processing and an image at the previous processing before that. Done.

図4A及び図4Bにおいて、顔位置決定処理が開始されると、CPU109は、先ず、被写体表示モードが事前表示モードであるか否かを判定する(ステップS101)。ステップS101の判定の結果、事前表示モードが設定されている(ステップS101で「YES」)場合、CPU109は、顔検知部200と人体検知部201に、最小検知サイズとして事前表示モード用の設定値を設定する(ステップS102)。最小検知サイズの設定値は画像表示モードごとに特有の設定値である。すなわち、事前表示モード用の最小検知サイズの設定値は、後述する事後表示モード用の最小検知サイズの設定値と同様、予め、デジタルカメラ100の図示省略したROMに記憶されており、その設定値が使用される。なお、以下の処理で設定される事前表示モード用の奥行き方向の顔角度の設定値、事前表示モード用の平面方向の顔角度の設定値、及び事前表示モード用の顔の信頼度の設定値も事前表示モードに特有の設定値であり、図示省略したROMに予め記憶されている。   4A and 4B, when the face position determination process is started, the CPU 109 first determines whether or not the subject display mode is the preliminary display mode (step S101). As a result of the determination in step S101, when the pre-display mode is set (“YES” in step S101), the CPU 109 sets the setting value for the pre-display mode as the minimum detection size in the face detection unit 200 and the human body detection unit 201. Is set (step S102). The setting value of the minimum detection size is a setting value unique to each image display mode. That is, the setting value of the minimum detection size for the pre-display mode is stored in advance in a ROM (not shown) of the digital camera 100, as is the setting value of the minimum detection size for the post-display mode described later. Is used. In addition, the setting value of the face angle in the depth direction for the pre-display mode, the setting value of the face angle in the plane direction for the pre-display mode, and the setting value of the face reliability for the pre-display mode set in the following processing Is also a setting value specific to the pre-display mode, and is stored in advance in a ROM (not shown).

顔検知部200と人体検知部201に対し、最小検知サイズを設定した後、CPU109は、顔検知部200に、奥行き方向の顔角度として事前表示モード用の設定値を設定する(ステップS103)。   After setting the minimum detection size for the face detection unit 200 and the human body detection unit 201, the CPU 109 sets the setting value for the pre-display mode as the face angle in the depth direction in the face detection unit 200 (step S103).

奥行き方向の顔角度を設定した後、CPU109は、顔検知部200に、平面方向の顔角度として事前表示モード用の設定値を設定する(ステップS104)。次いで、CPU109は、顔検知部200と人体検知部201に、信頼度として事前表示モード用の顔の信頼度の設定値を設定する(ステップS105)。   After setting the face angle in the depth direction, the CPU 109 sets the setting value for the pre-display mode in the face detection unit 200 as the face angle in the plane direction (step S104). Next, the CPU 109 sets the setting value of the face reliability for the prior display mode as the reliability in the face detection unit 200 and the human body detection unit 201 (step S105).

次いで、CPU109は、顔検知部200に今回の画像を設定して顔の検知を開始し(ステップS106)、また、人体検知部201に今回の画像を設定して人体検知を開始する(ステップS107)。人体検知を開始した後、CPU109は、前回決定した顔位置があるか否かを判定する(ステップS108)。ステップS108の判定の結果、前回決定した顔位置がある(ステップS108で「YES」)場合、CPU109は、移動量算出部202に、前回決定した顔位置を、移動量を算出する基準位置として設定する(ステップS109)。次いで、CPU109は、前回の画像と今回の画像を設定して前回の顔位置に対する今回の顔位置の移動量の算出を開始する(ステップS110)。   Next, the CPU 109 sets the current image in the face detection unit 200 and starts face detection (step S106), and sets the current image in the human body detection unit 201 and starts human body detection (step S107). ). After starting the human body detection, the CPU 109 determines whether or not there is a previously determined face position (step S108). As a result of the determination in step S108, when there is a face position determined last time (“YES” in step S108), the CPU 109 sets the previously determined face position as a reference position for calculating the movement amount in the movement amount calculation unit 202. (Step S109). Next, the CPU 109 sets the previous image and the current image and starts calculating the movement amount of the current face position with respect to the previous face position (step S110).

次いで、CPU109は、移動量の算出が完了したか否かを判定し、算出が完了するまで待機する(ステップS111)。そして、移動量の算出が完了した(ステップS111で「YES」)後、CPU109は、顔検知及び人体検知が完了したか否かを判定し、完了するまで待機する(ステップS112)。ステップS112の判定の結果、顔検知及び人体検知が完了した(ステップS112で「YES」)場合、CPU109は、ユーザから顔変更の指示があったか否かを判定する(ステップS113)。そして、ステップS113の判定の結果、ユーザから顔変更の指示があった(ステップS113で「YES」)場合、CPU109は、処理をステップS114に進める。すなわち、CPU109は、ステップS110〜S111で取得した移動量算出結果と前回の顔位置検知結果を無効にし、顔検知結果と人体検知結果から前回の顔位置に相当する結果を削除する(ステップS114)。   Next, the CPU 109 determines whether or not the movement amount has been calculated, and waits until the calculation is completed (step S111). Then, after the calculation of the movement amount is completed (“YES” in step S111), the CPU 109 determines whether face detection and human body detection are completed, and waits until completion (step S112). When the face detection and the human body detection are completed as a result of the determination in step S112 ("YES" in step S112), the CPU 109 determines whether or not there is an instruction to change the face from the user (step S113). If the result of determination in step S113 is that there is a face change instruction from the user (“YES” in step S113), the CPU 109 advances the process to step S114. That is, the CPU 109 invalidates the movement amount calculation result and the previous face position detection result acquired in steps S110 to S111, and deletes the result corresponding to the previous face position from the face detection result and the human body detection result (step S114). .

ここで、前回の顔位置に相当する結果とは、検出画像の横サイズの6分の1以内で最も前回の顔位置に近い顔の検出結果であり、前回決定された顔位置を参照する今回の顔位置決定処理において、顔位置として決定されるべき顔の検出結果である。即ち、前回の顔の検出画像サイズが、例えば縦480画素×横640画素の時、該検出画像の中心から横サイズ640画素の1/6つまり106画素以内の距離にある今回検出された顔位置の中心の中で前回の顔位置の中心に最も近い中心に対応する顔に相当する。なお、縦方向についても同様に、480画素の1/6つまり80画素以内の距離にある今回検出された顔位置の中心の中で、前回の顔位置の中心に最も近い中心に対応する顔が今回の顔位置に相当する結果になる。従って、縦横どちらかの条件を満たせばよい。   Here, the result corresponding to the previous face position is a face detection result closest to the previous face position within one-sixth of the horizontal size of the detected image, and this time refers to the face position determined last time. This is a face detection result to be determined as a face position in the face position determination process. That is, when the detected image size of the previous face is, for example, vertical 480 pixels × horizontal 640 pixels, the currently detected face position that is within 1/6 of the horizontal size 640 pixels from the center of the detected image, that is, within 106 pixels. Corresponds to the face corresponding to the center closest to the center of the previous face position. Similarly, in the vertical direction, the face corresponding to the center closest to the center of the previous face position among the centers of the face positions detected this time at a distance of 1/6 of 480 pixels, that is, within 80 pixels, is shown. The result corresponds to the current face position. Therefore, it is sufficient to satisfy either the vertical or horizontal condition.

次いで、CPU109は、顔位置を決定する(ステップS115)。すなわち、CPU109は、前回の顔位置結果があれば、検出画像サイズの6分の1以内で前回の顔位置結果に最も近い位置の顔もしくは人体検知の結果があれば、その顔位置もしくはその人体検知位置を今回の顔位置として決定する。一方、検出画像サイズの6分の1以内で前回の顔位置結果に最も近い位置の顔もしくは人体検知の結果がなければ、移動量算出の結果を顔位置検知結果とする。また、CPU109は、顔検知部200、人体検知部201が共に顔又は人体を検知できず、さらに、移動量算出部202も移動量が算出できなかった場合、顔位置検知結果として適合する顔なしと決定する。また、CPU109は、前回の顔位置検知結果がなければ、今回検知した顔位置のうち、最も信頼度の高い顔検知結果を顔位置に決定し、今回検知した顔検知結果がない場合は顔位置検知結果なしとする。そして、CPU109は、検知結果をRAMメモリ113に記憶させた後、処理をステップS101に戻す。   Next, the CPU 109 determines the face position (step S115). That is, if there is a previous face position result, if there is a face or human body detection result closest to the previous face position result within one-sixth of the detected image size, the CPU 109 determines the face position or the human body. The detection position is determined as the current face position. On the other hand, if there is no face or human body detection result closest to the previous face position result within 1/6 of the detected image size, the movement amount calculation result is set as the face position detection result. Further, when neither the face detection unit 200 nor the human body detection unit 201 can detect the face or the human body, and the movement amount calculation unit 202 cannot calculate the movement amount, the CPU 109 does not have a suitable face as the face position detection result. And decide. Further, if there is no previous face position detection result, the CPU 109 determines the most reliable face detection result among the currently detected face positions as the face position, and if there is no face detection result detected this time, the face position is determined. No detection result. Then, the CPU 109 stores the detection result in the RAM memory 113, and then returns the process to step S101.

なお、ステップS108の判定の結果、前回決定した顔位置がない(ステップS108で「NO」)場合、CPU109は、処理をステップS112へ進める。また、ステップS113の判定の結果、ユーザからの顔切換えの指示がなかった場合(ステップS113で「NO」)、CPU109は、処理をステップS115へ進める。   Note that if the result of determination in step S108 is that there is no previously determined face position (“NO” in step S108), the CPU 109 advances the process to step S112. If the result of determination in step S113 is that there is no face switching instruction from the user (“NO” in step S113), the CPU 109 advances the processing to step S115.

一方、ステップS101の判定の結果、被写体表示モードの設定が事前表示モードでない(ステップS101で「NO」)場合、すなわち、事後表示モードである場合、CPU109は、処理をステップS116へ進める。すなわち、CPU109は、顔検知部200に、最小検知サイズとして事後表示モード用の設定値を設定する(ステップS116)。顔検知部200に設定する事後表示モード用の最小検知サイズの設定値は、予め、デジタルカメラ100の図示省略したROMに記憶されている事後表示モードに特有の設定値であり、その設定値が使用される。このとき、事後表示モード用の最小検知サイズは、事前表示モード用の最小検知サイズよりも大きく設定されている。なお、以下の処理で設定される事後表示モード用の奥行き方向の顔角度の設定値、事後表示モード用の平面方向の顔角度の設定値、及び事後表示モード用の顔の信頼度の設定値も事後表示モードに特有の設定値であり、図示省略したROMに予め記憶されている。   On the other hand, if the result of determination in step S101 is that the subject display mode is not set to the pre-display mode (“NO” in step S101), that is, the post-display mode, the CPU 109 advances the processing to step S116. That is, the CPU 109 sets a setting value for the post-display mode as the minimum detection size in the face detection unit 200 (step S116). The setting value of the minimum detection size for the post-display mode set in the face detection unit 200 is a setting value specific to the post-display mode stored in advance in the ROM (not shown) of the digital camera 100, and the set value is used. At this time, the minimum detection size for the post-display mode is set larger than the minimum detection size for the pre-display mode. In addition, the setting value of the face angle in the depth direction for the posterior display mode, the setting value of the face angle in the plane direction for the posterior display mode, and the setting value of the face reliability for the posterior display mode set in the following processing Is also a setting value specific to the post-display mode, and is stored in advance in a ROM (not shown).

顔検知部200に対し、最小検知サイズを設定した後、CPU109は、顔検知部200に、奥行き方向の顔角度として事後表示モード用の設定値を設定する(ステップS117)。このとき、事後表示モード用の奥行き方向の顔角度範囲は、事前表示モード用の奥行き方向の顔角度範囲よりも狭く規定されている。   After setting the minimum detection size for the face detection unit 200, the CPU 109 sets a setting value for the posterior display mode as the face angle in the depth direction in the face detection unit 200 (step S117). At this time, the face angle range in the depth direction for the post-display mode is defined to be narrower than the face angle range in the depth direction for the prior display mode.

奥行き方向の顔角度を設定した後、CPU109は、顔検知部200に、平面方向の顔角度として事後表示モード用の設定値を設定する(ステップS118)。このとき、事後表示モード用の平面方向の顔角度範囲は、事前表示モード用の平面方向の顔角度範囲よりも狭く規定されている。次いで、CPU109は、顔検知部200に、信頼度として事後表示モード用の顔の信頼度の設定値を設定する(ステップS119)。このとき、事後表示モード用の信頼度の設定値は、事前表示モード用の信頼度の設定値よりも高く規定されている。   After setting the face angle in the depth direction, the CPU 109 sets the setting value for the posterior display mode as the face angle in the plane direction in the face detection unit 200 (step S118). At this time, the face angle range in the planar direction for the post-display mode is defined to be narrower than the face angle range in the planar direction for the prior display mode. Next, the CPU 109 sets a face reliability setting value for the post-display mode in the face detection unit 200 (step S119). At this time, the reliability setting value for the post-display mode is defined to be higher than the reliability setting value for the pre-display mode.

次いで、CPU109は、顔検知部200に今回の画像を設定して顔の検知を開始する(ステップS120)。顔検知を開始した後、CPU109は、顔検知が完了したか否かを判定し、完了するまで待機する(ステップS121)。ステップS121の判定の結果、顔検知が完了した(ステップS121で「YES」)場合、CPU109は、今回検知した顔位置のうち、最も信頼度の高い顔検知結果を顔位置に決定し、顔検知結果がない場合は顔位置結果なしとする(ステップS122)。そして、CPU109は、検知結果をRAMメモリ113に記憶させた後、処理をステップS101に戻す。   Next, the CPU 109 sets the current image in the face detection unit 200 and starts face detection (step S120). After starting the face detection, the CPU 109 determines whether the face detection is completed and waits until it is completed (step S121). When the face detection is completed as a result of the determination in step S121 (“YES” in step S121), the CPU 109 determines the face detection result with the highest reliability among the face positions detected this time as the face position, and detects the face. If there is no result, it is determined that there is no face position result (step S122). Then, the CPU 109 stores the detection result in the RAM memory 113, and then returns the process to step S101.

本顔位置決定処理において、顔位置を決定するための判定基準の設定値は、予め、被写体表示モードに従ってデジタルカメラ100の図示省略したROMに記憶されており、この設定値が使用される。このとき、顔検知と人体検知における事後表示モードの最小検知サイズは、事前表示モード用の最小検知サイズよりも大きくなるように規定されている。また、事後表示モード用の顔検知の奥行き方向及び画像面方向の顔角度範囲が、それぞれ事前表示モード用の顔角度範囲よりも狭くなるように規定されている。具体的には、事前表示モードの奥行き方向の顔角度が、左90度300、左45度301、正面302、右45度303、右90度304のすべてである場合、事後表示モードでは、例えば、左45度301、正面302、右45度303のみが規定されている。一方、事前表示モードの平面方向の顔角度が、0度310、90度311、180度312、270度313のすべてである場合、事後表示モードでは、例えば0度310のみが規定されている。また、事後表示モード用の信頼度を、事前表示モード用の信頼度と比べて高く規定し、事後表示モードでは事前表示モードに比べてより信頼度の高い結果のみが検出されるように設定されている。   In this face position determination process, a setting value of a criterion for determining the face position is stored in advance in a ROM (not shown) of the digital camera 100 according to the subject display mode, and this setting value is used. At this time, the minimum detection size in the post-display mode in face detection and human body detection is defined to be larger than the minimum detection size in the prior display mode. Further, the face angle range in the depth direction and the image plane direction of the face detection for the post-display mode is defined to be narrower than the face angle range for the pre-display mode. Specifically, when the face angle in the depth direction in the pre-display mode is all of left 90 degrees 300, left 45 degrees 301, front 302, right 45 degrees 303, and right 90 degrees 304, in the post-display mode, Only 45 degrees 301 left, 302 front, and 45 degrees right 303 are defined. On the other hand, when the face angle in the plane direction in the pre-display mode is all of 0 degrees 310, 90 degrees 311, 180 degrees 312, and 270 degrees 313, in the post-display mode, for example, only 0 degrees 310 is defined. In addition, the reliability for the post-display mode is specified to be higher than the reliability for the pre-display mode, and the post-display mode is set to detect only results with higher reliability than the pre-display mode. ing.

図4A及び図4Bの処理によれば、事後表示モードである場合の顔位置を決定するための判定基準設定を、事前表示モードにおける顔位置を決定するための判定基準設定よりも厳しくする。これによって、ユーザによるフォーカス対象の変更が困難な事後表示モードにおいて、ユーザが意図する被写体である顔がフォーカス対象として設定され易くなる。   According to the processing of FIGS. 4A and 4B, the determination criterion setting for determining the face position in the post-display mode is made stricter than the determination criterion setting for determining the face position in the pre-display mode. Accordingly, in the post-display mode in which it is difficult for the user to change the focus target, the face that is the subject intended by the user is easily set as the focus target.

一方、ユーザによるフォーカス対象の変更が可能な事前表示モードにおいては、比較的顔である可能性が低い場合であっても顔位置をフォーカス位置として利用する。この場合、ユーザが意図しない顔位置がフォーカス対象に決定される可能性はあるが、かかる場合、ユーザは顔位置の設定を変更することができる。これによって、ユーザ所望の被写体を、フォーカス対象の被写体として設定し易くなり、しかもライブビュー中のオートフォーカス処理を迅速に行うことができるようになる。   On the other hand, in the prior display mode in which the user can change the focus target, the face position is used as the focus position even when the possibility of being a face is relatively low. In this case, there is a possibility that a face position that is not intended by the user may be determined as a focus target. In such a case, the user can change the setting of the face position. This makes it easy to set a user-desired subject as a subject to be focused, and allows autofocus processing during live view to be performed quickly.

本実施の形態において、被写体表示モードは、図示省略した被写体表示モード設定部を用いて予めユーザによって、デジタルカメラ100に設定される。   In the present embodiment, the subject display mode is set in the digital camera 100 by the user in advance using a subject display mode setting unit (not shown).

また、本実施の形態において、移動量算出部202の算出結果は、事前表示モードにおいては顔を検知する際の判定基準として採用されるが、事後表示モードにおいては顔を検知する際の判定基準として採用されていない。事後表示モードにおいては、事前表示モードに比べて判定基準がより厳しく設定されるので、前回決定された顔位置のデータを参照しないことによるものである。   Further, in the present embodiment, the calculation result of the movement amount calculation unit 202 is adopted as a criterion for detecting a face in the prior display mode, but is a criterion for detecting a face in the post-display mode. Not adopted as. This is because, in the post-display mode, the determination criteria are set more strictly than in the pre-display mode, and thus the face position data determined last time is not referred to.

また、本実施形態では、顔検知部200、人体検知部201、および、移動量算出部202の全てを用いて顔を検知する例をあげて説明を行ったが、これに限られるものではない。事後表示モードにおいて、事前表示モードに比べて判定基準を厳しく設定するのであれば、顔検知部200、人体検知部201、および、移動量算出部202の一部のみを用いるようにしてもよい。また、オートフォーカスを行う対象として顔を検知する例をあげて行ったが、事前表示モードに比べて判定基準を厳しく設定するのであれば、顔以外の被写体を検知する構成であってもよい。   In the present embodiment, an example in which a face is detected using all of the face detection unit 200, the human body detection unit 201, and the movement amount calculation unit 202 has been described. However, the present invention is not limited to this. . In the post-display mode, only a part of the face detection unit 200, the human body detection unit 201, and the movement amount calculation unit 202 may be used if the determination criteria are set stricter than in the pre-display mode. Further, although an example has been given in which a face is detected as an object to be autofocused, a configuration for detecting a subject other than a face may be used as long as the criterion is set stricter than in the prior display mode.

以下、第2の実施の形態について説明する。   Hereinafter, a second embodiment will be described.

本実施の形態では、オートフォーカス処理は、第1の実施の形態における図3の処理と同様に実行され、第1の実施の形態とは顔位置決定処理のみが異なる。   In the present embodiment, the autofocus process is executed in the same manner as the process of FIG. 3 in the first embodiment, and only the face position determination process is different from the first embodiment.

図5A及び図5Bは、第2の実施の形態における顔位置決定処理の手順を示すフローチャートである。この顔位置決定処理は、デジタルカメラ100のCPU109が、図示省略したROMに記憶されたプログラムに従って実行する。   FIG. 5A and FIG. 5B are flowcharts illustrating the procedure of the face position determination process in the second embodiment. This face position determination process is executed by the CPU 109 of the digital camera 100 in accordance with a program stored in a ROM (not shown).

本実施の形態において、オートフォーカス処理については、上記実施の形態と同様であるので、説明を省略する。本顔位置決定処理は、上記実施の形態と同様、ライブビューが開始されると開始され、ライブビュー中に画像が取得される毎に実行される。   In the present embodiment, the autofocus process is the same as that in the above embodiment, and thus the description thereof is omitted. The face position determination process is started when the live view is started, and is executed every time an image is acquired during the live view, as in the above embodiment.

図5A及び図5Bにおいて、顔位置決定処理が開始されると、CPU109は、先ず、顔検知部200と人体検知部201に対し、最小検知サイズを設定する(ステップS501)。このとき、最小検知サイズとして、より小さい顔サイズまで検知対象とする事前表示モード用の設定値が設定される。最小検知サイズの設定値は、被写体表示モードによって異なる表示モード特有の設定値であり、事前表示モードの最小検知サイズの設定値は、予め、デジタルカメラ100のROMに記憶されているので、この設定値が適用される。また、以下の処理で設定される事前表示モード用の奥行き方向の顔角度の設定値、事前表示モード用の平面方向の顔角度の設定値、及び事前表示モード用の顔の信頼度の設定値も事前表示モードに特有の設定値であり、図示省略したROMに予め記憶されている。なお、事後表示モードにおける各設定値も予め、図示省略したROMに記憶されている。   5A and 5B, when the face position determination process is started, the CPU 109 first sets a minimum detection size for the face detection unit 200 and the human body detection unit 201 (step S501). At this time, as the minimum detection size, a setting value for the prior display mode that is a detection target up to a smaller face size is set. The setting value of the minimum detection size is a setting value specific to the display mode that varies depending on the subject display mode, and the setting value of the minimum detection size of the prior display mode is stored in advance in the ROM of the digital camera 100. Value is applied. Also, the setting value of the face angle in the depth direction for the pre-display mode, the setting value of the face angle in the plane direction for the pre-display mode, and the setting value of the face reliability for the pre-display mode set in the following processing Is also a setting value specific to the pre-display mode, and is stored in advance in a ROM (not shown). Each set value in the post-display mode is also stored in advance in a ROM (not shown).

顔検知部200と人体検知部201に対し、最小検知サイズを設定した後、CPU109は、顔検知部200に対し、奥行き方向の顔角度を設定する(ステップS502)。このとき、奥行き方向の顔角度としては、事後表示モードと比較して検出角度範囲がより広い事前表示モード用の角度範囲が設定される。   After setting the minimum detection size for the face detection unit 200 and the human body detection unit 201, the CPU 109 sets the face angle in the depth direction for the face detection unit 200 (step S502). At this time, as the face angle in the depth direction, an angle range for the pre-display mode having a wider detection angle range than the post-display mode is set.

奥行き方向の顔角度を設定した後、CPU109は、顔検知部200に対し、平面方向の顔角度を設定する(ステップS503)。このとき、平面方向の顔角度としては、事後表示モードと比較して検出角度範囲がより広い事前表示モード用の角度が設定される。次いで、CPU109は、顔検知部200に対して信頼度の設定を行う(ステップS504)。このとき、信頼度は、事後表示モードと比較してより信頼度が低い事前表示モード用の信頼度の設定値が設定される。   After setting the face angle in the depth direction, the CPU 109 sets the face angle in the plane direction for the face detection unit 200 (step S503). At this time, as the face angle in the planar direction, an angle for the pre-display mode having a wider detection angle range than the post-display mode is set. Next, the CPU 109 sets reliability for the face detection unit 200 (step S504). At this time, the reliability is set to a reliability setting value for the pre-display mode, which is lower in reliability than the post-display mode.

信頼度を設定した後、CPU109は、顔検知部200に今回の画像を設定し、顔の検知を開始する(ステップS505)。次いで、CPU109は、人体検知部201に今回の画像を設定し、人体検知を開始する(ステップS506)。人体検知を開始した後、CPU109は、前回決定した顔位置があるか否かを判定する(ステップS507)。ステップS507の判定の結果、前回決定した顔位置がある(ステップS507で「YES」)場合、CPU109は、移動量算出部202に対し、前回決定した顔位置が移動量を算出する基準位置となるように設定する(ステップS508)。次いで、CPU109は、前回の画像と今回の画像を設定して移動量の算出を開始する(ステップS509)。   After setting the reliability, the CPU 109 sets the current image in the face detection unit 200 and starts face detection (step S505). Next, the CPU 109 sets the current image in the human body detection unit 201 and starts human body detection (step S506). After starting the human body detection, the CPU 109 determines whether or not there is a previously determined face position (step S507). As a result of the determination in step S507, when there is a face position determined last time (“YES” in step S507), the CPU 109 instructs the movement amount calculation unit 202 to use the face position determined last time as a reference position for calculating the movement amount. (Step S508). Next, the CPU 109 sets the previous image and the current image and starts calculating the movement amount (step S509).

次いで、CPU109は、移動量の算出が完了したか否かを判定し、算出が完了するまで待機する(ステップS510)。そして、移動量の算出が完了した(ステップS510で「YES」)後、CPU109は、顔検知と人体検知が完了したか否かを判定し、完了するまで待機する(ステップS511)。ステップS511の判定の結果、顔検知と人体検知が完了した(ステップS511で「YES」)後、CPU109は、ユーザから顔変更の指示があったか否かを判定する(ステップS512)。そして、ステップS512の判定の結果、ユーザから顔変更の指示があった(ステップS512で「YES」)場合、CPU109は、処理をステップS513に進める。すなわち、CPU109は、ステップ509〜S510で取得した移動量算出結果と前回の顔位置検知結果を無効にし、顔検出結果と人体検出結果から前回の顔位置に相当する結果を除外する(ステップS513)。ここで、前回の顔位置に相当する結果とは、検出画像の横サイズの6分の1以内の最も前回の顔位置に近い顔とする。   Next, the CPU 109 determines whether or not the movement amount has been calculated, and waits until the calculation is completed (step S510). Then, after the calculation of the movement amount is completed (“YES” in step S510), the CPU 109 determines whether face detection and human body detection are completed, and waits until completion (step S511). As a result of the determination in step S511, after the face detection and the human body detection are completed (“YES” in step S511), the CPU 109 determines whether or not there has been a face change instruction from the user (step S512). If the result of determination in step S512 is that there is a face change instruction from the user (“YES” in step S512), the CPU 109 advances the process to step S513. That is, the CPU 109 invalidates the movement amount calculation result and the previous face position detection result acquired in steps 509 to S510, and excludes the result corresponding to the previous face position from the face detection result and the human body detection result (step S513). . Here, the result corresponding to the previous face position is the face closest to the previous face position within 1/6 of the horizontal size of the detected image.

次いで、CPU109は、被写体表示モードとして事前表示モードが設定されているか否か判定する(ステップS514)。ステップS514の判定の結果、事前表示モードが設定されている(ステップS514で「YES」)場合、CPU109は、顔位置を決定する(ステップS515)。すなわち、CPU109は、前回の顔位置結果があれば、検出画像サイズの6分の1以内で前回の顔位置結果に最も近い位置の顔もしくは人体検知の結果があれば、その顔位置又は人体検知位置を今回の顔位置として決定する。一方、検出画像サイズの6分の1以内で前回の顔位置結果に最も近い位置の顔もしくは人体検知の結果がなければ、移動量算出の結果を顔位置検知結果とする。また、CPU109は、顔検知部200、人体検知部201が共に検知できず、さらに、移動量算出部202も移動量が算出できなかった場合、顔位置検知結果として適合する顔なしと決定する。また、CPU109は、前回の顔位置検知結果がなければ、今回検知した顔位置のうち最も信頼度の高い顔検知結果を顔位置として決定し、今回検知した顔検知結果がない場合は顔位置検知結果なしとする。そして、CPU109は、検知結果を、RAMメモリ113に記憶させた後、処理をステップS101に戻す。   Next, the CPU 109 determines whether or not the pre-display mode is set as the subject display mode (step S514). If the pre-display mode is set as a result of the determination in step S514 (“YES” in step S514), the CPU 109 determines the face position (step S515). That is, if there is a previous face position result, if there is a face or human body detection result closest to the previous face position result within 1/6 of the detected image size, the CPU 109 detects the face position or human body detection. The position is determined as the current face position. On the other hand, if there is no face or human body detection result closest to the previous face position result within 1/6 of the detected image size, the movement amount calculation result is set as the face position detection result. In addition, when neither the face detection unit 200 nor the human body detection unit 201 can detect the CPU 109 and the movement amount calculation unit 202 cannot calculate the movement amount, the CPU 109 determines that there is no suitable face as the face position detection result. If there is no previous face position detection result, the CPU 109 determines the face detection result with the highest reliability among the face positions detected this time as the face position. If there is no face detection result detected this time, the CPU 109 detects the face position. No result. Then, the CPU 109 stores the detection result in the RAM memory 113, and then returns the process to step S101.

なお、ステップS507の判定の結果、前回決定した顔位置がない(ステップS507で「NO」)場合、CPU109は、処理をステップS511へ進める。また、ステップS512の判定の結果、ユーザからの顔切換えの指示がなかった場合(ステップS512で「NO」)、CPU109は、処理をステップS514へ進める。   As a result of the determination in step S507, if there is no face position determined last time (“NO” in step S507), the CPU 109 advances the process to step S511. If the result of determination in step S512 is that there is no face switching instruction from the user (“NO” in step S512), the CPU 109 advances the process to step S514.

一方、ステップS514の判定の結果、被写体表示モードが事前表示モードでなく、事後表示モードである(ステップS514で「NO」)場合、CPU109は、処理をステップS516へ進める。すなわち、CPU109は、顔検知部200の検知結果から事後表示モードでは顔として認められないサイズと、顔として認められない信頼度の顔を検知結果から削除する(ステップS516)。ここで、本処理においては、上述の第1の実施の形態と同様、事後表示モードよりも事前表示モードの顔検知の方が小さい顔を検知対象としている。また、信頼度についても、事後表示モードより事前表示モードの方が信頼度の低い顔までも検知対象としている。従って、これらの検知結果を判定対象から除外してより精度の高い検知を行う。   On the other hand, if the result of determination in step S514 is that the subject display mode is not the pre-display mode but the post-display mode (“NO” in step S514), the CPU 109 advances the process to step S516. In other words, the CPU 109 deletes from the detection result a face whose size is not recognized as a face in the post-display mode and a reliability level that is not recognized as a face from the detection result of the face detection unit 200 (step S516). Here, in this process, as in the first embodiment described above, a face that is smaller in face detection in the pre-display mode than in the post-display mode is set as a detection target. In addition, regarding the reliability, even faces whose reliability is lower in the pre-display mode than in the post-display mode are set as detection targets. Therefore, these detection results are excluded from the determination targets, and detection with higher accuracy is performed.

次いで、CPU109は、最も信頼度の高い顔検知結果を顔位置として決定し、顔検知結果がない場合は顔位置なしとする(ステップS517)。そして、CPU109は、決定した顔位置をRAMメモリ113に記憶させた後、処理をステップS501に戻す。   Next, the CPU 109 determines the face detection result with the highest reliability as the face position, and determines that there is no face position when there is no face detection result (step S517). The CPU 109 stores the determined face position in the RAM memory 113 and then returns the process to step S501.

図5A及び図5Bの処理によれば、顔検知部200、人体検知部201、移動量算出部202へ設定する判定基準として、より検出範囲の広い事前表示モード用の判定基準を共通で設定する。そして、事後表示モードの場合のみ、検出後に検出範囲外の結果を除外する処理を追加している。これによって、被写体表示モードの相違によって判定基準をパラメータ毎に変更させる制御が不要となる。従って、上記第1の実施の形態よりも設計の複雑度、操作の煩雑度を低減することができ、しかも、同等の効果を得ることができる。   5A and 5B, the determination criteria for the pre-display mode with a wider detection range are commonly set as the determination criteria to be set in the face detection unit 200, the human body detection unit 201, and the movement amount calculation unit 202. . And only in the case of the post-display mode, a process for excluding results outside the detection range after detection is added. This eliminates the need for control to change the determination criterion for each parameter depending on the subject display mode. Therefore, the complexity of design and the complexity of operation can be reduced as compared with the first embodiment, and the same effect can be obtained.

以上、本発明の好ましい実施の形態について説明したが、本発明はこれらの実施の形態に限定されず、その趣旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the meaning.

100 デジタルカメラ
101 フォーカシングレンズ
109 CPU
111 不揮発性メモリ
113 RAMメモリ
114 表示制御装置
115 TFT
117 第1レリーズスイッチ
118 第2レリーズスイッチ
200 顔検知部
201 人体検知部
202 移動量算出部
203 オートフォーカス評価値算出部
100 Digital Camera 101 Focusing Lens 109 CPU
111 Nonvolatile memory 113 RAM memory 114 Display control device 115 TFT
117 First release switch 118 Second release switch 200 Face detection unit 201 Human body detection unit 202 Movement amount calculation unit 203 Autofocus evaluation value calculation unit

Claims (9)

像データから特定の被写体を検知する検知手段と、
前記検知手段が前記特定の被写体を検知するための判定基準を設定する基準設定手段と、を備え、
前記基準設定手段は、オートフォーカス開始指示前にオートフォーカス対象領域を表示する第1のモードの場合に、オートフォーカス開始指示後にオートフォーカス対象領域を表示する第2のモードの場合に比べて前記特定の被写体が検知されやすくなるように前記判定基準を変更することを特徴とする撮像装置。
Detection means for detecting a specific object from the images data,
A reference setting means for setting a determination reference for the detection means to detect the specific subject,
In the first mode in which the autofocus target area is displayed before the autofocus start instruction is given, the reference setting means is more specific than in the second mode in which the autofocus target area is displayed after the autofocus start instruction is given. An image pickup apparatus , wherein the determination criterion is changed so that a subject can be easily detected .
前記特定の被写体は人間の顔であり、
前記検知手段は、顔検知手段であることを特徴とする請求項記載の撮像装置。
The specific subject is a human face;
It said sensing means, the imaging apparatus according to claim 1, characterized in that the face detection means.
前記検知手段は、前記第1のモードにおいて、顔検知手段人体検知手段を使用して前記特定の被写体を検知し、前記第2のモードにおいては、前記人体検知手段を使用せずに前記顔検知手段を使用して前記特定の被写体を検知することを特徴とする請求項記載の撮像装置。 The detection means, in the first mode, using the face detection means and the human body detecting means detects the specific subject, the in the second mode, the face without using the human body detecting means imaging device according to claim 1, wherein the detecting the specific subject using detection means. 前記基準設定手段は、記検知手段が前記第1のモードで検知対象とする前記特定の被写体の最小検知サイズ、前記第2のモードで検知対象とする前記特定の被写体の最小検知サイズよりも小さくなるように、前記判定基準を設定することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。 Said reference setting means, before the minimum detectable size of a particular object dangerous knowledge means the detection target in the first mode, the minimum detectable size of the specific subject to be detected in the second mode smaller than Kunar so on, the image pickup apparatus according to any one of claims 1 to 3, characterized in that to set the criteria. 前記基準設定手段は、記検知手段が前記第1のモードで検知対象とする前記特定の被写体の奥行き方向の角度範囲、前記第2のモードで検知対象とする前記特定の被写体の奥行き方向の角度範囲よりも広くなるように、前記判定基準を設定することを特徴とする請求項乃至のいずれか1項に記載の撮像装置。 Said reference setting means, before the angular range in the depth direction of the specific object that dangerous knowledge means the detection target in the first mode, the depth of the specific subject to be detected in the second mode a wide Kunar so than in the direction of the angle range, the image pickup apparatus according to any one of claims 1 to 4, characterized in that to set the criteria. 前記基準設定手段は、記検知手段が前記第1のモードで検知対象とする前記特定の被写体の画像面方向の角度範囲、前記第2のモードで検知対象とする前記特定の被写体の画像面方向の角度範囲よりも広くなるように、前記判定基準を設定することを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。 Said reference setting means, before said specific image plane direction of the angle range of the subject dangerous knowledge means the detection target in the first mode, the specific subject to be detected in the second mode a wide Kunar so than the angular range of the image plane direction, the imaging apparatus according to any one of claims 1 to 5, characterized in that for setting the judgment criteria. 前記基準設定手段は、記検知手段が前記第1のモードで検知対象とする前記特定の被写体の信頼度、前記第2のモードで検知対象とする前記特定の被写体の信頼度よりも低くなるように、前記判定基準を設定することを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。 It said reference setting means, the reliability of the specific subject before dangerous knowledge means the detection target in the first mode, than the reliability of the specific subject to be detected in the second mode low Kunar so on, the image pickup apparatus according to any one of claims 1 to 6, characterized in that to set the criteria. 第1の画像における指定領域が、第2の画像においてどの領域へ移動したかを示す移動量を算出する算出手段を、さらに具備し、
前記基準設定手段は、前記第1のモードでは、前記算出手段の算出結果を前記判定基準として採用するが、前記第2のモードでは、前記算出手段の算出結果を前記判定基準として採用しないことを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。
A calculation means for calculating a movement amount indicating to which area the designated area in the first image has moved in the second image;
The reference setting means adopts the calculation result of the calculation means as the determination criterion in the first mode, but does not adopt the calculation result of the calculation means as the determination reference in the second mode. The image pickup apparatus according to claim 1 , wherein the image pickup apparatus is a feature.
画像データから特定の被写体を検知する検知工程と、A detection process for detecting a specific subject from image data;
前記検知工程において前記特定の被写体を検知するための判定基準を設定する基準設定工程と、を備え、A reference setting step for setting a determination reference for detecting the specific subject in the detection step,
前記基準設定工程では、オートフォーカス開始指示前にオートフォーカス対象領域を表示する第1のモードの場合に、オートフォーカス開始指示後にオートフォーカス対象領域を表示する第2のモードの場合に比べて前記特定の被写体が検知されやすくなるように前記判定基準を変更することを特徴とする撮像装置の制御方法。In the reference setting step, in the first mode in which the autofocus target area is displayed before the autofocus start instruction, the specific mode is compared with the second mode in which the autofocus target area is displayed after the autofocus start instruction. A method for controlling an image pickup apparatus, wherein the determination criterion is changed so that a subject of the subject can be easily detected.
JP2014145784A 2014-07-16 2014-07-16 Imaging apparatus and control method thereof Expired - Fee Related JP6418827B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014145784A JP6418827B2 (en) 2014-07-16 2014-07-16 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014145784A JP6418827B2 (en) 2014-07-16 2014-07-16 Imaging apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JP2016025367A JP2016025367A (en) 2016-02-08
JP6418827B2 true JP6418827B2 (en) 2018-11-07

Family

ID=55271825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014145784A Expired - Fee Related JP6418827B2 (en) 2014-07-16 2014-07-16 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP6418827B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6768449B2 (en) * 2016-10-19 2020-10-14 キヤノン株式会社 Imaging control device, control method and program of imaging device
EP3552079B1 (en) * 2016-12-06 2022-05-25 Koninklijke Philips N.V. Displaying a guidance indicator to a user

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001330882A (en) * 2000-05-24 2001-11-30 Canon Inc Camera with subject recognizing function
JP4682097B2 (en) * 2006-06-29 2011-05-11 キヤノン株式会社 IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP4506801B2 (en) * 2007-09-25 2010-07-21 カシオ計算機株式会社 Image recognition apparatus, image recognition method, and image recognition program
JP5644180B2 (en) * 2010-05-28 2014-12-24 カシオ計算機株式会社 Imaging apparatus, imaging method, and program
JP4964992B2 (en) * 2011-01-19 2012-07-04 富士フイルム株式会社 Image capturing apparatus and image recording method thereof
JP5947489B2 (en) * 2011-03-28 2016-07-06 キヤノン株式会社 Focus adjustment device and focus adjustment method

Also Published As

Publication number Publication date
JP2016025367A (en) 2016-02-08

Similar Documents

Publication Publication Date Title
US11172133B2 (en) Zoom control device, control method of zoom control device, and recording medium
US10270978B2 (en) Zoom control device with scene composition selection, and imaging apparatus, control method of zoom control device, and recording medium therewith
JP5048468B2 (en) Imaging apparatus and imaging method thereof
JP4290100B2 (en) Imaging apparatus and control method thereof
JP6512810B2 (en) Image pickup apparatus, control method and program
US10277823B2 (en) Zoom control device, imaging apparatus, control method of zoom control device, and recording medium
US20110075016A1 (en) Imager processing a captured image
WO2014041733A1 (en) Imaging device and focus control method
JP2014056032A (en) Imaging apparatus
US7885527B2 (en) Focusing apparatus and method
CN107087103B (en) Image pickup apparatus, image pickup method, and computer-readable storage medium
JP4506779B2 (en) Imaging apparatus and program
JP6516426B2 (en) Image pickup apparatus, image processing method and program
JP6418827B2 (en) Imaging apparatus and control method thereof
JP6220144B2 (en) Focus adjustment apparatus and control method thereof
US9693037B2 (en) Imaging apparatus having an imaging element in which a plurality of light receiving elements is arranged with respect to a micro lens and method for controlling same
JP6501536B2 (en) Imaging device, control method therefor, program, storage medium
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
US9215365B2 (en) Imaging apparatus and imaging method
JP6746398B2 (en) Imaging device, control method thereof, and program
JP6584259B2 (en) Image blur correction apparatus, imaging apparatus, and control method
JP6205147B2 (en) Imaging apparatus, focusing method thereof, and focusing program
JP6409083B2 (en) Imaging apparatus, imaging method, and imaging program
JP2016080738A (en) Imaging apparatus and automatic focusing method
JP6443156B2 (en) Detection device, detection control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181009

R151 Written notification of patent or utility model registration

Ref document number: 6418827

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees