JP6552408B2 - Image pickup apparatus and control method thereof - Google Patents

Image pickup apparatus and control method thereof Download PDF

Info

Publication number
JP6552408B2
JP6552408B2 JP2015255719A JP2015255719A JP6552408B2 JP 6552408 B2 JP6552408 B2 JP 6552408B2 JP 2015255719 A JP2015255719 A JP 2015255719A JP 2015255719 A JP2015255719 A JP 2015255719A JP 6552408 B2 JP6552408 B2 JP 6552408B2
Authority
JP
Japan
Prior art keywords
subject
detection
image
reading
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015255719A
Other languages
Japanese (ja)
Other versions
JP2017120279A (en
Inventor
智成 阿部
智成 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015255719A priority Critical patent/JP6552408B2/en
Publication of JP2017120279A publication Critical patent/JP2017120279A/en
Application granted granted Critical
Publication of JP6552408B2 publication Critical patent/JP6552408B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Description

本発明は、連続合焦撮影の制御に関するものである。   The present invention relates to control of continuous focus shooting.

撮像装置では、撮像素子からAF(オートフォーカス)評価値の取得に必要な画像信号の読出しを行って焦点検出を行う。その際、静止画像信号等の通常の読出し速度よりも速く読出すことで高速な焦点検出を行う技術がある。   The imaging apparatus performs focus detection by reading out an image signal necessary for obtaining an AF (autofocus) evaluation value from the imaging device. At this time, there is a technique for performing high-speed focus detection by reading a still image signal or the like faster than a normal reading speed.

特許文献1では、有効画素領域のうち特定の領域の画素信号のみを撮像素子から読出し、AF評価値を取得する技術が開示されている。また特許文献2では、予め区分された静止画像の読出し領域のうち特定の区分領域を他の区分領域よりも先に読出し、AF評価値を取得する技術が開示されている。   Patent Document 1 discloses a technique for reading out only a pixel signal of a specific area from an effective pixel area from an image sensor and acquiring an AF evaluation value. Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique for reading out a specific segmented area from among previously segmented still image readout areas before acquiring other segmented areas and obtaining an AF evaluation value.

特開2012−58464号公報JP 2012-58464 A 特開2011−166515号公報JP 2011-166515 A

特許文献1に開示の従来技術では、有効画素領域全体の信号を読出して被写体を検知し、AF評価値の取得のための読出し領域を決めている。有効画素領域全体から信号を読出す際には、被写体像に対応しない部分の信号も読出される。このため、無駄な読出し時間を費やしてしまい、AF評価値の取得までに時間がかかる可能性がある。また、特許文献2に開示の従来技術では、静止画像信号の読出しと並行して、AF評価値の取得のための信号が読出される。AF評価値を取得するための読出し領域は、予め区分された静止画像信号の読出し領域内の特定の一部領域である。この一部領域から信号を読出す場合、被写体に動きがあると、設定した領域に被写体が写らなくなる可能性が高まる。よって被写体の検出精度や追尾性能が低下する可能性がある。   In the prior art disclosed in Patent Document 1, a signal for the entire effective pixel area is read to detect a subject, and a reading area for acquiring an AF evaluation value is determined. When a signal is read from the entire effective pixel area, a portion of the signal that does not correspond to the subject image is also read. For this reason, useless reading time is consumed, and it may take time until the AF evaluation value is acquired. Further, in the prior art disclosed in Patent Document 2, a signal for obtaining an AF evaluation value is read out in parallel with the reading of a still image signal. The readout area for acquiring the AF evaluation value is a specific partial area within the readout area of the still image signal divided in advance. When a signal is read from this partial area, if the subject moves, there is a high possibility that the subject will not appear in the set area. Therefore, the detection accuracy and the tracking performance of the subject may be reduced.

本発明の目的は、オートフォーカス制御にて焦点位置の決定にかかる時間を短縮しつつ、被写体追尾制御による高速な連続撮影を実現することである。   An object of the present invention is to realize high-speed continuous shooting by subject tracking control while shortening the time taken to determine the focus position in autofocus control.

本発明の一実施形態に係る装置は、連続撮影にてオートフォーカス制御および被写体の追尾制御を行う撮像装置であって、撮像された画像に係る第1の画像信号を撮像素子から読出す第1の読出し手段と、前記オートフォーカス制御の評価値の算出に用いる第2の画像信号を前記撮像素子から読出す第2の読出し手段と、前記第1の画像信号を用いて被写体を検出する被写体検出手段と、前記被写体検出手段により取得された被写体の検出情報から前記第2の画像信号を読出す位置を決定し、前記第2の読出し手段により読出された前記第2の画像信号から前記評価値を取得して焦点調節の制御を行う制御手段と、を備える。前記制御手段は、連続撮影の時間間隔から前記被写体検出手段による検出の開始時点を算出し、前記第1の読出し手段が前記撮像素子から前記第1の画像信号を読出している途中に、前記被写体検出手段は前記開始時点で被写体の検出を開始して、読出された前記第1の画像信号を用いて被写体検出を行い、前記第2の読出し手段は、前記制御手段により決定された前記位置から前記第2の画像信号を読出す。   An apparatus according to an embodiment of the present invention is an imaging apparatus that performs autofocus control and subject tracking control in continuous shooting, and reads a first image signal related to a captured image from an imaging element. Reading means, second reading means for reading a second image signal used for calculation of the evaluation value of the autofocus control from the image sensor, and subject detection for detecting a subject using the first image signal And a position at which the second image signal is read from the subject detection information acquired by the subject detection means, and the evaluation value is determined from the second image signal read by the second readout means. And controlling means for controlling the focus adjustment. The control means calculates a detection start time by the subject detection means from a continuous shooting time interval, and the subject is being read while the first readout means is reading the first image signal from the image sensor. The detection unit starts detection of the subject at the start time, performs subject detection using the read first image signal, and the second reading unit starts from the position determined by the control unit. The second image signal is read out.

本発明によれば、オートフォーカス制御にて焦点位置の決定にかかる時間を短縮しつつ、被写体追尾制御による高速な連続撮影を実現できる。   According to the present invention, it is possible to realize high-speed continuous shooting by subject tracking control while reducing the time required for determining the focal position by autofocus control.

本発明の実施形態に係る撮像装置の全体構成を示す概略図である。FIG. 1 is a schematic view showing an entire configuration of an imaging device according to an embodiment of the present invention. 第1実施形態による撮像処理の動作タイミングチャートである。It is an operation | movement timing chart of the imaging process by 1st Embodiment. 第1実施形態による撮像処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the imaging process by 1st Embodiment. 第2実施形態による撮像処理の動作タイミングチャートである。It is an operation | movement timing chart of the imaging process by 2nd Embodiment. 第2実施形態による撮像処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the imaging process by 2nd Embodiment. 第3実施形態による撮像処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the imaging process by 3rd Embodiment. 第3実施形態による撮像処理の動作タイミングチャートと読出しモードの説明図である。It is an operation timing chart of an imaging process and an explanatory diagram of a reading mode according to the third embodiment. 第4実施形態による撮像処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the imaging process by 4th Embodiment. 第5実施形態による撮像処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the imaging process by 5th Embodiment. 第6実施形態による撮像処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the imaging process by 6th Embodiment. 第6および第7実施形態による顔検出開始時間の算出処理を示すフローチャートである。It is a flowchart which shows the calculation process of the face detection start time by 6th and 7th embodiment. 第6実施形態による撮像処理の主顔予測の説明図である。It is explanatory drawing of the main face prediction of the imaging process by 6th Embodiment. 第6実施形態による撮像処理の顔検出の開始位置に関する説明図である。It is explanatory drawing regarding the start position of the face detection of the imaging process by 6th Embodiment. 第6実施形態による撮像処理のセンサの読出し方向の説明図である。It is explanatory drawing of the read-out direction of the sensor of the imaging process by 6th Embodiment. 第6実施形態による撮像処理の顔検出方法の一例を示す説明図である。It is explanatory drawing which shows an example of the face detection method of the imaging process by 6th Embodiment. 第7実施形態による撮像処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the imaging process by 7th Embodiment. 第7実施形態によるAF読出し領域の決定処理を示すフローチャートである。It is a flow chart which shows decision processing of AF reading field by a 7th embodiment. 第7実施形態による撮像処理の主顔予測の説明図である。It is explanatory drawing of the main face prediction of the imaging process by 7th Embodiment.

以下、本発明の各実施形態について添付図面を参照して詳細に説明する。
[第1実施形態]
図1を参照して、本発明の第1実施形態に係る撮像装置の構成について説明する。図1は撮像装置100の全体構成を示す図である。撮像装置100として、デジタルカメラを例示し、被写体側を前側と定義して各部を説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
First Embodiment
The configuration of the imaging device according to the first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a diagram illustrating an overall configuration of the imaging apparatus 100. As the imaging apparatus 100, a digital camera will be exemplified, and each part will be described with the subject side defined as the front side.

第1レンズ群101は、撮像光学系の先端部に配置されており、光軸方向に沿って進退可能に保持されている。絞り兼用シャッタ102は、その開口径を調節することで撮影時の光量調節を行うほか、静止画撮影時には露光秒時調節用シャッタとしても機能する。第2レンズ群103は、絞り兼用シャッタ102と一体となって光軸方向に進退し、第1レンズ群101の進退動作との連動によって変倍動作(ズーム機能)が行われる。第3レンズ群105は光軸方向に進退して焦点調節を行うフォーカスレンズである。光学的ローパスフィルタ106は、撮影画像の偽色やモアレを軽減するための光学素子である。撮像素子107は、2次元CMOS(相補型金属酸化膜半導体)フォトセンサと周辺回路を有し、撮像光学系の結像面に配置される。   The first lens group 101 is disposed at the tip of the imaging optical system and is held so as to be able to advance and retract along the optical axis direction. The diaphragm / shutter 102 adjusts the light amount at the time of shooting by adjusting the aperture diameter, and also functions as an exposure time adjustment shutter at the time of still image shooting. The second lens group 103 is integrated with the stop / shutter 102 to advance and retract in the optical axis direction, and a magnification change operation (zoom function) is performed in conjunction with the advance / retreat operation of the first lens group 101. The third lens group 105 is a focusing lens that moves in the optical axis direction to perform focusing. The optical low-pass filter 106 is an optical element for reducing false colors and moire in the captured image. The image sensor 107 has a two-dimensional CMOS (complementary metal oxide semiconductor) photosensor and a peripheral circuit, and is disposed on the imaging plane of the image pickup optical system.

ズームアクチュエータ111は、図示しないカム筒が回動されることで、第1レンズ群101乃至第3レンズ群105を光軸方向に移動させて変倍動作を行う駆動部である。絞りシャッタアクチュエータ112は、絞り兼用シャッタ102の開口径を制御して撮影光量を調節するとともに、静止画撮影時の露光時間制御を行う。フォーカスアクチュエータ114は、第3レンズ群105を光軸方向に移動させて焦点調節を行う駆動部である。   The zoom actuator 111 is a drive unit that moves the first lens group 101 to the third lens group 105 in the optical axis direction to perform a zooming operation by rotating a cam barrel (not shown). The aperture shutter actuator 112 controls the aperture diameter of the aperture / shutter 102 to adjust the imaging light amount, and performs exposure time control at the time of still image imaging. The focus actuator 114 is a drive unit that adjusts the focus by moving the third lens group 105 in the optical axis direction.

撮影時に用いられる照明部(被写体照明用電子フラッシュ)115は、キセノン管を用いた閃光照明装置、または連続発光するLEDを備えた照明装置である。電子フラッシュ制御回路122は、撮影動作に同期して照明部115を点灯制御する。   An illumination unit (electronic flash for subject illumination) 115 used at the time of photographing is a flash illumination device using a xenon tube or an illumination device including LEDs that emit light continuously. The electronic flash control circuit 122 controls lighting of the illumination unit 115 in synchronization with the photographing operation.

オートフォーカス(以下、AFと記す)補助光源部116は、所定の開口パターンを有するマスクの像を、投光レンズを介して被写体に投影する。これにより、暗い被写体や低コントラストの被写体に対する焦点検出能力を向上させることができる。補助光源駆動回路123は、焦点検出動作に同期してAF補助光源部116を点灯制御する。   An autofocus (hereinafter referred to as AF) auxiliary light source unit 116 projects an image of a mask having a predetermined opening pattern onto a subject via a light projection lens. Thereby, it is possible to improve the focus detection capability for a dark subject or a low contrast subject. The auxiliary light source drive circuit 123 controls the lighting of the AF auxiliary light source unit 116 in synchronization with the focus detection operation.

制御部121は、撮像装置100における種々の制御を司る中枢部である。制御部121は、図示しないCPU(中央演算処理装置)、A(アナログ)/D(デジタル)コンバータ、D/Aコンバータ、通信インターフェイス回路等を有する。撮像素子駆動回路124は、撮像素子107の撮像動作を制御するとともに、撮像素子107から取得した画像信号をA/D変換して制御部121に出力する。画像処理回路125は、撮像素子107が取得した画像データを用いた被写体検出処理や、当該画像データに対するγ変換、カラー補間、JPEG(Joint Photographic Experts Group)圧縮等の処理を行う。   The control unit 121 is a central unit that performs various controls in the imaging apparatus 100. The control unit 121 includes a CPU (Central Processing Unit) (not shown), an A (analog) / D (digital) converter, a D / A converter, a communication interface circuit, and the like. The image sensor drive circuit 124 controls the image capturing operation of the image sensor 107 and A / D converts the image signal acquired from the image sensor 107 and outputs the image signal to the control unit 121. The image processing circuit 125 performs subject detection processing using the image data acquired by the image sensor 107, γ conversion, color interpolation, JPEG (Joint Photographic Experts Group) compression, and the like on the image data.

フォーカス駆動回路126は、制御部121による焦点検出結果に基づいてフォーカスアクチュエータ114を駆動制御する。フォーカスアクチュエータ114により第3レンズ群105が光軸方向に移動して焦点調節が行われる。絞りシャッタ駆動回路128は、制御部121の制御指令にしたがって絞りシャッタアクチュエータ112を駆動制御し、絞り兼用シャッタ102の開口を制御する。ズーム駆動回路129は、撮影者によるズーム操作に応じた制御部121の制御指令にしたがって、ズームアクチュエータ111を駆動する。   The focus drive circuit 126 drives and controls the focus actuator 114 based on the focus detection result by the control unit 121. The focus actuator 114 moves the third lens group 105 in the optical axis direction to perform focusing. The aperture shutter drive circuit 128 drives and controls the aperture shutter actuator 112 in accordance with a control command of the control unit 121 to control the opening of the aperture / shutter 102. The zoom drive circuit 129 drives the zoom actuator 111 according to the control command of the control unit 121 according to the zoom operation by the photographer.

表示装置131は、例えばLCD(液晶表示装置)等の表示デバイスを備える。表示装置131は、撮像装置100の撮影モードに関する情報、撮影前のプレビュー画像、撮影後の確認用画像、焦点検出時の合焦状態の表示画像等を表示する。操作部132は、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等を含む。レリーズスイッチは、押し込み量に応じて第1スイッチ(SW1)および第2スイッチ(SW2)が順にオン状態となる2段階のスイッチである。レリーズスイッチを約半分押し込んだときにSW1がオンし、レリーズスイッチを最後まで押し込んだときにSW2がオンする。   The display device 131 includes, for example, a display device such as an LCD (liquid crystal display device). The display device 131 displays information on a shooting mode of the imaging device 100, a preview image before shooting, a confirmation image after shooting, a display image of a focused state at the time of focus detection, and the like. The operation unit 132 includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. The release switch is a two-stage switch in which the first switch (SW1) and the second switch (SW2) are sequentially turned on according to the amount of pressing. SW1 is turned on when the release switch is pressed about halfway, and SW2 is turned on when the release switch is pushed to the end.

記録媒体133は、カメラ本体部に着脱可能なフラッシュメモリ等であり、撮影により取得した画像ファイルを記録する。メモリ134はRAM(ランダム・アクセス・メモリ)、ROM(リード・オンリ・メモリ)等であり、所定のプログラムを記憶し、画像処理中の画像データや画像処理に必要なパラメータデータ等を保持する。制御部121は、メモリ134を構成するROMに記憶された所定のプログラムに基づいて、撮像装置100の各種回路を駆動し、AF制御、撮像処理、画像処理、記録処理等の一連の動作を実行する。   The recording medium 133 is a flash memory or the like that can be attached to and detached from the camera main body, and records an image file acquired by photographing. The memory 134 is a RAM (random access memory), a ROM (read only memory) or the like, stores a predetermined program, and holds image data during image processing and parameter data required for image processing. The control unit 121 drives various circuits of the imaging apparatus 100 based on a predetermined program stored in the ROM constituting the memory 134, and executes a series of operations such as AF control, imaging processing, image processing, and recording processing. Do.

次に図2および図3を参照して、撮像装置100にて行われる被写体追尾制御による高速な連続撮影について説明する。この連続撮影は、被写体に追従するAF制御による連続撮影であり、以下、追従AF連続撮影という。図2は、本実施形態における追従AF連続撮影の動作のタイミングを示すタイミングチャートである。図3は、本実施形態における追従AF連続撮影の際の動作を説明するフローチャートである。操作部132に含まれる撮影モード選択スイッチのユーザ操作により、撮像装置100の撮影モードが追従AF連続撮影モードとなっていることを前提とする。撮影モードのときに、操作部132に含まれるレリーズスイッチがオン操作されることで撮影動作が開始し、S301へ移行する。   Next, with reference to FIGS. 2 and 3, high-speed continuous shooting by subject tracking control performed by the imaging apparatus 100 will be described. This continuous shooting is continuous shooting by AF control following the subject, and is hereinafter referred to as tracking AF continuous shooting. FIG. 2 is a timing chart showing the timing of the operation of the follow-up AF continuous shooting in the present embodiment. FIG. 3 is a flow chart for explaining the operation at the time of follow-up AF continuous shooting in the present embodiment. It is assumed that the shooting mode of the imaging apparatus 100 is set to the tracking AF continuous shooting mode by a user operation of a shooting mode selection switch included in the operation unit 132. In the shooting mode, a shooting operation is started by turning on a release switch included in the operation unit 132, and the process proceeds to S301.

S301では、静止画撮影のために撮像素子107への露光が開始し、電荷が蓄積される。露光時間は絞りシャッタアクチュエータ112の駆動制御により決定される。このとき、撮像素子駆動回路124は、撮像素子107の有効画素領域全体を含む領域の画像信号を読出す駆動モードで撮像素子107を制御する。処理のタイミングは図2の静止画蓄積201で示すように、撮影開始後である。   In step S301, exposure to the image sensor 107 is started to capture a still image, and charge is accumulated. The exposure time is determined by driving control of the aperture shutter actuator 112. At this time, the image sensor drive circuit 124 controls the image sensor 107 in a drive mode in which an image signal of an area including the entire effective pixel area of the image sensor 107 is read. The processing timing is after the start of shooting, as indicated by the still image storage 201 in FIG.

S302で撮像素子駆動回路124は、撮像素子107に蓄積された電荷から得られた画像信号をA/D変換して、制御部121に出力する処理を開始する。S301において設定した駆動モードに従って、有効画素領域全体を含む領域の画像信号が読出される。処理のタイミングは図2の静止画読出し202で示すように、静止画蓄積201の処理の完了後である。   In step S302, the imaging device driving circuit 124 A / D converts an image signal obtained from the charges accumulated in the imaging device 107 and starts processing for outputting the image signal to the control unit 121. According to the drive mode set in S301, an image signal of an area including the entire effective pixel area is read out. The timing of the processing is after completion of the processing of the still image storage 201 as shown by still image reading 202 in FIG.

S303では、撮像素子107に蓄積された電荷から得られた画像信号がA/D変換されて、1画素ごとに、または複数の画素単位で次々と制御部121に出力される。図2の静止画読出し202が行われて、ある時点から被写体検出処理が開始する。被写体検出処理の開始タイミングは、AF処理可能な領域までの読出しが完了するタイミングとなるように決定される。仮にAF処理可能でない領域で被写体像を検出して、その周辺においてAF評価値を演算しても、結局はAF処理を行えない。つまり、AF処理可能な領域まで読出しが完了した時点で、読出した画像信号に基づいて被写体検出を行えば、必要なAF評価値の演算が可能である。よって、AF処理可能な領域までの画像信号の読出しが完了する時点を、被写体検出処理の開始時点とする。AF処理可能な領域は撮影モードやレンズの種類により変わるため、制御部121は条件に応じて被写体検出処理の開始時点を変更する。または連続撮影の速度設定値に基づいて被写体検出処理の開始時点を決定してもよい。速度設定値が大きい場合、撮影と次の撮影との撮影間の処理時間をより短くする必要がある。そこで、被写体検出処理の開始時点を早める制御を行うことで、連続する撮影の間の処理時間を短縮できる。その場合、読出しが完了している画像信号の数は少なくなるため、被写体検出精度は低下するが、連続撮影の速度をより大きくすることが可能となる。   In step S303, the image signal obtained from the charge accumulated in the imaging element 107 is A / D converted, and is output to the control unit 121 one by one or in units of a plurality of pixels. The still image readout 202 in FIG. 2 is performed, and the subject detection processing starts from a certain point in time. The start timing of the subject detection process is determined so as to be the completion timing of reading up to an AF processable area. Even if a subject image is detected in an area where AF processing is not possible and AF evaluation values are calculated in the vicinity thereof, AF processing can not be performed after all. That is, when the subject is detected based on the read image signal when the reading is completed up to the area where AF processing is possible, the necessary AF evaluation value can be calculated. Therefore, the time when the reading of the image signal up to the AF processable area is completed is set as the start time of the subject detection process. Since the AF processable area varies depending on the shooting mode and the type of lens, the control unit 121 changes the start time of the subject detection process according to the conditions. Alternatively, the start point of the subject detection process may be determined based on the speed setting value of continuous shooting. When the speed setting value is large, it is necessary to further shorten the processing time between shooting of the next shooting. Thus, by performing control to advance the start point of the subject detection process, it is possible to shorten the processing time between successive shootings. In that case, since the number of image signals for which reading has been completed is reduced, the object detection accuracy is lowered, but it is possible to further increase the speed of continuous shooting.

S304で被写体検出処理(図2:203参照)が開始する。被写体検出処理は、制御部121が取得した画像信号に基づいて画像処理回路125が実行する。後述するが、AF処理に必要な検出結果の情報は被写体の位置情報である。またAF処理の開始時点には制約があり、AF処理の開始時点までに被写体検出処理が終了していることが必要である。例えば多数の被写体を撮影する場合を想定する。この場合にAF処理が開始するまでに被写体検出処理が間に合わずに終了していないことが起こりうる。その場合には、連続撮影における前回の撮影で取得されている被写体検出処理結果の位置情報が代用される。または、予め設定されているデフォルト位置情報がAF処理で使用される。被写体検出処理203の開始タイミングは、静止画読出し202の途中である。被写体検出処理の終了タイミングは、AF処理可能な領域まで画像信号の読出しが完了する時点、または設定中の追従AF連続撮影の速度を保証できる時点である。   A subject detection process (see 203 in FIG. 2) starts in S304. The subject detection process is executed by the image processing circuit 125 based on the image signal acquired by the control unit 121. Although described later, the information of the detection result necessary for the AF process is the position information of the subject. In addition, there is a restriction on the start time of the AF process, and it is necessary that the subject detection process has been completed by the start time of the AF process. For example, assume that a large number of subjects are photographed. In this case, the subject detection process may not be completed in time before the AF process starts. In that case, the position information of the subject detection processing result acquired in the previous shooting in the continuous shooting is used instead. Alternatively, default position information set in advance is used in the AF process. The start timing of the subject detection processing 203 is in the middle of the still image readout 202. The end timing of the subject detection process is a time point at which reading of an image signal is completed up to an AF processable region or a time point at which the tracking AF continuous shooting speed being set can be guaranteed.

S305では、残りの静止画の画像信号の読出し処理と被写体検出処理とが並行して実行される。AF処理の開始タイミングは、連続撮影の速度によって決まる次の撮影開始時点に対して、以下の処理が完了するように決定される。
・AF評価値の算出用の画像信号(以下、AF用画像信号という)を読出す領域の算出処理。
・AF用画像信号の読出しのための蓄積処理(図2:AF蓄積204)。
・AF用画像信号の読出し処理(図2:AF読出し205)。
・AF評価値の算出処理と焦点調節用レンズの駆動量の算出処理(図2:駆動量算出206)。
・焦点調節用レンズの駆動処理(図2:レンズ駆動207)。
本明細書中にてAF用画像信号を読出す領域をAF読出し領域という。
In S305, the readout processing of the image signal of the remaining still image and the subject detection processing are executed in parallel. The start timing of the AF processing is determined such that the following processing is completed for the next shooting start time determined by the speed of continuous shooting.
An area calculation process for reading an image signal for calculating an AF evaluation value (hereinafter referred to as an AF image signal).
Accumulation processing for reading out an AF image signal (FIG. 2: AF accumulation 204).
AF image signal readout processing (FIG. 2: AF readout 205).
AF evaluation value calculation processing and focus adjustment lens drive amount calculation processing (FIG. 2: drive amount calculation 206).
A focus adjustment lens drive process (FIG. 2: lens drive 207).
In this specification, an area for reading an AF image signal is referred to as an AF reading area.

S306では、被写体検出の検出信号からAF読出し領域が算出される。前提として、AF用画像信号の読出しは、撮像素子駆動回路124において静止画像信号の読出しとは別の駆動で制御し、撮像素子107の有効画素領域の画像信号を部分的に読出すことによって行われるものとする。このとき、被写体検出結果である被写体の位置情報を用いて、被写体位置を中心として、有効画素領域に対して画像信号を部分的に読出す位置を決定する処理が行われる。処理のタイミングとしては図2のAF蓄積204に含めているが、前述の通りに定めたAF処理の開始時点で実行される。   In S306, the AF readout area is calculated from the detection signal of the subject detection. As a premise, the reading of the AF image signal is controlled by driving the image sensor driving circuit 124 separately from the reading of the still image signal, and the image signal in the effective pixel region of the image sensor 107 is partially read out. Shall be At this time, processing is performed to determine the position where the image signal is partially read out with respect to the effective pixel area, with the subject position as the center, using the subject position information that is the subject detection result. The processing timing is included in the AF accumulation 204 of FIG. 2, but is executed at the start of the AF processing determined as described above.

S307では、AF評価値の算出のために撮像素子107へ露光が開始し、電荷が蓄積される。露光時間は絞りシャッタアクチュエータ112の駆動制御により設定される。静止画の場合とは異なり、撮像素子駆動回路124は、撮像素子107の有効画素領域の一部の領域から画像信号を読出す駆動方式(以下、部分読出し方式という)で撮像素子107を制御する。処理のタイミングは、AF読出し領域の算出処理後である。   In S307, exposure to the image sensor 107 is started to calculate the AF evaluation value, and charges are accumulated. The exposure time is set by driving control of the aperture shutter actuator 112. Unlike the case of a still image, the image sensor driving circuit 124 controls the image sensor 107 by a driving method (hereinafter referred to as a partial reading method) that reads an image signal from a part of the effective pixel region of the image sensor 107. . The timing of the processing is after the AF readout area calculation processing.

S308で撮像素子駆動回路124は、撮像素子107に蓄積された電荷から得られた画像信号をA/D変換して、制御部121に出力する処理を開始する。S307において設定した駆動方式に従って有効画素領域の一部の領域から画像信号が読出される。処理のタイミングは、図2のAF読出し205で示すように、AF蓄積204の完了後である。   In step S <b> 308, the imaging device driving circuit 124 A / D converts an image signal obtained from the charge accumulated in the imaging device 107 and starts processing for outputting the image signal to the control unit 121. The image signal is read out from a part of the effective pixel area in accordance with the drive method set in S307. The timing of the processing is after completion of the AF accumulation 204, as indicated by the AF readout 205 in FIG.

S309で制御部121は、取得した画像信号に基づいてAF評価値の算出処理を実行して、次の撮影で被写体に焦点を合わせるためのレンズの駆動量を算出する。処理のタイミングは、図2の駆動量算出206で示すように、AF読出し205の完了後である。S310では、制御部121が算出したレンズの駆動量にしたがって、フォーカス駆動回路126、または絞りシャッタ駆動回路128、あるいは両者の駆動制御が行われる。フォーカスアクチュエータ114の駆動により、被写体に対応する合焦位置まで焦点調節用レンズが移動する。   In step S309, the control unit 121 executes calculation processing of an AF evaluation value based on the acquired image signal, and calculates a lens driving amount for focusing on the subject in the next photographing. The timing of the process is after the completion of the AF read-out 205, as shown by the drive amount calculation 206 in FIG. In S310, drive control of the focus drive circuit 126, the aperture shutter drive circuit 128, or both is performed according to the lens drive amount calculated by the control unit 121. By driving the focus actuator 114, the focusing lens is moved to the in-focus position corresponding to the subject.

S311で制御部121は、操作部132に含まれるレリーズスイッチ(第2スイッチSW2)がオンかオフかを判断する。SW2がオンである場合、S301に戻り、S310での合焦位置で連続撮影を続行する。SW2がオフである場合、連続撮影を停止して撮影終了となる。図2に示すレンズ駆動207の後にS311でのSW2のオン・オフの判断処理が行われる。SW2がオンである場合、次の撮影が開始される。静止画蓄積208、静止画読出し209の処理が実行されて撮像処理を続行する。   In step S311, the control unit 121 determines whether the release switch (second switch SW2) included in the operation unit 132 is on or off. If SW2 is on, the process returns to S301, and continuous shooting is continued at the in-focus position in S310. When SW2 is off, the continuous shooting is stopped and the shooting ends. After the lens drive 207 shown in FIG. 2, the process of determining whether the switch SW2 is on or off in S311 is performed. When SW2 is on, the next shooting is started. The processing of the still image storage 208 and the still image readout 209 is executed to continue the imaging processing.

本実施形態では、静止画像信号の読出し途中で被写体検出処理が開始する。これにより被写体検出処理と静止画読出し処理との並行処理が実行されるので、連続する撮影間の処理時間をより短くすることができる。加えて、AF読出し領域は、被写体位置に基づいた撮像素子の有効画素領域の一部領域に設定され、部分読出し方式の駆動モードが設定される。これにより、被写体検出および追尾の精度を保ったままで、画像信号の読出しにかかる時間をより短縮できる。   In the present embodiment, subject detection processing is started during reading of a still image signal. Thereby, the parallel processing of the subject detection processing and the still image reading processing is executed, so that the processing time between consecutive photographing can be further shortened. In addition, the AF readout area is set to a partial area of the effective pixel area of the image pickup device based on the subject position, and the drive mode of the partial readout method is set. As a result, it is possible to further reduce the time required to read the image signal while maintaining the accuracy of subject detection and tracking.

本実施形態によれば、被写体検出や追尾の精度を保ちつつ、連続する撮影間の処理時間とオートフォーカス制御用の画像信号の読出し時間を短縮することができる。よって次の撮影の焦点位置の決定までにかかる時間を抑制しつつ、被写体に追従する連続撮影の速度(連写速度)をより大きくすることができる。   According to the present embodiment, it is possible to shorten the processing time between successive shootings and the readout time of the image signal for autofocus control while maintaining the accuracy of object detection and tracking. Therefore, it is possible to further increase the speed (continuous shooting speed) of continuous shooting following an object while suppressing the time taken to determine the focus position of the next shooting.

[第2実施形態]
図4と図5を参照して、本発明の第2実施形態に係る撮像装置によって行われる追従AF連続撮影について説明する。図4は、本実施形態における追従AF連続撮影の動作のタイミングを示すタイミングチャートである。各処理401、402は図2の処理201、202に相当し、各処理405から410は、図2の処理204から209にそれぞれ相当する。図5は、本実施形態における追従AF連続撮影の動作を示すフローチャートである。本実施形態は、被写体検出処理の内容が第1実施形態と相違する。第1実施形態の場合と同様の構成については既に使用した符号を用いることで、それらの詳細な説明を省略し、主に相違点を説明する。このような説明の省略については後述の実施形態でも同じである。
Second Embodiment
The follow-up AF continuous imaging performed by the imaging device according to the second embodiment of the present invention will be described with reference to FIGS. 4 and 5. FIG. 4 is a timing chart showing the timing of the operation of the follow-up AF continuous shooting in the present embodiment. The processes 401 and 402 correspond to the processes 201 and 202 in FIG. 2, and the processes 405 to 410 correspond to the processes 204 to 209 in FIG. 2, respectively. FIG. 5 is a flowchart showing the operation of the continuous AF continuous shooting in the present embodiment. The present embodiment is different from the first embodiment in the content of subject detection processing. About the same composition as a case of a 1st embodiment, the detailed explanation of those is omitted by using the code already used, and difference is mainly explained. Omitting such description is the same in the embodiments described later.

図4と図2との相違点は、被写体検出において、モノ検出処理403と顔検出処理404が行われる点である。モノ検出処理403は、被写体の内容(人物、物体等)や個数等を判別しないので、顔検出処理404よりも精度の低い第1の検出処理である。入力される画像信号に基づいて色情報からモノ検出処理が実行される。検出精度のパラメータを調節することで、AF処理の開始時点までに、主被写体の位置とサイズの情報を検出結果として出力可能である。つまり、第1の検出処理は検出速度を優先する検出処理である。   The difference between FIG. 4 and FIG. 2 is that an object detection process 403 and a face detection process 404 are performed in subject detection. The thing detection process 403 is a first detection process that is less accurate than the face detection process 404 because it does not determine the content (person, object, etc.) or the number of subjects. A mono detection process is performed from color information based on the input image signal. By adjusting the detection accuracy parameter, the position and size information of the main subject can be output as a detection result by the time when the AF process is started. That is, the first detection process is a detection process that prioritizes the detection speed.

顔検出処理404は、被写体が人物である場合に被写体の顔を検出する精度の高い第2の検出処理である。例えば、検出結果として被写体の顔であるか否かを判断し、被写体の個数や、それぞれの位置とサイズ、重要度の順位等の情報を取得可能である。被写体の顔やその他の物体の個数が多い場合の撮影では、検出処理が高負荷となるので、検出結果を出力するまでの時間は、モノ検出処理403よりも長くかかる。図4に示す顔検出処理404a,404bは検出精度を優先する検出処理である。   The face detection process 404 is a second detection process with high accuracy for detecting the face of the subject when the subject is a person. For example, it is possible to determine whether or not the face is a subject as a detection result, and to acquire information such as the number of subjects, the position and size of each subject, and the order of importance. In the case of shooting when the number of faces of the subject and other objects is large, the detection process has a high load, so the time taken to output the detection result takes longer than the mono detection process 403. Face detection processes 404a and 404b shown in FIG. 4 are detection processes that prioritize detection accuracy.

図5において、S501とS502の処理は、図3のS301、S302と同じ処理であり、S509からS513の処理は、図3のS307からS311と同じ処理である。よって、相違点であるS503からS508の処理を説明する。   In FIG. 5, the processing of S501 and S502 is the same processing as S301 and S302 of FIG. 3, and the processing of S509 to S513 is the same processing as S307 to S311 of FIG. Therefore, the processes of S503 to S508, which are differences, will be described.

S503では、撮像素子107に蓄積された電荷から得られた画像信号がA/D変換されて制御部121に出力されており、S504においてS304と同様に、被写体検出が開始する。図4に示すように、モノ検出処理403と顔検出処理404a,404bが開始するタイミングは、静止画像信号の読出しを実施している途中である。モノ検出処理403と顔検出処理404は同時に開始される。   In S503, an image signal obtained from the electric charge accumulated in the image sensor 107 is A / D converted and output to the control unit 121. In S504, subject detection is started as in S304. As shown in FIG. 4, the timing at which the mono detection process 403 and the face detection processes 404a and 404b start is in the middle of reading a still image signal. The mono detection process 403 and the face detection process 404 are started simultaneously.

S505では、静止画像信号の読出し処理と、2種類の被写体検出処理とが並行して実行される。AF処理の開始時点はS305と同様に、連続撮影の速度によって決まる次の撮影開始時点に対して、前記した各処理が完了する時点に決定される。   In S505, the still image signal reading process and the two types of subject detection processes are executed in parallel. The start time point of the AF process is determined as the time point when each process described above is completed with respect to the next shooting start time determined by the speed of continuous shooting, as in S305.

S506で制御部121は、S504で開始された2種類の被写体検出処理の検出結果について判断する。判断時点は、モノ検出処理403および顔検出処理404a,404bの処理が開始してからAF処理の開始時点に到達した時点である。このとき、顔検出処理404による検出結果が取得されているか否かについて判断処理が行われる。顔検出処理404は検出精度を優先する検出処理であり、モノ検出処理403に比べて検出に時間がかかるため、判断時点で以下の場合がある。
・モノ検出処理403はその検出結果を出力可能であるが、顔検出処理404aはその検出結果が出力可能でない場合。
・モノ検出処理403および顔検出処理404bが検出結果を出力可能である場合。
In step S506, the control unit 121 determines the detection results of the two types of subject detection processing started in step S504. The determination time point is the time when the start time of the AF process is reached after the processes of the thing detection process 403 and the face detection processes 404a and 404b start. At this time, determination processing is performed as to whether the detection result by the face detection processing 404 is acquired. The face detection process 404 is a detection process in which priority is given to detection accuracy, and since detection takes time compared to the thing detection process 403, there are the following cases at the determination time.
The thing detection process 403 can output the detection result, but the face detection process 404a can not output the detection result.
The case where the mono detection process 403 and the face detection process 404b can output the detection result.

制御部121はAF処理の開始時点までに各被写体検出の検出結果が出力可能であるか否かを判断し、モノ検出処理および顔検出処理がいずれも検出結果を出力可能である場合、S507に処理を進める。またモノ検出処理だけが検出結果を出力可能である場合にはS508の処理に移行する。   The control unit 121 determines whether or not the detection result of each subject detection can be output by the start time of the AF process, and if both the mono detection process and the face detection process can output the detection result, the process proceeds to S507. Proceed with the process. If only the product detection process can output the detection result, the process proceeds to step S508.

S507では、顔検出処理の検出結果を用いて、AF読出し領域を算出する処理が実行される。例えば被写体の数が1つである場合、当該被写体の画像位置を中心として読出し領域が決定される。また複数の被写体が検出された場合には、画像内の最も順位が高い被写体の画像位置を中心として読出し領域が決定される。AF読出し領域の決定において顔情報を用いる場合、顔サイズによって、瞳位置を中心に読出し領域を決定するか、または顔自体の中心で読出し領域を決定するかを判別する処理が行われる。決定されたAF読出し領域に対してAF用画像信号の読出しが開始される。   In S507, processing for calculating an AF read area is executed using the detection result of the face detection processing. For example, when the number of subjects is one, the reading area is determined around the image position of the subject. When a plurality of subjects are detected, the reading area is determined with the image position of the subject having the highest order in the image as the center. When face information is used in determining the AF readout area, processing is performed to determine whether to determine the readout area around the pupil position or the readout area at the center of the face itself depending on the face size. Reading of the AF image signal is started with respect to the determined AF reading area.

S508では、モノ検出処理の検出結果を用いて、AF読出し領域を算出する処理が実行される。この場合の検出結果としては1つの被写体の検出情報であり、当該被写体の画像位置を中心としてAF読出し領域が決定されて、AF用画像信号の読出しが開始される。   In S508, processing for calculating the AF read area is executed using the detection result of the mono detection processing. The detection result in this case is detection information for one subject, and an AF read area is determined around the image position of the subject, and reading of the AF image signal is started.

S507またはS508の処理のタイミングとしては図4のAF蓄積405に含めているが、AF処理の開始のタイミングである。S507またはS508の処理後、S509に処理を進める。S510の読出しの際、撮像素子107は図3のS308と同様に部分読出し方式で駆動制御が行われる。   The timing of the processing in S507 or S508 is included in the AF accumulation 405 in FIG. 4, but is the timing of starting the AF processing. After the process of S507 or S508, the process proceeds to S509. At the time of reading in S510, the image sensor 107 is driven and controlled by the partial reading method in the same manner as in S308 of FIG.

本実施形態では、2種類の被写体検出方法が同時に実施され、検出速度を優先する第1の検出処理により連続撮影の速度を保証しつつ、被写体の検出および追尾制御を行うことが可能である。またオートフォーカス制御における処理の開始時点にて、検出精度を優先する第2の検出処理の検出結果が取得可能である場合には、より精度の高い検出結果を用いてAF処理を行うことができるので、被写体追尾性能が向上する。   In the present embodiment, two types of subject detection methods are performed simultaneously, and subject detection and tracking control can be performed while guaranteeing the continuous shooting speed by the first detection process that prioritizes the detection speed. In addition, when the detection result of the second detection process giving priority to detection accuracy can be acquired at the start of the process in the autofocus control, the AF process can be performed using the detection result with higher accuracy. Therefore, the subject tracking performance is improved.

[第3実施形態]
以下、図6および図7を参照して、本発明の第3実施形態を説明する。本実施形態に係る撮像装置は、被写体の状況に応じて適切なAF用画像信号の読出しを行う。被写体の状況とは、例えば輝度、被写体像の大きさや動き量である。
Third Embodiment
Hereinafter, a third embodiment of the present invention will be described with reference to FIGS. 6 and 7. The imaging apparatus according to the present embodiment reads out an appropriate AF image signal according to the state of the subject. The condition of the subject is, for example, the luminance, the size of the subject image or the amount of movement.

図6は、本実施形態にて制御部121が行う追従AF連続撮影の処理を示すフローチャートである。S601からS608の処理と、S613からS617の処理は、第2実施形態において図5で説明したS501からS508の処理、S509からS513の処理と同様であるため、それらの説明を省略する。   FIG. 6 is a flowchart showing the processing of tracking AF continuous shooting performed by the control unit 121 in the present embodiment. Since the processing from S601 to S608 and the processing from S613 to S617 are the same as the processing from S501 to S508 and the processing from S509 to S513 described in FIG. 5 in the second embodiment, their descriptions are omitted.

S607、S608の処理後にS609に進む。S609で制御部121は、S601およびS602で撮像された静止画像において、S607またはS608にて決定したAF読出し領域に相当する範囲内の輝度値を算出する。算出された輝度値は、予めメモリ134に記憶されている輝度閾値と比較される。算出された輝度値が輝度閾値より小さく、低輝度と判断された場合(S609においてYES)、S610へ移行する。一方、算出された輝度値が輝度閾値以上であって、低輝度ではないと判断された場合(S609においてNO)、S611へ移行する。   It progresses to S609 after the process of S607 and S608. In step S609, the control unit 121 calculates a luminance value within a range corresponding to the AF reading area determined in step S607 or S608 in the still image captured in steps S601 and S602. The calculated luminance value is compared with the luminance threshold value stored in advance in the memory 134. If the calculated luminance value is smaller than the luminance threshold and it is determined that the luminance is low (YES in S609), the process proceeds to S610. On the other hand, when it is determined that the calculated luminance value is equal to or higher than the luminance threshold and not low luminance (NO in S609), the process proceeds to S611.

S610で制御部121は、S604での顔検出結果およびモノ検出結果から得られる被写体像の大きさと動き量を閾値とそれぞれ比較することにより判定する。閾値は被写体像の大きさを判定するための第1の閾値と被写体像の動き量を判定するための第2の閾値であり、メモリ134に予め記憶されている。制御部121は被写体像の大きさが第1の閾値より小さく、かつ被写体像の動き量が第2の閾値より小さいと判断した場合(S610においてNO)、S612へ移行する。一方、被写体像の大きさが第1の閾値以上であるか、または被写体像の動き量が第2の閾値以上であると判断された場合(S610においてYES)、S611へ移行する。S609およびS610で使用される輝度閾値、第1および第2の閾値は固定値または可変値である。可変値の場合、撮影前にユーザが操作部132により設定可能な構成であってもよい。   In step S610, the control unit 121 determines the size of the subject image obtained from the face detection result and the thing detection result in step S604 and the amount of movement by comparing with the threshold value. The threshold values are a first threshold value for determining the size of the subject image and a second threshold value for determining the amount of movement of the subject image, and are stored in the memory 134 in advance. When the control unit 121 determines that the size of the subject image is smaller than the first threshold and the amount of motion of the subject image is smaller than the second threshold (NO in S610), the process proceeds to S612. On the other hand, if it is determined that the size of the subject image is greater than or equal to the first threshold value, or the amount of motion of the subject image is greater than or equal to the second threshold value (YES in S610), the process proceeds to S611. The luminance threshold value and the first and second threshold values used in S609 and S610 are fixed values or variable values. In the case of a variable value, the user may be able to set by the operation unit 132 before shooting.

S611で制御部121は、画像信号の読出し量を低減するために間引き読出しモードに設定する。間引き読出しモードにおいて、撮像素子駆動回路124により、AF読出し処理が、S607またはS608で決定されたAF読出し領域を含む第1の範囲で実行されるように設定される。   In step S611, the control unit 121 sets the thinning readout mode in order to reduce the readout amount of the image signal. In the thinning-out reading mode, the image sensor driving circuit 124 is set so that the AF reading process is executed in the first range including the AF reading area determined in S607 or S608.

またS612で制御部121は、AF処理に使用する読出し領域を限定するクロップ読出しモードに設定する。クロップ読出しモードで設定される第2の範囲は、間引き読出しモードでの第1の範囲より狭い。クロップ読出しモードにおいて、AF用画像信号の読出し処理が、S607またはS608で決定されたAF読出し領域を含む第2の範囲で実行されるように設定される。   In step S <b> 612, the control unit 121 sets a crop reading mode that limits a reading area used for AF processing. The second range set in the crop read mode is narrower than the first range in the thinning read mode. In the crop reading mode, the reading process of the AF image signal is set to be performed in a second range including the AF reading area determined in S 607 or S 608.

S609とS610における判定処理とAF読出しモードとの関係について、図7を参照して説明する。図7にて静止画像417は、AF読出し領域での輝度値が閾値以上であるか、または輝度値が閾値未満であって、かつ被写体像の大きさが第1の閾値以上であるかもしくは被写体像の動き量が第2の閾値以上である場合の画像を例示する。静止画像417に係る各処理を、静止画蓄積401からレンズ駆動408に示す。また、静止画像419は、AF読出し領域での輝度値が閾値未満であって、被写体像の大きさが第1の閾値より小さく、かつ被写体像の動き量が第2の閾値より小さい場合の画像を例示する。静止画像419に係る各処理を、静止画蓄積409からレンズ駆動416に示す。   The relationship between the determination processing in S609 and S610 and the AF readout mode will be described with reference to FIG. In FIG. 7, a still image 417 has a luminance value in the AF reading area that is greater than or equal to a threshold value, a luminance value that is less than the threshold value, and the size of the subject image is greater than or equal to the first threshold value, or a subject. The image in the case where the amount of movement of an image is more than a 2nd threshold is illustrated. Each process relating to the still image 417 is shown from the still image storage 401 to the lens drive 408. The still image 419 is an image when the luminance value in the AF readout area is less than the threshold, the size of the subject image is smaller than the first threshold, and the amount of motion of the subject image is smaller than the second threshold. To illustrate. Each process relating to the still image 419 is shown from the still image storage 409 to the lens drive 416.

静止画像417の場合、AF処理にて間引き読出し418が行われる。間引き読出しモードでは、全画面よりも狭く、被写体像の部分を含む範囲から撮像素子駆動回路124が画像信号を部分的に読出す設定となる。一方、静止画像419の場合、AF処理において被写体像の部分に限定して読出すクロップ読出し420が行われる。つまり、クロップ読出しモードでは、間引き読出しモードに比べて限定された範囲内のすべての画像信号を撮像素子駆動回路124が読出す設定となる。   In the case of the still image 417, thinning-out reading 418 is performed in the AF process. In the thinning-out read mode, the image sensor driving circuit 124 is set to read an image signal partially from a range which is narrower than the entire screen and includes the portion of the subject image. On the other hand, in the case of the still image 419, crop reading 420 is performed in which only the subject image portion is read in the AF process. That is, in the crop reading mode, the image sensor driving circuit 124 is set to read all image signals within a limited range as compared with the thinning readout mode.

図6のS611またはS612でのAF読出しモードの設定処理後に、S613に処理を進め、AF処理が実行される。なお、本実施形態では、S610で被写体像の大きさと動き量を閾値と比較して判定することにより、AF読出しモードが決定される。S606で顔検出結果が取得された場合、顔を被写体とし、顔検出結果が取得されない場合にはモノを被写体として後続の処理が行われる。   After the AF read mode setting process in S611 or S612 in FIG. 6, the process proceeds to S613, and the AF process is executed. In the present embodiment, the AF readout mode is determined by comparing the size of the subject image and the amount of movement with the threshold value in S610. If the face detection result is acquired in S606, the subsequent processing is performed with the face as the subject and when the face detection result is not acquired with the object as the subject.

本実施形態では、被写体像の大きさと動き量が小さい場合に狭い範囲のクロップ読出しモードが設定されるが、読出し領域内の情報量としてオートフォーカス制御に必要な量の情報を取得できる。このため追従AF連続撮影の性能を低下させることなく、被写体の輝度が低い場合でもオートフォーカス制御性能を向上させることが可能となる。   In the present embodiment, when the size of the subject image and the amount of movement are small, a crop reading mode in a narrow range is set. However, the amount of information necessary for autofocus control can be acquired as the amount of information in the reading area. For this reason, it is possible to improve the autofocus control performance even when the luminance of the subject is low without degrading the performance of the continuous AF tracking.

[第4実施形態]
次に図8を参照して、本発明の第4実施形態について説明する。図8は、本実施形態における追従AF連続撮影の処理を示すフローチャートである。図8に示すS701からS707の処理と、S712からS716の処理は、第2実施形態において説明した図5のS501からS507、S509からS513の各処理と同様であるため、説明を省略する。
Fourth Embodiment
Next, a fourth embodiment of the present invention will be described with reference to FIG. FIG. 8 is a flowchart illustrating processing for continuous AF tracking in the present embodiment. The processes from S701 to S707 and the processes from S712 to S716 shown in FIG. 8 are the same as the processes from S501 to S507 and S509 to S513 in FIG.

S706からS708に移行した場合、制御部121は、画像処理回路125によるモノ検出結果からAF読出し領域を決定し、S711へ移行する。またS707からS709に進み、制御部121は輝度判定処理を行う。S701およびS702で撮影した静止画像において、S707で決定されたAF読出し領域に相当する範囲内の輝度を算出し、予めメモリ134に記憶してある輝度閾値と比較する処理が行われる。算出された輝度が輝度閾値未満であり、低輝度と判定された場合(S709においてYES)、S710へ移行する。一方、算出された輝度が輝度閾値以上であり、低輝度ではないと判定された場合(S709においてNO)、S711へ移行する。   When the process proceeds from step S706 to step S708, the control unit 121 determines an AF readout area from the result of the thing detection by the image processing circuit 125, and proceeds to step S711. In step S707, the control unit 121 performs luminance determination processing. In the still images taken in S701 and S702, the brightness within the range corresponding to the AF readout area determined in S707 is calculated and compared with the brightness threshold stored in the memory 134 in advance. If the calculated luminance is less than the luminance threshold and it is determined that the luminance is low (YES in S709), the process proceeds to S710. On the other hand, when the calculated luminance is equal to or higher than the luminance threshold and it is determined that the luminance is not low (NO in S709), the process proceeds to S711.

S710で制御部121は撮像素子駆動回路124のモードをクロップ読出しモードに設定する。またS711で制御部121は、撮像素子駆動回路124のモードを間引き読出しモードに設定する。クロップ読出しモードで設定される読出し範囲は、間引き読出しモードで設定される読出し範囲より狭い。つまり、被写体検出にてモノ検出結果しか取得できていない場合、画像処理回路125における被写体追従性能は、顔検出結果が取得されている場合に比べて劣る。このためS711では、AF処理にて対象を見つけるために広い読出し範囲の情報を必要とする。   In step S710, the control unit 121 sets the mode of the imaging element drive circuit 124 to the crop reading mode. In step S711, the control unit 121 sets the mode of the imaging device drive circuit 124 to the thinning readout mode. The readout range set in the crop readout mode is narrower than the readout range set in the thinning readout mode. That is, when only the mono detection result can be acquired by subject detection, the subject tracking performance in the image processing circuit 125 is inferior to that when the face detection result is acquired. For this reason, in S711, information in a wide reading range is required to find a target in the AF process.

本実施形態によれば、第2の検出処理に比べて検出精度が低い第1の検出処理による検出結果しか取得できていない場合、第2の検出処理による検出結果が取得されている場合に比較して、より広い範囲の読出し処理が行われる。つまり、間引き読出しモードの設定により、AF対象を見失いにくくなるので、追従AF連続撮影におけるオートフォーカス制御の連続性を保つことができる。   According to the present embodiment, when only the detection result by the first detection process, which is lower in detection accuracy than the second detection process, can be acquired, compared to when the detection result by the second detection process is acquired. Thus, a wider range of read processing is performed. That is, since it is difficult to lose sight of the AF target by setting the thinning readout mode, the continuity of the autofocus control in the continuous AF continuous shooting can be maintained.

[第5実施形態]
次に図7および図9を参照して、本発明の第5実施形態について説明する。図9は、本実施形態における追従AF連続撮影の処理を示すフローチャートである。図9に示すS801からS812の処理と、S814からS818の処理は、第3実施形態において説明した図6のS601からS612、S613からS617の各処理と同様であるため、それらの説明を省略する。S811またはS812の処理後にS813に進む。
Fifth Embodiment
Next, a fifth embodiment of the present invention will be described with reference to FIGS. FIG. 9 is a flowchart showing processing of continuous AF continuous shooting in the present embodiment. The processes from S801 to S812 and the processes from S814 to S818 shown in FIG. 9 are the same as the processes from S601 to S612 and S613 to S617 in FIG. 6 described in the third embodiment, and thus description thereof is omitted. . It progresses to S813 after the process of S811 or S812.

S813で制御部121は、S814でのAF蓄積時間と、S815でのAF読出し時間を算出する。追従AF連続撮影のAF精度を維持するためには、図7においてAF蓄積413とAF読出し414の処理を、次の撮影開始時点が到来するまでの所定時間内に終える必要がある。AF蓄積413の時間とAF読出し414の時間との総処理時間は一定であるが、AF読出し領域と読出しモードに応じてAF読出し時間が変化する。AF読出し領域は、S811またはS812のモードで設定される読出し領域であり、読出しモードは、間引き読出しモードまたはクロップ読出しモードである。被写体領域の輝度が輝度閾値より小さく低輝度である場合、制御部121はAF読出し時間が所定の時間よりも短いときに総処理時間内のAF蓄積時間を延長して調整する。所定の時間とは、撮像処理およびオートフォーカス処理の時間および連続撮影の時間間隔で決まる判定用時間である。また制御部121は、被写体領域が低輝度でない場合、AF蓄積時間を、静止画像信号の読出しの場合と同一の値、またはAF処理に適した値に設定する。   In step S813, the control unit 121 calculates the AF accumulation time in step S814 and the AF read time in step S815. In order to maintain the AF accuracy of the follow-up AF continuous shooting, the processing of the AF accumulation 413 and the AF reading 414 in FIG. 7 needs to be completed within a predetermined time until the next shooting start time comes. Although the total processing time of the AF accumulation 413 time and the AF read time 414 time is constant, the AF read time varies depending on the AF read area and the read mode. The AF read area is a read area set in the mode of S811 or S812, and the read mode is a thinning read mode or a crop read mode. When the luminance of the subject area is lower than the luminance threshold and low, the control unit 121 adjusts by extending the AF accumulation time within the total processing time when the AF read time is shorter than a predetermined time. The predetermined time is a time for determination determined by the time of imaging processing and autofocus processing and the time interval of continuous shooting. In addition, when the subject area does not have low luminance, the control unit 121 sets the AF accumulation time to the same value as in the case of reading out the still image signal or a value suitable for the AF process.

本実施形態では、AF読出し領域と読出しモードに応じてAF読出し時間を算出し、被写体領域が低輝度である場合にAF蓄積時間を延ばすことでAF用画像の輝度を上げる処理を行うので、より精度の高いオートフォーカス制御が可能となる。   In the present embodiment, since the AF read time is calculated according to the AF read region and the read mode and the AF accumulation time is increased when the subject region has low luminance, the processing for increasing the luminance of the AF image is performed. Accurate autofocus control is possible.

[第6実施形態]
図10から図14を参照して、本発明の第6実施形態における追従AF連続撮影について説明する。本実施形態は、ユーザの所望する被写体(主顔)の位置を予測し、顔検出の開始タイミングを早める処理を行う。
Sixth Embodiment
With reference to FIGS. 10 to 14, the following AF continuous shooting in the sixth embodiment of the present invention will be described. In the present embodiment, the position of the subject (main face) desired by the user is predicted, and processing for advancing the start timing of face detection is performed.

図12(A)は、例えば撮像素子107の受光面上での主顔の画像について配置例を示す図である。2次元CMOSフォトセンサ上には、撮影された主顔の画像の位置を矩形で表わしている。図12(A)の左右方向をx方向とし、上下方向をy方向と定義する。最初の撮影による1枚目の主顔位置1101と、次の撮影による2枚目の主顔位置1102と、さらにその次の撮影による3枚目の主顔位置1103を例示する。   FIG. 12A is a diagram illustrating an arrangement example of the main face image on the light receiving surface of the image sensor 107, for example. On the two-dimensional CMOS photosensor, the position of the photographed main face image is represented by a rectangle. The left and right direction in FIG. 12A is defined as the x direction, and the up and down direction is defined as the y direction. The first main face position 1101 of the first shot, the second main face position 1102 of the next shot, and the third main face position 1103 of the next shot are illustrated.

図12(B)は主顔の予測位置の説明図である。縦軸は、撮影された主顔画像のy方向の中心位置を示し、横軸は撮影枚数を示す。例えば、点1104は1枚目の主顔画像の中心位置を示し、点1105は2枚目の主顔画像の中心位置を示し、点1106は3枚目の主顔画像の中心位置を示す。ここで、点1107は4枚目の主顔画像の予測中心位置を示している。具体的には、3点1104、1105、1106の位置から回帰直線によって予測した位置を点1107で図示している。   FIG. 12B is an explanatory diagram of the predicted position of the main face. The vertical axis indicates the center position of the captured main face image in the y direction, and the horizontal axis indicates the number of shots. For example, the point 1104 indicates the center position of the first main face image, the point 1105 indicates the center position of the second main face image, and the point 1106 indicates the center position of the third main face image. Here, a point 1107 indicates the predicted center position of the fourth main face image. Specifically, a position predicted by a regression line from the positions of the three points 1104, 1105, and 1106 is shown by a point 1107.

図13(A)は、図12(B)の点1107にて予測される主顔画像の中心位置に基づく主顔画像位置の予測範囲1201を示す。図13(A)の左右方向をx方向とし、上下方向をy方向と定義する。図13(A)に示す予測範囲1201は、例えば主顔画像の大きさや予測のばらつき等を加味して決定される。一例として予測範囲1201が、y方向にて最大値のM(=50)%以内の範囲である場合を示している。   FIG. 13A shows a predicted range 1201 of the main face image position based on the center position of the main face image predicted at the point 1107 in FIG. The left and right direction in FIG. 13A is defined as the x direction, and the up and down direction is defined as the y direction. The prediction range 1201 shown in FIG. 13A is determined in consideration of the size of the main face image, variation in prediction, and the like. As an example, a case where the prediction range 1201 is a range within M (= 50)% of the maximum value in the y direction is shown.

図13(B)は、顔検出を開始する位置の説明図である。図13(A)に示すように、予測範囲1201が2次元CMOSフォトセンサ上で50%以内であった場合、50%に相当する位置での静止画像信号の読出し処理が完了してから、顔検出が開始する。具体的には、図4に示す静止画読出し402が50%完了した時点で、図4に示す顔検出処理404aが開始することになる。換言すれば、顔画像の位置が含まれると予測される50%の範囲の画像信号の読出しが完了しないうちは、顔検出処理は実行されない。   FIG. 13B is an explanatory diagram of a position at which face detection is started. As shown in FIG. 13A, when the prediction range 1201 is within 50% on the two-dimensional CMOS photosensor, the reading process of the still image signal at the position corresponding to 50% is completed, and then the face Detection starts. Specifically, when 50% of the still image readout 402 shown in FIG. 4 is completed, the face detection process 404a shown in FIG. 4 starts. In other words, the face detection process is not performed until the reading of the image signal in the range of 50% which is predicted to include the position of the face image is not completed.

図10と図11のフローチャートを参照して、主顔画像の位置を予測して顔検出の開始を早めるための処理について説明する。
まず、図10のS1001で制御部121は、顔検出開始時間の算出処理を行い、顔検出開始時間および静止画読出し方向を決定する。処理の詳細については図11を用いて後述する。次のS1002の静止画蓄積処理は、第2実施形態で説明した図5のS501と同様であるため、説明を省略する。
A process for predicting the position of the main face image and advancing the start of face detection will be described with reference to the flowcharts of FIGS. 10 and 11.
First, in step S1001 of FIG. 10, the control unit 121 performs calculation processing of the face detection start time, and determines the face detection start time and the still image reading direction. Details of the processing will be described later with reference to FIG. The still image storage process of the next S1002 is the same as S501 of FIG. 5 described in the second embodiment, and thus the description thereof is omitted.

S1003では、S1001で決定された読出し方向で静止画像信号の読出しが開始する。制御部121はS1001の結果に基づいて撮像素子駆動回路124に対し、S1002で蓄積された画素信号の読出し方向を設定する。読出し方向については図14を用いて後述する。S1004は、S1001で決定された顔検出開始時間が経過するまでの待機処理である。S1005からS1009の処理については、第2実施形態で説明した図5のS504からS508の各処理と同様であるため、それらの説明を省略する。   In S1003, readout of the still image signal starts in the readout direction determined in S1001. Based on the result of S1001, the control unit 121 sets the readout direction of the pixel signal accumulated in S1002 to the image sensor driving circuit 124. The reading direction will be described later with reference to FIG. S1004 is a standby process until the face detection start time determined in S1001 elapses. The processing from S1005 to S1009 is the same as the processing from S504 to S508 in FIG. 5 described in the second embodiment, and thus description thereof is omitted.

S1008の次にS1010に処理を進め、制御部121は顔検出結果を顔検出履歴情報としてメモリ134に保存する。これは、顔検出結果をS1001で使用する目的でメモリ134に記憶する処理である。具体的には、検出された顔画像の中心座標、中心座標を基準とする顔画像のx方向のサイズおよびy方向のサイズ、顔の特徴量等が顔検出結果としてメモリ134に記憶される。顔検出履歴情報の保存後にS1011へ移行する。S1011からS1015の処理については、第2実施形態で説明した図5のS509からS513の各処理と同様であるため、それらの説明を省略する。   Following S1008, the process proceeds to S1010, and the control unit 121 stores the face detection result in the memory 134 as face detection history information. This is processing for storing the face detection result in the memory 134 for the purpose of use in S1001. Specifically, the center coordinates of the detected face image, the size in the x direction and the size in the y direction of the face image based on the center coordinates, the feature amount of the face, and the like are stored in the memory 134 as the face detection result. After storing the face detection history information, the process proceeds to S1011. The processes of S1011 to S1015 are the same as the processes of S509 to S513 of FIG. 5 described in the second embodiment, and thus the description thereof will be omitted.

図10のS1001で実行される顔検出開始時間の算出処理について、図11のフローチャートを参照して詳述する。   The face detection start time calculation process executed in S1001 of FIG. 10 will be described in detail with reference to the flowchart of FIG.

S1016で制御部121は顔検出履歴があるか否かを判定する。図10のS1010にてメモリ134に保存されている顔検出履歴情報を取得し、過去の顔検出履歴があるか否かについて判定される。例えば顔検出履歴の顔検出結果において連続した顔検出結果が存在しない場合、制御部121は顔検出履歴がないと判断する。N枚目の静止画撮影において、過去に連続して撮影されたN−1枚目、N−2枚目、N−3枚目の画像の顔検出結果が存在しない場合、制御部121は顔検出履歴がないと判断する。S1016にて顔検出履歴があると判断された場合(S1016においてYES)、S1017に移行する。また顔検出履歴がないと判断された場合(S1016においてNO)、S1020に移行する。   In step S1016, the control unit 121 determines whether there is a face detection history. In step S1010 of FIG. 10, the face detection history information stored in the memory 134 is acquired, and it is determined whether there is a past face detection history. For example, when there is no continuous face detection result in the face detection results of the face detection history, the control unit 121 determines that there is no face detection history. In the N-th still image shooting, when there is no face detection result of the N−1th, N−2th, and N−3th images continuously captured in the past, the control unit 121 detects the face It is determined that there is no detection history. If it is determined in S1016 that there is a face detection history (YES in S1016), the process proceeds to S1017. If it is determined that there is no face detection history (NO in S1016), the process proceeds to S1020.

S1017で制御部121は顔検出履歴を取得し、主顔位置の予測範囲を算出する。例えば、図13(A)の主顔位置の予測範囲1201が決定される。S1018で制御部121は、S1017で決定した主顔位置の予測範囲から静止画像信号の読出し方向を決定する。   In step S1017, the control unit 121 acquires a face detection history, and calculates a prediction range of the main face position. For example, the main face position prediction range 1201 in FIG. 13A is determined. In step S1018, the control unit 121 determines the reading direction of the still image signal from the predicted range of the main face position determined in step S1017.

図14を参照して、読出し方向の決定処理を具体的に説明する。図14にて左右方向をx方向とし、上下方向をy方向と定義する。x軸とy軸との交点を原点として右方向をxの正方向とし、下方向をyの正方向とする。図14(A)は、主顔位置の予測範囲が2次元CMOSフォトセンサの上位50%(0%≦y≦50%)であった場合を例示する。また図14(B)は、主顔位置の予測範囲が2次元CMOSフォトセンサの下位50%(50%≦y≦100%)であった場合を例示する。   The process of determining the reading direction will be specifically described with reference to FIG. In FIG. 14, the left and right direction is defined as x direction, and the up and down direction is defined as y direction. With the intersection of the x axis and the y axis as the origin, the right direction is the positive direction of x, and the downward direction is the positive direction of y. FIG. 14A exemplifies the case where the prediction range of the main face position is the top 50% (0% ≦ y ≦ 50%) of the two-dimensional CMOS photosensor. FIG. 14B exemplifies the case where the prediction range of the main face position is the lower 50% (50% ≦ y ≦ 100%) of the two-dimensional CMOS photosensor.

図14(A)の場合には、予測範囲(0%≦y≦50%)にて原点を起点としてxおよびy方向のいずれも正方向へ画像信号の読出しが行われるように方向(第1の方向)が設定される。一方、図14(B)の場合には、予測範囲(50%≦y≦100%)にて右下隅を起点としてxおよびy方向のいずれも負方向へ画像信号の読出しが行われるように方向(第2の方向)が設定される。第2の方向は、第1の方向とは反対の方向である。予測範囲に応じて2次元CMOSフォトセンサ上での読出し方向を変更することで、顔検出の開始を早めることができる。   In the case of FIG. 14A, in the prediction range (0% ≦ y ≦ 50%), the direction is set so that the image signal is read in the positive direction in both the x and y directions starting from the origin. Direction) is set. On the other hand, in the case of FIG. 14B, the image signal is read in the negative direction in both the x and y directions starting from the lower right corner in the prediction range (50% ≦ y ≦ 100%). (Second direction) is set. The second direction is a direction opposite to the first direction. The start of face detection can be accelerated by changing the reading direction on the two-dimensional CMOS photosensor according to the prediction range.

図11のS1019で制御部121は顔検出開始時間を算出する。制御部121は、S1017で決定された主顔の位置の予測範囲における画像信号の読出しが完了するまでの時間を算出する。   In S1019 of FIG. 11, the control unit 121 calculates a face detection start time. The control unit 121 calculates the time until reading of the image signal in the predicted range of the main face position determined in S1017 is completed.

S1016からS1020へ移行した場合には顔検出履歴がない。この場合、制御部121は静止画像信号の読出し方向をデフォルト方向(図14(A)の第1の方向:左上から右下の方向)とし、原点位置からの読出しが行われる。次のS1021で制御部121は、顔検出開始時間として、顔検出可能な読出し領域からの画像信号の読出しにかかる最大時間(MAX時間)を設定する。S1019、S1021の処理後、リターン処理に移行する。   When the process proceeds from S1016 to S1020, there is no face detection history. In this case, the control unit 121 sets the reading direction of the still image signal as a default direction (first direction in FIG. 14A: the direction from the upper left to the lower right) and performs reading from the origin position. In the next S1021, the control unit 121 sets, as the face detection start time, the maximum time (MAX time) required to read out the image signal from the face detectable read area. After the processing of S1019 and S1021, the process proceeds to return processing.

本実施形態によれば、ユーザの所望する被写体(主顔)の位置を予測し、処理時間のかかる顔検出の開始時点を早めることで、主顔に追従するオートフォーカス制御を行える。
なお、本実施形態では、回帰直線を用いた主顔位置の予測処理を一例として説明したが、これに限定されるものではなく、例えば移動平均法等による近似式を用いて主顔位置を予測してもよい。また、図15に示すように主顔の画像の大きさが所定の大きさ(サイズ閾値)になった場合(3枚目の画像を参照)、顔検出にて目だけを検出することで顔検出の開始時点を早めてもよい。
According to the present embodiment, it is possible to perform autofocus control that follows the main face by predicting the position of the subject (main face) desired by the user and by accelerating the start time of face detection that requires processing time.
In the present embodiment, the main face position prediction process using the regression line has been described as an example. However, the present invention is not limited to this. For example, the main face position is predicted using an approximate expression such as a moving average method. May be. Further, as shown in FIG. 15, when the size of the image of the main face becomes a predetermined size (size threshold) (see the third image), the face is detected by detecting only the eyes by face detection. The start time of detection may be advanced.

[第7実施形態]
図16から図18を参照して、第7実施形態における追従AF連続撮影について説明する。本実施形態では、第6実施形態における予測範囲で顔検出結果が得られなった場合のAF読出し領域の決定処理を説明する。図18はAF読出し領域の決定処理の説明図である。左右方向をx方向とし、上下方向をy方向と定義する。
Seventh Embodiment
Follow-up AF continuous shooting in the seventh embodiment will be described with reference to FIGS. 16 to 18. In the present embodiment, determination processing of an AF readout area when a face detection result is not obtained in a prediction range in the sixth embodiment will be described. FIG. 18 is an explanatory diagram of AF read area determination processing. The horizontal direction is defined as the x direction, and the vertical direction is defined as the y direction.

図18(A)は、予測範囲(0%≦y≦50%)に主顔画像が検出されず、顔検出結果が取得されない場合を例示する。図18(B)は、予測範囲で顔検出に成功したが、予測範囲内に主顔1501が存在しなかった場合を例示する。予測範囲は上位50%の範囲(0%≦y≦50%)とし、この範囲に別の被写体の顔が検出された例を示している。図18(A)および(B)に示すように、予測範囲内で主顔が検出されない場合、予測範囲外に主顔が存在する可能性がある。   FIG. 18A illustrates a case where the main face image is not detected in the prediction range (0% ≦ y ≦ 50%) and the face detection result is not acquired. FIG. 18B illustrates a case where face detection is successful within the prediction range, but the main face 1501 does not exist within the prediction range. The prediction range is the upper 50% range (0% ≦ y ≦ 50%), and an example is shown in which the face of another subject is detected in this range. As shown in FIGS. 18A and 18B, when the main face is not detected within the prediction range, the main face may exist outside the prediction range.

図18(C)は、予測範囲で主顔が検出されない場合にAF読出し領域1502として予測範囲外の領域を設定した例を示す。図18(D)は、予測範囲で主顔が検出されない場合の主顔の予測位置1503を示す。主顔の予測位置1503に関して、例えば、主顔画像のy方向のサイズはAF読出し領域の最大値とし、y方向におけるAF読出し領域の中心位置を、主顔画像のy方向の中心位置とする。また、顔画像のx方向の中心位置については、例えば、過去の連続するN−1枚目、N−2枚目、N−3枚目の画像における主顔画像のx方向における中心位置を回帰直線によって予測した位置とする。このように制御部121は最初の予測範囲以外の領域において主顔の予測位置を算出する。   FIG. 18C shows an example in which a region outside the prediction range is set as the AF readout region 1502 when the main face is not detected in the prediction range. FIG. 18D shows the predicted position 1503 of the main face when no main face is detected in the prediction range. Regarding the predicted position 1503 of the main face, for example, the size of the main face image in the y direction is the maximum value of the AF read area, and the center position of the AF read area in the y direction is the center position of the main face image in the y direction. In addition, with regard to the center position of the face image in the x direction, for example, the center position of the main face image in the x direction in the past consecutive N-1th, N-2th, and N-3rd images is regressed The position predicted by a straight line. Thus, the control unit 121 calculates the predicted position of the main face in an area other than the first predicted range.

図16および図17のフローチャートを参照して、AF読出し領域の決定処理について説明する。図16にてS1401からS1406の処理は、第6実施形態において説明した図10のS1001からS1006の各処理と同様である。更に、S1408からS1412の処理は、第6実施形態において説明したS1011からS1015の各処理と同様である。S1401の顔検出開始時間の算出処理は、図11で説明したとおりである。よって、それらの説明を省略して、相違点であるS1407の処理を説明する。   The process of determining the AF reading area will be described with reference to the flowcharts of FIGS. 16 and 17. In FIG. 16, the processes from S1401 to S1406 are the same as the processes from S1001 to S1006 of FIG. 10 described in the sixth embodiment. Further, the processing from S1408 to S1412 is the same as the processing from S1011 to S1015 described in the sixth embodiment. The calculation process of the face detection start time in S1401 is as described in FIG. Therefore, the description thereof is omitted, and the processing of S1407 which is the difference is described.

図17のフローチャートを参照して、図16のS1407に示すAF読出し領域の決定処理について詳述する。
S1419で制御部121は今回の顔検出にて、顔検出結果が取得されたか否かを判定する。顔検出結果が取得された場合(S1419においてYES)、S1420に移行し、顔検出結果が取得されていない場合(S1419においてNO)、S1424に移行する。S1420で制御部121は、前回の顔検出結果が取得されているか否かを判定する。具体的には、制御部121はメモリ134に保存されている顔検出履歴情報を取得し、顔検出履歴に1つ前の撮影における顔検出結果があるか否かを判定する。前回の顔検出結果が取得されている場合(S1420においてYES)、S1421に移行する。また、前回の顔検出結果が取得されていない場合(S1420においてNO)、制御部121は新しい主顔が検出されたと判断し、S1422に移行する。
With reference to the flowchart of FIG. 17, the AF read area determination process shown in S1407 of FIG. 16 will be described in detail.
In step S1419, the control unit 121 determines whether a face detection result has been acquired in the current face detection. If the face detection result is acquired (YES in S1419), the process proceeds to S1420. If the face detection result is not acquired (NO in S1419), the process proceeds to S1424. In step S1420, the control unit 121 determines whether the previous face detection result has been acquired. Specifically, the control unit 121 obtains face detection history information stored in the memory 134, and determines whether or not there is a face detection result in the previous shooting in the face detection history. If the previous face detection result has been acquired (YES in S1420), the process moves to S1421. If the previous face detection result has not been acquired (NO in S1420), the control unit 121 determines that a new main face has been detected, and proceeds to S1422.

S1421で制御部121は、検出された顔が主顔であるか否かを判定する。具体的には、制御部121は前回の顔検出結果である顔画像の特徴量と今回検出された顔検出結果である顔画像の特徴量を比較し、今回検出された顔検出結果が主顔であるか否かを判定する。検出された顔が主顔であると判定された場合(S1421においてYES)、S1422に移行し、検出された顔が主顔でないと判定された場合(S1421においてNO)、S1424に移行する。   In step S1421, the control unit 121 determines whether the detected face is a main face. Specifically, the control unit 121 compares the feature amount of the face image as the previous face detection result with the feature amount of the face image as the currently detected face detection result, and the face detection result detected this time is the main face. It is determined whether or not. If it is determined that the detected face is the main face (YES in S1421), the process proceeds to S1422, and if it is determined that the detected face is not the main face (NO in S1421), the process proceeds to S1424.

S1422で制御部121は、顔検出結果からAF読出し領域を決定する。S1423で制御部121は、顔検出結果を顔検出履歴としてメモリ134に保存する。S1424で制御部121は、顔検出履歴があるか否かを判定する。制御部121はメモリ134に保存されている顔検出履歴情報を取得し、過去の顔検出履歴があるか否かを判定する。例えば、制御部121は顔検出履歴の顔検出結果において連続した顔検出結果が存在しない場合、顔検出履歴がないと判断する。顔検出履歴がある場合(S1424においてYES)、S1425に移行し、顔検出履歴がない場合(S1424においてNO)、S1427に移行する。   In step S1422, the control unit 121 determines an AF read area from the face detection result. In step S <b> 1423, the control unit 121 stores the face detection result in the memory 134 as a face detection history. In step S1424, the control unit 121 determines whether there is a face detection history. The control unit 121 acquires face detection history information stored in the memory 134 and determines whether there is a past face detection history. For example, when there is no continuous face detection result in the face detection results of the face detection history, the control unit 121 determines that there is no face detection history. If there is a face detection history (YES in S1424), S1425 follows. If there is no face detection history (NO in S1424), S1427 follows.

S1425で制御部121は、予測範囲で顔検出結果が得られなかった場合のAF読出し領域を決定する。例えば、図18(C)で説明したAF読出し領域1502が決定される。S1426で制御部121は、主顔の予測位置を決定する。例えば、図18(D)で説明した主顔の予測位置1503が決定される。S1427で制御部121は、モノ検出結果からAF読出し領域を決定する。S1423、S1426、S1427の処理後、リターン処理に移行する。   In step S1425, the control unit 121 determines an AF read area when a face detection result is not obtained in the prediction range. For example, the AF read area 1502 described with reference to FIG. In step S1426, the control unit 121 determines the predicted position of the main face. For example, the predicted position 1503 of the main face described with reference to FIG. In step S1427, the control unit 121 determines an AF read area from the mono detection result. After the processing of S1423, S1426, and S1427, the process proceeds to return processing.

本実施形態によれば、予測範囲での顔検出にて主顔の検出結果が得られなかった場合、予測範囲とは異なる範囲にAF読出し領域を設定することで、主顔に追従するオートフォーカス制御を行える。なお、本実施形態では、予測範囲以外の領域をAF読出し領域として設定する例を説明した。これに限定されるものではなく、予測範囲と部分的に重なる領域をAF読出し領域として設定してもよい。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
According to the present embodiment, when the detection result of the main face is not obtained by the face detection in the prediction range, the auto focus that follows the main face is set by setting the AF read area in a range different from the prediction range. You can control. In the present embodiment, an example in which an area other than the prediction range is set as the AF reading area has been described. However, the present invention is not limited to this, and an area that partially overlaps the prediction range may be set as the AF read area.
As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

100…撮像装置
105…第3レンズ群
107…撮像素子
114…フォーカスアクチュエータ
121…制御部
124…撮像素子駆動回路
126…フォーカス駆動回路
100 ... imaging device 105 ... third lens group 107 ... imaging device 114 ... focus actuator 121 ... control unit 124 ... imaging device drive circuit 126 ... focus drive circuit

Claims (11)

連続撮影にてオートフォーカス制御および被写体の追尾制御を行う撮像装置であって、
撮像された画像に係る第1の画像信号を撮像素子から読出す第1の読出し手段と、
前記オートフォーカス制御の評価値の算出に用いる第2の画像信号を前記撮像素子から読出す第2の読出し手段と、
前記第1の画像信号を用いて被写体を検出する被写体検出手段と、
前記被写体検出手段により取得された被写体の検出情報から前記第2の画像信号を読出す位置を決定し、前記第2の読出し手段により読出された前記第2の画像信号から前記評価値を取得して焦点調節の制御を行う制御手段と、を備え、
前記制御手段は、連続撮影の時間間隔から前記被写体検出手段による検出の開始時点を算出し、前記第1の読出し手段が前記撮像素子から前記第1の画像信号を読出している途中に、前記被写体検出手段は前記開始時点で被写体の検出を開始して、読出された前記第1の画像信号を用いて被写体検出を行い、前記第2の読出し手段は、前記制御手段により決定された前記位置から前記第2の画像信号を読出すことを特徴とする撮像装置。
An imaging device that performs autofocus control and subject tracking control in continuous shooting,
First reading means for reading a first image signal relating to a captured image from the imaging device;
Second reading means for reading a second image signal used for calculation of the evaluation value of the autofocus control from the image sensor;
Subject detection means for detecting a subject using the first image signal;
The position for reading the second image signal is determined from the detection information of the subject obtained by the subject detection means, and the evaluation value is obtained from the second image signal read by the second readout means. And control means for controlling the focus adjustment.
The control means calculates a detection start time by the subject detection means from a continuous shooting time interval, and the subject is being read while the first readout means is reading the first image signal from the image sensor. The detection unit starts detection of the subject at the start time, performs subject detection using the read first image signal, and the second reading unit starts from the position determined by the control unit. An image pickup apparatus that reads the second image signal.
前記被写体検出手段は、検出速度を優先して被写体検出を行う第1の検出処理と、検出精度を優先して被写体検出を行う第2の検出処理を、前記開始時点から実行し、
前記制御手段は、前記第1または第2の検出処理による検出情報から前記第2の画像信号を読出す位置を決定することを特徴とする請求項1に記載の撮像装置。
The subject detection means executes, from the start time point, a first detection process for subject detection with priority on detection speed and a second detection process for subject detection with priority on detection accuracy.
The image pickup apparatus according to claim 1, wherein the control means determines a position at which the second image signal is read out from detection information by the first or second detection process.
前記制御手段は、前記第1および第2の検出処理による検出情報が取得されている場合、前記第2の検出処理による検出情報から前記第2の画像信号を読出す位置を決定し、前記第2の検出処理による検出情報が取得されない場合、前記第1の検出処理による検出情報から前記第2の画像信号を読出す位置を決定することを特徴とする請求項2に記載の撮像装置。   When the detection information obtained by the first detection process and the second detection process is acquired, the control unit determines a position for reading the second image signal from the detection information obtained by the second detection process. 3. The imaging apparatus according to claim 2, wherein when the detection information obtained by the detection process of 2 is not acquired, a position from which the second image signal is read is determined from the detection information obtained by the first detection process. 前記制御手段は、前記被写体検出手段により検出される被写体像を含む領域の輝度、大きさ、または動き量を判定し、前記第2の読出し手段に対して第1または第2の読出しモードを設定し、
前記第1の読出しモードは、第1の読出し範囲から前記第2の画像信号を読出すモードであり、前記第2の読出しモードは、前記第1の読出し範囲よりも狭い第2の読出し範囲から前記第2の画像信号を読出すモードであることを特徴とする請求項1から3のいずれか1項に記載の撮像装置。
The control means determines the luminance, size, or amount of motion of the area including the subject image detected by the subject detection means, and sets the first or second readout mode for the second readout means. And
The first readout mode is a mode in which the second image signal is read out from a first readout range, and the second readout mode is from a second readout range that is narrower than the first readout range. The imaging apparatus according to any one of claims 1 to 3, which is a mode for reading out the second image signal.
前記制御手段は、前記被写体像を含む領域の輝度値が輝度閾値以上である場合、前記第1の読出しモードに設定し、前記被写体像を含む領域の輝度値が前記輝度閾値より小さい場合には、前記被写体像の大きさまたは動き量を閾値と比較して前記第1または第2の読出しモードに設定することを特徴とする請求項4に記載の撮像装置。   The control means sets the first reading mode when the luminance value of the region including the subject image is equal to or higher than the luminance threshold value, and when the luminance value of the region including the subject image is smaller than the luminance threshold value. 5. The image pickup apparatus according to claim 4, wherein the size of the subject image or the amount of movement is compared with a threshold value to set the first or second readout mode. 前記制御手段は、前記被写体像を含む領域の輝度値が前記輝度閾値より小さい場合、
前記被写体像の大きさが第1の閾値以上であるか、または前記被写体像の動き量が第2の閾値以上であるときに、前記第1の読出しモードに設定し、
前記被写体像の大きさが前記第1の閾値より小さく、かつ前記被写体像の動き量が前記第2の閾値より小さいときに、前記第2の読出しモードに設定することを特徴とする請求項5に記載の撮像装置。
When the luminance value of the area including the subject image is smaller than the luminance threshold, the control means may
The first readout mode is set when the size of the subject image is equal to or greater than a first threshold, or the movement amount of the subject image is equal to or greater than a second threshold.
6. The second reading mode is set when the size of the subject image is smaller than the first threshold and the amount of movement of the subject image is smaller than the second threshold. The imaging device described in 1.
前記制御手段は、前記第1の検出処理の検出情報が取得されており、前記第2の検出処理の検出情報が取得されない場合、前記第2の読出し手段に対して、読出し範囲から画像信号を間引いて読出すモードに設定することを特徴とする請求項3に記載の撮像装置。   When the detection information of the first detection process is acquired and the detection information of the second detection process is not acquired, the control unit outputs an image signal from the reading range to the second reading unit. 4. The image pickup apparatus according to claim 3, wherein a mode for thinning out and reading is set. 前記制御手段は、前記評価値を取得するための撮像処理において前記撮像素子の蓄積時間および読出し時間を算出し、
前記被写体検出手段により検出される被写体像を含む領域の輝度が輝度閾値より小さく、かつ前記読出し時間が撮像処理およびオートフォーカス処理の時間および連続撮影の時間間隔で決定される時間よりも短い場合、前記蓄積時間を延ばすことを特徴とする請求項1から7のいずれか1項に記載の撮像装置。
The control means calculates an accumulation time and a readout time of the imaging element in an imaging process for obtaining the evaluation value,
When the luminance of the region including the subject image detected by the subject detection unit is smaller than a luminance threshold, and the readout time is shorter than the time determined by the time of imaging processing and autofocus processing and the time interval of continuous shooting, The imaging apparatus according to claim 1, wherein the accumulation time is extended.
前記制御手段は、前記被写体検出手段の検出情報を履歴情報として記憶手段に記憶し、前記履歴情報を用いて次の撮像における被写体像の位置を予測して前記第1の読出し手段による前記第1の画像信号の読出し方向を決定するとともに、前記被写体検出手段による検出の開始時点を算出することを特徴とする請求項1から8のいずれか1項に記載の撮像装置。   The control unit stores the detection information of the subject detection unit in the storage unit as history information, predicts the position of the subject image in the next imaging using the history information, and performs the first reading by the first reading unit. The image pickup apparatus according to claim 1, wherein a reading direction of the image signal is determined, and a detection start time by the subject detection unit is calculated. 前記制御手段は、第1の範囲に前記被写体像が検出されない場合、前記第2の読出し手段により、前記第1の範囲とは異なる第2の範囲から前記第2の画像信号を読出す制御を行うことを特徴とする請求項9に記載の撮像装置。   The control means performs control to read out the second image signal from a second range different from the first range by the second reading means when the subject image is not detected in the first range. The imaging device according to claim 9, wherein the imaging device is performed. 連続撮影にてオートフォーカス制御および被写体の追尾制御を行う撮像装置において実行される制御方法であって、
撮像された画像に係る第1の画像信号を撮像素子から読出す第1の読出し工程と、
前記オートフォーカス制御の評価値の算出に用いる第2の画像信号を前記撮像素子から読出す第2の読出し工程と、
前記第1の画像信号を用いて被写体を検出する被写体検出工程と、
前記被写体検出工程で取得された被写体の検出情報から前記第2の画像信号を読出す位置を決定し、前記第2の読出し工程で読出された前記第2の画像信号から前記評価値を取得して焦点調節の制御を行う制御工程と、を有し、
前記制御工程では、連続撮影の時間間隔から前記被写体検出工程の開始時点が算出され、前記第1の読出し工程で前記撮像素子から前記第1の画像信号を読出している途中に、前記被写体検出工程が前記開始時点で開始して、読出された前記第1の画像信号を用いて被写体検出が行われ、さらに前記第2の読出し工程では、決定された前記位置から前記第2の画像信号を読出す処理が行われることを特徴とする撮像装置の制御方法。
A control method executed in an imaging apparatus that performs autofocus control and subject tracking control in continuous shooting,
A first reading step of reading a first image signal relating to a captured image from the imaging device;
A second reading step of reading a second image signal used for calculating the evaluation value of the autofocus control from the image sensor;
A subject detection step of detecting a subject using the first image signal;
The position for reading the second image signal is determined from the detection information of the subject acquired in the subject detection step, and the evaluation value is acquired from the second image signal read in the second read step. And a control process for controlling the focus adjustment.
In the control step, a start time of the subject detection step is calculated from a time interval of continuous shooting, and the subject detection step is performed while the first image signal is being read from the image sensor in the first read step. Starts at the start time, subject detection is performed using the read first image signal, and in the second reading step, the second image signal is read from the determined position. A method for controlling an image pickup apparatus, characterized in that a processing to be performed is performed.
JP2015255719A 2015-12-28 2015-12-28 Image pickup apparatus and control method thereof Expired - Fee Related JP6552408B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015255719A JP6552408B2 (en) 2015-12-28 2015-12-28 Image pickup apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015255719A JP6552408B2 (en) 2015-12-28 2015-12-28 Image pickup apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JP2017120279A JP2017120279A (en) 2017-07-06
JP6552408B2 true JP6552408B2 (en) 2019-07-31

Family

ID=59271776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015255719A Expired - Fee Related JP6552408B2 (en) 2015-12-28 2015-12-28 Image pickup apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP6552408B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018006264T5 (en) * 2017-12-06 2020-08-20 Sony Semiconductor Solutions Corporation SOLID-STATE IMAGE RECORDING DEVICE, CONTROL METHOD FOR SOLID-STATE IMAGE RECORDING DEVICE, AND COMPUTER PROGRAM

Also Published As

Publication number Publication date
JP2017120279A (en) 2017-07-06

Similar Documents

Publication Publication Date Title
US10462374B2 (en) Zooming control apparatus, image capturing apparatus and control methods thereof
JP3992992B2 (en) Subject image acquisition device
US9253410B2 (en) Object detection apparatus, control method therefor, image capturing apparatus, and storage medium
JP4623193B2 (en) Imaging apparatus, imaging method, and program
JP3823921B2 (en) Imaging device
JP4843002B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP2006091915A (en) Imaging apparatus
JP2016197202A (en) Focus adjustment device, control method and control program for the same, and imaging device
JP2009169282A (en) Imaging apparatus and its program
JP6188474B2 (en) Zoom control device, control method for zoom control device, control program for zoom control device, and storage medium
JP6451191B2 (en) Image processing apparatus and imaging apparatus
JP6245923B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, IMAGING DEVICE CONTROL PROGRAM, AND STORAGE MEDIUM
JP6087714B2 (en) Imaging apparatus and control method thereof
JP6552408B2 (en) Image pickup apparatus and control method thereof
JP2014056153A (en) Focus adjustment device, imaging device, and control method therefor
JP6808501B2 (en) Imaging device and control method of imaging device
JP2011048265A (en) Focus detection device and focus detection method
JP4535462B2 (en) Subject image acquisition device
JP2006201568A (en) Camera detectable of hand shake
JP6234103B2 (en) Zoom control device, control method for zoom control device, control program for zoom control device, and storage medium
WO2021161959A1 (en) Information processing device, information processing method, information processing program, imaging device, imaging device control method, control program, and imaging system
JP5069076B2 (en) Imaging apparatus and continuous imaging method
JP4308494B2 (en) Camera, subject image acquisition apparatus, automatic focusing system, and automatic focusing method
JP2018005153A (en) Imaging apparatus
JP2020101730A (en) Imaging device and control method for the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190702

R151 Written notification of patent or utility model registration

Ref document number: 6552408

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees