JP6552408B2 - Image pickup apparatus and control method thereof - Google Patents
Image pickup apparatus and control method thereof Download PDFInfo
- Publication number
- JP6552408B2 JP6552408B2 JP2015255719A JP2015255719A JP6552408B2 JP 6552408 B2 JP6552408 B2 JP 6552408B2 JP 2015255719 A JP2015255719 A JP 2015255719A JP 2015255719 A JP2015255719 A JP 2015255719A JP 6552408 B2 JP6552408 B2 JP 6552408B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- detection
- image
- reading
- image signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
Description
本発明は、連続合焦撮影の制御に関するものである。 The present invention relates to control of continuous focus shooting.
撮像装置では、撮像素子からAF(オートフォーカス)評価値の取得に必要な画像信号の読出しを行って焦点検出を行う。その際、静止画像信号等の通常の読出し速度よりも速く読出すことで高速な焦点検出を行う技術がある。 The imaging apparatus performs focus detection by reading out an image signal necessary for obtaining an AF (autofocus) evaluation value from the imaging device. At this time, there is a technique for performing high-speed focus detection by reading a still image signal or the like faster than a normal reading speed.
特許文献1では、有効画素領域のうち特定の領域の画素信号のみを撮像素子から読出し、AF評価値を取得する技術が開示されている。また特許文献2では、予め区分された静止画像の読出し領域のうち特定の区分領域を他の区分領域よりも先に読出し、AF評価値を取得する技術が開示されている。
特許文献1に開示の従来技術では、有効画素領域全体の信号を読出して被写体を検知し、AF評価値の取得のための読出し領域を決めている。有効画素領域全体から信号を読出す際には、被写体像に対応しない部分の信号も読出される。このため、無駄な読出し時間を費やしてしまい、AF評価値の取得までに時間がかかる可能性がある。また、特許文献2に開示の従来技術では、静止画像信号の読出しと並行して、AF評価値の取得のための信号が読出される。AF評価値を取得するための読出し領域は、予め区分された静止画像信号の読出し領域内の特定の一部領域である。この一部領域から信号を読出す場合、被写体に動きがあると、設定した領域に被写体が写らなくなる可能性が高まる。よって被写体の検出精度や追尾性能が低下する可能性がある。
In the prior art disclosed in
本発明の目的は、オートフォーカス制御にて焦点位置の決定にかかる時間を短縮しつつ、被写体追尾制御による高速な連続撮影を実現することである。 An object of the present invention is to realize high-speed continuous shooting by subject tracking control while shortening the time taken to determine the focus position in autofocus control.
本発明の一実施形態に係る装置は、連続撮影にてオートフォーカス制御および被写体の追尾制御を行う撮像装置であって、撮像された画像に係る第1の画像信号を撮像素子から読出す第1の読出し手段と、前記オートフォーカス制御の評価値の算出に用いる第2の画像信号を前記撮像素子から読出す第2の読出し手段と、前記第1の画像信号を用いて被写体を検出する被写体検出手段と、前記被写体検出手段により取得された被写体の検出情報から前記第2の画像信号を読出す位置を決定し、前記第2の読出し手段により読出された前記第2の画像信号から前記評価値を取得して焦点調節の制御を行う制御手段と、を備える。前記制御手段は、連続撮影の時間間隔から前記被写体検出手段による検出の開始時点を算出し、前記第1の読出し手段が前記撮像素子から前記第1の画像信号を読出している途中に、前記被写体検出手段は前記開始時点で被写体の検出を開始して、読出された前記第1の画像信号を用いて被写体検出を行い、前記第2の読出し手段は、前記制御手段により決定された前記位置から前記第2の画像信号を読出す。 An apparatus according to an embodiment of the present invention is an imaging apparatus that performs autofocus control and subject tracking control in continuous shooting, and reads a first image signal related to a captured image from an imaging element. Reading means, second reading means for reading a second image signal used for calculation of the evaluation value of the autofocus control from the image sensor, and subject detection for detecting a subject using the first image signal And a position at which the second image signal is read from the subject detection information acquired by the subject detection means, and the evaluation value is determined from the second image signal read by the second readout means. And controlling means for controlling the focus adjustment. The control means calculates a detection start time by the subject detection means from a continuous shooting time interval, and the subject is being read while the first readout means is reading the first image signal from the image sensor. The detection unit starts detection of the subject at the start time, performs subject detection using the read first image signal, and the second reading unit starts from the position determined by the control unit. The second image signal is read out.
本発明によれば、オートフォーカス制御にて焦点位置の決定にかかる時間を短縮しつつ、被写体追尾制御による高速な連続撮影を実現できる。 According to the present invention, it is possible to realize high-speed continuous shooting by subject tracking control while reducing the time required for determining the focal position by autofocus control.
以下、本発明の各実施形態について添付図面を参照して詳細に説明する。
[第1実施形態]
図1を参照して、本発明の第1実施形態に係る撮像装置の構成について説明する。図1は撮像装置100の全体構成を示す図である。撮像装置100として、デジタルカメラを例示し、被写体側を前側と定義して各部を説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
First Embodiment
The configuration of the imaging device according to the first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a diagram illustrating an overall configuration of the
第1レンズ群101は、撮像光学系の先端部に配置されており、光軸方向に沿って進退可能に保持されている。絞り兼用シャッタ102は、その開口径を調節することで撮影時の光量調節を行うほか、静止画撮影時には露光秒時調節用シャッタとしても機能する。第2レンズ群103は、絞り兼用シャッタ102と一体となって光軸方向に進退し、第1レンズ群101の進退動作との連動によって変倍動作(ズーム機能)が行われる。第3レンズ群105は光軸方向に進退して焦点調節を行うフォーカスレンズである。光学的ローパスフィルタ106は、撮影画像の偽色やモアレを軽減するための光学素子である。撮像素子107は、2次元CMOS(相補型金属酸化膜半導体)フォトセンサと周辺回路を有し、撮像光学系の結像面に配置される。
The
ズームアクチュエータ111は、図示しないカム筒が回動されることで、第1レンズ群101乃至第3レンズ群105を光軸方向に移動させて変倍動作を行う駆動部である。絞りシャッタアクチュエータ112は、絞り兼用シャッタ102の開口径を制御して撮影光量を調節するとともに、静止画撮影時の露光時間制御を行う。フォーカスアクチュエータ114は、第3レンズ群105を光軸方向に移動させて焦点調節を行う駆動部である。
The
撮影時に用いられる照明部(被写体照明用電子フラッシュ)115は、キセノン管を用いた閃光照明装置、または連続発光するLEDを備えた照明装置である。電子フラッシュ制御回路122は、撮影動作に同期して照明部115を点灯制御する。
An illumination unit (electronic flash for subject illumination) 115 used at the time of photographing is a flash illumination device using a xenon tube or an illumination device including LEDs that emit light continuously. The electronic
オートフォーカス(以下、AFと記す)補助光源部116は、所定の開口パターンを有するマスクの像を、投光レンズを介して被写体に投影する。これにより、暗い被写体や低コントラストの被写体に対する焦点検出能力を向上させることができる。補助光源駆動回路123は、焦点検出動作に同期してAF補助光源部116を点灯制御する。
An autofocus (hereinafter referred to as AF) auxiliary
制御部121は、撮像装置100における種々の制御を司る中枢部である。制御部121は、図示しないCPU(中央演算処理装置)、A(アナログ)/D(デジタル)コンバータ、D/Aコンバータ、通信インターフェイス回路等を有する。撮像素子駆動回路124は、撮像素子107の撮像動作を制御するとともに、撮像素子107から取得した画像信号をA/D変換して制御部121に出力する。画像処理回路125は、撮像素子107が取得した画像データを用いた被写体検出処理や、当該画像データに対するγ変換、カラー補間、JPEG(Joint Photographic Experts Group)圧縮等の処理を行う。
The
フォーカス駆動回路126は、制御部121による焦点検出結果に基づいてフォーカスアクチュエータ114を駆動制御する。フォーカスアクチュエータ114により第3レンズ群105が光軸方向に移動して焦点調節が行われる。絞りシャッタ駆動回路128は、制御部121の制御指令にしたがって絞りシャッタアクチュエータ112を駆動制御し、絞り兼用シャッタ102の開口を制御する。ズーム駆動回路129は、撮影者によるズーム操作に応じた制御部121の制御指令にしたがって、ズームアクチュエータ111を駆動する。
The
表示装置131は、例えばLCD(液晶表示装置)等の表示デバイスを備える。表示装置131は、撮像装置100の撮影モードに関する情報、撮影前のプレビュー画像、撮影後の確認用画像、焦点検出時の合焦状態の表示画像等を表示する。操作部132は、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等を含む。レリーズスイッチは、押し込み量に応じて第1スイッチ(SW1)および第2スイッチ(SW2)が順にオン状態となる2段階のスイッチである。レリーズスイッチを約半分押し込んだときにSW1がオンし、レリーズスイッチを最後まで押し込んだときにSW2がオンする。
The
記録媒体133は、カメラ本体部に着脱可能なフラッシュメモリ等であり、撮影により取得した画像ファイルを記録する。メモリ134はRAM(ランダム・アクセス・メモリ)、ROM(リード・オンリ・メモリ)等であり、所定のプログラムを記憶し、画像処理中の画像データや画像処理に必要なパラメータデータ等を保持する。制御部121は、メモリ134を構成するROMに記憶された所定のプログラムに基づいて、撮像装置100の各種回路を駆動し、AF制御、撮像処理、画像処理、記録処理等の一連の動作を実行する。
The
次に図2および図3を参照して、撮像装置100にて行われる被写体追尾制御による高速な連続撮影について説明する。この連続撮影は、被写体に追従するAF制御による連続撮影であり、以下、追従AF連続撮影という。図2は、本実施形態における追従AF連続撮影の動作のタイミングを示すタイミングチャートである。図3は、本実施形態における追従AF連続撮影の際の動作を説明するフローチャートである。操作部132に含まれる撮影モード選択スイッチのユーザ操作により、撮像装置100の撮影モードが追従AF連続撮影モードとなっていることを前提とする。撮影モードのときに、操作部132に含まれるレリーズスイッチがオン操作されることで撮影動作が開始し、S301へ移行する。
Next, with reference to FIGS. 2 and 3, high-speed continuous shooting by subject tracking control performed by the
S301では、静止画撮影のために撮像素子107への露光が開始し、電荷が蓄積される。露光時間は絞りシャッタアクチュエータ112の駆動制御により決定される。このとき、撮像素子駆動回路124は、撮像素子107の有効画素領域全体を含む領域の画像信号を読出す駆動モードで撮像素子107を制御する。処理のタイミングは図2の静止画蓄積201で示すように、撮影開始後である。
In step S301, exposure to the
S302で撮像素子駆動回路124は、撮像素子107に蓄積された電荷から得られた画像信号をA/D変換して、制御部121に出力する処理を開始する。S301において設定した駆動モードに従って、有効画素領域全体を含む領域の画像信号が読出される。処理のタイミングは図2の静止画読出し202で示すように、静止画蓄積201の処理の完了後である。
In step S302, the imaging device driving circuit 124 A / D converts an image signal obtained from the charges accumulated in the
S303では、撮像素子107に蓄積された電荷から得られた画像信号がA/D変換されて、1画素ごとに、または複数の画素単位で次々と制御部121に出力される。図2の静止画読出し202が行われて、ある時点から被写体検出処理が開始する。被写体検出処理の開始タイミングは、AF処理可能な領域までの読出しが完了するタイミングとなるように決定される。仮にAF処理可能でない領域で被写体像を検出して、その周辺においてAF評価値を演算しても、結局はAF処理を行えない。つまり、AF処理可能な領域まで読出しが完了した時点で、読出した画像信号に基づいて被写体検出を行えば、必要なAF評価値の演算が可能である。よって、AF処理可能な領域までの画像信号の読出しが完了する時点を、被写体検出処理の開始時点とする。AF処理可能な領域は撮影モードやレンズの種類により変わるため、制御部121は条件に応じて被写体検出処理の開始時点を変更する。または連続撮影の速度設定値に基づいて被写体検出処理の開始時点を決定してもよい。速度設定値が大きい場合、撮影と次の撮影との撮影間の処理時間をより短くする必要がある。そこで、被写体検出処理の開始時点を早める制御を行うことで、連続する撮影の間の処理時間を短縮できる。その場合、読出しが完了している画像信号の数は少なくなるため、被写体検出精度は低下するが、連続撮影の速度をより大きくすることが可能となる。
In step S303, the image signal obtained from the charge accumulated in the
S304で被写体検出処理(図2:203参照)が開始する。被写体検出処理は、制御部121が取得した画像信号に基づいて画像処理回路125が実行する。後述するが、AF処理に必要な検出結果の情報は被写体の位置情報である。またAF処理の開始時点には制約があり、AF処理の開始時点までに被写体検出処理が終了していることが必要である。例えば多数の被写体を撮影する場合を想定する。この場合にAF処理が開始するまでに被写体検出処理が間に合わずに終了していないことが起こりうる。その場合には、連続撮影における前回の撮影で取得されている被写体検出処理結果の位置情報が代用される。または、予め設定されているデフォルト位置情報がAF処理で使用される。被写体検出処理203の開始タイミングは、静止画読出し202の途中である。被写体検出処理の終了タイミングは、AF処理可能な領域まで画像信号の読出しが完了する時点、または設定中の追従AF連続撮影の速度を保証できる時点である。
A subject detection process (see 203 in FIG. 2) starts in S304. The subject detection process is executed by the
S305では、残りの静止画の画像信号の読出し処理と被写体検出処理とが並行して実行される。AF処理の開始タイミングは、連続撮影の速度によって決まる次の撮影開始時点に対して、以下の処理が完了するように決定される。
・AF評価値の算出用の画像信号(以下、AF用画像信号という)を読出す領域の算出処理。
・AF用画像信号の読出しのための蓄積処理(図2:AF蓄積204)。
・AF用画像信号の読出し処理(図2:AF読出し205)。
・AF評価値の算出処理と焦点調節用レンズの駆動量の算出処理(図2:駆動量算出206)。
・焦点調節用レンズの駆動処理(図2:レンズ駆動207)。
本明細書中にてAF用画像信号を読出す領域をAF読出し領域という。
In S305, the readout processing of the image signal of the remaining still image and the subject detection processing are executed in parallel. The start timing of the AF processing is determined such that the following processing is completed for the next shooting start time determined by the speed of continuous shooting.
An area calculation process for reading an image signal for calculating an AF evaluation value (hereinafter referred to as an AF image signal).
Accumulation processing for reading out an AF image signal (FIG. 2: AF accumulation 204).
AF image signal readout processing (FIG. 2: AF readout 205).
AF evaluation value calculation processing and focus adjustment lens drive amount calculation processing (FIG. 2: drive amount calculation 206).
A focus adjustment lens drive process (FIG. 2: lens drive 207).
In this specification, an area for reading an AF image signal is referred to as an AF reading area.
S306では、被写体検出の検出信号からAF読出し領域が算出される。前提として、AF用画像信号の読出しは、撮像素子駆動回路124において静止画像信号の読出しとは別の駆動で制御し、撮像素子107の有効画素領域の画像信号を部分的に読出すことによって行われるものとする。このとき、被写体検出結果である被写体の位置情報を用いて、被写体位置を中心として、有効画素領域に対して画像信号を部分的に読出す位置を決定する処理が行われる。処理のタイミングとしては図2のAF蓄積204に含めているが、前述の通りに定めたAF処理の開始時点で実行される。
In S306, the AF readout area is calculated from the detection signal of the subject detection. As a premise, the reading of the AF image signal is controlled by driving the image
S307では、AF評価値の算出のために撮像素子107へ露光が開始し、電荷が蓄積される。露光時間は絞りシャッタアクチュエータ112の駆動制御により設定される。静止画の場合とは異なり、撮像素子駆動回路124は、撮像素子107の有効画素領域の一部の領域から画像信号を読出す駆動方式(以下、部分読出し方式という)で撮像素子107を制御する。処理のタイミングは、AF読出し領域の算出処理後である。
In S307, exposure to the
S308で撮像素子駆動回路124は、撮像素子107に蓄積された電荷から得られた画像信号をA/D変換して、制御部121に出力する処理を開始する。S307において設定した駆動方式に従って有効画素領域の一部の領域から画像信号が読出される。処理のタイミングは、図2のAF読出し205で示すように、AF蓄積204の完了後である。
In step S <b> 308, the imaging device driving circuit 124 A / D converts an image signal obtained from the charge accumulated in the
S309で制御部121は、取得した画像信号に基づいてAF評価値の算出処理を実行して、次の撮影で被写体に焦点を合わせるためのレンズの駆動量を算出する。処理のタイミングは、図2の駆動量算出206で示すように、AF読出し205の完了後である。S310では、制御部121が算出したレンズの駆動量にしたがって、フォーカス駆動回路126、または絞りシャッタ駆動回路128、あるいは両者の駆動制御が行われる。フォーカスアクチュエータ114の駆動により、被写体に対応する合焦位置まで焦点調節用レンズが移動する。
In step S309, the
S311で制御部121は、操作部132に含まれるレリーズスイッチ(第2スイッチSW2)がオンかオフかを判断する。SW2がオンである場合、S301に戻り、S310での合焦位置で連続撮影を続行する。SW2がオフである場合、連続撮影を停止して撮影終了となる。図2に示すレンズ駆動207の後にS311でのSW2のオン・オフの判断処理が行われる。SW2がオンである場合、次の撮影が開始される。静止画蓄積208、静止画読出し209の処理が実行されて撮像処理を続行する。
In step S311, the
本実施形態では、静止画像信号の読出し途中で被写体検出処理が開始する。これにより被写体検出処理と静止画読出し処理との並行処理が実行されるので、連続する撮影間の処理時間をより短くすることができる。加えて、AF読出し領域は、被写体位置に基づいた撮像素子の有効画素領域の一部領域に設定され、部分読出し方式の駆動モードが設定される。これにより、被写体検出および追尾の精度を保ったままで、画像信号の読出しにかかる時間をより短縮できる。 In the present embodiment, subject detection processing is started during reading of a still image signal. Thereby, the parallel processing of the subject detection processing and the still image reading processing is executed, so that the processing time between consecutive photographing can be further shortened. In addition, the AF readout area is set to a partial area of the effective pixel area of the image pickup device based on the subject position, and the drive mode of the partial readout method is set. As a result, it is possible to further reduce the time required to read the image signal while maintaining the accuracy of subject detection and tracking.
本実施形態によれば、被写体検出や追尾の精度を保ちつつ、連続する撮影間の処理時間とオートフォーカス制御用の画像信号の読出し時間を短縮することができる。よって次の撮影の焦点位置の決定までにかかる時間を抑制しつつ、被写体に追従する連続撮影の速度(連写速度)をより大きくすることができる。 According to the present embodiment, it is possible to shorten the processing time between successive shootings and the readout time of the image signal for autofocus control while maintaining the accuracy of object detection and tracking. Therefore, it is possible to further increase the speed (continuous shooting speed) of continuous shooting following an object while suppressing the time taken to determine the focus position of the next shooting.
[第2実施形態]
図4と図5を参照して、本発明の第2実施形態に係る撮像装置によって行われる追従AF連続撮影について説明する。図4は、本実施形態における追従AF連続撮影の動作のタイミングを示すタイミングチャートである。各処理401、402は図2の処理201、202に相当し、各処理405から410は、図2の処理204から209にそれぞれ相当する。図5は、本実施形態における追従AF連続撮影の動作を示すフローチャートである。本実施形態は、被写体検出処理の内容が第1実施形態と相違する。第1実施形態の場合と同様の構成については既に使用した符号を用いることで、それらの詳細な説明を省略し、主に相違点を説明する。このような説明の省略については後述の実施形態でも同じである。
Second Embodiment
The follow-up AF continuous imaging performed by the imaging device according to the second embodiment of the present invention will be described with reference to FIGS. 4 and 5. FIG. 4 is a timing chart showing the timing of the operation of the follow-up AF continuous shooting in the present embodiment. The
図4と図2との相違点は、被写体検出において、モノ検出処理403と顔検出処理404が行われる点である。モノ検出処理403は、被写体の内容(人物、物体等)や個数等を判別しないので、顔検出処理404よりも精度の低い第1の検出処理である。入力される画像信号に基づいて色情報からモノ検出処理が実行される。検出精度のパラメータを調節することで、AF処理の開始時点までに、主被写体の位置とサイズの情報を検出結果として出力可能である。つまり、第1の検出処理は検出速度を優先する検出処理である。
The difference between FIG. 4 and FIG. 2 is that an
顔検出処理404は、被写体が人物である場合に被写体の顔を検出する精度の高い第2の検出処理である。例えば、検出結果として被写体の顔であるか否かを判断し、被写体の個数や、それぞれの位置とサイズ、重要度の順位等の情報を取得可能である。被写体の顔やその他の物体の個数が多い場合の撮影では、検出処理が高負荷となるので、検出結果を出力するまでの時間は、モノ検出処理403よりも長くかかる。図4に示す顔検出処理404a,404bは検出精度を優先する検出処理である。
The face detection process 404 is a second detection process with high accuracy for detecting the face of the subject when the subject is a person. For example, it is possible to determine whether or not the face is a subject as a detection result, and to acquire information such as the number of subjects, the position and size of each subject, and the order of importance. In the case of shooting when the number of faces of the subject and other objects is large, the detection process has a high load, so the time taken to output the detection result takes longer than the
図5において、S501とS502の処理は、図3のS301、S302と同じ処理であり、S509からS513の処理は、図3のS307からS311と同じ処理である。よって、相違点であるS503からS508の処理を説明する。 In FIG. 5, the processing of S501 and S502 is the same processing as S301 and S302 of FIG. 3, and the processing of S509 to S513 is the same processing as S307 to S311 of FIG. Therefore, the processes of S503 to S508, which are differences, will be described.
S503では、撮像素子107に蓄積された電荷から得られた画像信号がA/D変換されて制御部121に出力されており、S504においてS304と同様に、被写体検出が開始する。図4に示すように、モノ検出処理403と顔検出処理404a,404bが開始するタイミングは、静止画像信号の読出しを実施している途中である。モノ検出処理403と顔検出処理404は同時に開始される。
In S503, an image signal obtained from the electric charge accumulated in the
S505では、静止画像信号の読出し処理と、2種類の被写体検出処理とが並行して実行される。AF処理の開始時点はS305と同様に、連続撮影の速度によって決まる次の撮影開始時点に対して、前記した各処理が完了する時点に決定される。 In S505, the still image signal reading process and the two types of subject detection processes are executed in parallel. The start time point of the AF process is determined as the time point when each process described above is completed with respect to the next shooting start time determined by the speed of continuous shooting, as in S305.
S506で制御部121は、S504で開始された2種類の被写体検出処理の検出結果について判断する。判断時点は、モノ検出処理403および顔検出処理404a,404bの処理が開始してからAF処理の開始時点に到達した時点である。このとき、顔検出処理404による検出結果が取得されているか否かについて判断処理が行われる。顔検出処理404は検出精度を優先する検出処理であり、モノ検出処理403に比べて検出に時間がかかるため、判断時点で以下の場合がある。
・モノ検出処理403はその検出結果を出力可能であるが、顔検出処理404aはその検出結果が出力可能でない場合。
・モノ検出処理403および顔検出処理404bが検出結果を出力可能である場合。
In step S506, the
The
The case where the
制御部121はAF処理の開始時点までに各被写体検出の検出結果が出力可能であるか否かを判断し、モノ検出処理および顔検出処理がいずれも検出結果を出力可能である場合、S507に処理を進める。またモノ検出処理だけが検出結果を出力可能である場合にはS508の処理に移行する。
The
S507では、顔検出処理の検出結果を用いて、AF読出し領域を算出する処理が実行される。例えば被写体の数が1つである場合、当該被写体の画像位置を中心として読出し領域が決定される。また複数の被写体が検出された場合には、画像内の最も順位が高い被写体の画像位置を中心として読出し領域が決定される。AF読出し領域の決定において顔情報を用いる場合、顔サイズによって、瞳位置を中心に読出し領域を決定するか、または顔自体の中心で読出し領域を決定するかを判別する処理が行われる。決定されたAF読出し領域に対してAF用画像信号の読出しが開始される。 In S507, processing for calculating an AF read area is executed using the detection result of the face detection processing. For example, when the number of subjects is one, the reading area is determined around the image position of the subject. When a plurality of subjects are detected, the reading area is determined with the image position of the subject having the highest order in the image as the center. When face information is used in determining the AF readout area, processing is performed to determine whether to determine the readout area around the pupil position or the readout area at the center of the face itself depending on the face size. Reading of the AF image signal is started with respect to the determined AF reading area.
S508では、モノ検出処理の検出結果を用いて、AF読出し領域を算出する処理が実行される。この場合の検出結果としては1つの被写体の検出情報であり、当該被写体の画像位置を中心としてAF読出し領域が決定されて、AF用画像信号の読出しが開始される。 In S508, processing for calculating the AF read area is executed using the detection result of the mono detection processing. The detection result in this case is detection information for one subject, and an AF read area is determined around the image position of the subject, and reading of the AF image signal is started.
S507またはS508の処理のタイミングとしては図4のAF蓄積405に含めているが、AF処理の開始のタイミングである。S507またはS508の処理後、S509に処理を進める。S510の読出しの際、撮像素子107は図3のS308と同様に部分読出し方式で駆動制御が行われる。
The timing of the processing in S507 or S508 is included in the AF accumulation 405 in FIG. 4, but is the timing of starting the AF processing. After the process of S507 or S508, the process proceeds to S509. At the time of reading in S510, the
本実施形態では、2種類の被写体検出方法が同時に実施され、検出速度を優先する第1の検出処理により連続撮影の速度を保証しつつ、被写体の検出および追尾制御を行うことが可能である。またオートフォーカス制御における処理の開始時点にて、検出精度を優先する第2の検出処理の検出結果が取得可能である場合には、より精度の高い検出結果を用いてAF処理を行うことができるので、被写体追尾性能が向上する。 In the present embodiment, two types of subject detection methods are performed simultaneously, and subject detection and tracking control can be performed while guaranteeing the continuous shooting speed by the first detection process that prioritizes the detection speed. In addition, when the detection result of the second detection process giving priority to detection accuracy can be acquired at the start of the process in the autofocus control, the AF process can be performed using the detection result with higher accuracy. Therefore, the subject tracking performance is improved.
[第3実施形態]
以下、図6および図7を参照して、本発明の第3実施形態を説明する。本実施形態に係る撮像装置は、被写体の状況に応じて適切なAF用画像信号の読出しを行う。被写体の状況とは、例えば輝度、被写体像の大きさや動き量である。
Third Embodiment
Hereinafter, a third embodiment of the present invention will be described with reference to FIGS. 6 and 7. The imaging apparatus according to the present embodiment reads out an appropriate AF image signal according to the state of the subject. The condition of the subject is, for example, the luminance, the size of the subject image or the amount of movement.
図6は、本実施形態にて制御部121が行う追従AF連続撮影の処理を示すフローチャートである。S601からS608の処理と、S613からS617の処理は、第2実施形態において図5で説明したS501からS508の処理、S509からS513の処理と同様であるため、それらの説明を省略する。
FIG. 6 is a flowchart showing the processing of tracking AF continuous shooting performed by the
S607、S608の処理後にS609に進む。S609で制御部121は、S601およびS602で撮像された静止画像において、S607またはS608にて決定したAF読出し領域に相当する範囲内の輝度値を算出する。算出された輝度値は、予めメモリ134に記憶されている輝度閾値と比較される。算出された輝度値が輝度閾値より小さく、低輝度と判断された場合(S609においてYES)、S610へ移行する。一方、算出された輝度値が輝度閾値以上であって、低輝度ではないと判断された場合(S609においてNO)、S611へ移行する。
It progresses to S609 after the process of S607 and S608. In step S609, the
S610で制御部121は、S604での顔検出結果およびモノ検出結果から得られる被写体像の大きさと動き量を閾値とそれぞれ比較することにより判定する。閾値は被写体像の大きさを判定するための第1の閾値と被写体像の動き量を判定するための第2の閾値であり、メモリ134に予め記憶されている。制御部121は被写体像の大きさが第1の閾値より小さく、かつ被写体像の動き量が第2の閾値より小さいと判断した場合(S610においてNO)、S612へ移行する。一方、被写体像の大きさが第1の閾値以上であるか、または被写体像の動き量が第2の閾値以上であると判断された場合(S610においてYES)、S611へ移行する。S609およびS610で使用される輝度閾値、第1および第2の閾値は固定値または可変値である。可変値の場合、撮影前にユーザが操作部132により設定可能な構成であってもよい。
In step S610, the
S611で制御部121は、画像信号の読出し量を低減するために間引き読出しモードに設定する。間引き読出しモードにおいて、撮像素子駆動回路124により、AF読出し処理が、S607またはS608で決定されたAF読出し領域を含む第1の範囲で実行されるように設定される。
In step S611, the
またS612で制御部121は、AF処理に使用する読出し領域を限定するクロップ読出しモードに設定する。クロップ読出しモードで設定される第2の範囲は、間引き読出しモードでの第1の範囲より狭い。クロップ読出しモードにおいて、AF用画像信号の読出し処理が、S607またはS608で決定されたAF読出し領域を含む第2の範囲で実行されるように設定される。
In step S <b> 612, the
S609とS610における判定処理とAF読出しモードとの関係について、図7を参照して説明する。図7にて静止画像417は、AF読出し領域での輝度値が閾値以上であるか、または輝度値が閾値未満であって、かつ被写体像の大きさが第1の閾値以上であるかもしくは被写体像の動き量が第2の閾値以上である場合の画像を例示する。静止画像417に係る各処理を、静止画蓄積401からレンズ駆動408に示す。また、静止画像419は、AF読出し領域での輝度値が閾値未満であって、被写体像の大きさが第1の閾値より小さく、かつ被写体像の動き量が第2の閾値より小さい場合の画像を例示する。静止画像419に係る各処理を、静止画蓄積409からレンズ駆動416に示す。
The relationship between the determination processing in S609 and S610 and the AF readout mode will be described with reference to FIG. In FIG. 7, a
静止画像417の場合、AF処理にて間引き読出し418が行われる。間引き読出しモードでは、全画面よりも狭く、被写体像の部分を含む範囲から撮像素子駆動回路124が画像信号を部分的に読出す設定となる。一方、静止画像419の場合、AF処理において被写体像の部分に限定して読出すクロップ読出し420が行われる。つまり、クロップ読出しモードでは、間引き読出しモードに比べて限定された範囲内のすべての画像信号を撮像素子駆動回路124が読出す設定となる。
In the case of the
図6のS611またはS612でのAF読出しモードの設定処理後に、S613に処理を進め、AF処理が実行される。なお、本実施形態では、S610で被写体像の大きさと動き量を閾値と比較して判定することにより、AF読出しモードが決定される。S606で顔検出結果が取得された場合、顔を被写体とし、顔検出結果が取得されない場合にはモノを被写体として後続の処理が行われる。 After the AF read mode setting process in S611 or S612 in FIG. 6, the process proceeds to S613, and the AF process is executed. In the present embodiment, the AF readout mode is determined by comparing the size of the subject image and the amount of movement with the threshold value in S610. If the face detection result is acquired in S606, the subsequent processing is performed with the face as the subject and when the face detection result is not acquired with the object as the subject.
本実施形態では、被写体像の大きさと動き量が小さい場合に狭い範囲のクロップ読出しモードが設定されるが、読出し領域内の情報量としてオートフォーカス制御に必要な量の情報を取得できる。このため追従AF連続撮影の性能を低下させることなく、被写体の輝度が低い場合でもオートフォーカス制御性能を向上させることが可能となる。 In the present embodiment, when the size of the subject image and the amount of movement are small, a crop reading mode in a narrow range is set. However, the amount of information necessary for autofocus control can be acquired as the amount of information in the reading area. For this reason, it is possible to improve the autofocus control performance even when the luminance of the subject is low without degrading the performance of the continuous AF tracking.
[第4実施形態]
次に図8を参照して、本発明の第4実施形態について説明する。図8は、本実施形態における追従AF連続撮影の処理を示すフローチャートである。図8に示すS701からS707の処理と、S712からS716の処理は、第2実施形態において説明した図5のS501からS507、S509からS513の各処理と同様であるため、説明を省略する。
Fourth Embodiment
Next, a fourth embodiment of the present invention will be described with reference to FIG. FIG. 8 is a flowchart illustrating processing for continuous AF tracking in the present embodiment. The processes from S701 to S707 and the processes from S712 to S716 shown in FIG. 8 are the same as the processes from S501 to S507 and S509 to S513 in FIG.
S706からS708に移行した場合、制御部121は、画像処理回路125によるモノ検出結果からAF読出し領域を決定し、S711へ移行する。またS707からS709に進み、制御部121は輝度判定処理を行う。S701およびS702で撮影した静止画像において、S707で決定されたAF読出し領域に相当する範囲内の輝度を算出し、予めメモリ134に記憶してある輝度閾値と比較する処理が行われる。算出された輝度が輝度閾値未満であり、低輝度と判定された場合(S709においてYES)、S710へ移行する。一方、算出された輝度が輝度閾値以上であり、低輝度ではないと判定された場合(S709においてNO)、S711へ移行する。
When the process proceeds from step S706 to step S708, the
S710で制御部121は撮像素子駆動回路124のモードをクロップ読出しモードに設定する。またS711で制御部121は、撮像素子駆動回路124のモードを間引き読出しモードに設定する。クロップ読出しモードで設定される読出し範囲は、間引き読出しモードで設定される読出し範囲より狭い。つまり、被写体検出にてモノ検出結果しか取得できていない場合、画像処理回路125における被写体追従性能は、顔検出結果が取得されている場合に比べて劣る。このためS711では、AF処理にて対象を見つけるために広い読出し範囲の情報を必要とする。
In step S710, the
本実施形態によれば、第2の検出処理に比べて検出精度が低い第1の検出処理による検出結果しか取得できていない場合、第2の検出処理による検出結果が取得されている場合に比較して、より広い範囲の読出し処理が行われる。つまり、間引き読出しモードの設定により、AF対象を見失いにくくなるので、追従AF連続撮影におけるオートフォーカス制御の連続性を保つことができる。 According to the present embodiment, when only the detection result by the first detection process, which is lower in detection accuracy than the second detection process, can be acquired, compared to when the detection result by the second detection process is acquired. Thus, a wider range of read processing is performed. That is, since it is difficult to lose sight of the AF target by setting the thinning readout mode, the continuity of the autofocus control in the continuous AF continuous shooting can be maintained.
[第5実施形態]
次に図7および図9を参照して、本発明の第5実施形態について説明する。図9は、本実施形態における追従AF連続撮影の処理を示すフローチャートである。図9に示すS801からS812の処理と、S814からS818の処理は、第3実施形態において説明した図6のS601からS612、S613からS617の各処理と同様であるため、それらの説明を省略する。S811またはS812の処理後にS813に進む。
Fifth Embodiment
Next, a fifth embodiment of the present invention will be described with reference to FIGS. FIG. 9 is a flowchart showing processing of continuous AF continuous shooting in the present embodiment. The processes from S801 to S812 and the processes from S814 to S818 shown in FIG. 9 are the same as the processes from S601 to S612 and S613 to S617 in FIG. 6 described in the third embodiment, and thus description thereof is omitted. . It progresses to S813 after the process of S811 or S812.
S813で制御部121は、S814でのAF蓄積時間と、S815でのAF読出し時間を算出する。追従AF連続撮影のAF精度を維持するためには、図7においてAF蓄積413とAF読出し414の処理を、次の撮影開始時点が到来するまでの所定時間内に終える必要がある。AF蓄積413の時間とAF読出し414の時間との総処理時間は一定であるが、AF読出し領域と読出しモードに応じてAF読出し時間が変化する。AF読出し領域は、S811またはS812のモードで設定される読出し領域であり、読出しモードは、間引き読出しモードまたはクロップ読出しモードである。被写体領域の輝度が輝度閾値より小さく低輝度である場合、制御部121はAF読出し時間が所定の時間よりも短いときに総処理時間内のAF蓄積時間を延長して調整する。所定の時間とは、撮像処理およびオートフォーカス処理の時間および連続撮影の時間間隔で決まる判定用時間である。また制御部121は、被写体領域が低輝度でない場合、AF蓄積時間を、静止画像信号の読出しの場合と同一の値、またはAF処理に適した値に設定する。
In step S813, the
本実施形態では、AF読出し領域と読出しモードに応じてAF読出し時間を算出し、被写体領域が低輝度である場合にAF蓄積時間を延ばすことでAF用画像の輝度を上げる処理を行うので、より精度の高いオートフォーカス制御が可能となる。 In the present embodiment, since the AF read time is calculated according to the AF read region and the read mode and the AF accumulation time is increased when the subject region has low luminance, the processing for increasing the luminance of the AF image is performed. Accurate autofocus control is possible.
[第6実施形態]
図10から図14を参照して、本発明の第6実施形態における追従AF連続撮影について説明する。本実施形態は、ユーザの所望する被写体(主顔)の位置を予測し、顔検出の開始タイミングを早める処理を行う。
Sixth Embodiment
With reference to FIGS. 10 to 14, the following AF continuous shooting in the sixth embodiment of the present invention will be described. In the present embodiment, the position of the subject (main face) desired by the user is predicted, and processing for advancing the start timing of face detection is performed.
図12(A)は、例えば撮像素子107の受光面上での主顔の画像について配置例を示す図である。2次元CMOSフォトセンサ上には、撮影された主顔の画像の位置を矩形で表わしている。図12(A)の左右方向をx方向とし、上下方向をy方向と定義する。最初の撮影による1枚目の主顔位置1101と、次の撮影による2枚目の主顔位置1102と、さらにその次の撮影による3枚目の主顔位置1103を例示する。
FIG. 12A is a diagram illustrating an arrangement example of the main face image on the light receiving surface of the
図12(B)は主顔の予測位置の説明図である。縦軸は、撮影された主顔画像のy方向の中心位置を示し、横軸は撮影枚数を示す。例えば、点1104は1枚目の主顔画像の中心位置を示し、点1105は2枚目の主顔画像の中心位置を示し、点1106は3枚目の主顔画像の中心位置を示す。ここで、点1107は4枚目の主顔画像の予測中心位置を示している。具体的には、3点1104、1105、1106の位置から回帰直線によって予測した位置を点1107で図示している。
FIG. 12B is an explanatory diagram of the predicted position of the main face. The vertical axis indicates the center position of the captured main face image in the y direction, and the horizontal axis indicates the number of shots. For example, the
図13(A)は、図12(B)の点1107にて予測される主顔画像の中心位置に基づく主顔画像位置の予測範囲1201を示す。図13(A)の左右方向をx方向とし、上下方向をy方向と定義する。図13(A)に示す予測範囲1201は、例えば主顔画像の大きさや予測のばらつき等を加味して決定される。一例として予測範囲1201が、y方向にて最大値のM(=50)%以内の範囲である場合を示している。
FIG. 13A shows a predicted
図13(B)は、顔検出を開始する位置の説明図である。図13(A)に示すように、予測範囲1201が2次元CMOSフォトセンサ上で50%以内であった場合、50%に相当する位置での静止画像信号の読出し処理が完了してから、顔検出が開始する。具体的には、図4に示す静止画読出し402が50%完了した時点で、図4に示す顔検出処理404aが開始することになる。換言すれば、顔画像の位置が含まれると予測される50%の範囲の画像信号の読出しが完了しないうちは、顔検出処理は実行されない。
FIG. 13B is an explanatory diagram of a position at which face detection is started. As shown in FIG. 13A, when the
図10と図11のフローチャートを参照して、主顔画像の位置を予測して顔検出の開始を早めるための処理について説明する。
まず、図10のS1001で制御部121は、顔検出開始時間の算出処理を行い、顔検出開始時間および静止画読出し方向を決定する。処理の詳細については図11を用いて後述する。次のS1002の静止画蓄積処理は、第2実施形態で説明した図5のS501と同様であるため、説明を省略する。
A process for predicting the position of the main face image and advancing the start of face detection will be described with reference to the flowcharts of FIGS. 10 and 11.
First, in step S1001 of FIG. 10, the
S1003では、S1001で決定された読出し方向で静止画像信号の読出しが開始する。制御部121はS1001の結果に基づいて撮像素子駆動回路124に対し、S1002で蓄積された画素信号の読出し方向を設定する。読出し方向については図14を用いて後述する。S1004は、S1001で決定された顔検出開始時間が経過するまでの待機処理である。S1005からS1009の処理については、第2実施形態で説明した図5のS504からS508の各処理と同様であるため、それらの説明を省略する。
In S1003, readout of the still image signal starts in the readout direction determined in S1001. Based on the result of S1001, the
S1008の次にS1010に処理を進め、制御部121は顔検出結果を顔検出履歴情報としてメモリ134に保存する。これは、顔検出結果をS1001で使用する目的でメモリ134に記憶する処理である。具体的には、検出された顔画像の中心座標、中心座標を基準とする顔画像のx方向のサイズおよびy方向のサイズ、顔の特徴量等が顔検出結果としてメモリ134に記憶される。顔検出履歴情報の保存後にS1011へ移行する。S1011からS1015の処理については、第2実施形態で説明した図5のS509からS513の各処理と同様であるため、それらの説明を省略する。
Following S1008, the process proceeds to S1010, and the
図10のS1001で実行される顔検出開始時間の算出処理について、図11のフローチャートを参照して詳述する。 The face detection start time calculation process executed in S1001 of FIG. 10 will be described in detail with reference to the flowchart of FIG.
S1016で制御部121は顔検出履歴があるか否かを判定する。図10のS1010にてメモリ134に保存されている顔検出履歴情報を取得し、過去の顔検出履歴があるか否かについて判定される。例えば顔検出履歴の顔検出結果において連続した顔検出結果が存在しない場合、制御部121は顔検出履歴がないと判断する。N枚目の静止画撮影において、過去に連続して撮影されたN−1枚目、N−2枚目、N−3枚目の画像の顔検出結果が存在しない場合、制御部121は顔検出履歴がないと判断する。S1016にて顔検出履歴があると判断された場合(S1016においてYES)、S1017に移行する。また顔検出履歴がないと判断された場合(S1016においてNO)、S1020に移行する。
In step S1016, the
S1017で制御部121は顔検出履歴を取得し、主顔位置の予測範囲を算出する。例えば、図13(A)の主顔位置の予測範囲1201が決定される。S1018で制御部121は、S1017で決定した主顔位置の予測範囲から静止画像信号の読出し方向を決定する。
In step S1017, the
図14を参照して、読出し方向の決定処理を具体的に説明する。図14にて左右方向をx方向とし、上下方向をy方向と定義する。x軸とy軸との交点を原点として右方向をxの正方向とし、下方向をyの正方向とする。図14(A)は、主顔位置の予測範囲が2次元CMOSフォトセンサの上位50%(0%≦y≦50%)であった場合を例示する。また図14(B)は、主顔位置の予測範囲が2次元CMOSフォトセンサの下位50%(50%≦y≦100%)であった場合を例示する。 The process of determining the reading direction will be specifically described with reference to FIG. In FIG. 14, the left and right direction is defined as x direction, and the up and down direction is defined as y direction. With the intersection of the x axis and the y axis as the origin, the right direction is the positive direction of x, and the downward direction is the positive direction of y. FIG. 14A exemplifies the case where the prediction range of the main face position is the top 50% (0% ≦ y ≦ 50%) of the two-dimensional CMOS photosensor. FIG. 14B exemplifies the case where the prediction range of the main face position is the lower 50% (50% ≦ y ≦ 100%) of the two-dimensional CMOS photosensor.
図14(A)の場合には、予測範囲(0%≦y≦50%)にて原点を起点としてxおよびy方向のいずれも正方向へ画像信号の読出しが行われるように方向(第1の方向)が設定される。一方、図14(B)の場合には、予測範囲(50%≦y≦100%)にて右下隅を起点としてxおよびy方向のいずれも負方向へ画像信号の読出しが行われるように方向(第2の方向)が設定される。第2の方向は、第1の方向とは反対の方向である。予測範囲に応じて2次元CMOSフォトセンサ上での読出し方向を変更することで、顔検出の開始を早めることができる。 In the case of FIG. 14A, in the prediction range (0% ≦ y ≦ 50%), the direction is set so that the image signal is read in the positive direction in both the x and y directions starting from the origin. Direction) is set. On the other hand, in the case of FIG. 14B, the image signal is read in the negative direction in both the x and y directions starting from the lower right corner in the prediction range (50% ≦ y ≦ 100%). (Second direction) is set. The second direction is a direction opposite to the first direction. The start of face detection can be accelerated by changing the reading direction on the two-dimensional CMOS photosensor according to the prediction range.
図11のS1019で制御部121は顔検出開始時間を算出する。制御部121は、S1017で決定された主顔の位置の予測範囲における画像信号の読出しが完了するまでの時間を算出する。
In S1019 of FIG. 11, the
S1016からS1020へ移行した場合には顔検出履歴がない。この場合、制御部121は静止画像信号の読出し方向をデフォルト方向(図14(A)の第1の方向:左上から右下の方向)とし、原点位置からの読出しが行われる。次のS1021で制御部121は、顔検出開始時間として、顔検出可能な読出し領域からの画像信号の読出しにかかる最大時間(MAX時間)を設定する。S1019、S1021の処理後、リターン処理に移行する。
When the process proceeds from S1016 to S1020, there is no face detection history. In this case, the
本実施形態によれば、ユーザの所望する被写体(主顔)の位置を予測し、処理時間のかかる顔検出の開始時点を早めることで、主顔に追従するオートフォーカス制御を行える。
なお、本実施形態では、回帰直線を用いた主顔位置の予測処理を一例として説明したが、これに限定されるものではなく、例えば移動平均法等による近似式を用いて主顔位置を予測してもよい。また、図15に示すように主顔の画像の大きさが所定の大きさ(サイズ閾値)になった場合(3枚目の画像を参照)、顔検出にて目だけを検出することで顔検出の開始時点を早めてもよい。
According to the present embodiment, it is possible to perform autofocus control that follows the main face by predicting the position of the subject (main face) desired by the user and by accelerating the start time of face detection that requires processing time.
In the present embodiment, the main face position prediction process using the regression line has been described as an example. However, the present invention is not limited to this. For example, the main face position is predicted using an approximate expression such as a moving average method. May be. Further, as shown in FIG. 15, when the size of the image of the main face becomes a predetermined size (size threshold) (see the third image), the face is detected by detecting only the eyes by face detection. The start time of detection may be advanced.
[第7実施形態]
図16から図18を参照して、第7実施形態における追従AF連続撮影について説明する。本実施形態では、第6実施形態における予測範囲で顔検出結果が得られなった場合のAF読出し領域の決定処理を説明する。図18はAF読出し領域の決定処理の説明図である。左右方向をx方向とし、上下方向をy方向と定義する。
Seventh Embodiment
Follow-up AF continuous shooting in the seventh embodiment will be described with reference to FIGS. 16 to 18. In the present embodiment, determination processing of an AF readout area when a face detection result is not obtained in a prediction range in the sixth embodiment will be described. FIG. 18 is an explanatory diagram of AF read area determination processing. The horizontal direction is defined as the x direction, and the vertical direction is defined as the y direction.
図18(A)は、予測範囲(0%≦y≦50%)に主顔画像が検出されず、顔検出結果が取得されない場合を例示する。図18(B)は、予測範囲で顔検出に成功したが、予測範囲内に主顔1501が存在しなかった場合を例示する。予測範囲は上位50%の範囲(0%≦y≦50%)とし、この範囲に別の被写体の顔が検出された例を示している。図18(A)および(B)に示すように、予測範囲内で主顔が検出されない場合、予測範囲外に主顔が存在する可能性がある。
FIG. 18A illustrates a case where the main face image is not detected in the prediction range (0% ≦ y ≦ 50%) and the face detection result is not acquired. FIG. 18B illustrates a case where face detection is successful within the prediction range, but the
図18(C)は、予測範囲で主顔が検出されない場合にAF読出し領域1502として予測範囲外の領域を設定した例を示す。図18(D)は、予測範囲で主顔が検出されない場合の主顔の予測位置1503を示す。主顔の予測位置1503に関して、例えば、主顔画像のy方向のサイズはAF読出し領域の最大値とし、y方向におけるAF読出し領域の中心位置を、主顔画像のy方向の中心位置とする。また、顔画像のx方向の中心位置については、例えば、過去の連続するN−1枚目、N−2枚目、N−3枚目の画像における主顔画像のx方向における中心位置を回帰直線によって予測した位置とする。このように制御部121は最初の予測範囲以外の領域において主顔の予測位置を算出する。
FIG. 18C shows an example in which a region outside the prediction range is set as the
図16および図17のフローチャートを参照して、AF読出し領域の決定処理について説明する。図16にてS1401からS1406の処理は、第6実施形態において説明した図10のS1001からS1006の各処理と同様である。更に、S1408からS1412の処理は、第6実施形態において説明したS1011からS1015の各処理と同様である。S1401の顔検出開始時間の算出処理は、図11で説明したとおりである。よって、それらの説明を省略して、相違点であるS1407の処理を説明する。 The process of determining the AF reading area will be described with reference to the flowcharts of FIGS. 16 and 17. In FIG. 16, the processes from S1401 to S1406 are the same as the processes from S1001 to S1006 of FIG. 10 described in the sixth embodiment. Further, the processing from S1408 to S1412 is the same as the processing from S1011 to S1015 described in the sixth embodiment. The calculation process of the face detection start time in S1401 is as described in FIG. Therefore, the description thereof is omitted, and the processing of S1407 which is the difference is described.
図17のフローチャートを参照して、図16のS1407に示すAF読出し領域の決定処理について詳述する。
S1419で制御部121は今回の顔検出にて、顔検出結果が取得されたか否かを判定する。顔検出結果が取得された場合(S1419においてYES)、S1420に移行し、顔検出結果が取得されていない場合(S1419においてNO)、S1424に移行する。S1420で制御部121は、前回の顔検出結果が取得されているか否かを判定する。具体的には、制御部121はメモリ134に保存されている顔検出履歴情報を取得し、顔検出履歴に1つ前の撮影における顔検出結果があるか否かを判定する。前回の顔検出結果が取得されている場合(S1420においてYES)、S1421に移行する。また、前回の顔検出結果が取得されていない場合(S1420においてNO)、制御部121は新しい主顔が検出されたと判断し、S1422に移行する。
With reference to the flowchart of FIG. 17, the AF read area determination process shown in S1407 of FIG. 16 will be described in detail.
In step S1419, the
S1421で制御部121は、検出された顔が主顔であるか否かを判定する。具体的には、制御部121は前回の顔検出結果である顔画像の特徴量と今回検出された顔検出結果である顔画像の特徴量を比較し、今回検出された顔検出結果が主顔であるか否かを判定する。検出された顔が主顔であると判定された場合(S1421においてYES)、S1422に移行し、検出された顔が主顔でないと判定された場合(S1421においてNO)、S1424に移行する。
In step S1421, the
S1422で制御部121は、顔検出結果からAF読出し領域を決定する。S1423で制御部121は、顔検出結果を顔検出履歴としてメモリ134に保存する。S1424で制御部121は、顔検出履歴があるか否かを判定する。制御部121はメモリ134に保存されている顔検出履歴情報を取得し、過去の顔検出履歴があるか否かを判定する。例えば、制御部121は顔検出履歴の顔検出結果において連続した顔検出結果が存在しない場合、顔検出履歴がないと判断する。顔検出履歴がある場合(S1424においてYES)、S1425に移行し、顔検出履歴がない場合(S1424においてNO)、S1427に移行する。
In step S1422, the
S1425で制御部121は、予測範囲で顔検出結果が得られなかった場合のAF読出し領域を決定する。例えば、図18(C)で説明したAF読出し領域1502が決定される。S1426で制御部121は、主顔の予測位置を決定する。例えば、図18(D)で説明した主顔の予測位置1503が決定される。S1427で制御部121は、モノ検出結果からAF読出し領域を決定する。S1423、S1426、S1427の処理後、リターン処理に移行する。
In step S1425, the
本実施形態によれば、予測範囲での顔検出にて主顔の検出結果が得られなかった場合、予測範囲とは異なる範囲にAF読出し領域を設定することで、主顔に追従するオートフォーカス制御を行える。なお、本実施形態では、予測範囲以外の領域をAF読出し領域として設定する例を説明した。これに限定されるものではなく、予測範囲と部分的に重なる領域をAF読出し領域として設定してもよい。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
According to the present embodiment, when the detection result of the main face is not obtained by the face detection in the prediction range, the auto focus that follows the main face is set by setting the AF read area in a range different from the prediction range. You can control. In the present embodiment, an example in which an area other than the prediction range is set as the AF reading area has been described. However, the present invention is not limited to this, and an area that partially overlaps the prediction range may be set as the AF read area.
As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
100…撮像装置
105…第3レンズ群
107…撮像素子
114…フォーカスアクチュエータ
121…制御部
124…撮像素子駆動回路
126…フォーカス駆動回路
100 ...
Claims (11)
撮像された画像に係る第1の画像信号を撮像素子から読出す第1の読出し手段と、
前記オートフォーカス制御の評価値の算出に用いる第2の画像信号を前記撮像素子から読出す第2の読出し手段と、
前記第1の画像信号を用いて被写体を検出する被写体検出手段と、
前記被写体検出手段により取得された被写体の検出情報から前記第2の画像信号を読出す位置を決定し、前記第2の読出し手段により読出された前記第2の画像信号から前記評価値を取得して焦点調節の制御を行う制御手段と、を備え、
前記制御手段は、連続撮影の時間間隔から前記被写体検出手段による検出の開始時点を算出し、前記第1の読出し手段が前記撮像素子から前記第1の画像信号を読出している途中に、前記被写体検出手段は前記開始時点で被写体の検出を開始して、読出された前記第1の画像信号を用いて被写体検出を行い、前記第2の読出し手段は、前記制御手段により決定された前記位置から前記第2の画像信号を読出すことを特徴とする撮像装置。 An imaging device that performs autofocus control and subject tracking control in continuous shooting,
First reading means for reading a first image signal relating to a captured image from the imaging device;
Second reading means for reading a second image signal used for calculation of the evaluation value of the autofocus control from the image sensor;
Subject detection means for detecting a subject using the first image signal;
The position for reading the second image signal is determined from the detection information of the subject obtained by the subject detection means, and the evaluation value is obtained from the second image signal read by the second readout means. And control means for controlling the focus adjustment.
The control means calculates a detection start time by the subject detection means from a continuous shooting time interval, and the subject is being read while the first readout means is reading the first image signal from the image sensor. The detection unit starts detection of the subject at the start time, performs subject detection using the read first image signal, and the second reading unit starts from the position determined by the control unit. An image pickup apparatus that reads the second image signal.
前記制御手段は、前記第1または第2の検出処理による検出情報から前記第2の画像信号を読出す位置を決定することを特徴とする請求項1に記載の撮像装置。 The subject detection means executes, from the start time point, a first detection process for subject detection with priority on detection speed and a second detection process for subject detection with priority on detection accuracy.
The image pickup apparatus according to claim 1, wherein the control means determines a position at which the second image signal is read out from detection information by the first or second detection process.
前記第1の読出しモードは、第1の読出し範囲から前記第2の画像信号を読出すモードであり、前記第2の読出しモードは、前記第1の読出し範囲よりも狭い第2の読出し範囲から前記第2の画像信号を読出すモードであることを特徴とする請求項1から3のいずれか1項に記載の撮像装置。 The control means determines the luminance, size, or amount of motion of the area including the subject image detected by the subject detection means, and sets the first or second readout mode for the second readout means. And
The first readout mode is a mode in which the second image signal is read out from a first readout range, and the second readout mode is from a second readout range that is narrower than the first readout range. The imaging apparatus according to any one of claims 1 to 3, which is a mode for reading out the second image signal.
前記被写体像の大きさが第1の閾値以上であるか、または前記被写体像の動き量が第2の閾値以上であるときに、前記第1の読出しモードに設定し、
前記被写体像の大きさが前記第1の閾値より小さく、かつ前記被写体像の動き量が前記第2の閾値より小さいときに、前記第2の読出しモードに設定することを特徴とする請求項5に記載の撮像装置。 When the luminance value of the area including the subject image is smaller than the luminance threshold, the control means may
The first readout mode is set when the size of the subject image is equal to or greater than a first threshold, or the movement amount of the subject image is equal to or greater than a second threshold.
6. The second reading mode is set when the size of the subject image is smaller than the first threshold and the amount of movement of the subject image is smaller than the second threshold. The imaging device described in 1.
前記被写体検出手段により検出される被写体像を含む領域の輝度が輝度閾値より小さく、かつ前記読出し時間が撮像処理およびオートフォーカス処理の時間および連続撮影の時間間隔で決定される時間よりも短い場合、前記蓄積時間を延ばすことを特徴とする請求項1から7のいずれか1項に記載の撮像装置。 The control means calculates an accumulation time and a readout time of the imaging element in an imaging process for obtaining the evaluation value,
When the luminance of the region including the subject image detected by the subject detection unit is smaller than a luminance threshold, and the readout time is shorter than the time determined by the time of imaging processing and autofocus processing and the time interval of continuous shooting, The imaging apparatus according to claim 1, wherein the accumulation time is extended.
撮像された画像に係る第1の画像信号を撮像素子から読出す第1の読出し工程と、
前記オートフォーカス制御の評価値の算出に用いる第2の画像信号を前記撮像素子から読出す第2の読出し工程と、
前記第1の画像信号を用いて被写体を検出する被写体検出工程と、
前記被写体検出工程で取得された被写体の検出情報から前記第2の画像信号を読出す位置を決定し、前記第2の読出し工程で読出された前記第2の画像信号から前記評価値を取得して焦点調節の制御を行う制御工程と、を有し、
前記制御工程では、連続撮影の時間間隔から前記被写体検出工程の開始時点が算出され、前記第1の読出し工程で前記撮像素子から前記第1の画像信号を読出している途中に、前記被写体検出工程が前記開始時点で開始して、読出された前記第1の画像信号を用いて被写体検出が行われ、さらに前記第2の読出し工程では、決定された前記位置から前記第2の画像信号を読出す処理が行われることを特徴とする撮像装置の制御方法。 A control method executed in an imaging apparatus that performs autofocus control and subject tracking control in continuous shooting,
A first reading step of reading a first image signal relating to a captured image from the imaging device;
A second reading step of reading a second image signal used for calculating the evaluation value of the autofocus control from the image sensor;
A subject detection step of detecting a subject using the first image signal;
The position for reading the second image signal is determined from the detection information of the subject acquired in the subject detection step, and the evaluation value is acquired from the second image signal read in the second read step. And a control process for controlling the focus adjustment.
In the control step, a start time of the subject detection step is calculated from a time interval of continuous shooting, and the subject detection step is performed while the first image signal is being read from the image sensor in the first read step. Starts at the start time, subject detection is performed using the read first image signal, and in the second reading step, the second image signal is read from the determined position. A method for controlling an image pickup apparatus, characterized in that a processing to be performed is performed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015255719A JP6552408B2 (en) | 2015-12-28 | 2015-12-28 | Image pickup apparatus and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015255719A JP6552408B2 (en) | 2015-12-28 | 2015-12-28 | Image pickup apparatus and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017120279A JP2017120279A (en) | 2017-07-06 |
JP6552408B2 true JP6552408B2 (en) | 2019-07-31 |
Family
ID=59271776
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015255719A Expired - Fee Related JP6552408B2 (en) | 2015-12-28 | 2015-12-28 | Image pickup apparatus and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6552408B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112018006264T5 (en) * | 2017-12-06 | 2020-08-20 | Sony Semiconductor Solutions Corporation | SOLID-STATE IMAGE RECORDING DEVICE, CONTROL METHOD FOR SOLID-STATE IMAGE RECORDING DEVICE, AND COMPUTER PROGRAM |
-
2015
- 2015-12-28 JP JP2015255719A patent/JP6552408B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2017120279A (en) | 2017-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10462374B2 (en) | Zooming control apparatus, image capturing apparatus and control methods thereof | |
JP3992992B2 (en) | Subject image acquisition device | |
US9253410B2 (en) | Object detection apparatus, control method therefor, image capturing apparatus, and storage medium | |
JP4623193B2 (en) | Imaging apparatus, imaging method, and program | |
JP3823921B2 (en) | Imaging device | |
JP4843002B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM | |
JP2006091915A (en) | Imaging apparatus | |
JP2016197202A (en) | Focus adjustment device, control method and control program for the same, and imaging device | |
JP2009169282A (en) | Imaging apparatus and its program | |
JP6188474B2 (en) | Zoom control device, control method for zoom control device, control program for zoom control device, and storage medium | |
JP6451191B2 (en) | Image processing apparatus and imaging apparatus | |
JP6245923B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, IMAGING DEVICE CONTROL PROGRAM, AND STORAGE MEDIUM | |
JP6087714B2 (en) | Imaging apparatus and control method thereof | |
JP6552408B2 (en) | Image pickup apparatus and control method thereof | |
JP2014056153A (en) | Focus adjustment device, imaging device, and control method therefor | |
JP6808501B2 (en) | Imaging device and control method of imaging device | |
JP2011048265A (en) | Focus detection device and focus detection method | |
JP4535462B2 (en) | Subject image acquisition device | |
JP2006201568A (en) | Camera detectable of hand shake | |
JP6234103B2 (en) | Zoom control device, control method for zoom control device, control program for zoom control device, and storage medium | |
WO2021161959A1 (en) | Information processing device, information processing method, information processing program, imaging device, imaging device control method, control program, and imaging system | |
JP5069076B2 (en) | Imaging apparatus and continuous imaging method | |
JP4308494B2 (en) | Camera, subject image acquisition apparatus, automatic focusing system, and automatic focusing method | |
JP2018005153A (en) | Imaging apparatus | |
JP2020101730A (en) | Imaging device and control method for the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181017 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190520 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190604 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190702 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6552408 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |