JP5965654B2 - TRACKING DEVICE, IMAGING DEVICE, TRACKING METHOD USED FOR IMAGING DEVICE - Google Patents
TRACKING DEVICE, IMAGING DEVICE, TRACKING METHOD USED FOR IMAGING DEVICE Download PDFInfo
- Publication number
- JP5965654B2 JP5965654B2 JP2012021020A JP2012021020A JP5965654B2 JP 5965654 B2 JP5965654 B2 JP 5965654B2 JP 2012021020 A JP2012021020 A JP 2012021020A JP 2012021020 A JP2012021020 A JP 2012021020A JP 5965654 B2 JP5965654 B2 JP 5965654B2
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- area
- evaluation value
- focus evaluation
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003384 imaging method Methods 0.000 title claims description 90
- 238000000034 method Methods 0.000 title claims description 76
- 238000011156 evaluation Methods 0.000 claims description 188
- 238000012545 processing Methods 0.000 claims description 86
- 238000001514 detection method Methods 0.000 claims description 25
- 230000008569 process Effects 0.000 description 60
- 230000007246 mechanism Effects 0.000 description 26
- 230000000875 corresponding effect Effects 0.000 description 15
- 230000003287 optical effect Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 210000001747 pupil Anatomy 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000004907 flux Effects 0.000 description 3
- 230000037303 wrinkles Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 210000001217 buttock Anatomy 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Description
本発明は、被写体を追尾する追尾装置及び撮像装置、撮像装置に用いる追尾方法に関する。 The present invention relates to a tracking device that tracks a subject, an imaging device, and a tracking method used in the imaging device.
被写体を追尾する追尾装置としては、例えばコントラストオートフォーカス(コントラストAF)で用いられるAF評価値を利用して被写体を追尾する技術がある。かかる技術としては例えば特許文献1がある。この特許文献1は、フォーカスレンズを駆動させながら、複数のAFエリアについて撮像素子の出力信号に基づいてコントラスト検出信号を演算し、この演算されたコントラスト検出信号からAFエリア間での被写体移動を検知し、この検知結果に応じて合焦位置を求めることを開示する。 As a tracking device for tracking a subject, there is a technique for tracking a subject using an AF evaluation value used in, for example, contrast autofocus (contrast AF). An example of such a technique is Patent Document 1. This Patent Document 1 calculates a contrast detection signal based on an output signal of an image sensor for a plurality of AF areas while driving a focus lens, and detects subject movement between AF areas from the calculated contrast detection signal. Then, it is disclosed that the in-focus position is obtained according to the detection result.
しかしながら、特許文献1は、移動する被写体よりもAFエリアが小さい場合、ローコントラストになり易く、移動する被写体を検出できないことがあり、又、移動する被写体よりもAFエリアが大きい場合、被写体の周囲も含まれるために、移動する被写体のみのAF評価値を取得できないことがある。 However, in Patent Document 1, when the AF area is smaller than the moving subject, the contrast tends to be low, and the moving subject may not be detected. Also, when the AF area is larger than the moving subject, Therefore, the AF evaluation value of only the moving subject may not be acquired.
本発明は、追尾するに適切なAF評価値を用いて追尾性能を向上できる追尾装置及び撮像装置、撮像装置に用いる追尾方法を提供することを目的とする。 It is an object of the present invention to provide a tracking device, an imaging device, and a tracking method used for the imaging device that can improve tracking performance using an AF evaluation value appropriate for tracking.
本発明の主要な局面に係る追尾装置は、被写体を撮像する撮像部と、前記撮像部の撮像により取得された画像データ中の前記被写体を追尾するための複数の特徴を取得する複数のエリアを包含するエリアを有し、かつ前記被写体に対するフォーカス評価値を取得するためのフォーカス評価値取得エリアを設定するフォーカス評価値取得エリア設定部と、前記被写体を追尾する追尾部と、前記被写体を含む追尾エリアが指定されると、前記フォーカス評価値取得エリア内の前記フォーカス評価値に基づいて前記指定された追尾エリア以外の非指定エリアに対する前記追尾部による追尾を禁止するエリアとする追尾禁止エリア設定部とを具備し、前記追尾禁止エリア設定部は、前記追尾エリアと前記非指定エリアとの間隔が予め設定された第1の閾値以内で、かつ前記各フォーカス評価値取得エリア内の前記各フォーカス評価値の差が予め設定された第2の閾値以上であれば、または、前記追尾エリアと前記非指定エリアとの間隔が予め設定された第1の閾値以内で、かつ前記追尾エリアと前記非指定エリアとの面積差が予め設定された第3の閾値以上であれば、前記追尾部による前記非指定エリアに対する追尾を禁止する。 A tracking device according to a main aspect of the present invention includes an imaging unit that images a subject, and a plurality of areas that acquire a plurality of features for tracking the subject in image data acquired by imaging of the imaging unit. A focus evaluation value acquisition area setting unit for setting a focus evaluation value acquisition area for acquiring a focus evaluation value for the subject, a tracking unit for tracking the subject, and a tracking including the subject When an area is specified, a tracking prohibition area setting unit which is an area in which tracking by the tracking unit with respect to a non-designated area other than the specified tracking area is prohibited based on the focus evaluation value in the focus evaluation value acquisition area comprising the door, the tracking prohibition area setting unit, first the distance between the tracking area and the non-designated area has been set in advance If the difference between the focus evaluation values within each focus evaluation value acquisition area is equal to or greater than a second threshold value set in advance, or the interval between the tracking area and the non-designated area is predetermined. If the area difference between the tracking area and the non-designated area is equal to or greater than a preset third threshold value within the first threshold value set, tracking of the non-designated area by the tracking unit is prohibited. .
本発明の主要な局面に係る撮像装置は、上記追尾装置と、前記撮像部の撮像により取得された前記画像データに対して画像処理を行う画像処理部と、前記画像処理部により画像処理された前記画像データを表示する表示部とを具備する。
本発明の主要な局面に係る撮像装置に用いる追尾方法は、撮像部の撮像により取得された画像データ中の被写体を追尾するための複数の特徴を取得する複数のエリアを包含するエリアを有し、かつ前記被写体に対するフォーカス評価値を取得するためのフォーカス評価値取得エリアを設定し、前記被写体を含む追尾エリアが指定されると、前記フォーカス評価値取得エリア内の前記フォーカス評価値に基づいて前記指定された追尾エリア以外の非指定エリアに対する前記追尾を禁止し、前記追尾エリアと前記非指定エリアとの間隔が予め設定された第1の閾値以内で、かつ前記各フォーカス評価値取得エリア内の前記各フォーカス評価値の差が予め設定された第2の閾値以上であれば、または、前記追尾エリアと前記非指定エリアとの間隔が予め設定された第1の閾値以内で、かつ前記追尾エリアと前記非指定エリアとの面積差が予め設定された第3の閾値以上であれば、前記非指定エリアに対する追尾を禁止する。
An imaging apparatus according to a main aspect of the present invention is image-processed by the tracking apparatus, an image processing unit that performs image processing on the image data acquired by imaging of the imaging unit, and the image processing unit. A display unit for displaying the image data.
Tracking method used in the imaging apparatus according to the principal aspect of the present invention, encompassing the area a plurality of areas for obtaining a plurality of features for tracking the object Utsushitai in the image data acquired by the imaging of the imaging unit And a focus evaluation value acquisition area for acquiring a focus evaluation value for the subject is set, and when a tracking area including the subject is designated, the focus evaluation value in the focus evaluation value acquisition area is set. It prohibits pre Symbol add tails for non-designated areas other than the designated tracking area Te, first within the threshold value, and wherein the focus evaluation value distance between the tracking area and the non-designated area has been set in advance If the difference between the focus evaluation values in the acquisition area is greater than or equal to a second threshold value set in advance, or the interval between the tracking area and the non-designated area is Within the first threshold value is because set, and if the third threshold value or more area difference of the tracking area and the non-designated area has been set in advance, prohibits the tracking for the non-designated area.
本発明によれば、追尾するに適切なAF評価値を用いて追尾性能を向上できる追尾装置及び撮像装置、撮像装置に用いる追尾方法を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the tracking method used for the tracking apparatus and imaging device which can improve tracking performance using AF evaluation value suitable for tracking, and an imaging device can be provided.
以下、本発明の一実施の形態について図面を参照して説明する。
図1は追尾装置を備えた撮像装置の一例の構成図を示す。撮像装置100は、撮影光学系102と、焦点調整機構104と、絞り106と、絞り駆動機構108と、シャッタ110と、シャッタ駆動機構112と、撮像素子114と、撮像素子インターフェイス(IF)回路116と、RAM118と、表示素子120と、表示素子駆動回路122と、タッチパネル124と、タッチパネル駆動回路126と、記録メディア128と、CPU1301を搭載するシステムコントローラ130と、カメラ操作スイッチ132と、ROM134とを有する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 shows a configuration diagram of an example of an imaging apparatus provided with a tracking device. The
このうち撮影光学系102と、焦点調整機構104と、絞り106と、絞り駆動機構108と、シャッタ110と、シャッタ駆動機構112と、撮像素子114と、撮像素子インターフェイス(IF)回路116とは、撮像部101を構成する。
Among them, the photographing
撮影光学系102は、被写体からの光束Fを撮像素子114の受光面上に集光する光学系である。この撮影光学系102は、フォーカスレンズ等の複数のレンズを有する。焦点調整機構104は、モータ及びその駆動回路等を有する。この焦点調整機構104は、CPU1301の制御に従って撮影光学系102内のフォーカスレンズをその光軸方向(図示一点鎖線方向)に駆動する。
The photographing
絞り106は、開閉自在に構成され、撮影光学系102を介して撮像素子114に入射する光束Fの量を調整する。絞り駆動機構108は、絞り106を駆動するための駆動機構を有する。この絞り駆動機構108は、システムコントローラ130内のCPU1301の制御に従って絞り106を駆動する。
The
シャッタ110は、撮像素子114の受光面を遮光状態又は露光状態とする。このシャッタ110により撮像素子114の露光時間が調整される。シャッタ駆動機構112は、シャッタ110を駆動させるための駆動機構を有し、システムコントローラ130内のCPU1301の制御に従ってシャッタ110を駆動する。
The
撮像素子114は、受光面を有する。この受光面には、撮影光学系102を介して集光された被写体からの光束Fが結像される。この撮像素子114の受光面は、複数の画素を2次元状に配置して成る。この撮像素子114の受光面の光入射側には、カラーフィルタが設けられている。この撮像素子114は、受光面に結像された光束Fに対応した像(被写体像)をその光量に応じた電気信号(以下、画像信号という)に変換する。この撮像素子114は、例えばCCD方式又はCMOS方式等の種々の構成のものが知られている。カラーフィルタの色配列は、例えばベイヤ配列等の種々の配列が知られている。本実施形態は、撮像素子114の構成が特定の構成に限定されるものではなく、種々の構成の撮像素子を用いることが可能である。
The
撮像素子IF回路116は、CPU1301の制御に従って撮像素子114を駆動し、この撮像素子114で得られた画像信号を読み出す。この撮像素子IF回路116は、撮像素子114から読み出した画像信号に対してCDS(相関二重サンプリング)処理やAGC(自動利得制御)処理等のアナログ処理を施す。さらに、撮像素子IF回路116は、アナログ処理した画像信号をデジタル信号(以下、画像データという)に変換する。
The image sensor IF
SDRAM118には、例えば記憶エリアとしてワークエリア118aと、評価画像エリア118bと、参照画像エリア118cと、追尾位置ログエリア118dと、コントラスト情報ログエリア118eとが形成されている。
ワークエリア118aには、例えば撮像素子IF回路116で得られた画像データ等の撮像装置100の各部で発生したデータが一時記憶される。
評価画像エリア118bには、評価画像データが一時記憶される。評価画像データは、後述する追尾処理における追尾対象の被写体を含むフレームの画像データである。
参照画像エリア118cには、参照画像データが一時記憶される。参照画像データは、後述する追尾処理において、追尾対象の探索の対象となるフレームの画像データである。
In the
In the
Evaluation image data is temporarily stored in the evaluation image area 118b. The evaluation image data is image data of a frame including a subject to be tracked in a tracking process described later.
Reference image data is temporarily stored in the
追尾位置ログエリア118dには、追尾位置ログが一時記憶される。追尾位置ログは、追尾処理の結果として得られた追尾位置を記録したログである。本実施の形態では、複数の追尾処理を併用して追尾対象を追尾する。従って、追尾位置ログには、それぞれの追尾処理によって得られた追尾位置(候補追尾位置)が個別に記録される。
コントラスト情報ログエリア118eには、コントラスト情報ログが一時記憶される。コントラスト情報ログは、コントラスト情報の演算処理によって得られたコントラスト情報を記録したログである。
A tracking position log is temporarily stored in the tracking
A contrast information log is temporarily stored in the contrast information log area 118e. The contrast information log is a log in which contrast information obtained by contrast information calculation processing is recorded.
表示素子120は、例えば液晶ディスプレイ(LCD)であり、ライブビュー用の画像及び記録メディア128に記録された画像等の各種画像を表示する。以下、表示素子120は、LCD120と称する。表示素子駆動回路122は、CPU1301の制御により入力された画像データに基づいてLCD120を駆動し、LCD120に画像を表示する。
The
タッチパネル124は、LCD120の表示画面上に一体的に設けられ、当該表示画面上へのユーザの指等の接触(タッチ)を検出し、このタッチ位置を示す座標を含む接触検出信号を出力する。タッチパネル駆動回路126は、タッチパネル124を駆動すると共に、タッチパネル124からの接触検出信号をCPU1301に送る。CPU1301は、タッチパネル124からの接触検出信号から、ユーザの表示画面上への接触操作を検出し、その接触操作に応じた処理を実行する。
The
記録メディア128は、例えばメモリカードである。この記録メディア128は、撮影動作によって得られた画像ファイル128aを記録する。この画像ファイル128aは、画像データに所定のヘッダを付与して形成される。ヘッダには、撮影条件を示すデータ及び追尾位置を示すデータ等がタグデータとして記録される。
The
システムコントローラ130は、撮像装置100の全体の動作を制御する。このシステムコントローラ130は、上記CPU1301と、各制御回路としてAF制御回路1302と、AE制御回路1303と、画像処理回路1304と、顔認識回路1305と、第1乃至第3の追尾処理回路1306〜1308と、フォーカス評価値取得エリア設定部1309と、追尾候補検出部1310と、追尾エリア指定部1311と、追尾禁止エリア設定部1312と、メモリ制御回路1313とを有する。
The
CPU1301は、焦点調整機構104と、絞り駆動機構108と、シャッタ駆動機構112と、表示素子駆動回路122と、タッチパネル駆動回路126等を動作制御すると共に、システムコントローラ130内部の上記各制御回路の動作を制御する。
AF制御回路1302は、コントラストAF処理を制御する。具体的にAF制御回路1302は、撮像素子IF回路116で得られた画像データの高周波成分を抽出し、この抽出した高周波成分を積算することによりAF用の合焦評価値を取得する。CPU1301は、この合焦評価値に従って画像データのコントラストを評価しながら焦点調整機構104を制御して撮影光学系102のフォーカスレンズを合焦状態となる位置に調整する。
The CPU 1301 controls the operations of the
The AF control circuit 1302 controls contrast AF processing. Specifically, the AF control circuit 1302 extracts high-frequency components of the image data obtained by the image sensor IF
AE制御回路1303は、AE動作を制御する。具体的にAE制御回路1303は、撮像素子IF回路116で得られた画像データを用いて被写体の輝度を算出する。AE制御回路1303は、この被写体の輝度に従って露光時の絞り106の開口量(絞り値)、シャッタ110の開放時間(シャッタ速度値)を算出する。
The
画像処理回路1304は、画像データに対する各種の画像処理を行う。この画像処理は、例えば色補正処理、ガンマ(γ)補正処理、圧縮処理等を含む。画像処理回路1304は、圧縮されている画像データに対する伸張処理も施す。
顔認識回路1305は、画像データにおける被写体(人物)の顏部を検出する。ここで、顏認識処理について簡単に説明する。顏認識処理は、各フレームで得られる画像データと、例えば図2(a)に示すような各顔パーツ402、404、406との各相関量を求める。顔パーツ402は、人物の鼻部周辺の陰影のパターンに対応した画像データである。顔パーツ404は、人物の目部周辺の陰影のパターンに対応した画像データである。顔パーツ406は、人物の口部周辺の陰影のパターンに対応した画像データである。画像データと各顏パーツ402、404、406との各相関量は、図2(b)に示すように人物の顔部を示す所定の配置となったときに最大となる。このとき、各顏パーツ402、404、406を含むエリア408に顏が存在しているとする。なお、同図では、顏エリアを矩形エリアとしているが、円形エリアとしても良い。
The image processing circuit 1304 performs various image processing on the image data. This image processing includes, for example, color correction processing, gamma (γ) correction processing, compression processing, and the like. The image processing circuit 1304 also performs decompression processing on the compressed image data.
The
第1乃至第3の追尾処理回路1306〜1308は、それぞれ撮像部101の撮像により取得された画像データ中の被写体、例えば人物の顔部の追尾を行う。
第1の追尾処理回路1306は、撮像部101の撮像により取得された画像データ中から特徴量、例えば顔認識回路1305により認識された被写体、例えば人物の顔部の追尾を行う。
The first to third
The first
第2の追尾処理回路1307は、撮像部101の撮像により取得された画像データ中から特徴、例えば色情報により被写体、例えば人物の顔部の追尾を行う。この第2の追尾処理回路1308は、撮像部101の撮像により取得された画像データの色情報を用いて人物の顔部の追尾処理を行う。この色情報を用いた追尾処理について簡単に説明する。色情報を用いた追尾処理は、評価画像データ内で設定された色情報と同色情報であると判定されるエリアすなわち追尾色エリアを探索する。
例えば、図3(a)に示すように(N−1)フレームにおいて、被写体のある位置302が指定された場合、評価画像データ中の位置302の色情報が取得される。この位置302を追尾処理の開始位置として同位置302と同じ色情報を有するエリアが探索される。具体的に位置302を開始位置から周辺に向かうように順次色情報を取得し、この取得した色情報が位置302の色情報と同一であるか否かを判定する。この判定の結果、色情報が位置302の色情報と同一である判定した場合にはエリアに含め、これに対して取得した色情報が位置302の色情報と同一であると判定できない場合にはエリアに含めない。
The second tracking processing circuit 1307 performs tracking of a subject, for example, a face of a person, based on characteristics, for example, color information, from image data acquired by imaging by the
For example, as shown in FIG. 3A, in the (N-1) frame, when a
このようにして追尾色エリアを探索すると、例えば、図3(a)に示すような単色の被写体の場合、被写体に内接する矩形エリア304が追尾色エリアとなる。また、追尾位置ログエリアに記録する追尾位置は、例えば追尾色エリア304の重心位置(図3(a)の例では、位置302と同じ)とする。次回の追尾処理においては、この追尾位置を追尾処理の開始位置とする。
When the tracking color area is searched in this way, for example, in the case of a monochromatic subject as shown in FIG. 3A, a
Nフレームの追尾処理を例に示すと、図3(b)に示す参照画像データとして記憶したNフレームの画像データの所定の探索範囲の中で、(N−1)フレームの追尾位置302を追尾処理の開始位置とし、追尾位置302の周辺から順次、追尾色エリア304の色情報と同色情報であると判定できるエリアが追尾色エリアとして探索される。同図に示す例では、エリア306が追尾色エリアとなる。また、同図に示す例では、重心位置308を追尾位置とし、この追尾位置308を、追尾位置ログエリアに記録する。また、追尾色エリアログエリアには、追尾色エリア306の範囲を示す情報(例えば、四隅の位置)を記録する。
As an example of the N frame tracking process, the
第3の追尾処理回路1309は、撮像部101の撮像により取得された画像データ中から特徴、例えばAF制御回路1302により取得されたAF用の合焦評価値により被写体、例えば人物の顔部の追尾を行う。
なお、撮像部101の撮像により取得された画像データ中に被写体として複数の人物が存在し、これら人物のうち1人が追尾対象として指定され、他の人物が追尾対象として指定されない場合、第1の追尾処理回路1306は、追尾対象として指定された人物を顔部により追尾する。第2の追尾処理回路1307は、追尾対象として指定された人物を色情報により追尾する。第3の追尾処理回路1309は、追尾対象として指定されていない人物をAF用の合焦評価値により追尾する。
The third
In the case where there are a plurality of persons as subjects in the image data acquired by imaging by the
なお、追尾処理は、顔認識と色情報とによる追尾に限らず、輝度情報を用いた追尾を用いても良い。ここで、輝度情報を用いた追尾処理について簡単に説明する。輝度情報を用いた追尾処理では、例えば、図4(a)に示す(N−1)フレームにおいて追尾対象が設定された場合、この(N−1)フレームの画像データを、評価画像データとしてRAM118の評価画像エリアに記憶する。この評価画像データの追尾対象を含む所定範囲202の画像データを、基準画像データに設定する。この後の追尾処理では、参照画像データの基準画像データ202と対応する部分を探索する。
Nフレームの追尾処理を例に示すと、まず、Nフレームの画像データを、参照画像データとしてRAM118の参照画像エリアに記憶する。この参照画像データのうちの所定の探索範囲204の画像データと基準画像データ202との相関量を求めることにより、参照画像データの基準画像データ202と対応する部分を探索する。相関量は、例えば基準画像データと参照画像データとの差分絶対値和(画素毎に輝度差の絶対値を求めてそれを積算したもの)から判定する。例えば、図4(b)に示す参照画像データのエリア206の参照画像データと基準画像データ202との差分絶対値和を求めたとすると、参照画像データのエリア206と基準画像データ202とは明らかに異なる画像データであり、差分絶対値和が大きくなる。これに対し、参照画像データのエリア208と基準画像データ202との差分絶対値和を求めたとすると、差分絶対値和が小さくなる。このように、基準画像データ202との相関量が大きくなるに従って差分絶対値和が小さくなる。輝度情報を用いた追尾処理では、相関量が最大の、即ち差分絶対値和が最小のエリアを参照画像データから探索する。図4(b)の例では、エリア208となる。なお、追尾位置ログエリアには、エリア208の中で最も一致度の高い位置を追尾位置として記録する。なお、このような位置が複数ある場合には、例えば、エリア208の中心に近い位置を追尾位置とする。次回の追尾処理時には、この追尾位置を追尾処理の開始位置とすることが望ましい。これにより、追尾処理にかかる時間を軽減することが可能である。
The tracking process is not limited to tracking based on face recognition and color information, but tracking using luminance information may be used. Here, the tracking process using luminance information will be briefly described. In the tracking process using luminance information, for example, when a tracking target is set in the (N-1) frame shown in FIG. 4A, the image data of the (N-1) frame is used as the evaluation image data in the
As an example of N frame tracking processing, N frame image data is first stored in the reference image area of the
フォーカス評価値取得エリア設定部1309は、例えば図5に示すように第1及び第2の追尾処理回路1306、1307によって撮像部101の撮像により取得された画像データ中の例えば人物の顔部等の被写体Qを追尾するための複数の特徴、例えば顔認識、色情報を取得するための複数のエリアA、Cを包含し、かつ被写体Qに対するフォーカス評価値を取得するためのフォーカス評価値取得エリアDを設定する。
例えば顔認識、色情報を取得するための複数のエリアは、顔部による追尾のための第1のエリアAと、色情報による追尾のための第2のエリアCとである。フォーカス評価値取得エリアDのサイズは、これら第1のエリアAと第2のエリアCとを包含する。
For example, as shown in FIG. 5, the focus evaluation value acquisition
For example, the plurality of areas for acquiring face recognition and color information are a first area A for tracking by a face part and a second area C for tracking by color information. The size of the focus evaluation value acquisition area D includes the first area A and the second area C.
フォーカス評価値取得エリア設定部1309は、色情報による追尾に対する信頼性を有し、顔部の認識による追尾のための第1のエリアAと色情報による追尾のための第2のエリアCとの包含関係を判定し、この判定結果に基づいてフォーカス評価値取得エリアDを設定する。
フォーカス評価値取得エリア設定部1309は、顔部による追尾のための第1のエリアAが色情報による追尾のための第2のエリアCを包含していれば、顔部による追尾のための第1のエリアAを包含するフォーカス評価値取得エリアDを設定する。
フォーカス評価値取得エリア設定部1309は、色情報による追尾のための第2のエリアCが顔部による追尾のための第1のエリアAを包含していれば、色情報による追尾のための第2のエリアCを包含するフォーカス評価値取得エリアDを設定する。
The focus evaluation value acquisition
If the first area A for tracking by the face includes the second area C for tracking by the color information, the focus evaluation value acquisition
If the second area C for tracking by color information includes the first area A for tracking by face, the focus evaluation value acquisition
追尾候補検出部1310は、例えば図6に示すように撮像部101の撮像により取得された画像データ中から少なくとも1つ被写体Qを含む追尾候補エリアを検出し、これら追尾候補エリアにそれぞれ各追尾枠CA1、CA2を設定する。
追尾エリア指定部1311は、追尾対象とする被写体の指示を例えばタッチパネル124から出力される接触検出信号としてCPU1301を介して受け取り、追尾候補検出部1310により検出された少なくとも1つの追尾候補エリア、例えば図6に示す各追尾枠CA1、CA2により設定された各被写体Q1、Q2から1つの被写体、例えば追尾枠CA1により設定された人物等の被写体Q1の顔部を追尾エリアに指定する。すなわち、タッチパネル124上において、被写体Q1の顔部の表示位置に対応する位置にユーザの指がタッチすると、このタッチパネル124は、当該タッチ位置を示す座標を含む接触検出信号を出力するので、追尾エリア指定部1311は、接触検出信号に含むタッチ位置を示す座標から追尾エリアを示す例えば追尾枠CA1内の被写体Q1の顔部を指定する。
For example, as shown in FIG. 6, the tracking candidate detection unit 1310 detects a tracking candidate area including at least one subject Q from image data acquired by imaging of the
The tracking
追尾エリア指定部1311は、追尾対象とする指示を受けた追尾エリアの追尾枠を被写体Q1の顔部の大きさに応じたサイズに設定する。
追尾エリア指定部1311は、追尾対象とする指示を受けていない追尾候補エリアのサイズを被写体Q2の顔部の大きさに応じたサイズに設定する。
The tracking
The tracking
追尾禁止エリア設定部1312は、被写体を含む追尾エリアとして例えば枠CA1内の被写体Q1の顔部が指定されると、フォーカス評価値取得エリアD内のフォーカス評価値に基づいて例えば追尾枠CA1内で指定された被写体Q1以外の非指定エリア、例えば図6に示す枠CA2内のエリアに対する追尾、すなわち被写体Q2の顔部に対する追尾を禁止する。
この追尾禁止エリア設定部1312は、追尾エリア指定部1311により指定された追尾エリア、例えば枠CA1内の被写体Q1の顔部と、この被写体Q1以外の例えば被写体Q2を含む枠CA2内のエリア(非指定エリア)との間隔と、各フォーカス評価値取得エリアD内の各フォーカス評価値とに基づいて第1乃至第3の追尾処理部1306〜1308による非指定エリアすなわち枠CA2内のエリアの被写体Q2の顔部に対する追尾を禁止する。
When the face portion of the subject Q1 in the frame CA1, for example, is designated as the tracking area including the subject, the tracking prohibition
The tracking prohibition
この追尾禁止エリア設定部1312は、追尾エリア指定部1311により指定された追尾エリアとして例えば追尾枠CA1内の被写体Q1の顔部と、非追尾エリアとして例えば枠CA2内の被写体Q2の顔部との間隔が予め設定された第1の閾値以内で、かつ各フォーカス評価値取得エリアD内の各フォーカス評価値の差が予め設定された第2の閾値以上であれば、第1乃至第3の追尾処理部1306〜1308による非指定エリアとして例えば枠CA2内の被写体Q2の顔部に対する追尾を禁止する。
The tracking prohibition
追尾禁止エリア設定部1312は、追尾エリア指定部1311により指定された追尾エリアとして例えば枠CA1内の被写体Q1の顔部と非追尾エリアとして例えば枠CA2内の被写体Q2の顔部との間隔が予め設定された第1の閾値以内の時に、被写体Q1の顔部と被写体Q2の顔部の面積差を求め、当該面積差が予め設定された第3の閾値以上であれば、第1乃至第3の追尾処理部1306〜1308による非指定エリアとして例えば枠CA2内の被写体Q2の顔部に対する追尾を禁止する。
The tracking prohibition
メモリ制御回路1313は、CPU1301等によってRAM118、記録メディア128、ROM134にアクセスするための制御を行うインターフェイスである。
カメラ操作スイッチ132は、ユーザによって操作される各種の操作部材である。カメラ操作スイッチ132としては、例えば、レリーズ釦、動画釦、モードダイヤル、選択キー、電源釦等が含まれる。
レリーズボタン釦は、1stレリーズスイッチと、2ndレリーズスイッチとを有する。1stレリーズスイッチは、ユーザがレリーズ釦を半押しするとオンする。1stレリーズスイッチがオンすることにより、AF処理等の撮影準備動作が行われる。2ndレリーズスイッチは、ユーザがレリーズ釦を全押しするとオンする。2ndレリーズスイッチがオンすることにより、静止画撮影用の露光動作が行われる。
動画釦は、動画撮影の開始又は終了を指示するための操作部材である。ユーザによって動画釦が押されると動画撮影処理が開始される。また、動画撮影処理の実行中に動画釦が押されると、動画撮影処理が終了される。
モードダイヤルは、撮像装置の撮影設定を選択するための操作部材である。本実施形態では、撮像装置の撮影設定として、例えば、静止画撮影モードと動画撮影モードを選択できる。静止画撮影モードは、静止画像を撮影するための撮影設定である。また、動画撮影モードは、動画像を撮影するための撮影設定である。
選択キーは、例えばメニュー画面上での項目の選択や決定をするための操作部材である。ユーザによって選択キーが操作されるとメニュー画面上での項目の選択や決定が行われる。
電源釦は、撮像装置の電源をオン又はオフするための操作部材である。ユーザによって電源釦が操作されると、撮像装置100が起動して動作可能な状態となる。撮像装置が起動している間に電源釦が操作されると、撮像装置100が省電力待機状態となる。
The
The
The release button button has a 1st release switch and a 2nd release switch. The 1st release switch is turned on when the user presses the release button halfway. When the 1st release switch is turned on, a shooting preparation operation such as AF processing is performed. The 2nd release switch is turned on when the user fully presses the release button. When the 2nd release switch is turned on, an exposure operation for still image shooting is performed.
The moving image button is an operation member for instructing the start or end of moving image shooting. When the moving image button is pressed by the user, the moving image shooting process is started. Further, when the moving image button is pressed during the moving image shooting process, the moving image shooting process is ended.
The mode dial is an operation member for selecting shooting settings of the imaging apparatus. In the present embodiment, for example, a still image shooting mode and a moving image shooting mode can be selected as shooting settings of the imaging apparatus. The still image shooting mode is a shooting setting for shooting a still image. The moving image shooting mode is a shooting setting for shooting a moving image.
The selection key is an operation member for selecting or determining an item on the menu screen, for example. When the selection key is operated by the user, an item is selected or determined on the menu screen.
The power button is an operation member for turning on or off the power of the imaging apparatus. When the power button is operated by the user, the
フラッシュROM134には、CPU1301が種々の処理を実行するためのプログラムコードが記憶されている。このフラッシュROM134には、本装置の撮影動作フローチャートや、撮影光学系102、絞り106、及び撮像素子114等の動作に必要な制御パラメータ、並びに画像処理回路1304での画像処理に必要な制御パラメータ等の各種の制御パラメータが記憶されている。さらには、フラッシュROM134には、顏検出回路1307における顏検出に用いられる顏パーツのデータや追尾枠を表示するためのデータ等も記憶されている。
The
次に、本装置の動作について図7に示す撮影動作のフローチャートに従って説明する。
CPU1301は、ステップS100において、本装置100の撮影設定が静止画撮影モードであるか否かを判定する。この判定の結果、撮影設定が静止画撮影モードであると判定すると、CPU1301は、ステップS102において、ライブビュー動作を開始する。
このライブビュー動作では、CPU1301は、シャッタ駆動機構112を制御してシャッタ110を開放し、この後、撮像素子IF回路116を制御して撮像素子114による撮像を開始する。CPU1301は、撮像素子114の撮像により取得された1フレーム毎の各画像データを順次RAM118のワークエリア118aに記憶する。続いて、CPU1301は、RAM118のワークエリア118aに記憶された画像データを画像処理回路1304に入力してライブビュー表示用の画像処理を施す。CPU1301は、ライブビュー表示用の画像処理がされた画像データを表示素子駆動回路122に入力し、この表示素子駆動回路122によりLCD120を駆動して画像データをLCD120に表示する。このような画像データの表示動作を繰り返すことによってLCD120には、被写体の動画が表示される。ユーザは、LCD120に動画表示される被写体のライブビューを観察することが可能である。
Next, the operation of this apparatus will be described with reference to the flowchart of the photographing operation shown in FIG.
In step S100, the CPU 1301 determines whether or not the shooting setting of the
In this live view operation, the CPU 1301 controls the
CPU1301は、ステップS104において、1stレリーズスイッチがオンされたか否かを判定する。この判定の結果、1stレリーズスイッチがオンされなければ、CPU1301は、ライブビュー動作を継続する。
1stレリーズスイッチがオンされると、CPU1301は、ステップS106において、レリーズAF処理を行う。このレリーズAFでは、CPU1301は、スキャン駆動によってフォーカスレンズを合焦位置まで駆動する。このスキャン駆動において、CPU1301は、焦点調整機構104を制御してフォーカスレンズを所定のスキャン範囲内で一方向に駆動し、これと共にAF制御回路1302で順次算出されるAF用の合焦評価値を評価する。
CPU1301は、AF用の合焦評価値の評価の結果、コントラストが最大となるレンズ位置においてフォーカスレンズの駆動を停止する。このようなスキャン駆動は、AF前のフォーカスレンズの位置と合焦位置との差が大きい場合に行われる。
In step S104, the CPU 1301 determines whether the first release switch is turned on. If the first release switch is not turned on as a result of this determination, the CPU 1301 continues the live view operation.
When the first release switch is turned on, the CPU 1301 performs a release AF process in step S106. In the release AF, the CPU 1301 drives the focus lens to the in-focus position by scan driving. In this scan drive, the CPU 1301 controls the
The CPU 1301 stops driving the focus lens at the lens position where the contrast is maximized as a result of the evaluation of the focus evaluation value for AF. Such scan driving is performed when the difference between the position of the focus lens before AF and the in-focus position is large.
CPU1301は、ステップS108において、追尾候補検出部1310を制御し、例えば図6に示すように撮像部101の撮像により取得された画像データ中から少なくとも1つ被写体、例えば2人の被写体Q1、Q2の各顔部を含む追尾候補エリアを検出し、これら追尾候補エリアにそれぞれ各追尾枠CA1、CA2を設定する。
In step S108, the CPU 1301 controls the tracking candidate detection unit 1310, and, for example, as shown in FIG. 6, at least one subject, for example, two subjects Q1 and Q2 from the image data acquired by the
具体的に図8は(N−1)フレームの画像データH1を示す。この画像データH1には、被写体として例えば2人の第1と第2の人物M、Wが写っている。顔認識回路1305は、画像データH1中から第1と第2の人物M、Wの各顔部F1、F2を認識する。CPU1301は、表示素子駆動回路122を制御し、例えば図9に示すように画像データ中の第1と第2の人物M、Wの各顔部F1、F2を含むエリアに各追尾枠CA1、CA2を設定し、これら追尾枠CA1、CA2の設定された画像データをLCD120に表示する。
Specifically, FIG. 8 shows image data H1 of (N-1) frames. The image data H1 includes, for example, two first and second persons M and W as subjects. The
ここで、図10に示すようにタッチパネル124上における被写体Q1の顔部F1に対応する部分へのユーザの指Jによるタッチにより、例えば被写体Q1の顔部F1が追尾対象して指定されると、CPU1301は、追尾枠CA1が設定された被写体Q1の顔部F1を追尾対象とすると共に、追尾枠CA2が設定された被写体Q2の顔部F2を非追尾対象とする。すなわち、追尾エリア指定部1311は、タッチパネル124から出力される接触検出信号をCPU1301を介して受け取り、この接触検出信号に含むタッチ位置を示す座標から第1の人物Mの顔部F1を追尾枠CA1内を追尾エリアとして指定する。これと共に追尾エリア指定部1311は、追尾枠CA1以外の追尾枠、ここでは追尾枠CA2内の第2の人物Wの顔部F2を類似被写体とする。
Here, as shown in FIG. 10, when the face F1 of the subject Q1 is designated as a tracking target, for example, by touching the portion corresponding to the face F1 of the subject Q1 on the
CPU1301は、ステップS110において、追尾対象と指定された追尾枠CA1内の被写体Q1の顔部F1に対する追尾処理を行う。
CPU1301は、ステップS112において、追尾対象と指定された追尾枠CA1内の顔部F1に合焦するようにAF処理を行うと共に、同追尾枠CA1内の顔部F1の露光が適正となるようにAE処理を行う。
追尾処理後のAF処理では、CPU1301は、ウォブリング駆動によってフォーカスレンズを合焦位置まで駆動する。このウォブリング駆動では、CPU1301は、フォーカスレンズを駆動したときにAF制御回路1302で算出された合焦評価値が前回のレンズ位置での合焦評価値に対して増加したか否かを判定する。この判定の結果、合焦評価値が増加していれば、CPU1301は、前回と同方向にフォーカスレンズを微小駆動する。合焦評価値が減少していれば、CPU1301は、前回と逆方向にフォーカスレンズを微小駆動する。このような動作を高速で繰り返すことでフォーカスレンズは、徐々に合焦位置まで駆動する。これと共にAE処理では、CPU1301は、AE制御回路1303により算出された追尾枠CA1内の顔部F1の輝度を予め定められた適正な量(適正露光量)、すなわち本露光時の絞り106の開口量(絞り値)、シャッタ110の開放時間(シャッタ速度値)を算出する。
In step S110, the CPU 1301 performs a tracking process on the face F1 of the subject Q1 within the tracking frame CA1 designated as the tracking target.
In step S112, the CPU 1301 performs AF processing so that the face F1 in the tracking frame CA1 designated as the tracking target is focused, and the exposure of the face F1 in the tracking frame CA1 is appropriate. AE processing is performed.
In the AF process after the tracking process, the CPU 1301 drives the focus lens to the in-focus position by wobbling driving. In this wobbling drive, the CPU 1301 determines whether or not the focus evaluation value calculated by the AF control circuit 1302 when the focus lens is driven has increased with respect to the focus evaluation value at the previous lens position. If the focus evaluation value has increased as a result of this determination, the CPU 1301 finely drives the focus lens in the same direction as the previous time. If the focus evaluation value decreases, the CPU 1301 finely drives the focus lens in the direction opposite to the previous time. By repeating such an operation at a high speed, the focus lens is gradually driven to the in-focus position. At the same time, in the AE process, the CPU 1301 sets the brightness of the face F1 in the tracking frame CA1 calculated by the
CPU1301は、ステップS114において、2ndレリーズスイッチがオンされたか否かを判定する。この判定の結果、2ndレリーズスイッチがオンされていないと判定されると、CPU1301は、上記ステップS110における追尾処理以後の処理を実行する。このように静止画撮影モード時、2ndレリーズスイッチがオンされるまで、CPU1301は、追尾処理を継続する。
2ndレリーズスイッチがオンされたと判定されると、CPU1301は、ステップS116において、表示素子駆動回路122を制御し、追尾枠CA1を非表示とする。
In step S114, the CPU 1301 determines whether or not the 2nd release switch is turned on. As a result of this determination, if it is determined that the 2nd release switch is not turned on, the CPU 1301 executes processing after the tracking processing in step S110. In this way, in the still image shooting mode, the CPU 1301 continues the tracking process until the 2nd release switch is turned on.
If it is determined that the 2nd release switch is turned on, the CPU 1301 controls the display
CPU1301は、ステップS118において、2ndレリーズスイッチがオンされると、シャッタ駆動機構112を制御してシャッタ110を閉じる。この後、CPU1301は、絞り駆動機構108を制御し、絞り106を先に算出した絞り値まで絞り込む。続いて、CPU1301は、シャッタ駆動機構112を制御し、シャッタ110を先に算出した開放時間だけ開放しながら撮像素子114による撮像(露光)を行う。この後、CPU1301は、撮像素子114を介して得られた静止画像データを画像処理回路1304において処理する。CPU1301は、画像処理回路1304において処理された静止画像データにヘッダを付与して静止画像ファイルを生成し、この生成した静止画像ファイルを記録メディア128に記録する。
CPU1301は、ステップS120において、上記ステップS110の追尾処理の結果として得られた追尾位置を示すデータを、先に記録メディア128に記録した静止画像ファイルに追記する。この後、CPU1301は、図7に示す撮影動作を終了する。
In step S118, when the 2nd release switch is turned on, the CPU 1301 controls the
In step S120, the CPU 1301 adds data indicating the tracking position obtained as a result of the tracking process in step S110 to the still image file previously recorded on the
一方、CPU1301は、ステップS100において、撮影設定が動画撮影モードであると判定すると、ステップS122に移り、ライブビュー動作を開始する。
CPU1301は、ステップS124において、動画釦がオンされたか否かを判定する。この判定の結果、動画釦がオンされなければ、CPU1301は、ライブビュー動作を継続する。
動画釦がオンされたと判定されると、CPU1301は、ステップS126において、表示素子駆動回路122を制御し、上記ステップS108と同様に、例えば上記図6に示すように撮像部101の撮像により取得された画像データ中から少なくとも1つ被写体、例えば2人の被写体Q1、Q2の各顔部を含む追尾候補エリアを検出し、これら追尾候補エリアにそれぞれ各追尾枠CA1、CA2を設定する。
On the other hand, when determining in step S100 that the shooting setting is the moving image shooting mode, the CPU 1301 proceeds to step S122 and starts a live view operation.
In step S124, the CPU 1301 determines whether or not the moving image button has been turned on. If the moving image button is not turned on as a result of this determination, the CPU 1301 continues the live view operation.
If it is determined that the moving image button is turned on, the CPU 1301 controls the display
ここで、上記同様に、タッチパネル124上に対するタッチにより、例えば被写体Q1の顔部F1が追尾対象して指定されると、CPU1301は、追尾枠CA1が設定された被写体Q1の顔部F1を追尾対象とすると共に、追尾枠CA2が設定された被写体Q2の顔部F2を非追尾対象とする。
CPU1301は、ステップS128において、追尾対象して指定された追尾枠CA1の設定された被写体Q1の顔部F1に対する追尾処理を行う。
Here, as described above, when the face F1 of the subject Q1 is designated as a tracking target by touching the
In step S128, the CPU 1301 performs a tracking process on the face F1 of the subject Q1 in which the tracking frame CA1 designated as the tracking target is set.
CPU1301は、ステップS130において、追尾対象して指定され追尾枠CA1内の顔部F1に合焦するようにAF処理を行うと共に、追尾枠CA1内の顔部F1の露光が適正となるようにAE処理を行う。このAF処理では、ウォブリング駆動によってフォーカスレンズを合焦位置まで駆動する。 In step S130, the CPU 1301 performs AF processing so as to focus on the face F1 in the tracking frame CA1 designated as the tracking target, and AE so that the exposure of the face F1 in the tracking frame CA1 is appropriate. Process. In this AF process, the focus lens is driven to the in-focus position by wobbling driving.
CPU1301は、ステップS132において、動画像データを記録メディア128に記録する処理、すなわち、絞り駆動機構108を制御し、絞り106をAE処理において算出した絞り値まで絞り込む。続いて、CPU1301は、AE処理において算出したシャッタ速度値に対応した時間だけ撮像素子114による撮像(露光)を実行する。露光の終了後、CPU1301は、動画像ファイルを生成して記録メディア128に記録する。また、CPU1301は、撮像素子114を介して得られた動画像データを画像処理回路1304において処理し、画像処理回路1304において処理された動画像データを動画像ファイルに記録する。
In step S132, the CPU 1301 controls the
CPU1301は、ステップS134において、上記ステップS128において得られた追尾処理の結果としての追尾位置を示すデータを、先に記録メディア128に記録した動画像ファイルに追記する。
CPU1301は、ステップS136において、動画釦がオフされたか否かを判定する。この判定の結果、動画釦がオフされていないと判定すると、CPU1301は、上記ステップS128における追尾処理以後の処理を実行する。このように動画撮影モード時では、CPU1301は、動画釦がオフされるまで追尾処理と動画像データの記録を継続する。
動画釦がオフされると、CPU1301は、ステップS138において、表示素子駆動回路122を制御し、追尾枠CA1を非表示とする。この後、CPU1301は、ステップS120において、追尾データを追記する。この後、CPU1301は、上記図7に示す撮影動作を終了する。
In step S134, the CPU 1301 adds data indicating the tracking position as a result of the tracking process obtained in step S128 to the moving image file previously recorded on the
In step S136, the CPU 1301 determines whether or not the moving image button has been turned off. As a result of this determination, if it is determined that the moving image button is not turned off, the CPU 1301 executes processing after the tracking processing in step S128. Thus, in the moving image shooting mode, the CPU 1301 continues the tracking process and the recording of moving image data until the moving image button is turned off.
When the moving image button is turned off, the CPU 1301 controls the display
次に、追尾処理(ステップS110、S128)について図11に示す追尾処理フローチャートに従って説明する。
先ず、CPU1301は、追尾対象と指定された被写体に対する追尾を行う。
CPU1301は、ステップS200において、RAM118のワークエリア118aに記憶されている(N−1)フレームの画像データH1を読み出す。
ここで、初回の追尾処理で得られた(N−1)フレームの画像データは、評価画像データとする。CPU1301は、初回の追尾処理で得られた画像データをSDRAM118の評価画像エリア118bに取り込む。また、CPU1301は、2回目以後の追尾処理で得られたNフレームの画像データを参照画像データとし、この参照画像データをSDRAM118の参照画像エリア118cに取り込む。
Next, the tracking process (steps S110 and S128) will be described with reference to the tracking process flowchart shown in FIG.
First, the CPU 1301 performs tracking for a subject designated as a tracking target.
In step S <b> 200, the CPU 1301 reads the (N−1) frame image data H <b> 1 stored in the
Here, the image data of the (N−1) frame obtained by the first tracking process is assumed to be evaluation image data. The CPU 1301 captures the image data obtained by the first tracking process into the evaluation image area 118b of the
CPU1301の第2の追尾処理回路1307は、ステップS202において、RAM118のワークエリア118aから読み出した(N−1)フレームの画像データH1中から特徴量、例えば色情報を検出し、続くステップS204において、上記図3(a)(b)に示すように色情報を用いて追尾枠CA1内の被写体Q1の顔部F1の追尾処理を行い、同顔部F1の追尾位置を演算し求める。色情報を用いた追尾処理は、初回の追尾処理で得られた(N−1)フレームの評価画像データ内で設定された色情報とNフレームの評価画像データ内で設定された色情報とが同色情報であると判定されるエリアすなわち追尾色エリアを探索する。
具体的に第2の追尾処理回路1307は、上記図3(a)(b)に示すように例えば位置302を開始位置とし、この位置302から周辺に向かうように順次色情報を取得し、この取得した色情報が位置302の色情報と同一であるか否かを判定する。この判定の結果、色情報が位置302の色情報と同一である判定した場合にはエリアに含め、これに対して取得した色情報が位置302の色情報と同一であると判定できない場合にはエリアに含めない。
In step S202, the second tracking processing circuit 1307 of the CPU 1301 detects a feature amount, for example, color information, from the image data H1 of the (N−1) frame read from the
Specifically, the second tracking processing circuit 1307 acquires the color information sequentially from the
CPU1301は、色情報を用いた追尾処理の結果として得られた追尾位置を、第2の候補追尾位置としてRAM118の追尾ログエリア118dに記憶する。CPU1301は、ステップS212において、色情報を用いた追尾処理の結果として得られた追尾色エリアをSDRAM118の追尾位置ログエリア118dに記憶する。
The CPU 1301 stores the tracking position obtained as a result of the tracking process using the color information in the
CPU1301は、ステップS206において、色情報を用いた人物の顔部F1の追尾処理の結果による追尾の信頼性を判定する。色情報を用いた追尾処理では、例えば参照画像データの彩度から信頼性を判定する。具体的に、参照画像データの追尾位置の彩度が所定の閾値以上である場合には、信頼性があると判定する。この信頼性の判定では、閾値は適宜設定可能である。なお、この信頼性判断において、信頼性がないと判断された場合には、追尾位置を記録しないようにしても良い。 In step S206, the CPU 1301 determines the reliability of tracking based on the result of the tracking processing of the human face F1 using color information. In tracking processing using color information, for example, reliability is determined from the saturation of reference image data. Specifically, when the saturation of the tracking position of the reference image data is greater than or equal to a predetermined threshold value, it is determined that there is reliability. In this reliability determination, the threshold value can be set as appropriate. In this reliability determination, if it is determined that there is no reliability, the tracking position may not be recorded.
この判定の結果、色情報を用いた追尾処理に信頼性があれば、CPU1301は、ステップS208において、追尾対象して指定された追尾枠CA1内の被写体Q1の顔部F1に、非追尾対象である追尾枠CA2が設定された被写体Q2の顔部F2が重なっているか否かを判定する。この判定の結果、追尾枠CA1内の被写体Q1の顔部F1に追尾枠CA2内の被写体Q2の顔部F2が重なっていれば、CPU1301は、例えばステップS200に戻る。
追尾枠CA1内の被写体Q1の顔部F1に追尾枠CA2内の被写体Q2の顔部F2が重なっていなければ、CPU1301は、ステップS210において、再度、RAM118のワークエリア118aに記憶されている(N−1)フレームの画像データH1を読み出し、続くステップS212において、顔認識回路1305を制御し、画像処理回路1304により取得された画像データにおける第1と第2の人物M、Wの各顏部F1、F2を検出する。この顏認識処理は、上記図2(a)(b)に示すように、各フレームの画像データと各顔パーツ402、404、406との各相関量を求め、この相関量が最大になったときに人物の顔部を示す所定の配置となったとする。ここでは、顔認識回路1305は、第1の人物Mの顔部F1と第2の人物Wの顔部F2とを認識する。
If the tracking processing using the color information is reliable as a result of this determination, the CPU 1301 determines that the face F1 of the subject Q1 within the tracking frame CA1 designated as the tracking target is a non-tracking target in step S208. It is determined whether or not the face F2 of the subject Q2 set with a certain tracking frame CA2 overlaps. If the face F2 of the subject Q2 in the tracking frame CA2 overlaps the face F1 of the subject Q1 in the tracking frame CA1 as a result of this determination, the CPU 1301 returns to step S200, for example.
If the face F2 of the subject Q2 in the tracking frame CA2 does not overlap the face F1 of the subject Q1 in the tracking frame CA1, the CPU 1301 stores it again in the
CPU1301は、ステップS214において、第1の追尾処理回路1306を制御し、この第1の追尾処理回路1306によって、撮像部101の撮像により取得された画像データ中から特徴量、例えば顔認識回路1305により認識された被写体、例えば第1の人物Mの顔部F1の追尾を行う。
In step S <b> 214, the CPU 1301 controls the first
CPU1301は、ステップS216において、再び、追尾対象して指定された追尾枠CA1内の被写体Q1の顔部F1に、非追尾対象である追尾枠CA2が設定された被写体Q2の顔部F2が重なっているか否かを判定する。この判定の結果、追尾枠CA1内の被写体Q1の顔部F1に追尾枠CA2内の被写体Q2の顔部F2が重なっていれば、CPU1301は、例えばステップS200に戻る。 In step S216, the CPU 1301 again overlaps the face F1 of the subject Q2 in which the tracking frame CA2 that is the non-tracking target is set on the face F1 of the subject Q1 in the tracking frame CA1 designated as the tracking target. It is determined whether or not. If the face F2 of the subject Q2 in the tracking frame CA2 overlaps the face F1 of the subject Q1 in the tracking frame CA1 as a result of this determination, the CPU 1301 returns to step S200, for example.
追尾枠CA1内の被写体Q1の顔部F1に追尾枠CA2内の被写体Q2の顔部F2が重なっていなければ、CPU1301は、ステップS218において、追尾枠CA1内の被写体Q1の顔部F1の追尾を行い、続くステップS220において、追尾枠CA1内の被写体Q1の顔部F1の追尾位置を設定する。 If the face F2 of the subject Q2 in the tracking frame CA2 does not overlap the face F1 of the subject Q1 in the tracking frame CA1, the CPU 1301 tracks the face F1 of the subject Q1 in the tracking frame CA1 in step S218. In step S220, the tracking position of the face F1 of the subject Q1 within the tracking frame CA1 is set.
CPU1301は、ステップS222において、フォーカス評価値取得エリア設定部1309を制御し、このフォーカス評価値取得エリア設定部1309によって例えば図12に示すように(N−1)フレームの画像データH1中の第1の人物Mの顔部F1を追尾するための複数の特徴、例えば色情報を取得するためのエリア(色エリア)Gと顔認識を取得するためのエリア(顔エリア)Eとを包含するエリアを有し、かつ第1の人物Mの顔部F1に対するフォーカス評価値を取得するためのフォーカス評価値取得エリアD1を設定する。このフォーカス評価値取得エリア設定部1309は、フォーカス評価値取得エリアD1内の第1の人物Wの顔部F1に対するフォーカス評価値を取得する。
これと共にCPU1301は、図12に示すように同(N−1)フレームの画像データ中の第2の人物Wの顔部F2を追尾するための例えば色情報を取得するためのエリアと顔認識を取得するためのエリアとを包含するエリアを有し、かつ第2の人物Wの顔部F2に対するフォーカス評価値を取得するためのフォーカス評価値取得エリアD2を設定する。このフォーカス評価値取得エリア設定部1309は、フォーカス評価値取得エリアD2内の第2の人物Wの顔部F2に対するフォーカス評価値を取得する。
続いてCPU1301は、図13に示すように(N−1)フレームの画像データH1中の第1の人物Mの顔部F1に追尾枠CA1を設定する。
In step S222, the CPU 1301 controls the focus evaluation value acquisition
At the same time, as shown in FIG. 12, the CPU 1301 recognizes an area and face recognition for obtaining color information, for example, for tracking the face F2 of the second person W in the image data of the (N-1) frame. A focus evaluation value acquisition area D2 is set for acquiring a focus evaluation value for the face portion F2 of the second person W and having an area including the area for acquisition. The focus evaluation value acquisition
Subsequently, as shown in FIG. 13, the CPU 1301 sets a tracking frame CA1 on the face portion F1 of the first person M in the image data H1 of the (N-1) frame.
次に、CPU1301は、追尾対象と指定されなかった被写体(非追尾対象)に対する追尾を行う。
CPU1301は、ステップS224において、図14に示すようにRAM118のワークエリア118aに記憶されているNフレームの画像データH2を読み出し、続くステップS226において、フォーカス評価値取得エリア設定部1309によって設定されたフォーカス評価値取得エリアD2内でAF用の合焦評価値を求める。
Next, the CPU 1301 performs tracking for a subject (non-tracking target) that has not been designated as a tracking target.
In step S224, the CPU 1301 reads N frames of image data H2 stored in the
CPU1301は、ステップS228において、Nフレームの画像データH2中からフォーカス評価値取得エリアD2が設定された被写体Q2の顔部F2をAF用の合焦評価値を用いて被写体Q2の顔部F2の追尾処理を行い、同顔部F2の追尾位置を演算し求める。
CPU1301は、ステップS230において、AF用の合焦評価値を用いての追尾枠CA2内の被写体Q2の顔部F2の追尾処理に対する信頼性を判定する。この信頼性の判定は、例えば画像データH1の輝度変化の度合い等により行う。
In step S228, the CPU 1301 uses the AF focus evaluation value to track the face F2 of the subject Q2 in which the focus evaluation value acquisition area D2 is set from the image data H2 of N frames. Processing is performed to calculate and obtain the tracking position of the same face F2.
In step S230, the CPU 1301 determines the reliability of the tracking process of the face F2 of the subject Q2 in the tracking frame CA2 using the AF focus evaluation value. This determination of reliability is performed based on, for example, the degree of change in luminance of the image data H1.
CPU1301は、ステップS232において、追尾枠CA2内の被写体Q2の顔部F2の追尾位置を設定する。
CPU1301は、ステップS234において、追尾禁止エリア設定部1312を制御し、図15に示すように追尾禁止エリア設定部1312により追尾エリア指定部1311により指定された追尾エリアとして例えばフォーカス評価値取得エリアD1と、非追尾エリアとして例えばフォーカス評価値取得エリアD2との間隔が予め設定された第1の閾値以内であるか否かを判定する。
この判定の結果、フォーカス評価値取得エリアD1とフォーカス評価値取得エリアD2との間隔が予め設定された第1の閾値以内で、かつ各フォーカス評価値取得エリアD1とD2との面積の差が予め設定された第3の閾値以上であれば、図16に示すように追尾禁止エリア設定部1312は、ステップS236において、フォーカス評価値取得エリアD2内を追尾の禁止領域に設定する。
CPU1301は、ステップS238において、図17に示すように被写体Q1の顔部F1に設定されている追尾枠CA1を更新する。なお、フォーカス評価値取得エリアD1とフォーカス評価値取得エリアD2との間隔が予め設定された第1の閾値以内でなければ、CPU1301は、ステップS238に移り、被写体Q1の顔部F1に設定されている追尾枠CA1を更新する。
In step S232, the CPU 1301 sets the tracking position of the face F2 of the subject Q2 within the tracking frame CA2.
In step S234, the CPU 1301 controls the tracking prohibition
As a result of this determination, the interval between the focus evaluation value acquisition area D1 and the focus evaluation value acquisition area D2 is within a preset first threshold, and the difference in area between the focus evaluation value acquisition areas D1 and D2 is determined in advance. If it is equal to or greater than the set third threshold value, the tracking prohibition
In step S238, the CPU 1301 updates the tracking frame CA1 set in the face F1 of the subject Q1, as shown in FIG. If the interval between the focus evaluation value acquisition area D1 and the focus evaluation value acquisition area D2 is not within the first threshold value set in advance, the CPU 1301 moves to step S238 and is set to the face portion F1 of the subject Q1. The tracking frame CA1 is updated.
例えば、図18は(N+1)フレームの画像データH3を示す。この画像データH3は、第2の人物Wの顔部F2に対して色情報による追尾が移行しようとしている状態を示しているが、追尾枠CA2内の第2の人物Wの顔部F2は、図19に示すように追尾禁止エリア設定部1312によって非追尾対象に設定されているので、第2の追尾処理回路1307により追尾枠CA2内の第2の人物Wの顔部F2の色情報の追尾結果が取得されたとしても、当該第2の追尾処理回路1307は、色情報の追尾結果を採用しない。
For example, FIG. 18 shows image data H3 of (N + 1) frames. This image data H3 shows a state in which tracking by color information is about to shift to the face F2 of the second person W, but the face F2 of the second person W in the tracking frame CA2 is As shown in FIG. 19, since the tracking prohibited
これと共に第1の追尾処理部1306は、図19に示すように第1の人物Mの顔部F1に対して顔認識を取得するための顔エリアEを設定する。
続いてフォーカス評価値取得エリア設定部1309は、図20に示すように色情報を取得するための色エリアGと顔認識を取得するための顔エリアEとを包含するエリアを有し、かつ第1の人物Mの顔部F1に対するフォーカス評価値を取得するためのフォーカス評価値取得エリアD1を設定する。
この結果、第1の人物Mの顔部F1に対する追尾が継続される。
At the same time, the first
Subsequently, as shown in FIG. 20, the focus evaluation value acquisition
As a result, the tracking of the face portion F1 of the first person M is continued.
次に、AF評価値取得エリア設定(ステップS222)について図21に示すAF評価値取得エリア設定フローチャートに従って説明する。
CPU1301は、ステップS300において、フォーカス評価値取得エリア設定部1309を制御し、このフォーカス評価値取得エリア設定部1309により上記ステップS206における色情報を用いた人物の顔部F1の追尾処理の結果による追尾の信頼性があるか否かを判定する。この判定の結果、色情報を用いた人物の顔部F1の追尾処理の結果に信頼性があれば、フォーカス評価値取得エリア設定部1309は、ステップS302に移り、例えば図12に示すように顔認識を取得するための顔エリアEが色情報を取得するための色エリアGを包含するか否かを判定する。
この判定の結果、顔エリアEが色エリアGを包含すれば、フォーカス評価値取得エリア設定部1309は、ステップS304に移り、フォーカス評価値取得エリアD1、D2をそれぞれ顔エリアEを包含する大きさのエリアに決定する。
Next, AF evaluation value acquisition area setting (step S222) will be described with reference to an AF evaluation value acquisition area setting flowchart shown in FIG.
In step S300, the CPU 1301 controls the focus evaluation value acquisition
As a result of this determination, if the face area E includes the color area G, the focus evaluation value acquisition
顔エリアEが色エリアGを包含していなければ、フォーカス評価値取得エリア設定部1309は、ステップS302からステップS306に移り、色エリアGが顔エリアEを包含するか否かを判定する。
この判定の結果、色エリアGが顔エリアEを包含すれば、フォーカス評価値取得エリア設定部1309は、ステップS308に移り、フォーカス評価値取得エリアD1、D2をそれぞれ色エリアGを包含する大きさのエリアに決定する。
色エリアGが顔エリアEを包含していなければ、フォーカス評価値取得エリア設定部1309は、ステップS309に移り、フォーカス評価値取得エリアD1、D2をそれぞれ顔エリアEと色エリアGとを包含する大きさのエリアに決定する。
この結果、フォーカス評価値取得エリアD1、D2の各エリアの大きさが決定される。
If the face area E does not include the color area G, the focus evaluation value acquisition
As a result of this determination, if the color area G includes the face area E, the focus evaluation value acquisition
If the color area G does not include the face area E, the focus evaluation value acquisition
As a result, the sizes of the focus evaluation value acquisition areas D1 and D2 are determined.
次に、追尾禁止領域判定処理(ステップS236)について図22に示す追尾禁止領域判定処理フローチャートに従って説明する。
追尾禁止エリア設定部1312は、追尾エリア指定部1311により指定された追尾エリアとして例えばフォーカス評価値取得エリアD1とフォーカス評価値取得エリアD2との間隔が予め設定された第1の閾値以内で、かつ各フォーカス評価値取得エリアD1、D2内の各フォーカス評価値の差が予め設定された第2の閾値以上であれば、エリアD2内を第1乃至第3の追尾処理部1306〜1308による追尾の禁止領域に設定する。
Next, the tracking prohibited area determination processing (step S236) will be described with reference to the tracking prohibited area determination processing flowchart shown in FIG.
The tracking prohibition
具体的に、CPU1301は、追尾禁止エリア設定部1312を制御し、この追尾禁止エリア設定部1312により、ステップS400において、図23に示すように(N+1)フレームの画像データH3に対し、追尾対象に指定されている被写体Q1の顔部F1に対してフォーカス評価値取得エリアD1を設定する。これと共に追尾禁止エリア設定部1312は、同画像データH3に対し、追尾対象に指定されていない被写体Q2の顔部F2に対してフォーカス評価値取得エリアD1と同面積のフォーカス評価値取得エリアD2とを設定する。
Specifically, the CPU 1301 controls the tracking prohibition
追尾禁止エリア設定部1312は、ステップS402において、画像データH3中の被写体Q1の顔部F1に設定されたフォーカス評価値取得エリアD1内のAF用のフォーカス評価値を取得する。
続いて追尾禁止エリア設定部1312は、ステップS404において、画像データH3中の被写体Q1の顔部F2に設定されたフォーカス評価値取得エリアD2内のAF用のフォーカス評価値を取得する。
In step S402, the tracking prohibition
Subsequently, the tracking prohibition
追尾禁止エリア設定部1312は、ステップS406において、被写体Q1の顔部F1に設定されたフォーカス評価値取得エリアD1内のAF用のフォーカス評価値と、被写体Q1の顔部F2に設定されたフォーカス評価値取得エリアD2内のAF用のフォーカス評価値との差分を演算して求める。
追尾禁止エリア設定部1312は、ステップS408において、当該フォーカス評価値取得エリアD1内のAF用のフォーカス評価値と、フォーカス評価値取得エリアD2内のAF用のフォーカス評価値との差分が予め設定された第2の閾値と等しいか、又は第2の閾値以上であるか否かを判定する。
In step S406, the tracking prohibition
In step S408, the tracking prohibition
この判定の結果、上記AF用のフォーカス評価値との差分が予め設定された第2の閾値と等しい、又は第2の閾値以上であれば、追尾禁止エリア設定部1312は、ステップS410において、図24に示すようにフォーカス評価値取得エリアD2内を第1乃至第3の追尾処理部1306〜1308による追尾の禁止領域に設定する。
続いて追尾禁止エリア設定部1312は、図25に示すように追尾枠CA1を被写体Q1の顔部F1に設定する。
なお、上記AF用のフォーカス評価値との差分が予め設定された第2の閾値と等しくなく、又は第2の閾値以上でなければ、追尾禁止エリア設定部1312は、被写体Q2の顔部F2を含む追尾枠CA2内を追尾禁止エリアに設定しない。
If the result of this determination is that the difference from the focus evaluation value for AF is equal to or greater than or equal to the second threshold value set in advance, the tracking prohibition
Subsequently, the tracking prohibition
If the difference from the focus evaluation value for AF is not equal to the second threshold value set in advance or is not equal to or greater than the second threshold value, the tracking prohibition
次に、別の追尾禁止領域判定処理(ステップS236)について図26に示す追尾禁止領域判定処理フローチャートに従って説明する。
追尾禁止エリア設定部1312は、追尾エリア指定部1311により指定された追尾エリアとして例えば枠CA1内の被写体Q1の顔部と非追尾エリアとして例えば枠CA2内の被写体Q2の顔部との面積差を求め、当該面積差が予め設定された第3の閾値以上であれば、第1乃至第3の追尾処理部1306〜1308による非指定エリアとして例えば枠CA2内の被写体Q2の顔部に対する追尾を禁止する。
Next, another tracking prohibited area determination process (step S236) will be described with reference to the tracking prohibited area determination processing flowchart shown in FIG.
The tracking prohibition
具体的に、追尾禁止エリア設定部1312は、ステップS500において、追尾エリア指定部1311により指定された被写体Q1の顔部F1に設定された追尾枠CA1内の面積を取得する。
続いて追尾禁止エリア設定部1312は、ステップS502において、追尾エリア指定部1311により指定されなかった被写体Q2の顔部F2に設定された追尾枠CA2内の面積を取得する。
Specifically, the tracking prohibited
Subsequently, in step S502, the tracking prohibited
追尾禁止エリア設定部1312は、ステップS504において、被写体Q1の顔部F1に設定された追尾枠CA1内の面積と、被写体Q2の顔部F2に設定された追尾枠CA2内の面積の差分を演算し求める。
続いて追尾禁止エリア設定部1312は、ステップS506において、上記追尾枠CA1内の面積と上記追尾枠CA2内の面積との差分が予め設定された第3の閾値以上であるか否かを判定する。
In step S504, the tracking prohibition
Subsequently, the tracking prohibition
この判定の結果、追尾枠CA1内の面積と上記追尾枠CA2内の面積との差分が予め設定された第3の閾値以上であれば、追尾禁止エリア設定部1312は、ステップS508において、被写体Q2の顔部F2を含む追尾枠CA2内を追尾禁止エリアに設定し、第1乃至第3の追尾処理部1306〜1308による追尾枠CA2内の被写体Q2の顔部F2に対する追尾を禁止する。
続いて第3の追尾処理回路1309は、追尾枠CA1を被写体Q1の顔部F1に設定する。
なお、追尾枠CA1内の面積と追尾枠CA2内の面積との差分が第3の閾値と等しくなく、又は第3の閾値以上でなければ、追尾禁止エリア設定部1312は、被写体Q2の顔部F2を含む追尾枠CA2内を追尾禁止エリアに設定しない。
If the result of this determination is that the difference between the area in the tracking frame CA1 and the area in the tracking frame CA2 is greater than or equal to a preset third threshold, the tracking prohibited
Subsequently, the third
Note that if the difference between the area in the tracking frame CA1 and the area in the tracking frame CA2 is not equal to the third threshold value or greater than or equal to the third threshold value, the tracking prohibition
このように上記一実施の形態によれば、フォーカス評価値取得エリア設定部1309によって顔部の認識による追尾のための第1のエリアAと色情報による追尾のための第2のエリアCとの包含関係を判定し、この判定結果に基づいてフォーカス評価値取得エリアDを設定し、追尾禁止エリア設定部1312によって例えば枠CA1内の被写体Q1の顔部が指定されると、フォーカス評価値取得エリアDの面積に基づいて例えば追尾枠CA1内で指定された被写体Q1以外の非指定エリアの追尾枠CA2に対する追尾を禁止する。これにより、追尾するに適切なAF評価値を用いて追尾性能を向上できる。例えば移動する被写体よりもAFエリアが小さい場合のようにローコントラストになって移動する被写体を検出できなくなることはなく、又、移動する被写体よりもAFエリアが大きい場合のように被写体の周囲も含まれて移動する被写体のみのAF評価値を取得できないこともない。
As described above, according to the above-described embodiment, the focus evaluation value acquisition
フォーカス評価値取得エリアDの大きさは、顔部の認識による追尾のための第1のエリアAと色情報による追尾のための第2のエリアCとの包含関係から適正な大きさに設定可能である。例えば、顔部による追尾のための第1のエリアAが色情報による追尾のための第2のエリアCを包含していれば、フォーカス評価値取得エリアDは、顔部による追尾のための第1のエリアAを包含する大きさに設定できる。色情報による追尾のための第2のエリアCが顔部による追尾のための第1のエリアAを包含していれば、フォーカス評価値取得エリアDは、色情報による追尾のための第2のエリアCを包含するフォーカス評価値取得エリアDを設定できる。 The size of the focus evaluation value acquisition area D can be set to an appropriate size from the inclusion relationship between the first area A for tracking by face recognition and the second area C for tracking by color information. It is. For example, if the first area A for tracking by the face part includes the second area C for tracking by color information, the focus evaluation value acquisition area D is the first area for tracking by the face part. The size can include one area A. If the second area C for tracking by the color information includes the first area A for tracking by the face, the focus evaluation value acquisition area D is the second area for tracking by the color information. A focus evaluation value acquisition area D including the area C can be set.
又、追尾エリアとして指定された追尾エリア以外の例えば被写体Q2を含む追尾枠CA2内の追尾の禁止は、例えば、2つの手法、すなわち追尾エリアとして追尾枠CA1内の被写体Q1の顔部F1と、非追尾エリアとして追尾枠CA2内の被写体Q2の顔部F2との間隔が予め設定された第1の閾値以内で、かつ各フォーカス評価値取得エリアD内の各フォーカス評価値の差が予め設定された第2の閾値以上であれば、追尾枠CA2内の被写体Q2の顔部F2に対する追尾を禁止できる。
又、追尾エリアとしての追尾枠CA1内の被写体Q1の顔部F1と非追尾エリアとして追尾枠CA2内の被写体Q2の顔部F2との面積差を求め、当該面積差が予め設定された第3の閾値以上であれば、第1乃至第3の追尾処理部1306〜1308による非指定エリアとして例えば枠CA2内の被写体Q2の顔部に対する追尾を禁止できる。
Further, for example, prohibition of tracking in the tracking frame CA2 including the subject Q2 other than the tracking area designated as the tracking area is, for example, two methods, that is, the face F1 of the subject Q1 in the tracking frame CA1 as the tracking area, As the non-tracking area, the distance between the face Q2 of the subject Q2 in the tracking frame CA2 is within a preset first threshold, and the difference between the focus evaluation values in each focus evaluation value acquisition area D is set in advance. If it is equal to or greater than the second threshold, tracking of the face F2 of the subject Q2 within the tracking frame CA2 can be prohibited.
Further, an area difference between the face F1 of the subject Q1 in the tracking frame CA1 as the tracking area and the face F2 of the subject Q2 in the tracking frame CA2 as the non-tracking area is obtained, and the area difference is set in advance. If the threshold is equal to or greater than the threshold, tracking of the face portion of the subject Q2 in the frame CA2 can be prohibited as a non-designated area by the first to third
追尾処理後のAF処理では、CPU1301は、ウォブリング駆動によってフォーカスレンズを合焦位置まで駆動するが、ここで、ウォブリング動作について図27に示す説明図を参照して説明する。
コントラストAF方式は、自動的にピントを調節するオートフォーカス制御を行う機能として、撮像画像のAF領域のコントラストや高周波成分等を抽出してAF評価値を生成し、そのAF評価値が一番高くなるようにレンズ位置を調整する。
In the AF process after the tracking process, the CPU 1301 drives the focus lens to the in-focus position by wobbling driving. Here, the wobbling operation will be described with reference to an explanatory diagram shown in FIG.
The contrast AF method is a function for performing autofocus control that automatically adjusts the focus, and extracts the contrast and high frequency components of the AF area of the captured image to generate an AF evaluation value, and the AF evaluation value is the highest. Adjust the lens position so that
図1はフォーカスレンズ位置に対するAF評価値の変化を示す。フォーカスレンズ位置に対するAF評価値は、合焦位置で最大値(ピーク値)となり、合焦位置(ピーク位置)から遠距離側(後ピン側)又は近距離側(前ピン側)に離れるに従って小さくなる。従って、オートフォーカス制御を行う場合、AF評価値がピーク値となるように、フォーカスレンズレンズの位置制御を行う。 FIG. 1 shows the change of the AF evaluation value with respect to the focus lens position. The AF evaluation value with respect to the focus lens position becomes the maximum value (peak value) at the in-focus position, and becomes smaller as the distance from the in-focus position (peak position) increases to the far side (rear pin side) or near side (front pin side). Become. Therefore, when performing autofocus control, the position of the focus lens is controlled so that the AF evaluation value becomes a peak value.
AF評価値がピーク値となる位置にフォーカスレンズを移動させるためには、現在のフォーカスレンズ位置に対して合焦位置がどちら方向にあるか、つまり、合焦位置から遠距離側に位置しているのか、近距離側に位置しているのかを判断しなければならない。
この具体的な方法は、画像に影響を与えない程度にフォーカスレンズを微小振動(ウォブリング)動作させ、AF評価値の変動方向を検出するものとなる。
In order to move the focus lens to the position where the AF evaluation value reaches the peak value, the direction of the focus position relative to the current focus lens position, that is, the far position from the focus position It must be determined whether it is located on the short distance side.
In this specific method, the focus lens is microvibrated (wobbled) to the extent that it does not affect the image, and the variation direction of the AF evaluation value is detected.
次に、例えば撮像素子114の撮像面上における位相差AFについて図28及び図29を参照して説明する。
撮像素子114により射出瞳の異なる部分を通過した光束を受光することによって位相差AFが可能である。撮像素子114の撮像面は、AF用画素列がベイヤー配列されている。この撮像素子114の撮像面においてベイヤー配列の一部分に配置されたAF用画素列の各撮像素子114の各出力に基づく位相差検出方式の焦点検出が可能である。
Next, for example, phase difference AF on the imaging surface of the
Phase difference AF is possible by receiving a light beam that has passed through different portions of the exit pupil by the
図28はAF用画素列の構成を示す。AF用画素列には、撮影レンズの射出瞳の上側部分100aからの光束200aと下側部分100bからの光束200bとを分離させるための開口部の位置が対称となっている遮光部300a、300bを有する一対の画素400a、400bが垂直方向に沿って複数個配列されている。 FIG. 28 shows the configuration of the AF pixel column. In the AF pixel row, the light shielding portions 300a and 300b in which the positions of the openings for separating the light beam 200a from the upper portion 100a of the exit pupil of the photographing lens and the light beam 200b from the lower portion 100b are symmetrical. A plurality of pixels 400a and 400b having a plurality of pixels are arranged along the vertical direction.
第1AF画素400aは、遮光部300aの開口が光電変換部に対して下側に偏っている。第2AF画素400bは、遮光部300bの開口が上側に偏っている。第1のAF画素400aと第2のAF画素4bとは、AF用画素列において交互に配置される。第1のAF画素400a、第2のAF画素400bは、連続的に配置される必要はなく、ベイヤー配列の中で離散的に配置してもよい。
In the first AF pixel 400a, the opening of the light shielding unit 300a is biased downward with respect to the photoelectric conversion unit. In the second AF pixel 400b, the opening of the light shielding portion 300b is biased upward. The first AF pixel 400a and the
射出瞳の上側部分100aからの光束200aは、マイクロレンズ500a、遮光部300aの開口を通過して第1のAF画素400aの光電変換部で受光される。射出瞳の下側部分100bからの光束200bは、マイクロレンズ500b、遮光部300bの開口を通過して第2のAF画素400bの光電変換部で受光される。このように射出瞳の異なる部分を通過する光束をそれぞれ検出する構成を有する。 The light beam 200a from the upper portion 100a of the exit pupil passes through the openings of the microlens 500a and the light shielding unit 300a and is received by the photoelectric conversion unit of the first AF pixel 400a. The light beam 200b from the lower portion 100b of the exit pupil passes through the openings of the microlens 500b and the light shielding unit 300b and is received by the photoelectric conversion unit of the second AF pixel 400b. In this way, the light beam passing through different portions of the exit pupil is detected.
第1のAF画素400aの画素出力をa列画素出力、第2のAF画素400bの画素出力をb列画素出力とする。図29において画素400a1〜400a3を含むa列画素出力はDaで示す。画素400b1〜400b3を含むb列画素出力はDbで示される。これにより、一対の像Da、Dbが生成される。 The pixel output of the first AF pixel 400a is the a-column pixel output, and the pixel output of the second AF pixel 400b is the b-column pixel output. In FIG. 29, a column pixel output including the pixels 400a1 to 400a3 is indicated by Da. The b column pixel output including the pixels 400b1 to 400b3 is denoted by Db. Thereby, a pair of images Da and Db are generated.
a列、b列画素出力の間には、AF用画素列の配列方向において位相差fが生ずる。位相差AF方式の原理に基づき、上記位相差fよりAF用画素列に対応する被写体に関する撮影レンズのデフォーカス量とデフォーカス方向を求めることができる。
AF用画素列は、全撮影画面に対応する撮像領域に所定の間隔で複数個設けられ、撮影画面の全域にてデフォーカス量を求めることが可能である。
また、撮像素子とは別体の公知のTTL位相差検出ユニットを設け、デフォーカス量、デフォーカス方向を検出し相対的距離を求めてもよい。また、撮影レンズを通過する光束とは異なる光束を用いる外光式位相差検出ユニットを設け、被写体距離を検出して相対的距離を求めてもよい。
A phase difference f is generated between the a-column and b-column pixel outputs in the arrangement direction of the AF pixel columns. Based on the principle of the phase difference AF method, the defocus amount and defocus direction of the photographing lens relating to the subject corresponding to the AF pixel row can be obtained from the phase difference f.
A plurality of AF pixel columns are provided at predetermined intervals in an imaging region corresponding to the entire shooting screen, and a defocus amount can be obtained over the entire shooting screen.
Further, a known TTL phase difference detection unit separate from the image sensor may be provided, and the relative distance may be obtained by detecting the defocus amount and the defocus direction. Further, an external light type phase difference detection unit that uses a light beam different from the light beam passing through the photographing lens may be provided, and the subject distance may be detected to obtain the relative distance.
以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。
さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。
Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention.
Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.
100:撮像装置、102:撮影光学系、104:焦点調整機構、106:絞り、108:絞り駆動機構、110:シャッタ、112:シャッタ駆動機構、114:撮像素子、116:撮像素子インターフェイス(IF)回路、118:SDRAM、120:表示素子、122:表示素子駆動回路、124:タッチパネル、126:タッチパネル駆動回路、128:記録メディア、1301:CPU、130:システムコントローラ、132:カメラ操作スイッチ、134:ROM、101:撮像部、118a:ワークエリア、118b:評価画像エリア、118c:参照画像エリア、118d:追尾位置ログエリア、118e:コントラスト情報ログエリア、128a:画像ファイル、1302:AF制御回路、1303:AE制御回路、1304:画像処理回路、1305:顔認識回路、1306:第1の追尾処理回路、1307:第2の追尾処理回路、1308:第3の追尾処理回路、1309:フォーカス評価値取得エリア設定部、1310:追尾候補検出部、1311:追尾エリア指定部、1312:追尾禁止エリア設定部、1313:メモリ制御回路、402,404,406:顔パーツ。 DESCRIPTION OF SYMBOLS 100: Imaging device, 102: Imaging optical system, 104: Focus adjustment mechanism, 106: Aperture, 108: Aperture drive mechanism, 110: Shutter, 112: Shutter drive mechanism, 114: Image sensor, 116: Image sensor interface (IF) Circuit: 118: SDRAM, 120: Display element, 122: Display element driving circuit, 124: Touch panel, 126: Touch panel driving circuit, 128: Recording medium, 1301: CPU, 130: System controller, 132: Camera operation switch, 134: ROM, 101: imaging unit, 118a: work area, 118b: evaluation image area, 118c: reference image area, 118d: tracking position log area, 118e: contrast information log area, 128a: image file, 1302: AF control circuit, 1303 : AE control circuit, 304: Image processing circuit, 1305: Face recognition circuit, 1306: First tracking processing circuit, 1307: Second tracking processing circuit, 1308: Third tracking processing circuit, 1309: Focus evaluation value acquisition area setting unit, 1310 : Tracking candidate detection unit, 1311: tracking area designation unit, 1312: tracking prohibition area setting unit, 1313: memory control circuit, 402, 404, 406: face parts.
Claims (16)
前記撮像部の撮像により取得された画像データ中の前記被写体を追尾するための複数の特徴を取得する複数のエリアを包含するエリアを有し、かつ前記被写体に対するフォーカス評価値を取得するためのフォーカス評価値取得エリアを設定するフォーカス評価値取得エリア設定部と、
前記被写体を追尾する追尾部と、
前記被写体を含む追尾エリアが指定されると、前記フォーカス評価値取得エリア内の前記フォーカス評価値に基づいて前記指定された追尾エリア以外の非指定エリアに対する前記追尾部による追尾を禁止するエリアとする追尾禁止エリア設定部と、
を具備し、
前記追尾禁止エリア設定部は、前記追尾エリアと前記非指定エリアとの間隔が予め設定された第1の閾値以内で、かつ前記各フォーカス評価値取得エリア内の前記各フォーカス評価値の差が予め設定された第2の閾値以上であれば、または、前記追尾エリアと前記非指定エリアとの間隔が予め設定された第1の閾値以内で、かつ前記追尾エリアと前記非指定エリアとの面積差が予め設定された第3の閾値以上であれば、前記追尾部による前記非指定エリアに対する追尾を禁止することを特徴とする追尾装置。 An imaging unit for imaging a subject;
A focus having an area including a plurality of areas for acquiring a plurality of features for tracking the subject in the image data acquired by imaging of the imaging unit, and for acquiring a focus evaluation value for the subject A focus evaluation value acquisition area setting unit for setting an evaluation value acquisition area;
A tracking unit for tracking the subject;
When a tracking area including the subject is designated, the tracking unit prohibits tracking by the tracking unit for non-designated areas other than the designated tracking area based on the focus evaluation value in the focus evaluation value acquisition area. Tracking area setting section,
Equipped with,
The tracking prohibition area setting unit is configured such that an interval between the tracking area and the non-designated area is within a preset first threshold, and a difference between the focus evaluation values in the focus evaluation value acquisition areas is determined in advance. If it is greater than or equal to the set second threshold, or the distance between the tracking area and the non-designated area is within a preset first threshold, and the area difference between the tracking area and the non-designated area Is a third threshold value set in advance , the tracking device prohibits tracking of the non-designated area by the tracking unit.
前記撮像部の撮像により取得された画像データ中からそれぞれ異なる特徴により前記被写体の追尾を行う追尾部と、
前記追尾部による前記複数の追尾を行うための複数の追尾エリアを包含するエリアを有し、かつ前記被写体に対するフォーカス評価値を取得するためのフォーカス評価値取得エリアを設定するフォーカス評価値取得エリア設定部と、
前記撮像部の撮像により取得された画像データ中に含まれる少なくとも1つの前記被写体から追尾対象とする前記被写体を含む追尾エリアを指定する追尾エリア指定部と、
前記追尾エリア指定部により指定された前記追尾エリアと他の前記被写体を含む非指定エリアとの間隔と、前記各フォーカス評価値取得エリア内の前記各フォーカス評価値とに基づいて前記追尾部による前記非指定エリアに対する追尾を禁止するエリアとする追尾禁止エリア設定部と、
を具備し、
前記追尾禁止エリア設定部は、前記追尾エリア指定部により指定された前記追尾エリアと前記非指定エリアとの間隔が予め設定された第1の閾値以内で、かつ前記各フォーカス評価値取得エリア内の前記各フォーカス評価値の差が予め設定された第2の閾値以上であれば、または、前記追尾エリアと前記非指定エリアとの間隔が予め設定された第1の閾値以内で、かつ前記追尾エリアと前記非指定エリアとの面積差が予め設定された第3の閾値以上であれば、前記追尾部による前記非指定エリアに対する追尾を禁止することを特徴とする追尾装置。 An imaging unit for imaging a subject;
A tracking unit that tracks the subject according to different characteristics from image data acquired by imaging of the imaging unit;
A focus evaluation value acquisition area setting that includes an area including a plurality of tracking areas for performing the plurality of tracking by the tracking unit, and sets a focus evaluation value acquisition area for acquiring a focus evaluation value for the subject And
A tracking area designating unit for designating a tracking area including the subject to be tracked from at least one of the subjects included in the image data acquired by imaging of the imaging unit;
Based on the interval between the tracking area designated by the tracking area designation unit and the non-designated area including the other subject, and the focus evaluation values in the focus evaluation value acquisition areas, the tracking unit performs the tracking evaluation by the tracking unit. A tracking prohibited area setting section which is an area for which tracking is prohibited for a non-designated area;
Equipped with,
The tracking prohibition area setting unit includes an interval between the tracking area designated by the tracking area designating unit and the non-designated area within a preset first threshold, and within each focus evaluation value acquisition area. If the difference between the focus evaluation values is greater than or equal to a preset second threshold, or the interval between the tracking area and the non-designated area is within a preset first threshold and the tracking area When the area difference between the non-designated area and the non-designated area is equal to or greater than a preset third threshold , the tracking device prohibits the tracking of the non-designated area by the tracking unit.
前記フォーカス評価値取得エリア設定部は、前記顔部の追尾のための第1のエリアと前記色情報の追尾のための第2のエリアとを包含するエリアを有し、かつ前記フォーカス評価値を取得するためのフォーカス評価値取得エリアを設定する、
ことを特徴とする請求項1又は2に記載の追尾装置。 The tracking unit includes tracking of the face portion of the subject and tracking based on the color information of the subject,
The focus evaluation value acquisition area setting unit includes an area including a first area for tracking the face portion and a second area for tracking the color information, and the focus evaluation value is Set the focus evaluation value acquisition area to acquire,
The tracking device according to claim 1, wherein:
前記追尾エリア指定部は、前記枠の設定された前記追尾候補エリアに対して前記追尾対象とする前記追尾候補エリアの指示を受けると、当該指示を受けた前記追尾候補エリアを追尾エリアに指定する、
ことを特徴とする請求項2に記載の追尾装置。 A tracking candidate detection unit that detects a tracking candidate area including at least one of the subjects from the image data acquired by imaging of the imaging unit, and sets a frame in the tracking candidate area;
When the tracking area designating unit receives an instruction for the tracking candidate area as the tracking target for the tracking candidate area in which the frame is set, the tracking area designating unit designates the tracking candidate area that has received the instruction as a tracking area. ,
The tracking device according to claim 2.
前記撮像部の撮像により取得された前記画像データに対して画像処理を行う画像処理部と、
前記画像処理部により画像処理された前記画像データを表示する表示部と、
を具備することを特徴とする撮像装置。 The tracking device according to any one of claims 1 to 10 ,
An image processing unit that performs image processing on the image data acquired by imaging of the imaging unit;
A display unit for displaying the image data image-processed by the image processing unit;
An imaging apparatus comprising:
前記被写体を含む追尾エリアが指定されると、前記フォーカス評価値取得エリア内の前記フォーカス評価値に基づいて前記指定された追尾エリア以外の非指定エリアに対する前記追尾を禁止し、
前記追尾エリアと前記非指定エリアとの間隔が予め設定された第1の閾値以内で、かつ前記各フォーカス評価値取得エリア内の前記各フォーカス評価値の差が予め設定された第2の閾値以上であれば、または、前記追尾エリアと前記非指定エリアとの間隔が予め設定された第1の閾値以内で、かつ前記追尾エリアと前記非指定エリアとの面積差が予め設定された第3の閾値以上であれば、前記非指定エリアに対する追尾を禁止する、
ことを特徴とする撮像装置に用いる追尾方法。 Focus for having the encompassing area of the plurality of areas for obtaining a plurality of features for tracking the object Utsushitai in the image data acquired by the imaging of the imaging unit, and obtains a focus evaluation value for the object Set the evaluation value acquisition area,
When the tracking area including the object is specified, and prohibit the previous SL add tails for said non-designated areas other than the tracking area where the specified based on the focus evaluation value of the focus evaluation value acquisition area,
The interval between the tracking area and the non-designated area is within a preset first threshold, and the difference between the focus evaluation values in the focus evaluation value acquisition area is equal to or greater than a preset second threshold. Or the interval between the tracking area and the non-designated area is within a preset first threshold, and the area difference between the tracking area and the non-designated area is set in advance. If it is greater than or equal to the threshold, tracking for the non-designated area is prohibited.
The tracking method used for the imaging device characterized by the above-mentioned.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012021020A JP5965654B2 (en) | 2012-02-02 | 2012-02-02 | TRACKING DEVICE, IMAGING DEVICE, TRACKING METHOD USED FOR IMAGING DEVICE |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012021020A JP5965654B2 (en) | 2012-02-02 | 2012-02-02 | TRACKING DEVICE, IMAGING DEVICE, TRACKING METHOD USED FOR IMAGING DEVICE |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013162225A JP2013162225A (en) | 2013-08-19 |
JP5965654B2 true JP5965654B2 (en) | 2016-08-10 |
Family
ID=49174163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012021020A Expired - Fee Related JP5965654B2 (en) | 2012-02-02 | 2012-02-02 | TRACKING DEVICE, IMAGING DEVICE, TRACKING METHOD USED FOR IMAGING DEVICE |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5965654B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015079185A (en) * | 2013-10-18 | 2015-04-23 | 株式会社ニコン | Imaging device |
JP2018200481A (en) * | 2018-08-01 | 2018-12-20 | 株式会社ニコン | Imaging device |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5167750B2 (en) * | 2006-10-03 | 2013-03-21 | 株式会社ニコン | TRACKING DEVICE, IMAGING DEVICE, AND TRACKING METHOD |
JP2010021943A (en) * | 2008-07-14 | 2010-01-28 | Sanyo Electric Co Ltd | Imaging apparatus |
JP2010113129A (en) * | 2008-11-06 | 2010-05-20 | Nikon Corp | Image tracking device, focusing device, and image capturing apparatus |
JP2011107501A (en) * | 2009-11-19 | 2011-06-02 | Nikon Corp | Focusing device and imaging apparatus |
JP5642410B2 (en) * | 2010-03-30 | 2014-12-17 | パナソニック株式会社 | Face recognition device and face recognition method |
-
2012
- 2012-02-02 JP JP2012021020A patent/JP5965654B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013162225A (en) | 2013-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5830373B2 (en) | Imaging device | |
JP5251215B2 (en) | Digital camera | |
JP5961929B2 (en) | camera | |
JP5226903B1 (en) | TRACKING DEVICE AND TRACKING METHOD | |
JP2014081420A (en) | Tracking device and method thereof | |
JP5771461B2 (en) | TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM | |
JP2005215040A (en) | Autofocus system | |
JP5810136B2 (en) | TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM | |
US20180027172A1 (en) | Focus adjusting apparatus, focus adjusting method, image capturing apparatus, and storage medium | |
JP5851206B2 (en) | TRACKING DEVICE AND TRACKING METHOD | |
JP2013012940A (en) | Tracking apparatus and tracking method | |
JP2007133301A (en) | Autofocus camera | |
JP2006208443A (en) | Automatic focusing apparatus | |
JP5965654B2 (en) | TRACKING DEVICE, IMAGING DEVICE, TRACKING METHOD USED FOR IMAGING DEVICE | |
JP2013015751A (en) | Imaging apparatus | |
JP6172973B2 (en) | Image processing device | |
JP2009105851A (en) | Imaging apparatus, control method and program thereof | |
JP2010134309A (en) | Autofocus device, autofocus method and imaging apparatus | |
JP5977526B2 (en) | Image processing apparatus and image processing method | |
JP5839857B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP5315019B2 (en) | Autofocus device, autofocus method, and imaging device | |
JP5965653B2 (en) | TRACKING DEVICE AND TRACKING METHOD | |
JP5769518B2 (en) | Imaging device | |
JP6138632B2 (en) | Imaging apparatus, imaging method, and program | |
JP2000330008A (en) | Automatic focusing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150128 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20150423 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160621 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160704 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5965654 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |