JP5965654B2 - TRACKING DEVICE, IMAGING DEVICE, TRACKING METHOD USED FOR IMAGING DEVICE - Google Patents

TRACKING DEVICE, IMAGING DEVICE, TRACKING METHOD USED FOR IMAGING DEVICE Download PDF

Info

Publication number
JP5965654B2
JP5965654B2 JP2012021020A JP2012021020A JP5965654B2 JP 5965654 B2 JP5965654 B2 JP 5965654B2 JP 2012021020 A JP2012021020 A JP 2012021020A JP 2012021020 A JP2012021020 A JP 2012021020A JP 5965654 B2 JP5965654 B2 JP 5965654B2
Authority
JP
Japan
Prior art keywords
tracking
area
evaluation value
focus evaluation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012021020A
Other languages
Japanese (ja)
Other versions
JP2013162225A (en
Inventor
賢人 古谷野
賢人 古谷野
尚 米山
尚 米山
泰則 工藤
泰則 工藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2012021020A priority Critical patent/JP5965654B2/en
Publication of JP2013162225A publication Critical patent/JP2013162225A/en
Application granted granted Critical
Publication of JP5965654B2 publication Critical patent/JP5965654B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、被写体を追尾する追尾装置及び撮像装置、撮像装置に用いる追尾方法に関する。   The present invention relates to a tracking device that tracks a subject, an imaging device, and a tracking method used in the imaging device.

被写体を追尾する追尾装置としては、例えばコントラストオートフォーカス(コントラストAF)で用いられるAF評価値を利用して被写体を追尾する技術がある。かかる技術としては例えば特許文献1がある。この特許文献1は、フォーカスレンズを駆動させながら、複数のAFエリアについて撮像素子の出力信号に基づいてコントラスト検出信号を演算し、この演算されたコントラスト検出信号からAFエリア間での被写体移動を検知し、この検知結果に応じて合焦位置を求めることを開示する。   As a tracking device for tracking a subject, there is a technique for tracking a subject using an AF evaluation value used in, for example, contrast autofocus (contrast AF). An example of such a technique is Patent Document 1. This Patent Document 1 calculates a contrast detection signal based on an output signal of an image sensor for a plurality of AF areas while driving a focus lens, and detects subject movement between AF areas from the calculated contrast detection signal. Then, it is disclosed that the in-focus position is obtained according to the detection result.

特開2007−011054号公報JP 2007-011054 A

しかしながら、特許文献1は、移動する被写体よりもAFエリアが小さい場合、ローコントラストになり易く、移動する被写体を検出できないことがあり、又、移動する被写体よりもAFエリアが大きい場合、被写体の周囲も含まれるために、移動する被写体のみのAF評価値を取得できないことがある。   However, in Patent Document 1, when the AF area is smaller than the moving subject, the contrast tends to be low, and the moving subject may not be detected. Also, when the AF area is larger than the moving subject, Therefore, the AF evaluation value of only the moving subject may not be acquired.

本発明は、追尾するに適切なAF評価値を用いて追尾性能を向上できる追尾装置及び撮像装置、撮像装置に用いる追尾方法を提供することを目的とする。   It is an object of the present invention to provide a tracking device, an imaging device, and a tracking method used for the imaging device that can improve tracking performance using an AF evaluation value appropriate for tracking.

本発明の主要な局面に係る追尾装置は、被写体を撮像する撮像部と、前記撮像部の撮像により取得された画像データ中の前記被写体を追尾するための複数の特徴を取得する複数のエリアを包含するエリアを有し、かつ前記被写体に対するフォーカス評価値を取得するためのフォーカス評価値取得エリアを設定するフォーカス評価値取得エリア設定部と、前記被写体を追尾する追尾部と、前記被写体を含む追尾エリアが指定されると、前記フォーカス評価値取得エリア内の前記フォーカス評価値に基づいて前記指定された追尾エリア以外の非指定エリアに対する前記追尾部による追尾を禁止するエリアとする追尾禁止エリア設定部とを具備し、前記追尾禁止エリア設定部は、前記追尾エリアと前記非指定エリアとの間隔が予め設定された第1の閾値以内で、かつ前記各フォーカス評価値取得エリア内の前記各フォーカス評価値の差が予め設定された第2の閾値以上であれば、または、前記追尾エリアと前記非指定エリアとの間隔が予め設定された第1の閾値以内で、かつ前記追尾エリアと前記非指定エリアとの面積差が予め設定された第3の閾値以上であれば、前記追尾部による前記非指定エリアに対する追尾を禁止するA tracking device according to a main aspect of the present invention includes an imaging unit that images a subject, and a plurality of areas that acquire a plurality of features for tracking the subject in image data acquired by imaging of the imaging unit. A focus evaluation value acquisition area setting unit for setting a focus evaluation value acquisition area for acquiring a focus evaluation value for the subject, a tracking unit for tracking the subject, and a tracking including the subject When an area is specified, a tracking prohibition area setting unit which is an area in which tracking by the tracking unit with respect to a non-designated area other than the specified tracking area is prohibited based on the focus evaluation value in the focus evaluation value acquisition area comprising the door, the tracking prohibition area setting unit, first the distance between the tracking area and the non-designated area has been set in advance If the difference between the focus evaluation values within each focus evaluation value acquisition area is equal to or greater than a second threshold value set in advance, or the interval between the tracking area and the non-designated area is predetermined. If the area difference between the tracking area and the non-designated area is equal to or greater than a preset third threshold value within the first threshold value set, tracking of the non-designated area by the tracking unit is prohibited. .

本発明の主要な局面に係る撮像装置は、上記追尾装置と、前記撮像部の撮像により取得された前記画像データに対して画像処理を行う画像処理部と、前記画像処理部により画像処理された前記画像データを表示する表示部とを具備する。
本発明の主要な局面に係る撮像装置に用いる追尾方法は、撮像部の撮像により取得された画像データ中の被写体を追尾するための複数の特徴を取得する複数のエリアを包含するエリアを有し、かつ前記被写体に対するフォーカス評価値を取得するためのフォーカス評価値取得エリアを設定し、前記被写体を含む追尾エリアが指定されると、前記フォーカス評価値取得エリア内の前記フォーカス評価値に基づいて前記指定された追尾エリア以外の非指定エリアに対する前記追尾を禁止し、前記追尾エリアと前記非指定エリアとの間隔が予め設定された第1の閾値以内で、かつ前記各フォーカス評価値取得エリア内の前記各フォーカス評価値の差が予め設定された第2の閾値以上であれば、または、前記追尾エリアと前記非指定エリアとの間隔が予め設定された第1の閾値以内で、かつ前記追尾エリアと前記非指定エリアとの面積差が予め設定された第3の閾値以上であれば、前記非指定エリアに対する追尾を禁止する
An imaging apparatus according to a main aspect of the present invention is image-processed by the tracking apparatus, an image processing unit that performs image processing on the image data acquired by imaging of the imaging unit, and the image processing unit. A display unit for displaying the image data.
Tracking method used in the imaging apparatus according to the principal aspect of the present invention, encompassing the area a plurality of areas for obtaining a plurality of features for tracking the object Utsushitai in the image data acquired by the imaging of the imaging unit And a focus evaluation value acquisition area for acquiring a focus evaluation value for the subject is set, and when a tracking area including the subject is designated, the focus evaluation value in the focus evaluation value acquisition area is set. It prohibits pre Symbol add tails for non-designated areas other than the designated tracking area Te, first within the threshold value, and wherein the focus evaluation value distance between the tracking area and the non-designated area has been set in advance If the difference between the focus evaluation values in the acquisition area is greater than or equal to a second threshold value set in advance, or the interval between the tracking area and the non-designated area is Within the first threshold value is because set, and if the third threshold value or more area difference of the tracking area and the non-designated area has been set in advance, prohibits the tracking for the non-designated area.

本発明によれば、追尾するに適切なAF評価値を用いて追尾性能を向上できる追尾装置及び撮像装置、撮像装置に用いる追尾方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the tracking method used for the tracking apparatus and imaging device which can improve tracking performance using AF evaluation value suitable for tracking, and an imaging device can be provided.

本発明の一実施の形態に係る追尾装置を備えた撮像装置の一例を示す構成図。The block diagram which shows an example of the imaging device provided with the tracking apparatus which concerns on one embodiment of this invention. 同装置における顏認識処理についての説明図。Explanatory drawing about the wrinkle recognition process in the same apparatus. 同装置における色情報を用いた追尾処理についての説明図。Explanatory drawing about the tracking process using the color information in the same apparatus. 同装置における輝度情報を用いた追尾処理についての説明図。Explanatory drawing about the tracking process using the luminance information in the same apparatus. 同装置におけるフォーカス評価値取得エリア設定部によるフォーカス評価値取得エリアの設定を示す図。The figure which shows the setting of the focus evaluation value acquisition area by the focus evaluation value acquisition area setting part in the same apparatus. 同装置における追尾候補検出部による追尾候補エリアの検出を示す図。The figure which shows the detection of the tracking candidate area by the tracking candidate detection part in the apparatus. 同装置における撮影動作フローチャート。The imaging | photography operation | movement flowchart in the same apparatus. 同装置の追尾開始における画像データを示す図。The figure which shows the image data in the tracking start of the apparatus. 同装置により人物の顔部に追尾枠が設定された画像データを示す図。The figure which shows the image data by which the tracking frame was set to the face part of the person by the same apparatus. 同装置においてタッチパネル上の被写体の顔部に対応する部分へのユーザの指によるタッチにより追尾対象して指定されることを示す図。The figure which shows being designated as a tracking object by the touch by the user's finger | toe to the part corresponding to the face part of the object on a touch panel in the same apparatus. 同装置における追尾処理フローチャート。The tracking process flowchart in the same apparatus. 同装置におけるフォーカス評価値取得エリア設定部によるフォーカス評価値取得エリアの設定を示す図。The figure which shows the setting of the focus evaluation value acquisition area by the focus evaluation value acquisition area setting part in the same apparatus. 同装置による画像データ中の第1の人物の顔部に設定される追尾枠を示す図。The figure which shows the tracking frame set to the face part of the 1st person in the image data by the same apparatus. 同装置におけるフォーカス評価値取得エリア設定部による非追尾対象に設定される追尾枠を示す図。The figure which shows the tracking frame set to the non-tracking object by the focus evaluation value acquisition area setting part in the same apparatus. 同装置における追尾禁止エリア設定部による追尾禁止エリアの設定を示す図。The figure which shows the setting of the tracking prohibition area by the tracking prohibition area setting part in the same apparatus. 同装置における追尾禁止エリア設定部による非追尾対象の被写体の顔部に対する追尾の禁止を示す図。The figure which shows prohibition of the tracking with respect to the subject of the non-tracking subject by the tracking prohibition area setting unit in the same device. 同装置における被写体の顔部に設定されている追尾枠の更新を示す図。The figure which shows the update of the tracking frame set to the face part of the to-be-photographed object in the apparatus. 同装置により追尾対象の第1の人物から非追尾対象の第2の人物の顔部に対して色情報による追尾が移行しようとしている状態を示す画像データの模式図。FIG. 6 is a schematic diagram of image data showing a state in which tracking by color information is about to shift from the first person to be tracked to the face of the second person to be tracked by the same apparatus. 同装置により非追尾対象の第2の人物の顔部に対する追尾の禁止状態を示す画像データの模式図。The schematic diagram of the image data which shows the prohibition state of tracking with respect to the face part of the 2nd person of the non-tracking object by the same apparatus. 同装置により追尾対象の第1の人物に対する追尾への戻る状態を示す画像データの模式図。The schematic diagram of the image data which shows the state which returns to the tracking with respect to the 1st person of tracking object by the same apparatus. 同装置におけるAF評価値取得エリア設定フローチャート。The AF evaluation value acquisition area setting flowchart in the same apparatus. 同装置における追尾禁止領域判定処理フローチャート。The tracking prohibition area | region determination processing flowchart in the same apparatus. 同装置における追尾禁止領域判定処理でのAF評価値取得エリアの設定を示す模式図。The schematic diagram which shows the setting of AF evaluation value acquisition area in the tracking prohibition area | region determination process in the same apparatus. 同装置における追尾禁止領域判定処理での追尾禁止エリアの設定を示す模式図。The schematic diagram which shows the setting of the tracking prohibition area in the tracking prohibition area | region determination process in the same apparatus. 同装置における追尾禁止領域判定処理での追尾枠の設定を示す模式図。The schematic diagram which shows the setting of the tracking frame in the tracking prohibition area | region determination process in the same apparatus. 同装置における別の追尾禁止領域判定処理フローチャート。The other tracking prohibition area | region determination processing flowchart in the same apparatus. 同装置に用いるウォブリング動作を示す説明図。Explanatory drawing which shows the wobbling operation | movement used for the apparatus. 同装置における撮像素子のAF用画素列を示す構成図。FIG. 3 is a configuration diagram showing an AF pixel row of an image sensor in the apparatus. 同装置における撮像素子のAF用画素列の出力信号を示す構成図。FIG. 3 is a configuration diagram showing an output signal of an AF pixel column of an image sensor in the same device.

以下、本発明の一実施の形態について図面を参照して説明する。
図1は追尾装置を備えた撮像装置の一例の構成図を示す。撮像装置100は、撮影光学系102と、焦点調整機構104と、絞り106と、絞り駆動機構108と、シャッタ110と、シャッタ駆動機構112と、撮像素子114と、撮像素子インターフェイス(IF)回路116と、RAM118と、表示素子120と、表示素子駆動回路122と、タッチパネル124と、タッチパネル駆動回路126と、記録メディア128と、CPU1301を搭載するシステムコントローラ130と、カメラ操作スイッチ132と、ROM134とを有する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 shows a configuration diagram of an example of an imaging apparatus provided with a tracking device. The imaging apparatus 100 includes an imaging optical system 102, a focus adjustment mechanism 104, a diaphragm 106, a diaphragm driving mechanism 108, a shutter 110, a shutter driving mechanism 112, an imaging element 114, and an imaging element interface (IF) circuit 116. A RAM 118, a display element 120, a display element drive circuit 122, a touch panel 124, a touch panel drive circuit 126, a recording medium 128, a system controller 130 on which a CPU 1301 is mounted, a camera operation switch 132, and a ROM 134. Have.

このうち撮影光学系102と、焦点調整機構104と、絞り106と、絞り駆動機構108と、シャッタ110と、シャッタ駆動機構112と、撮像素子114と、撮像素子インターフェイス(IF)回路116とは、撮像部101を構成する。   Among them, the photographing optical system 102, the focus adjustment mechanism 104, the diaphragm 106, the diaphragm drive mechanism 108, the shutter 110, the shutter drive mechanism 112, the image sensor 114, and the image sensor interface (IF) circuit 116 are: The imaging unit 101 is configured.

撮影光学系102は、被写体からの光束Fを撮像素子114の受光面上に集光する光学系である。この撮影光学系102は、フォーカスレンズ等の複数のレンズを有する。焦点調整機構104は、モータ及びその駆動回路等を有する。この焦点調整機構104は、CPU1301の制御に従って撮影光学系102内のフォーカスレンズをその光軸方向(図示一点鎖線方向)に駆動する。   The photographing optical system 102 is an optical system that condenses the light flux F from the subject on the light receiving surface of the image sensor 114. The photographing optical system 102 has a plurality of lenses such as a focus lens. The focus adjustment mechanism 104 includes a motor and its drive circuit. The focus adjustment mechanism 104 drives the focus lens in the photographing optical system 102 in the optical axis direction (the one-dot chain line direction in the drawing) according to the control of the CPU 1301.

絞り106は、開閉自在に構成され、撮影光学系102を介して撮像素子114に入射する光束Fの量を調整する。絞り駆動機構108は、絞り106を駆動するための駆動機構を有する。この絞り駆動機構108は、システムコントローラ130内のCPU1301の制御に従って絞り106を駆動する。   The diaphragm 106 is configured to be openable and closable, and adjusts the amount of the light beam F incident on the image sensor 114 via the photographing optical system 102. The aperture drive mechanism 108 has a drive mechanism for driving the aperture 106. The diaphragm driving mechanism 108 drives the diaphragm 106 according to the control of the CPU 1301 in the system controller 130.

シャッタ110は、撮像素子114の受光面を遮光状態又は露光状態とする。このシャッタ110により撮像素子114の露光時間が調整される。シャッタ駆動機構112は、シャッタ110を駆動させるための駆動機構を有し、システムコントローラ130内のCPU1301の制御に従ってシャッタ110を駆動する。   The shutter 110 brings the light receiving surface of the image sensor 114 into a light shielding state or an exposure state. The shutter 110 adjusts the exposure time of the image sensor 114. The shutter drive mechanism 112 has a drive mechanism for driving the shutter 110 and drives the shutter 110 according to the control of the CPU 1301 in the system controller 130.

撮像素子114は、受光面を有する。この受光面には、撮影光学系102を介して集光された被写体からの光束Fが結像される。この撮像素子114の受光面は、複数の画素を2次元状に配置して成る。この撮像素子114の受光面の光入射側には、カラーフィルタが設けられている。この撮像素子114は、受光面に結像された光束Fに対応した像(被写体像)をその光量に応じた電気信号(以下、画像信号という)に変換する。この撮像素子114は、例えばCCD方式又はCMOS方式等の種々の構成のものが知られている。カラーフィルタの色配列は、例えばベイヤ配列等の種々の配列が知られている。本実施形態は、撮像素子114の構成が特定の構成に限定されるものではなく、種々の構成の撮像素子を用いることが可能である。   The image sensor 114 has a light receiving surface. On this light receiving surface, the light flux F from the subject condensed through the photographing optical system 102 is imaged. The light receiving surface of the image sensor 114 is formed by arranging a plurality of pixels in a two-dimensional manner. A color filter is provided on the light incident side of the light receiving surface of the image sensor 114. The image sensor 114 converts an image (subject image) corresponding to the light flux F formed on the light receiving surface into an electrical signal (hereinafter referred to as an image signal) corresponding to the amount of light. As this imaging device 114, various types of configurations such as a CCD system or a CMOS system are known. As the color arrangement of the color filters, various arrangements such as a Bayer arrangement are known. In the present embodiment, the configuration of the image sensor 114 is not limited to a specific configuration, and image sensors having various configurations can be used.

撮像素子IF回路116は、CPU1301の制御に従って撮像素子114を駆動し、この撮像素子114で得られた画像信号を読み出す。この撮像素子IF回路116は、撮像素子114から読み出した画像信号に対してCDS(相関二重サンプリング)処理やAGC(自動利得制御)処理等のアナログ処理を施す。さらに、撮像素子IF回路116は、アナログ処理した画像信号をデジタル信号(以下、画像データという)に変換する。   The image sensor IF circuit 116 drives the image sensor 114 according to the control of the CPU 1301 and reads an image signal obtained by the image sensor 114. The image sensor IF circuit 116 performs analog processing such as CDS (correlated double sampling) processing and AGC (automatic gain control) processing on the image signal read from the image sensor 114. Further, the image sensor IF circuit 116 converts the analog processed image signal into a digital signal (hereinafter referred to as image data).

SDRAM118には、例えば記憶エリアとしてワークエリア118aと、評価画像エリア118bと、参照画像エリア118cと、追尾位置ログエリア118dと、コントラスト情報ログエリア118eとが形成されている。
ワークエリア118aには、例えば撮像素子IF回路116で得られた画像データ等の撮像装置100の各部で発生したデータが一時記憶される。
評価画像エリア118bには、評価画像データが一時記憶される。評価画像データは、後述する追尾処理における追尾対象の被写体を含むフレームの画像データである。
参照画像エリア118cには、参照画像データが一時記憶される。参照画像データは、後述する追尾処理において、追尾対象の探索の対象となるフレームの画像データである。
In the SDRAM 118, for example, a work area 118a, an evaluation image area 118b, a reference image area 118c, a tracking position log area 118d, and a contrast information log area 118e are formed as storage areas.
In the work area 118a, for example, data generated in each unit of the imaging apparatus 100 such as image data obtained by the imaging element IF circuit 116 is temporarily stored.
Evaluation image data is temporarily stored in the evaluation image area 118b. The evaluation image data is image data of a frame including a subject to be tracked in a tracking process described later.
Reference image data is temporarily stored in the reference image area 118c. The reference image data is image data of a frame to be searched for a tracking target in tracking processing described later.

追尾位置ログエリア118dには、追尾位置ログが一時記憶される。追尾位置ログは、追尾処理の結果として得られた追尾位置を記録したログである。本実施の形態では、複数の追尾処理を併用して追尾対象を追尾する。従って、追尾位置ログには、それぞれの追尾処理によって得られた追尾位置(候補追尾位置)が個別に記録される。
コントラスト情報ログエリア118eには、コントラスト情報ログが一時記憶される。コントラスト情報ログは、コントラスト情報の演算処理によって得られたコントラスト情報を記録したログである。
A tracking position log is temporarily stored in the tracking position log area 118d. The tracking position log is a log in which the tracking position obtained as a result of the tracking process is recorded. In the present embodiment, a tracking target is tracked using a plurality of tracking processes. Therefore, the tracking position log obtained by each tracking process (candidate tracking position) is individually recorded in the tracking position log.
A contrast information log is temporarily stored in the contrast information log area 118e. The contrast information log is a log in which contrast information obtained by contrast information calculation processing is recorded.

表示素子120は、例えば液晶ディスプレイ(LCD)であり、ライブビュー用の画像及び記録メディア128に記録された画像等の各種画像を表示する。以下、表示素子120は、LCD120と称する。表示素子駆動回路122は、CPU1301の制御により入力された画像データに基づいてLCD120を駆動し、LCD120に画像を表示する。   The display element 120 is, for example, a liquid crystal display (LCD), and displays various images such as an image for live view and an image recorded on the recording medium 128. Hereinafter, the display element 120 is referred to as an LCD 120. The display element driving circuit 122 drives the LCD 120 based on the image data input under the control of the CPU 1301 and displays an image on the LCD 120.

タッチパネル124は、LCD120の表示画面上に一体的に設けられ、当該表示画面上へのユーザの指等の接触(タッチ)を検出し、このタッチ位置を示す座標を含む接触検出信号を出力する。タッチパネル駆動回路126は、タッチパネル124を駆動すると共に、タッチパネル124からの接触検出信号をCPU1301に送る。CPU1301は、タッチパネル124からの接触検出信号から、ユーザの表示画面上への接触操作を検出し、その接触操作に応じた処理を実行する。   The touch panel 124 is provided integrally on the display screen of the LCD 120, detects contact (touch) of the user's finger or the like on the display screen, and outputs a contact detection signal including coordinates indicating the touch position. The touch panel drive circuit 126 drives the touch panel 124 and sends a contact detection signal from the touch panel 124 to the CPU 1301. The CPU 1301 detects a contact operation on the display screen of the user from the contact detection signal from the touch panel 124, and executes processing according to the contact operation.

記録メディア128は、例えばメモリカードである。この記録メディア128は、撮影動作によって得られた画像ファイル128aを記録する。この画像ファイル128aは、画像データに所定のヘッダを付与して形成される。ヘッダには、撮影条件を示すデータ及び追尾位置を示すデータ等がタグデータとして記録される。   The recording medium 128 is a memory card, for example. The recording medium 128 records the image file 128a obtained by the shooting operation. The image file 128a is formed by adding a predetermined header to image data. In the header, data indicating shooting conditions, data indicating a tracking position, and the like are recorded as tag data.

システムコントローラ130は、撮像装置100の全体の動作を制御する。このシステムコントローラ130は、上記CPU1301と、各制御回路としてAF制御回路1302と、AE制御回路1303と、画像処理回路1304と、顔認識回路1305と、第1乃至第3の追尾処理回路1306〜1308と、フォーカス評価値取得エリア設定部1309と、追尾候補検出部1310と、追尾エリア指定部1311と、追尾禁止エリア設定部1312と、メモリ制御回路1313とを有する。   The system controller 130 controls the overall operation of the imaging apparatus 100. The system controller 130 includes the CPU 1301, an AF control circuit 1302, an AE control circuit 1303, an image processing circuit 1304, a face recognition circuit 1305, and first to third tracking processing circuits 1306 to 1308 as control circuits. A focus evaluation value acquisition area setting unit 1309, a tracking candidate detection unit 1310, a tracking area designation unit 1311, a tracking prohibition area setting unit 1312, and a memory control circuit 1313.

CPU1301は、焦点調整機構104と、絞り駆動機構108と、シャッタ駆動機構112と、表示素子駆動回路122と、タッチパネル駆動回路126等を動作制御すると共に、システムコントローラ130内部の上記各制御回路の動作を制御する。
AF制御回路1302は、コントラストAF処理を制御する。具体的にAF制御回路1302は、撮像素子IF回路116で得られた画像データの高周波成分を抽出し、この抽出した高周波成分を積算することによりAF用の合焦評価値を取得する。CPU1301は、この合焦評価値に従って画像データのコントラストを評価しながら焦点調整機構104を制御して撮影光学系102のフォーカスレンズを合焦状態となる位置に調整する。
The CPU 1301 controls the operations of the focus adjustment mechanism 104, the aperture drive mechanism 108, the shutter drive mechanism 112, the display element drive circuit 122, the touch panel drive circuit 126, and the like, and the operations of the control circuits in the system controller 130. To control.
The AF control circuit 1302 controls contrast AF processing. Specifically, the AF control circuit 1302 extracts high-frequency components of the image data obtained by the image sensor IF circuit 116, and obtains an AF focus evaluation value by integrating the extracted high-frequency components. The CPU 1301 controls the focus adjustment mechanism 104 while evaluating the contrast of the image data in accordance with the focus evaluation value, and adjusts the focus lens of the photographing optical system 102 to a position where the focus is achieved.

AE制御回路1303は、AE動作を制御する。具体的にAE制御回路1303は、撮像素子IF回路116で得られた画像データを用いて被写体の輝度を算出する。AE制御回路1303は、この被写体の輝度に従って露光時の絞り106の開口量(絞り値)、シャッタ110の開放時間(シャッタ速度値)を算出する。   The AE control circuit 1303 controls the AE operation. Specifically, the AE control circuit 1303 calculates the luminance of the subject using the image data obtained by the imaging element IF circuit 116. The AE control circuit 1303 calculates the aperture amount (aperture value) of the aperture 106 at the time of exposure and the opening time (shutter speed value) of the shutter 110 according to the luminance of the subject.

画像処理回路1304は、画像データに対する各種の画像処理を行う。この画像処理は、例えば色補正処理、ガンマ(γ)補正処理、圧縮処理等を含む。画像処理回路1304は、圧縮されている画像データに対する伸張処理も施す。
顔認識回路1305は、画像データにおける被写体(人物)の顏部を検出する。ここで、顏認識処理について簡単に説明する。顏認識処理は、各フレームで得られる画像データと、例えば図2(a)に示すような各顔パーツ402、404、406との各相関量を求める。顔パーツ402は、人物の鼻部周辺の陰影のパターンに対応した画像データである。顔パーツ404は、人物の目部周辺の陰影のパターンに対応した画像データである。顔パーツ406は、人物の口部周辺の陰影のパターンに対応した画像データである。画像データと各顏パーツ402、404、406との各相関量は、図2(b)に示すように人物の顔部を示す所定の配置となったときに最大となる。このとき、各顏パーツ402、404、406を含むエリア408に顏が存在しているとする。なお、同図では、顏エリアを矩形エリアとしているが、円形エリアとしても良い。
The image processing circuit 1304 performs various image processing on the image data. This image processing includes, for example, color correction processing, gamma (γ) correction processing, compression processing, and the like. The image processing circuit 1304 also performs decompression processing on the compressed image data.
The face recognition circuit 1305 detects the buttocks of the subject (person) in the image data. Here, the eyelid recognition process will be briefly described. In the wrinkle recognition process, each correlation amount between the image data obtained in each frame and each face part 402, 404, 406 as shown in FIG. The face part 402 is image data corresponding to a shadow pattern around the nose of a person. The face part 404 is image data corresponding to a shadow pattern around the eyes of a person. The face part 406 is image data corresponding to a shadow pattern around the mouth of a person. Each correlation amount between the image data and each of the eyelid parts 402, 404, and 406 becomes maximum when a predetermined arrangement indicating the face of a person is obtained as shown in FIG. At this time, it is assumed that there is a bag in the area 408 including the bag parts 402, 404, and 406. In the figure, the heel area is a rectangular area, but it may be a circular area.

第1乃至第3の追尾処理回路1306〜1308は、それぞれ撮像部101の撮像により取得された画像データ中の被写体、例えば人物の顔部の追尾を行う。
第1の追尾処理回路1306は、撮像部101の撮像により取得された画像データ中から特徴量、例えば顔認識回路1305により認識された被写体、例えば人物の顔部の追尾を行う。
The first to third tracking processing circuits 1306 to 1308 track the subject, for example, the face of a person, in the image data acquired by the imaging unit 101.
The first tracking processing circuit 1306 performs tracking of a feature amount, for example, a subject recognized by the face recognition circuit 1305, for example, a human face, from the image data acquired by the imaging unit 101.

第2の追尾処理回路1307は、撮像部101の撮像により取得された画像データ中から特徴、例えば色情報により被写体、例えば人物の顔部の追尾を行う。この第2の追尾処理回路1308は、撮像部101の撮像により取得された画像データの色情報を用いて人物の顔部の追尾処理を行う。この色情報を用いた追尾処理について簡単に説明する。色情報を用いた追尾処理は、評価画像データ内で設定された色情報と同色情報であると判定されるエリアすなわち追尾色エリアを探索する。
例えば、図3(a)に示すように(N−1)フレームにおいて、被写体のある位置302が指定された場合、評価画像データ中の位置302の色情報が取得される。この位置302を追尾処理の開始位置として同位置302と同じ色情報を有するエリアが探索される。具体的に位置302を開始位置から周辺に向かうように順次色情報を取得し、この取得した色情報が位置302の色情報と同一であるか否かを判定する。この判定の結果、色情報が位置302の色情報と同一である判定した場合にはエリアに含め、これに対して取得した色情報が位置302の色情報と同一であると判定できない場合にはエリアに含めない。
The second tracking processing circuit 1307 performs tracking of a subject, for example, a face of a person, based on characteristics, for example, color information, from image data acquired by imaging by the imaging unit 101. The second tracking processing circuit 1308 performs tracking processing of a human face using color information of image data acquired by imaging of the imaging unit 101. The tracking process using this color information will be briefly described. In the tracking process using color information, an area that is determined to be the same color information as the color information set in the evaluation image data, that is, a tracking color area is searched.
For example, as shown in FIG. 3A, in the (N-1) frame, when a certain position 302 of the subject is designated, the color information of the position 302 in the evaluation image data is acquired. An area having the same color information as that of the position 302 is searched for using the position 302 as a tracking process start position. Specifically, the color information is sequentially acquired so that the position 302 moves from the start position toward the periphery, and it is determined whether or not the acquired color information is the same as the color information at the position 302. As a result of this determination, if it is determined that the color information is the same as the color information at the position 302, it is included in the area, and if it is determined that the acquired color information is the same as the color information at the position 302, Do not include in the area.

このようにして追尾色エリアを探索すると、例えば、図3(a)に示すような単色の被写体の場合、被写体に内接する矩形エリア304が追尾色エリアとなる。また、追尾位置ログエリアに記録する追尾位置は、例えば追尾色エリア304の重心位置(図3(a)の例では、位置302と同じ)とする。次回の追尾処理においては、この追尾位置を追尾処理の開始位置とする。   When the tracking color area is searched in this way, for example, in the case of a monochromatic subject as shown in FIG. 3A, a rectangular area 304 inscribed in the subject becomes the tracking color area. The tracking position recorded in the tracking position log area is, for example, the center of gravity position of the tracking color area 304 (same as the position 302 in the example of FIG. 3A). In the next tracking process, this tracking position is set as the starting position of the tracking process.

Nフレームの追尾処理を例に示すと、図3(b)に示す参照画像データとして記憶したNフレームの画像データの所定の探索範囲の中で、(N−1)フレームの追尾位置302を追尾処理の開始位置とし、追尾位置302の周辺から順次、追尾色エリア304の色情報と同色情報であると判定できるエリアが追尾色エリアとして探索される。同図に示す例では、エリア306が追尾色エリアとなる。また、同図に示す例では、重心位置308を追尾位置とし、この追尾位置308を、追尾位置ログエリアに記録する。また、追尾色エリアログエリアには、追尾色エリア306の範囲を示す情報(例えば、四隅の位置)を記録する。   As an example of the N frame tracking process, the tracking position 302 of the (N-1) frame is tracked within a predetermined search range of the N frame image data stored as the reference image data shown in FIG. An area that can be determined to be the same color information as the color information of the tracking color area 304 is sequentially searched from the periphery of the tracking position 302 as the processing start position. In the example shown in the figure, the area 306 is the tracking color area. In the example shown in the figure, the center of gravity position 308 is set as the tracking position, and the tracking position 308 is recorded in the tracking position log area. In the tracking color area log area, information indicating the range of the tracking color area 306 (for example, the positions of the four corners) is recorded.

第3の追尾処理回路1309は、撮像部101の撮像により取得された画像データ中から特徴、例えばAF制御回路1302により取得されたAF用の合焦評価値により被写体、例えば人物の顔部の追尾を行う。
なお、撮像部101の撮像により取得された画像データ中に被写体として複数の人物が存在し、これら人物のうち1人が追尾対象として指定され、他の人物が追尾対象として指定されない場合、第1の追尾処理回路1306は、追尾対象として指定された人物を顔部により追尾する。第2の追尾処理回路1307は、追尾対象として指定された人物を色情報により追尾する。第3の追尾処理回路1309は、追尾対象として指定されていない人物をAF用の合焦評価値により追尾する。
The third tracking processing circuit 1309 tracks a subject, for example, the face of a person, based on a feature, for example, an AF focus evaluation value acquired by the AF control circuit 1302, from the image data acquired by imaging by the imaging unit 101. I do.
In the case where there are a plurality of persons as subjects in the image data acquired by imaging by the imaging unit 101, one of these persons is designated as a tracking target, and the other person is not designated as a tracking target. The tracking processing circuit 1306 tracks the person designated as the tracking target by the face portion. The second tracking processing circuit 1307 tracks the person designated as the tracking target based on the color information. The third tracking processing circuit 1309 tracks a person who is not designated as a tracking target by using a focus evaluation value for AF.

なお、追尾処理は、顔認識と色情報とによる追尾に限らず、輝度情報を用いた追尾を用いても良い。ここで、輝度情報を用いた追尾処理について簡単に説明する。輝度情報を用いた追尾処理では、例えば、図4(a)に示す(N−1)フレームにおいて追尾対象が設定された場合、この(N−1)フレームの画像データを、評価画像データとしてRAM118の評価画像エリアに記憶する。この評価画像データの追尾対象を含む所定範囲202の画像データを、基準画像データに設定する。この後の追尾処理では、参照画像データの基準画像データ202と対応する部分を探索する。
Nフレームの追尾処理を例に示すと、まず、Nフレームの画像データを、参照画像データとしてRAM118の参照画像エリアに記憶する。この参照画像データのうちの所定の探索範囲204の画像データと基準画像データ202との相関量を求めることにより、参照画像データの基準画像データ202と対応する部分を探索する。相関量は、例えば基準画像データと参照画像データとの差分絶対値和(画素毎に輝度差の絶対値を求めてそれを積算したもの)から判定する。例えば、図4(b)に示す参照画像データのエリア206の参照画像データと基準画像データ202との差分絶対値和を求めたとすると、参照画像データのエリア206と基準画像データ202とは明らかに異なる画像データであり、差分絶対値和が大きくなる。これに対し、参照画像データのエリア208と基準画像データ202との差分絶対値和を求めたとすると、差分絶対値和が小さくなる。このように、基準画像データ202との相関量が大きくなるに従って差分絶対値和が小さくなる。輝度情報を用いた追尾処理では、相関量が最大の、即ち差分絶対値和が最小のエリアを参照画像データから探索する。図4(b)の例では、エリア208となる。なお、追尾位置ログエリアには、エリア208の中で最も一致度の高い位置を追尾位置として記録する。なお、このような位置が複数ある場合には、例えば、エリア208の中心に近い位置を追尾位置とする。次回の追尾処理時には、この追尾位置を追尾処理の開始位置とすることが望ましい。これにより、追尾処理にかかる時間を軽減することが可能である。
The tracking process is not limited to tracking based on face recognition and color information, but tracking using luminance information may be used. Here, the tracking process using luminance information will be briefly described. In the tracking process using luminance information, for example, when a tracking target is set in the (N-1) frame shown in FIG. 4A, the image data of the (N-1) frame is used as the evaluation image data in the RAM 118. Is stored in the evaluation image area. Image data in a predetermined range 202 including the tracking target of the evaluation image data is set as reference image data. In the subsequent tracking process, a portion corresponding to the reference image data 202 of the reference image data is searched.
As an example of N frame tracking processing, N frame image data is first stored in the reference image area of the RAM 118 as reference image data. A portion of the reference image data corresponding to the reference image data 202 is searched for by obtaining a correlation amount between the image data in the predetermined search range 204 and the reference image data 202. The correlation amount is determined from, for example, the sum of absolute differences between the standard image data and the reference image data (obtained by obtaining the absolute value of the luminance difference for each pixel and integrating it). For example, if the sum of absolute differences between the reference image data in the reference image data area 206 and the standard image data 202 shown in FIG. 4B is obtained, the reference image data area 206 and the standard image data 202 are clearly shown. It is different image data, and the sum of absolute differences is increased. On the other hand, if the sum of absolute differences between the area 208 of the reference image data and the standard image data 202 is obtained, the sum of absolute differences becomes small. Thus, the difference absolute value sum decreases as the correlation amount with the reference image data 202 increases. In the tracking process using luminance information, an area having the maximum correlation amount, that is, the minimum difference absolute value sum is searched from the reference image data. In the example of FIG. 4B, this is the area 208. In the tracking position log area, the position with the highest degree of matching in the area 208 is recorded as the tracking position. When there are a plurality of such positions, for example, a position close to the center of the area 208 is set as the tracking position. In the next tracking process, this tracking position is preferably set as the start position of the tracking process. As a result, the time required for the tracking process can be reduced.

フォーカス評価値取得エリア設定部1309は、例えば図5に示すように第1及び第2の追尾処理回路1306、1307によって撮像部101の撮像により取得された画像データ中の例えば人物の顔部等の被写体Qを追尾するための複数の特徴、例えば顔認識、色情報を取得するための複数のエリアA、Cを包含し、かつ被写体Qに対するフォーカス評価値を取得するためのフォーカス評価値取得エリアDを設定する。
例えば顔認識、色情報を取得するための複数のエリアは、顔部による追尾のための第1のエリアAと、色情報による追尾のための第2のエリアCとである。フォーカス評価値取得エリアDのサイズは、これら第1のエリアAと第2のエリアCとを包含する。
For example, as shown in FIG. 5, the focus evaluation value acquisition area setting unit 1309 includes, for example, a human face in the image data acquired by the imaging unit 101 by the first and second tracking processing circuits 1306 and 1307. A focus evaluation value acquisition area D for acquiring a focus evaluation value for the subject Q, including a plurality of areas A and C for acquiring features such as face recognition and color information for tracking the subject Q Set.
For example, the plurality of areas for acquiring face recognition and color information are a first area A for tracking by a face part and a second area C for tracking by color information. The size of the focus evaluation value acquisition area D includes the first area A and the second area C.

フォーカス評価値取得エリア設定部1309は、色情報による追尾に対する信頼性を有し、顔部の認識による追尾のための第1のエリアAと色情報による追尾のための第2のエリアCとの包含関係を判定し、この判定結果に基づいてフォーカス評価値取得エリアDを設定する。
フォーカス評価値取得エリア設定部1309は、顔部による追尾のための第1のエリアAが色情報による追尾のための第2のエリアCを包含していれば、顔部による追尾のための第1のエリアAを包含するフォーカス評価値取得エリアDを設定する。
フォーカス評価値取得エリア設定部1309は、色情報による追尾のための第2のエリアCが顔部による追尾のための第1のエリアAを包含していれば、色情報による追尾のための第2のエリアCを包含するフォーカス評価値取得エリアDを設定する。
The focus evaluation value acquisition area setting unit 1309 has reliability for tracking by color information, and includes a first area A for tracking by face recognition and a second area C for tracking by color information. The inclusion relationship is determined, and the focus evaluation value acquisition area D is set based on the determination result.
If the first area A for tracking by the face includes the second area C for tracking by the color information, the focus evaluation value acquisition area setting unit 1309 sets the first for tracking by the face. A focus evaluation value acquisition area D including one area A is set.
If the second area C for tracking by color information includes the first area A for tracking by face, the focus evaluation value acquisition area setting unit 1309 performs the first for tracking by color information. A focus evaluation value acquisition area D including two areas C is set.

追尾候補検出部1310は、例えば図6に示すように撮像部101の撮像により取得された画像データ中から少なくとも1つ被写体Qを含む追尾候補エリアを検出し、これら追尾候補エリアにそれぞれ各追尾枠CA1、CA2を設定する。
追尾エリア指定部1311は、追尾対象とする被写体の指示を例えばタッチパネル124から出力される接触検出信号としてCPU1301を介して受け取り、追尾候補検出部1310により検出された少なくとも1つの追尾候補エリア、例えば図6に示す各追尾枠CA1、CA2により設定された各被写体Q1、Q2から1つの被写体、例えば追尾枠CA1により設定された人物等の被写体Q1の顔部を追尾エリアに指定する。すなわち、タッチパネル124上において、被写体Q1の顔部の表示位置に対応する位置にユーザの指がタッチすると、このタッチパネル124は、当該タッチ位置を示す座標を含む接触検出信号を出力するので、追尾エリア指定部1311は、接触検出信号に含むタッチ位置を示す座標から追尾エリアを示す例えば追尾枠CA1内の被写体Q1の顔部を指定する。
For example, as shown in FIG. 6, the tracking candidate detection unit 1310 detects a tracking candidate area including at least one subject Q from image data acquired by imaging of the imaging unit 101, and each tracking frame is included in each tracking candidate area. CA1 and CA2 are set.
The tracking area designating unit 1311 receives an instruction of a subject to be tracked as a contact detection signal output from the touch panel 124, for example, via the CPU 1301, and at least one tracking candidate area detected by the tracking candidate detection unit 1310, for example, FIG. One face from the subjects Q1 and Q2 set by the tracking frames CA1 and CA2 shown in FIG. 6, for example, the face portion of the subject Q1 such as a person set by the tracking frame CA1 is designated as the tracking area. That is, when the user's finger touches the touch panel 124 at a position corresponding to the display position of the face of the subject Q1, the touch panel 124 outputs a contact detection signal including coordinates indicating the touch position. The designation unit 1311 designates, for example, the face portion of the subject Q1 in the tracking frame CA1 indicating the tracking area from the coordinates indicating the touch position included in the contact detection signal.

追尾エリア指定部1311は、追尾対象とする指示を受けた追尾エリアの追尾枠を被写体Q1の顔部の大きさに応じたサイズに設定する。
追尾エリア指定部1311は、追尾対象とする指示を受けていない追尾候補エリアのサイズを被写体Q2の顔部の大きさに応じたサイズに設定する。
The tracking area designation unit 1311 sets the tracking frame of the tracking area that has received the instruction to be tracked to a size corresponding to the size of the face of the subject Q1.
The tracking area designation unit 1311 sets the size of the tracking candidate area that has not received an instruction to be tracked to a size corresponding to the size of the face of the subject Q2.

追尾禁止エリア設定部1312は、被写体を含む追尾エリアとして例えば枠CA1内の被写体Q1の顔部が指定されると、フォーカス評価値取得エリアD内のフォーカス評価値に基づいて例えば追尾枠CA1内で指定された被写体Q1以外の非指定エリア、例えば図6に示す枠CA2内のエリアに対する追尾、すなわち被写体Q2の顔部に対する追尾を禁止する。
この追尾禁止エリア設定部1312は、追尾エリア指定部1311により指定された追尾エリア、例えば枠CA1内の被写体Q1の顔部と、この被写体Q1以外の例えば被写体Q2を含む枠CA2内のエリア(非指定エリア)との間隔と、各フォーカス評価値取得エリアD内の各フォーカス評価値とに基づいて第1乃至第3の追尾処理部1306〜1308による非指定エリアすなわち枠CA2内のエリアの被写体Q2の顔部に対する追尾を禁止する。
When the face portion of the subject Q1 in the frame CA1, for example, is designated as the tracking area including the subject, the tracking prohibition area setting unit 1312, for example, in the tracking frame CA1 based on the focus evaluation value in the focus evaluation value acquisition area D. Tracking of a non-designated area other than the designated subject Q1, for example, an area within the frame CA2 shown in FIG. 6, that is, tracking of the face of the subject Q2 is prohibited.
The tracking prohibition area setting unit 1312 includes a tracking area designated by the tracking area designating unit 1311, for example, the face of the subject Q1 in the frame CA1, and an area in the frame CA2 including, for example, the subject Q2 other than the subject Q1 (non- The subject Q2 in the non-designated area, that is, the area in the frame CA2, by the first to third tracking processing units 1306 to 1308 based on the distance from the designated area) and each focus evaluation value in each focus evaluation value acquisition area D. Tracking on the face of

この追尾禁止エリア設定部1312は、追尾エリア指定部1311により指定された追尾エリアとして例えば追尾枠CA1内の被写体Q1の顔部と、非追尾エリアとして例えば枠CA2内の被写体Q2の顔部との間隔が予め設定された第1の閾値以内で、かつ各フォーカス評価値取得エリアD内の各フォーカス評価値の差が予め設定された第2の閾値以上であれば、第1乃至第3の追尾処理部1306〜1308による非指定エリアとして例えば枠CA2内の被写体Q2の顔部に対する追尾を禁止する。   The tracking prohibition area setting unit 1312 includes, for example, the face of the subject Q1 in the tracking frame CA1 as the tracking area specified by the tracking area specifying unit 1311 and the face of the subject Q2 in the frame CA2 as the non-tracking area. If the interval is within a preset first threshold and the difference between the focus evaluation values in each focus evaluation value acquisition area D is greater than or equal to a preset second threshold, the first to third tracking As a non-designated area by the processing units 1306 to 1308, for example, tracking of the face portion of the subject Q2 in the frame CA2 is prohibited.

追尾禁止エリア設定部1312は、追尾エリア指定部1311により指定された追尾エリアとして例えば枠CA1内の被写体Q1の顔部と非追尾エリアとして例えば枠CA2内の被写体Q2の顔部との間隔が予め設定された第1の閾値以内の時に、被写体Q1の顔部と被写体Q2の顔部の面積差を求め、当該面積差が予め設定された第3の閾値以上であれば、第1乃至第3の追尾処理部1306〜1308による非指定エリアとして例えば枠CA2内の被写体Q2の顔部に対する追尾を禁止する。   The tracking prohibition area setting unit 1312 has an interval between the face of the subject Q1 in the frame CA1 as the tracking area specified by the tracking area specifying unit 1311 and the face of the subject Q2 in the frame CA2 as the non-tracking area in advance, for example. When the area difference between the face of the subject Q1 and the face of the subject Q2 is within the set first threshold and the area difference is equal to or greater than a preset third threshold, the first to third As a non-designated area by the tracking processing units 1306 to 1308, for example, tracking of the face portion of the subject Q2 in the frame CA2 is prohibited.

メモリ制御回路1313は、CPU1301等によってRAM118、記録メディア128、ROM134にアクセスするための制御を行うインターフェイスである。
カメラ操作スイッチ132は、ユーザによって操作される各種の操作部材である。カメラ操作スイッチ132としては、例えば、レリーズ釦、動画釦、モードダイヤル、選択キー、電源釦等が含まれる。
レリーズボタン釦は、1stレリーズスイッチと、2ndレリーズスイッチとを有する。1stレリーズスイッチは、ユーザがレリーズ釦を半押しするとオンする。1stレリーズスイッチがオンすることにより、AF処理等の撮影準備動作が行われる。2ndレリーズスイッチは、ユーザがレリーズ釦を全押しするとオンする。2ndレリーズスイッチがオンすることにより、静止画撮影用の露光動作が行われる。
動画釦は、動画撮影の開始又は終了を指示するための操作部材である。ユーザによって動画釦が押されると動画撮影処理が開始される。また、動画撮影処理の実行中に動画釦が押されると、動画撮影処理が終了される。
モードダイヤルは、撮像装置の撮影設定を選択するための操作部材である。本実施形態では、撮像装置の撮影設定として、例えば、静止画撮影モードと動画撮影モードを選択できる。静止画撮影モードは、静止画像を撮影するための撮影設定である。また、動画撮影モードは、動画像を撮影するための撮影設定である。
選択キーは、例えばメニュー画面上での項目の選択や決定をするための操作部材である。ユーザによって選択キーが操作されるとメニュー画面上での項目の選択や決定が行われる。
電源釦は、撮像装置の電源をオン又はオフするための操作部材である。ユーザによって電源釦が操作されると、撮像装置100が起動して動作可能な状態となる。撮像装置が起動している間に電源釦が操作されると、撮像装置100が省電力待機状態となる。
The memory control circuit 1313 is an interface that performs control for accessing the RAM 118, the recording medium 128, and the ROM 134 by the CPU 1301 and the like.
The camera operation switch 132 is various operation members operated by the user. Examples of the camera operation switch 132 include a release button, a moving image button, a mode dial, a selection key, a power button, and the like.
The release button button has a 1st release switch and a 2nd release switch. The 1st release switch is turned on when the user presses the release button halfway. When the 1st release switch is turned on, a shooting preparation operation such as AF processing is performed. The 2nd release switch is turned on when the user fully presses the release button. When the 2nd release switch is turned on, an exposure operation for still image shooting is performed.
The moving image button is an operation member for instructing the start or end of moving image shooting. When the moving image button is pressed by the user, the moving image shooting process is started. Further, when the moving image button is pressed during the moving image shooting process, the moving image shooting process is ended.
The mode dial is an operation member for selecting shooting settings of the imaging apparatus. In the present embodiment, for example, a still image shooting mode and a moving image shooting mode can be selected as shooting settings of the imaging apparatus. The still image shooting mode is a shooting setting for shooting a still image. The moving image shooting mode is a shooting setting for shooting a moving image.
The selection key is an operation member for selecting or determining an item on the menu screen, for example. When the selection key is operated by the user, an item is selected or determined on the menu screen.
The power button is an operation member for turning on or off the power of the imaging apparatus. When the power button is operated by the user, the imaging apparatus 100 is activated and becomes operable. If the power button is operated while the imaging apparatus is activated, the imaging apparatus 100 enters a power saving standby state.

フラッシュROM134には、CPU1301が種々の処理を実行するためのプログラムコードが記憶されている。このフラッシュROM134には、本装置の撮影動作フローチャートや、撮影光学系102、絞り106、及び撮像素子114等の動作に必要な制御パラメータ、並びに画像処理回路1304での画像処理に必要な制御パラメータ等の各種の制御パラメータが記憶されている。さらには、フラッシュROM134には、顏検出回路1307における顏検出に用いられる顏パーツのデータや追尾枠を表示するためのデータ等も記憶されている。   The flash ROM 134 stores program codes for the CPU 1301 to execute various processes. The flash ROM 134 has a shooting operation flowchart of the apparatus, control parameters necessary for the operations of the photographing optical system 102, the aperture 106, the image sensor 114, and the like, control parameters necessary for image processing in the image processing circuit 1304, and the like. The various control parameters are stored. Further, the flash ROM 134 also stores data on the hail parts used for hail detection in the hail detection circuit 1307, data for displaying the tracking frame, and the like.

次に、本装置の動作について図7に示す撮影動作のフローチャートに従って説明する。
CPU1301は、ステップS100において、本装置100の撮影設定が静止画撮影モードであるか否かを判定する。この判定の結果、撮影設定が静止画撮影モードであると判定すると、CPU1301は、ステップS102において、ライブビュー動作を開始する。
このライブビュー動作では、CPU1301は、シャッタ駆動機構112を制御してシャッタ110を開放し、この後、撮像素子IF回路116を制御して撮像素子114による撮像を開始する。CPU1301は、撮像素子114の撮像により取得された1フレーム毎の各画像データを順次RAM118のワークエリア118aに記憶する。続いて、CPU1301は、RAM118のワークエリア118aに記憶された画像データを画像処理回路1304に入力してライブビュー表示用の画像処理を施す。CPU1301は、ライブビュー表示用の画像処理がされた画像データを表示素子駆動回路122に入力し、この表示素子駆動回路122によりLCD120を駆動して画像データをLCD120に表示する。このような画像データの表示動作を繰り返すことによってLCD120には、被写体の動画が表示される。ユーザは、LCD120に動画表示される被写体のライブビューを観察することが可能である。
Next, the operation of this apparatus will be described with reference to the flowchart of the photographing operation shown in FIG.
In step S100, the CPU 1301 determines whether or not the shooting setting of the apparatus 100 is the still image shooting mode. As a result of this determination, when determining that the shooting setting is the still image shooting mode, the CPU 1301 starts a live view operation in step S102.
In this live view operation, the CPU 1301 controls the shutter drive mechanism 112 to open the shutter 110, and then controls the image sensor IF circuit 116 to start imaging by the image sensor 114. The CPU 1301 sequentially stores each image data for each frame acquired by imaging by the imaging device 114 in the work area 118 a of the RAM 118. Subsequently, the CPU 1301 inputs the image data stored in the work area 118 a of the RAM 118 to the image processing circuit 1304 and performs image processing for live view display. The CPU 1301 inputs the image data subjected to the image processing for live view display to the display element driving circuit 122, and drives the LCD 120 by the display element driving circuit 122 to display the image data on the LCD 120. By repeating such image data display operation, the moving image of the subject is displayed on the LCD 120. The user can observe a live view of a subject displayed as a moving image on the LCD 120.

CPU1301は、ステップS104において、1stレリーズスイッチがオンされたか否かを判定する。この判定の結果、1stレリーズスイッチがオンされなければ、CPU1301は、ライブビュー動作を継続する。
1stレリーズスイッチがオンされると、CPU1301は、ステップS106において、レリーズAF処理を行う。このレリーズAFでは、CPU1301は、スキャン駆動によってフォーカスレンズを合焦位置まで駆動する。このスキャン駆動において、CPU1301は、焦点調整機構104を制御してフォーカスレンズを所定のスキャン範囲内で一方向に駆動し、これと共にAF制御回路1302で順次算出されるAF用の合焦評価値を評価する。
CPU1301は、AF用の合焦評価値の評価の結果、コントラストが最大となるレンズ位置においてフォーカスレンズの駆動を停止する。このようなスキャン駆動は、AF前のフォーカスレンズの位置と合焦位置との差が大きい場合に行われる。
In step S104, the CPU 1301 determines whether the first release switch is turned on. If the first release switch is not turned on as a result of this determination, the CPU 1301 continues the live view operation.
When the first release switch is turned on, the CPU 1301 performs a release AF process in step S106. In the release AF, the CPU 1301 drives the focus lens to the in-focus position by scan driving. In this scan drive, the CPU 1301 controls the focus adjustment mechanism 104 to drive the focus lens in one direction within a predetermined scan range, and at the same time, an AF focus evaluation value sequentially calculated by the AF control circuit 1302. evaluate.
The CPU 1301 stops driving the focus lens at the lens position where the contrast is maximized as a result of the evaluation of the focus evaluation value for AF. Such scan driving is performed when the difference between the position of the focus lens before AF and the in-focus position is large.

CPU1301は、ステップS108において、追尾候補検出部1310を制御し、例えば図6に示すように撮像部101の撮像により取得された画像データ中から少なくとも1つ被写体、例えば2人の被写体Q1、Q2の各顔部を含む追尾候補エリアを検出し、これら追尾候補エリアにそれぞれ各追尾枠CA1、CA2を設定する。   In step S108, the CPU 1301 controls the tracking candidate detection unit 1310, and, for example, as shown in FIG. 6, at least one subject, for example, two subjects Q1 and Q2 from the image data acquired by the imaging unit 101 is captured. A tracking candidate area including each face is detected, and tracking frames CA1 and CA2 are set in these tracking candidate areas, respectively.

具体的に図8は(N−1)フレームの画像データH1を示す。この画像データH1には、被写体として例えば2人の第1と第2の人物M、Wが写っている。顔認識回路1305は、画像データH1中から第1と第2の人物M、Wの各顔部F1、F2を認識する。CPU1301は、表示素子駆動回路122を制御し、例えば図9に示すように画像データ中の第1と第2の人物M、Wの各顔部F1、F2を含むエリアに各追尾枠CA1、CA2を設定し、これら追尾枠CA1、CA2の設定された画像データをLCD120に表示する。   Specifically, FIG. 8 shows image data H1 of (N-1) frames. The image data H1 includes, for example, two first and second persons M and W as subjects. The face recognition circuit 1305 recognizes the face portions F1 and F2 of the first and second persons M and W from the image data H1. The CPU 1301 controls the display element driving circuit 122, and for example, as shown in FIG. 9, each tracking frame CA1, CA2 is arranged in an area including the face portions F1, F2 of the first and second persons M, W in the image data. And the image data in which the tracking frames CA1 and CA2 are set are displayed on the LCD 120.

ここで、図10に示すようにタッチパネル124上における被写体Q1の顔部F1に対応する部分へのユーザの指Jによるタッチにより、例えば被写体Q1の顔部F1が追尾対象して指定されると、CPU1301は、追尾枠CA1が設定された被写体Q1の顔部F1を追尾対象とすると共に、追尾枠CA2が設定された被写体Q2の顔部F2を非追尾対象とする。すなわち、追尾エリア指定部1311は、タッチパネル124から出力される接触検出信号をCPU1301を介して受け取り、この接触検出信号に含むタッチ位置を示す座標から第1の人物Mの顔部F1を追尾枠CA1内を追尾エリアとして指定する。これと共に追尾エリア指定部1311は、追尾枠CA1以外の追尾枠、ここでは追尾枠CA2内の第2の人物Wの顔部F2を類似被写体とする。   Here, as shown in FIG. 10, when the face F1 of the subject Q1 is designated as a tracking target, for example, by touching the portion corresponding to the face F1 of the subject Q1 on the touch panel 124 with the finger J, The CPU 1301 sets the face F1 of the subject Q1 for which the tracking frame CA1 is set as the tracking target, and sets the face F2 of the subject Q2 for which the tracking frame CA2 is set as the non-tracking target. That is, the tracking area designating unit 1311 receives the contact detection signal output from the touch panel 124 via the CPU 1301, and tracks the face F1 of the first person M from the coordinates indicating the touch position included in the contact detection signal. The inside is designated as a tracking area. At the same time, the tracking area designating unit 1311 sets a tracking frame other than the tracking frame CA1, here the face F2 of the second person W in the tracking frame CA2 as a similar subject.

CPU1301は、ステップS110において、追尾対象と指定された追尾枠CA1内の被写体Q1の顔部F1に対する追尾処理を行う。
CPU1301は、ステップS112において、追尾対象と指定された追尾枠CA1内の顔部F1に合焦するようにAF処理を行うと共に、同追尾枠CA1内の顔部F1の露光が適正となるようにAE処理を行う。
追尾処理後のAF処理では、CPU1301は、ウォブリング駆動によってフォーカスレンズを合焦位置まで駆動する。このウォブリング駆動では、CPU1301は、フォーカスレンズを駆動したときにAF制御回路1302で算出された合焦評価値が前回のレンズ位置での合焦評価値に対して増加したか否かを判定する。この判定の結果、合焦評価値が増加していれば、CPU1301は、前回と同方向にフォーカスレンズを微小駆動する。合焦評価値が減少していれば、CPU1301は、前回と逆方向にフォーカスレンズを微小駆動する。このような動作を高速で繰り返すことでフォーカスレンズは、徐々に合焦位置まで駆動する。これと共にAE処理では、CPU1301は、AE制御回路1303により算出された追尾枠CA1内の顔部F1の輝度を予め定められた適正な量(適正露光量)、すなわち本露光時の絞り106の開口量(絞り値)、シャッタ110の開放時間(シャッタ速度値)を算出する。
In step S110, the CPU 1301 performs a tracking process on the face F1 of the subject Q1 within the tracking frame CA1 designated as the tracking target.
In step S112, the CPU 1301 performs AF processing so that the face F1 in the tracking frame CA1 designated as the tracking target is focused, and the exposure of the face F1 in the tracking frame CA1 is appropriate. AE processing is performed.
In the AF process after the tracking process, the CPU 1301 drives the focus lens to the in-focus position by wobbling driving. In this wobbling drive, the CPU 1301 determines whether or not the focus evaluation value calculated by the AF control circuit 1302 when the focus lens is driven has increased with respect to the focus evaluation value at the previous lens position. If the focus evaluation value has increased as a result of this determination, the CPU 1301 finely drives the focus lens in the same direction as the previous time. If the focus evaluation value decreases, the CPU 1301 finely drives the focus lens in the direction opposite to the previous time. By repeating such an operation at a high speed, the focus lens is gradually driven to the in-focus position. At the same time, in the AE process, the CPU 1301 sets the brightness of the face F1 in the tracking frame CA1 calculated by the AE control circuit 1303 to a predetermined appropriate amount (appropriate exposure amount), that is, the aperture 106 opening during the main exposure. The amount (aperture value) and the opening time of the shutter 110 (shutter speed value) are calculated.

CPU1301は、ステップS114において、2ndレリーズスイッチがオンされたか否かを判定する。この判定の結果、2ndレリーズスイッチがオンされていないと判定されると、CPU1301は、上記ステップS110における追尾処理以後の処理を実行する。このように静止画撮影モード時、2ndレリーズスイッチがオンされるまで、CPU1301は、追尾処理を継続する。
2ndレリーズスイッチがオンされたと判定されると、CPU1301は、ステップS116において、表示素子駆動回路122を制御し、追尾枠CA1を非表示とする。
In step S114, the CPU 1301 determines whether or not the 2nd release switch is turned on. As a result of this determination, if it is determined that the 2nd release switch is not turned on, the CPU 1301 executes processing after the tracking processing in step S110. In this way, in the still image shooting mode, the CPU 1301 continues the tracking process until the 2nd release switch is turned on.
If it is determined that the 2nd release switch is turned on, the CPU 1301 controls the display element driving circuit 122 to hide the tracking frame CA1 in step S116.

CPU1301は、ステップS118において、2ndレリーズスイッチがオンされると、シャッタ駆動機構112を制御してシャッタ110を閉じる。この後、CPU1301は、絞り駆動機構108を制御し、絞り106を先に算出した絞り値まで絞り込む。続いて、CPU1301は、シャッタ駆動機構112を制御し、シャッタ110を先に算出した開放時間だけ開放しながら撮像素子114による撮像(露光)を行う。この後、CPU1301は、撮像素子114を介して得られた静止画像データを画像処理回路1304において処理する。CPU1301は、画像処理回路1304において処理された静止画像データにヘッダを付与して静止画像ファイルを生成し、この生成した静止画像ファイルを記録メディア128に記録する。
CPU1301は、ステップS120において、上記ステップS110の追尾処理の結果として得られた追尾位置を示すデータを、先に記録メディア128に記録した静止画像ファイルに追記する。この後、CPU1301は、図7に示す撮影動作を終了する。
In step S118, when the 2nd release switch is turned on, the CPU 1301 controls the shutter driving mechanism 112 to close the shutter 110. Thereafter, the CPU 1301 controls the aperture driving mechanism 108 to narrow the aperture 106 to the previously calculated aperture value. Subsequently, the CPU 1301 controls the shutter driving mechanism 112 and performs imaging (exposure) by the imaging element 114 while opening the shutter 110 for the previously calculated opening time. Thereafter, the CPU 1301 processes still image data obtained via the image sensor 114 in the image processing circuit 1304. The CPU 1301 adds a header to the still image data processed by the image processing circuit 1304 to generate a still image file, and records the generated still image file on the recording medium 128.
In step S120, the CPU 1301 adds data indicating the tracking position obtained as a result of the tracking process in step S110 to the still image file previously recorded on the recording medium 128. Thereafter, the CPU 1301 ends the photographing operation shown in FIG.

一方、CPU1301は、ステップS100において、撮影設定が動画撮影モードであると判定すると、ステップS122に移り、ライブビュー動作を開始する。
CPU1301は、ステップS124において、動画釦がオンされたか否かを判定する。この判定の結果、動画釦がオンされなければ、CPU1301は、ライブビュー動作を継続する。
動画釦がオンされたと判定されると、CPU1301は、ステップS126において、表示素子駆動回路122を制御し、上記ステップS108と同様に、例えば上記図6に示すように撮像部101の撮像により取得された画像データ中から少なくとも1つ被写体、例えば2人の被写体Q1、Q2の各顔部を含む追尾候補エリアを検出し、これら追尾候補エリアにそれぞれ各追尾枠CA1、CA2を設定する。
On the other hand, when determining in step S100 that the shooting setting is the moving image shooting mode, the CPU 1301 proceeds to step S122 and starts a live view operation.
In step S124, the CPU 1301 determines whether or not the moving image button has been turned on. If the moving image button is not turned on as a result of this determination, the CPU 1301 continues the live view operation.
If it is determined that the moving image button is turned on, the CPU 1301 controls the display element driving circuit 122 in step S126, and is acquired by imaging of the imaging unit 101 as shown in FIG. 6, for example, as in step S108. The tracking candidate area including each face portion of at least one subject, for example, two subjects Q1 and Q2, is detected from the image data, and the tracking frames CA1 and CA2 are set in the tracking candidate areas, respectively.

ここで、上記同様に、タッチパネル124上に対するタッチにより、例えば被写体Q1の顔部F1が追尾対象して指定されると、CPU1301は、追尾枠CA1が設定された被写体Q1の顔部F1を追尾対象とすると共に、追尾枠CA2が設定された被写体Q2の顔部F2を非追尾対象とする。
CPU1301は、ステップS128において、追尾対象して指定された追尾枠CA1の設定された被写体Q1の顔部F1に対する追尾処理を行う。
Here, as described above, when the face F1 of the subject Q1 is designated as a tracking target by touching the touch panel 124, for example, the CPU 1301 tracks the face F1 of the subject Q1 in which the tracking frame CA1 is set. In addition, the face F2 of the subject Q2 in which the tracking frame CA2 is set is set as a non-tracking target.
In step S128, the CPU 1301 performs a tracking process on the face F1 of the subject Q1 in which the tracking frame CA1 designated as the tracking target is set.

CPU1301は、ステップS130において、追尾対象して指定され追尾枠CA1内の顔部F1に合焦するようにAF処理を行うと共に、追尾枠CA1内の顔部F1の露光が適正となるようにAE処理を行う。このAF処理では、ウォブリング駆動によってフォーカスレンズを合焦位置まで駆動する。   In step S130, the CPU 1301 performs AF processing so as to focus on the face F1 in the tracking frame CA1 designated as the tracking target, and AE so that the exposure of the face F1 in the tracking frame CA1 is appropriate. Process. In this AF process, the focus lens is driven to the in-focus position by wobbling driving.

CPU1301は、ステップS132において、動画像データを記録メディア128に記録する処理、すなわち、絞り駆動機構108を制御し、絞り106をAE処理において算出した絞り値まで絞り込む。続いて、CPU1301は、AE処理において算出したシャッタ速度値に対応した時間だけ撮像素子114による撮像(露光)を実行する。露光の終了後、CPU1301は、動画像ファイルを生成して記録メディア128に記録する。また、CPU1301は、撮像素子114を介して得られた動画像データを画像処理回路1304において処理し、画像処理回路1304において処理された動画像データを動画像ファイルに記録する。   In step S132, the CPU 1301 controls the diaphragm drive mechanism 108 to record the moving image data on the recording medium 128, and narrows the diaphragm 106 to the diaphragm value calculated in the AE process. Subsequently, the CPU 1301 executes imaging (exposure) by the imaging element 114 for a time corresponding to the shutter speed value calculated in the AE process. After the exposure is completed, the CPU 1301 generates a moving image file and records it on the recording medium 128. Further, the CPU 1301 processes the moving image data obtained via the image sensor 114 in the image processing circuit 1304, and records the moving image data processed in the image processing circuit 1304 in a moving image file.

CPU1301は、ステップS134において、上記ステップS128において得られた追尾処理の結果としての追尾位置を示すデータを、先に記録メディア128に記録した動画像ファイルに追記する。
CPU1301は、ステップS136において、動画釦がオフされたか否かを判定する。この判定の結果、動画釦がオフされていないと判定すると、CPU1301は、上記ステップS128における追尾処理以後の処理を実行する。このように動画撮影モード時では、CPU1301は、動画釦がオフされるまで追尾処理と動画像データの記録を継続する。
動画釦がオフされると、CPU1301は、ステップS138において、表示素子駆動回路122を制御し、追尾枠CA1を非表示とする。この後、CPU1301は、ステップS120において、追尾データを追記する。この後、CPU1301は、上記図7に示す撮影動作を終了する。
In step S134, the CPU 1301 adds data indicating the tracking position as a result of the tracking process obtained in step S128 to the moving image file previously recorded on the recording medium 128.
In step S136, the CPU 1301 determines whether or not the moving image button has been turned off. As a result of this determination, if it is determined that the moving image button is not turned off, the CPU 1301 executes processing after the tracking processing in step S128. Thus, in the moving image shooting mode, the CPU 1301 continues the tracking process and the recording of moving image data until the moving image button is turned off.
When the moving image button is turned off, the CPU 1301 controls the display element driving circuit 122 to hide the tracking frame CA1 in step S138. Thereafter, the CPU 1301 adds tracking data in step S120. Thereafter, the CPU 1301 ends the photographing operation shown in FIG.

次に、追尾処理(ステップS110、S128)について図11に示す追尾処理フローチャートに従って説明する。
先ず、CPU1301は、追尾対象と指定された被写体に対する追尾を行う。
CPU1301は、ステップS200において、RAM118のワークエリア118aに記憶されている(N−1)フレームの画像データH1を読み出す。
ここで、初回の追尾処理で得られた(N−1)フレームの画像データは、評価画像データとする。CPU1301は、初回の追尾処理で得られた画像データをSDRAM118の評価画像エリア118bに取り込む。また、CPU1301は、2回目以後の追尾処理で得られたNフレームの画像データを参照画像データとし、この参照画像データをSDRAM118の参照画像エリア118cに取り込む。
Next, the tracking process (steps S110 and S128) will be described with reference to the tracking process flowchart shown in FIG.
First, the CPU 1301 performs tracking for a subject designated as a tracking target.
In step S <b> 200, the CPU 1301 reads the (N−1) frame image data H <b> 1 stored in the work area 118 a of the RAM 118.
Here, the image data of the (N−1) frame obtained by the first tracking process is assumed to be evaluation image data. The CPU 1301 captures the image data obtained by the first tracking process into the evaluation image area 118b of the SDRAM 118. Further, the CPU 1301 uses the N-frame image data obtained in the second and subsequent tracking processes as reference image data, and takes this reference image data into the reference image area 118 c of the SDRAM 118.

CPU1301の第2の追尾処理回路1307は、ステップS202において、RAM118のワークエリア118aから読み出した(N−1)フレームの画像データH1中から特徴量、例えば色情報を検出し、続くステップS204において、上記図3(a)(b)に示すように色情報を用いて追尾枠CA1内の被写体Q1の顔部F1の追尾処理を行い、同顔部F1の追尾位置を演算し求める。色情報を用いた追尾処理は、初回の追尾処理で得られた(N−1)フレームの評価画像データ内で設定された色情報とNフレームの評価画像データ内で設定された色情報とが同色情報であると判定されるエリアすなわち追尾色エリアを探索する。
具体的に第2の追尾処理回路1307は、上記図3(a)(b)に示すように例えば位置302を開始位置とし、この位置302から周辺に向かうように順次色情報を取得し、この取得した色情報が位置302の色情報と同一であるか否かを判定する。この判定の結果、色情報が位置302の色情報と同一である判定した場合にはエリアに含め、これに対して取得した色情報が位置302の色情報と同一であると判定できない場合にはエリアに含めない。
In step S202, the second tracking processing circuit 1307 of the CPU 1301 detects a feature amount, for example, color information, from the image data H1 of the (N−1) frame read from the work area 118a of the RAM 118, and in the subsequent step S204. As shown in FIGS. 3A and 3B, the tracking processing of the face F1 of the subject Q1 in the tracking frame CA1 is performed using the color information, and the tracking position of the face F1 is calculated and obtained. In the tracking process using color information, the color information set in the (N-1) frame evaluation image data obtained in the first tracking process and the color information set in the N frame evaluation image data are the same. An area determined as the same color information, that is, a tracking color area is searched.
Specifically, the second tracking processing circuit 1307 acquires the color information sequentially from the position 302 toward the periphery, for example, starting from the position 302 as shown in FIGS. It is determined whether or not the acquired color information is the same as the color information at the position 302. As a result of this determination, if it is determined that the color information is the same as the color information at the position 302, it is included in the area, and if it is determined that the acquired color information is the same as the color information at the position 302, Do not include in the area.

CPU1301は、色情報を用いた追尾処理の結果として得られた追尾位置を、第2の候補追尾位置としてRAM118の追尾ログエリア118dに記憶する。CPU1301は、ステップS212において、色情報を用いた追尾処理の結果として得られた追尾色エリアをSDRAM118の追尾位置ログエリア118dに記憶する。   The CPU 1301 stores the tracking position obtained as a result of the tracking process using the color information in the tracking log area 118d of the RAM 118 as the second candidate tracking position. In step S212, the CPU 1301 stores the tracking color area obtained as a result of the tracking processing using the color information in the tracking position log area 118d of the SDRAM 118.

CPU1301は、ステップS206において、色情報を用いた人物の顔部F1の追尾処理の結果による追尾の信頼性を判定する。色情報を用いた追尾処理では、例えば参照画像データの彩度から信頼性を判定する。具体的に、参照画像データの追尾位置の彩度が所定の閾値以上である場合には、信頼性があると判定する。この信頼性の判定では、閾値は適宜設定可能である。なお、この信頼性判断において、信頼性がないと判断された場合には、追尾位置を記録しないようにしても良い。   In step S206, the CPU 1301 determines the reliability of tracking based on the result of the tracking processing of the human face F1 using color information. In tracking processing using color information, for example, reliability is determined from the saturation of reference image data. Specifically, when the saturation of the tracking position of the reference image data is greater than or equal to a predetermined threshold value, it is determined that there is reliability. In this reliability determination, the threshold value can be set as appropriate. In this reliability determination, if it is determined that there is no reliability, the tracking position may not be recorded.

この判定の結果、色情報を用いた追尾処理に信頼性があれば、CPU1301は、ステップS208において、追尾対象して指定された追尾枠CA1内の被写体Q1の顔部F1に、非追尾対象である追尾枠CA2が設定された被写体Q2の顔部F2が重なっているか否かを判定する。この判定の結果、追尾枠CA1内の被写体Q1の顔部F1に追尾枠CA2内の被写体Q2の顔部F2が重なっていれば、CPU1301は、例えばステップS200に戻る。
追尾枠CA1内の被写体Q1の顔部F1に追尾枠CA2内の被写体Q2の顔部F2が重なっていなければ、CPU1301は、ステップS210において、再度、RAM118のワークエリア118aに記憶されている(N−1)フレームの画像データH1を読み出し、続くステップS212において、顔認識回路1305を制御し、画像処理回路1304により取得された画像データにおける第1と第2の人物M、Wの各顏部F1、F2を検出する。この顏認識処理は、上記図2(a)(b)に示すように、各フレームの画像データと各顔パーツ402、404、406との各相関量を求め、この相関量が最大になったときに人物の顔部を示す所定の配置となったとする。ここでは、顔認識回路1305は、第1の人物Mの顔部F1と第2の人物Wの顔部F2とを認識する。
If the tracking processing using the color information is reliable as a result of this determination, the CPU 1301 determines that the face F1 of the subject Q1 within the tracking frame CA1 designated as the tracking target is a non-tracking target in step S208. It is determined whether or not the face F2 of the subject Q2 set with a certain tracking frame CA2 overlaps. If the face F2 of the subject Q2 in the tracking frame CA2 overlaps the face F1 of the subject Q1 in the tracking frame CA1 as a result of this determination, the CPU 1301 returns to step S200, for example.
If the face F2 of the subject Q2 in the tracking frame CA2 does not overlap the face F1 of the subject Q1 in the tracking frame CA1, the CPU 1301 stores it again in the work area 118a of the RAM 118 in step S210 (N -1) The image data H1 of the frame is read, and in the subsequent step S212, the face recognition circuit 1305 is controlled, and the first and second person M, W collar F1 in the image data acquired by the image processing circuit 1304 , F2 is detected. As shown in FIGS. 2A and 2B, this wrinkle recognition process obtains each correlation amount between the image data of each frame and each face part 402, 404, 406, and this correlation amount is maximized. Suppose that a predetermined arrangement indicating the face of a person is obtained. Here, the face recognition circuit 1305 recognizes the face portion F1 of the first person M and the face portion F2 of the second person W.

CPU1301は、ステップS214において、第1の追尾処理回路1306を制御し、この第1の追尾処理回路1306によって、撮像部101の撮像により取得された画像データ中から特徴量、例えば顔認識回路1305により認識された被写体、例えば第1の人物Mの顔部F1の追尾を行う。   In step S <b> 214, the CPU 1301 controls the first tracking processing circuit 1306, and the first tracking processing circuit 1306 uses the feature amount, for example, the face recognition circuit 1305, from the image data acquired by the imaging unit 101. Tracking of the recognized subject, for example, the face portion F1 of the first person M is performed.

CPU1301は、ステップS216において、再び、追尾対象して指定された追尾枠CA1内の被写体Q1の顔部F1に、非追尾対象である追尾枠CA2が設定された被写体Q2の顔部F2が重なっているか否かを判定する。この判定の結果、追尾枠CA1内の被写体Q1の顔部F1に追尾枠CA2内の被写体Q2の顔部F2が重なっていれば、CPU1301は、例えばステップS200に戻る。   In step S216, the CPU 1301 again overlaps the face F1 of the subject Q2 in which the tracking frame CA2 that is the non-tracking target is set on the face F1 of the subject Q1 in the tracking frame CA1 designated as the tracking target. It is determined whether or not. If the face F2 of the subject Q2 in the tracking frame CA2 overlaps the face F1 of the subject Q1 in the tracking frame CA1 as a result of this determination, the CPU 1301 returns to step S200, for example.

追尾枠CA1内の被写体Q1の顔部F1に追尾枠CA2内の被写体Q2の顔部F2が重なっていなければ、CPU1301は、ステップS218において、追尾枠CA1内の被写体Q1の顔部F1の追尾を行い、続くステップS220において、追尾枠CA1内の被写体Q1の顔部F1の追尾位置を設定する。   If the face F2 of the subject Q2 in the tracking frame CA2 does not overlap the face F1 of the subject Q1 in the tracking frame CA1, the CPU 1301 tracks the face F1 of the subject Q1 in the tracking frame CA1 in step S218. In step S220, the tracking position of the face F1 of the subject Q1 within the tracking frame CA1 is set.

CPU1301は、ステップS222において、フォーカス評価値取得エリア設定部1309を制御し、このフォーカス評価値取得エリア設定部1309によって例えば図12に示すように(N−1)フレームの画像データH1中の第1の人物Mの顔部F1を追尾するための複数の特徴、例えば色情報を取得するためのエリア(色エリア)Gと顔認識を取得するためのエリア(顔エリア)Eとを包含するエリアを有し、かつ第1の人物Mの顔部F1に対するフォーカス評価値を取得するためのフォーカス評価値取得エリアD1を設定する。このフォーカス評価値取得エリア設定部1309は、フォーカス評価値取得エリアD1内の第1の人物Wの顔部F1に対するフォーカス評価値を取得する。
これと共にCPU1301は、図12に示すように同(N−1)フレームの画像データ中の第2の人物Wの顔部F2を追尾するための例えば色情報を取得するためのエリアと顔認識を取得するためのエリアとを包含するエリアを有し、かつ第2の人物Wの顔部F2に対するフォーカス評価値を取得するためのフォーカス評価値取得エリアD2を設定する。このフォーカス評価値取得エリア設定部1309は、フォーカス評価値取得エリアD2内の第2の人物Wの顔部F2に対するフォーカス評価値を取得する。
続いてCPU1301は、図13に示すように(N−1)フレームの画像データH1中の第1の人物Mの顔部F1に追尾枠CA1を設定する。
In step S222, the CPU 1301 controls the focus evaluation value acquisition area setting unit 1309, and the focus evaluation value acquisition area setting unit 1309 uses the focus evaluation value acquisition area setting unit 1309, for example, as shown in FIG. An area including a plurality of features for tracking the face portion F1 of the person M, for example, an area (color area) G for acquiring color information and an area (face area) E for acquiring face recognition And a focus evaluation value acquisition area D1 for acquiring a focus evaluation value for the face portion F1 of the first person M is set. The focus evaluation value acquisition area setting unit 1309 acquires a focus evaluation value for the face portion F1 of the first person W in the focus evaluation value acquisition area D1.
At the same time, as shown in FIG. 12, the CPU 1301 recognizes an area and face recognition for obtaining color information, for example, for tracking the face F2 of the second person W in the image data of the (N-1) frame. A focus evaluation value acquisition area D2 is set for acquiring a focus evaluation value for the face portion F2 of the second person W and having an area including the area for acquisition. The focus evaluation value acquisition area setting unit 1309 acquires a focus evaluation value for the face portion F2 of the second person W in the focus evaluation value acquisition area D2.
Subsequently, as shown in FIG. 13, the CPU 1301 sets a tracking frame CA1 on the face portion F1 of the first person M in the image data H1 of the (N-1) frame.

次に、CPU1301は、追尾対象と指定されなかった被写体(非追尾対象)に対する追尾を行う。
CPU1301は、ステップS224において、図14に示すようにRAM118のワークエリア118aに記憶されているNフレームの画像データH2を読み出し、続くステップS226において、フォーカス評価値取得エリア設定部1309によって設定されたフォーカス評価値取得エリアD2内でAF用の合焦評価値を求める。
Next, the CPU 1301 performs tracking for a subject (non-tracking target) that has not been designated as a tracking target.
In step S224, the CPU 1301 reads N frames of image data H2 stored in the work area 118a of the RAM 118 as shown in FIG. 14, and in the subsequent step S226, the focus set by the focus evaluation value acquisition area setting unit 1309. A focus evaluation value for AF is obtained in the evaluation value acquisition area D2.

CPU1301は、ステップS228において、Nフレームの画像データH2中からフォーカス評価値取得エリアD2が設定された被写体Q2の顔部F2をAF用の合焦評価値を用いて被写体Q2の顔部F2の追尾処理を行い、同顔部F2の追尾位置を演算し求める。
CPU1301は、ステップS230において、AF用の合焦評価値を用いての追尾枠CA2内の被写体Q2の顔部F2の追尾処理に対する信頼性を判定する。この信頼性の判定は、例えば画像データH1の輝度変化の度合い等により行う。
In step S228, the CPU 1301 uses the AF focus evaluation value to track the face F2 of the subject Q2 in which the focus evaluation value acquisition area D2 is set from the image data H2 of N frames. Processing is performed to calculate and obtain the tracking position of the same face F2.
In step S230, the CPU 1301 determines the reliability of the tracking process of the face F2 of the subject Q2 in the tracking frame CA2 using the AF focus evaluation value. This determination of reliability is performed based on, for example, the degree of change in luminance of the image data H1.

CPU1301は、ステップS232において、追尾枠CA2内の被写体Q2の顔部F2の追尾位置を設定する。
CPU1301は、ステップS234において、追尾禁止エリア設定部1312を制御し、図15に示すように追尾禁止エリア設定部1312により追尾エリア指定部1311により指定された追尾エリアとして例えばフォーカス評価値取得エリアD1と、非追尾エリアとして例えばフォーカス評価値取得エリアD2との間隔が予め設定された第1の閾値以内であるか否かを判定する。
この判定の結果、フォーカス評価値取得エリアD1とフォーカス評価値取得エリアD2との間隔が予め設定された第1の閾値以内で、かつ各フォーカス評価値取得エリアD1とD2との面積の差が予め設定された第3の閾値以上であれば、図16に示すように追尾禁止エリア設定部1312は、ステップS236において、フォーカス評価値取得エリアD2内を追尾の禁止領域に設定する。
CPU1301は、ステップS238において、図17に示すように被写体Q1の顔部F1に設定されている追尾枠CA1を更新する。なお、フォーカス評価値取得エリアD1とフォーカス評価値取得エリアD2との間隔が予め設定された第1の閾値以内でなければ、CPU1301は、ステップS238に移り、被写体Q1の顔部F1に設定されている追尾枠CA1を更新する。
In step S232, the CPU 1301 sets the tracking position of the face F2 of the subject Q2 within the tracking frame CA2.
In step S234, the CPU 1301 controls the tracking prohibition area setting unit 1312. As shown in FIG. 15, the tracking prohibition area setting unit 1312 specifies, for example, the focus evaluation value acquisition area D1 as the tracking area specified by the tracking area specifying unit 1311. For example, it is determined whether or not the distance from the focus evaluation value acquisition area D2 as a non-tracking area is within a first threshold value set in advance.
As a result of this determination, the interval between the focus evaluation value acquisition area D1 and the focus evaluation value acquisition area D2 is within a preset first threshold, and the difference in area between the focus evaluation value acquisition areas D1 and D2 is determined in advance. If it is equal to or greater than the set third threshold value, the tracking prohibition area setting unit 1312 sets the focus evaluation value acquisition area D2 in the tracking prohibition area in step S236 as shown in FIG.
In step S238, the CPU 1301 updates the tracking frame CA1 set in the face F1 of the subject Q1, as shown in FIG. If the interval between the focus evaluation value acquisition area D1 and the focus evaluation value acquisition area D2 is not within the first threshold value set in advance, the CPU 1301 moves to step S238 and is set to the face portion F1 of the subject Q1. The tracking frame CA1 is updated.

例えば、図18は(N+1)フレームの画像データH3を示す。この画像データH3は、第2の人物Wの顔部F2に対して色情報による追尾が移行しようとしている状態を示しているが、追尾枠CA2内の第2の人物Wの顔部F2は、図19に示すように追尾禁止エリア設定部1312によって非追尾対象に設定されているので、第2の追尾処理回路1307により追尾枠CA2内の第2の人物Wの顔部F2の色情報の追尾結果が取得されたとしても、当該第2の追尾処理回路1307は、色情報の追尾結果を採用しない。   For example, FIG. 18 shows image data H3 of (N + 1) frames. This image data H3 shows a state in which tracking by color information is about to shift to the face F2 of the second person W, but the face F2 of the second person W in the tracking frame CA2 is As shown in FIG. 19, since the tracking prohibited area setting unit 1312 sets a non-tracking target, the second tracking processing circuit 1307 tracks the color information of the face F2 of the second person W within the tracking frame CA2. Even if the result is acquired, the second tracking processing circuit 1307 does not adopt the tracking result of the color information.

これと共に第1の追尾処理部1306は、図19に示すように第1の人物Mの顔部F1に対して顔認識を取得するための顔エリアEを設定する。
続いてフォーカス評価値取得エリア設定部1309は、図20に示すように色情報を取得するための色エリアGと顔認識を取得するための顔エリアEとを包含するエリアを有し、かつ第1の人物Mの顔部F1に対するフォーカス評価値を取得するためのフォーカス評価値取得エリアD1を設定する。
この結果、第1の人物Mの顔部F1に対する追尾が継続される。
At the same time, the first tracking processing unit 1306 sets a face area E for acquiring face recognition for the face F1 of the first person M as shown in FIG.
Subsequently, as shown in FIG. 20, the focus evaluation value acquisition area setting unit 1309 has an area including a color area G for acquiring color information and a face area E for acquiring face recognition. A focus evaluation value acquisition area D1 for acquiring a focus evaluation value for the face portion F1 of one person M is set.
As a result, the tracking of the face portion F1 of the first person M is continued.

次に、AF評価値取得エリア設定(ステップS222)について図21に示すAF評価値取得エリア設定フローチャートに従って説明する。
CPU1301は、ステップS300において、フォーカス評価値取得エリア設定部1309を制御し、このフォーカス評価値取得エリア設定部1309により上記ステップS206における色情報を用いた人物の顔部F1の追尾処理の結果による追尾の信頼性があるか否かを判定する。この判定の結果、色情報を用いた人物の顔部F1の追尾処理の結果に信頼性があれば、フォーカス評価値取得エリア設定部1309は、ステップS302に移り、例えば図12に示すように顔認識を取得するための顔エリアEが色情報を取得するための色エリアGを包含するか否かを判定する。
この判定の結果、顔エリアEが色エリアGを包含すれば、フォーカス評価値取得エリア設定部1309は、ステップS304に移り、フォーカス評価値取得エリアD1、D2をそれぞれ顔エリアEを包含する大きさのエリアに決定する。
Next, AF evaluation value acquisition area setting (step S222) will be described with reference to an AF evaluation value acquisition area setting flowchart shown in FIG.
In step S300, the CPU 1301 controls the focus evaluation value acquisition area setting unit 1309, and the focus evaluation value acquisition area setting unit 1309 performs tracking based on the result of the tracking processing of the human face F1 using the color information in step S206. It is determined whether or not there is reliability. If the result of this determination is that the result of the tracking processing of the person's face F1 using color information is reliable, the focus evaluation value acquisition area setting unit 1309 moves to step S302, for example, as shown in FIG. It is determined whether or not the face area E for acquiring recognition includes the color area G for acquiring color information.
As a result of this determination, if the face area E includes the color area G, the focus evaluation value acquisition area setting unit 1309 moves to step S304, and the focus evaluation value acquisition areas D1 and D2 each include the face area E. Determine the area.

顔エリアEが色エリアGを包含していなければ、フォーカス評価値取得エリア設定部1309は、ステップS302からステップS306に移り、色エリアGが顔エリアEを包含するか否かを判定する。
この判定の結果、色エリアGが顔エリアEを包含すれば、フォーカス評価値取得エリア設定部1309は、ステップS308に移り、フォーカス評価値取得エリアD1、D2をそれぞれ色エリアGを包含する大きさのエリアに決定する。
色エリアGが顔エリアEを包含していなければ、フォーカス評価値取得エリア設定部1309は、ステップS309に移り、フォーカス評価値取得エリアD1、D2をそれぞれ顔エリアEと色エリアGとを包含する大きさのエリアに決定する。
この結果、フォーカス評価値取得エリアD1、D2の各エリアの大きさが決定される。
If the face area E does not include the color area G, the focus evaluation value acquisition area setting unit 1309 proceeds from step S302 to step S306, and determines whether the color area G includes the face area E.
As a result of this determination, if the color area G includes the face area E, the focus evaluation value acquisition area setting unit 1309 moves to step S308, and the focus evaluation value acquisition areas D1 and D2 each include the color area G. Determine the area.
If the color area G does not include the face area E, the focus evaluation value acquisition area setting unit 1309 moves to step S309, and the focus evaluation value acquisition areas D1 and D2 include the face area E and the color area G, respectively. Determine the size area.
As a result, the sizes of the focus evaluation value acquisition areas D1 and D2 are determined.

次に、追尾禁止領域判定処理(ステップS236)について図22に示す追尾禁止領域判定処理フローチャートに従って説明する。
追尾禁止エリア設定部1312は、追尾エリア指定部1311により指定された追尾エリアとして例えばフォーカス評価値取得エリアD1とフォーカス評価値取得エリアD2との間隔が予め設定された第1の閾値以内で、かつ各フォーカス評価値取得エリアD1、D2内の各フォーカス評価値の差が予め設定された第2の閾値以上であれば、エリアD2内を第1乃至第3の追尾処理部1306〜1308による追尾の禁止領域に設定する。
Next, the tracking prohibited area determination processing (step S236) will be described with reference to the tracking prohibited area determination processing flowchart shown in FIG.
The tracking prohibition area setting unit 1312 is, for example, a tracking area designated by the tracking area designating unit 1311, for example, the interval between the focus evaluation value acquisition area D1 and the focus evaluation value acquisition area D2 is within a first threshold value set in advance, and If the difference between the focus evaluation values in the focus evaluation value acquisition areas D1 and D2 is equal to or larger than a second threshold value set in advance, the area D2 is tracked by the first to third tracking processing units 1306 to 1308. Set to prohibited area.

具体的に、CPU1301は、追尾禁止エリア設定部1312を制御し、この追尾禁止エリア設定部1312により、ステップS400において、図23に示すように(N+1)フレームの画像データH3に対し、追尾対象に指定されている被写体Q1の顔部F1に対してフォーカス評価値取得エリアD1を設定する。これと共に追尾禁止エリア設定部1312は、同画像データH3に対し、追尾対象に指定されていない被写体Q2の顔部F2に対してフォーカス評価値取得エリアD1と同面積のフォーカス評価値取得エリアD2とを設定する。   Specifically, the CPU 1301 controls the tracking prohibition area setting unit 1312, and in step S400, the tracking prohibition area setting unit 1312 sets the (N + 1) frame image data H3 as a tracking target as shown in FIG. A focus evaluation value acquisition area D1 is set for the face F1 of the designated subject Q1. At the same time, the tracking prohibition area setting unit 1312 generates a focus evaluation value acquisition area D2 having the same area as the focus evaluation value acquisition area D1 for the face F2 of the subject Q2 not designated as a tracking target for the image data H3. Set.

追尾禁止エリア設定部1312は、ステップS402において、画像データH3中の被写体Q1の顔部F1に設定されたフォーカス評価値取得エリアD1内のAF用のフォーカス評価値を取得する。
続いて追尾禁止エリア設定部1312は、ステップS404において、画像データH3中の被写体Q1の顔部F2に設定されたフォーカス評価値取得エリアD2内のAF用のフォーカス評価値を取得する。
In step S402, the tracking prohibition area setting unit 1312 acquires a focus evaluation value for AF in the focus evaluation value acquisition area D1 set for the face F1 of the subject Q1 in the image data H3.
Subsequently, the tracking prohibition area setting unit 1312 acquires the focus evaluation value for AF in the focus evaluation value acquisition area D2 set in the face F2 of the subject Q1 in the image data H3 in step S404.

追尾禁止エリア設定部1312は、ステップS406において、被写体Q1の顔部F1に設定されたフォーカス評価値取得エリアD1内のAF用のフォーカス評価値と、被写体Q1の顔部F2に設定されたフォーカス評価値取得エリアD2内のAF用のフォーカス評価値との差分を演算して求める。
追尾禁止エリア設定部1312は、ステップS408において、当該フォーカス評価値取得エリアD1内のAF用のフォーカス評価値と、フォーカス評価値取得エリアD2内のAF用のフォーカス評価値との差分が予め設定された第2の閾値と等しいか、又は第2の閾値以上であるか否かを判定する。
In step S406, the tracking prohibition area setting unit 1312 sets the focus evaluation value for AF in the focus evaluation value acquisition area D1 set for the face F1 of the subject Q1 and the focus evaluation set for the face F2 of the subject Q1. The difference from the focus evaluation value for AF in the value acquisition area D2 is calculated and obtained.
In step S408, the tracking prohibition area setting unit 1312 previously sets a difference between the focus evaluation value for AF in the focus evaluation value acquisition area D1 and the focus evaluation value for AF in the focus evaluation value acquisition area D2. It is determined whether or not the second threshold is equal to or greater than the second threshold.

この判定の結果、上記AF用のフォーカス評価値との差分が予め設定された第2の閾値と等しい、又は第2の閾値以上であれば、追尾禁止エリア設定部1312は、ステップS410において、図24に示すようにフォーカス評価値取得エリアD2内を第1乃至第3の追尾処理部1306〜1308による追尾の禁止領域に設定する。
続いて追尾禁止エリア設定部1312は、図25に示すように追尾枠CA1を被写体Q1の顔部F1に設定する。
なお、上記AF用のフォーカス評価値との差分が予め設定された第2の閾値と等しくなく、又は第2の閾値以上でなければ、追尾禁止エリア設定部1312は、被写体Q2の顔部F2を含む追尾枠CA2内を追尾禁止エリアに設定しない。
If the result of this determination is that the difference from the focus evaluation value for AF is equal to or greater than or equal to the second threshold value set in advance, the tracking prohibition area setting unit 1312 in FIG. As shown in FIG. 24, the focus evaluation value acquisition area D2 is set as a tracking prohibited area by the first to third tracking processing units 1306 to 1308.
Subsequently, the tracking prohibition area setting unit 1312 sets the tracking frame CA1 to the face F1 of the subject Q1 as shown in FIG.
If the difference from the focus evaluation value for AF is not equal to the second threshold value set in advance or is not equal to or greater than the second threshold value, the tracking prohibition area setting unit 1312 detects the face F2 of the subject Q2. The included tracking frame CA2 is not set as a tracking prohibited area.

次に、別の追尾禁止領域判定処理(ステップS236)について図26に示す追尾禁止領域判定処理フローチャートに従って説明する。
追尾禁止エリア設定部1312は、追尾エリア指定部1311により指定された追尾エリアとして例えば枠CA1内の被写体Q1の顔部と非追尾エリアとして例えば枠CA2内の被写体Q2の顔部との面積差を求め、当該面積差が予め設定された第3の閾値以上であれば、第1乃至第3の追尾処理部1306〜1308による非指定エリアとして例えば枠CA2内の被写体Q2の顔部に対する追尾を禁止する。
Next, another tracking prohibited area determination process (step S236) will be described with reference to the tracking prohibited area determination processing flowchart shown in FIG.
The tracking prohibition area setting unit 1312 calculates, for example, the area difference between the face of the subject Q1 in the frame CA1 as the tracking area specified by the tracking area specifying unit 1311 and the face of the subject Q2 in the frame CA2 as the non-tracking area, for example. If the area difference is equal to or greater than a preset third threshold, tracking of the face of the subject Q2 in the frame CA2 is prohibited as a non-designated area by the first to third tracking processing units 1306 to 1308, for example. To do.

具体的に、追尾禁止エリア設定部1312は、ステップS500において、追尾エリア指定部1311により指定された被写体Q1の顔部F1に設定された追尾枠CA1内の面積を取得する。
続いて追尾禁止エリア設定部1312は、ステップS502において、追尾エリア指定部1311により指定されなかった被写体Q2の顔部F2に設定された追尾枠CA2内の面積を取得する。
Specifically, the tracking prohibited area setting unit 1312 acquires the area within the tracking frame CA1 set in the face F1 of the subject Q1 specified by the tracking area specifying unit 1311 in step S500.
Subsequently, in step S502, the tracking prohibited area setting unit 1312 acquires the area within the tracking frame CA2 set in the face F2 of the subject Q2 that is not specified by the tracking area specifying unit 1311.

追尾禁止エリア設定部1312は、ステップS504において、被写体Q1の顔部F1に設定された追尾枠CA1内の面積と、被写体Q2の顔部F2に設定された追尾枠CA2内の面積の差分を演算し求める。
続いて追尾禁止エリア設定部1312は、ステップS506において、上記追尾枠CA1内の面積と上記追尾枠CA2内の面積との差分が予め設定された第3の閾値以上であるか否かを判定する。
In step S504, the tracking prohibition area setting unit 1312 calculates the difference between the area in the tracking frame CA1 set for the face F1 of the subject Q1 and the area in the tracking frame CA2 set for the face F2 of the subject Q2. Ask.
Subsequently, the tracking prohibition area setting unit 1312 determines in step S506 whether or not the difference between the area in the tracking frame CA1 and the area in the tracking frame CA2 is greater than or equal to a preset third threshold value. .

この判定の結果、追尾枠CA1内の面積と上記追尾枠CA2内の面積との差分が予め設定された第3の閾値以上であれば、追尾禁止エリア設定部1312は、ステップS508において、被写体Q2の顔部F2を含む追尾枠CA2内を追尾禁止エリアに設定し、第1乃至第3の追尾処理部1306〜1308による追尾枠CA2内の被写体Q2の顔部F2に対する追尾を禁止する。
続いて第3の追尾処理回路1309は、追尾枠CA1を被写体Q1の顔部F1に設定する。
なお、追尾枠CA1内の面積と追尾枠CA2内の面積との差分が第3の閾値と等しくなく、又は第3の閾値以上でなければ、追尾禁止エリア設定部1312は、被写体Q2の顔部F2を含む追尾枠CA2内を追尾禁止エリアに設定しない。
If the result of this determination is that the difference between the area in the tracking frame CA1 and the area in the tracking frame CA2 is greater than or equal to a preset third threshold, the tracking prohibited area setting unit 1312 determines that the subject Q2 in step S508. The tracking frame CA2 including the face portion F2 is set as a tracking prohibition area, and the tracking of the face Q2 of the subject Q2 in the tracking frame CA2 by the first to third tracking processing portions 1306 to 1308 is prohibited.
Subsequently, the third tracking processing circuit 1309 sets the tracking frame CA1 to the face portion F1 of the subject Q1.
Note that if the difference between the area in the tracking frame CA1 and the area in the tracking frame CA2 is not equal to the third threshold value or greater than or equal to the third threshold value, the tracking prohibition area setting unit 1312 determines the face portion of the subject Q2. The tracking frame CA2 including F2 is not set as a tracking prohibited area.

このように上記一実施の形態によれば、フォーカス評価値取得エリア設定部1309によって顔部の認識による追尾のための第1のエリアAと色情報による追尾のための第2のエリアCとの包含関係を判定し、この判定結果に基づいてフォーカス評価値取得エリアDを設定し、追尾禁止エリア設定部1312によって例えば枠CA1内の被写体Q1の顔部が指定されると、フォーカス評価値取得エリアDの面積に基づいて例えば追尾枠CA1内で指定された被写体Q1以外の非指定エリアの追尾枠CA2に対する追尾を禁止する。これにより、追尾するに適切なAF評価値を用いて追尾性能を向上できる。例えば移動する被写体よりもAFエリアが小さい場合のようにローコントラストになって移動する被写体を検出できなくなることはなく、又、移動する被写体よりもAFエリアが大きい場合のように被写体の周囲も含まれて移動する被写体のみのAF評価値を取得できないこともない。   As described above, according to the above-described embodiment, the focus evaluation value acquisition area setting unit 1309 defines the first area A for tracking by face recognition and the second area C for tracking by color information. When the inclusion relationship is determined, the focus evaluation value acquisition area D is set based on the determination result, and the face portion of the subject Q1 within the frame CA1 is designated by the tracking prohibition area setting unit 1312, for example, the focus evaluation value acquisition area Based on the area of D, for example, tracking of the tracking frame CA2 in the non-designated area other than the subject Q1 specified in the tracking frame CA1 is prohibited. Thereby, the tracking performance can be improved by using an AF evaluation value appropriate for tracking. For example, there is no possibility that the moving subject cannot be detected due to low contrast as in the case where the AF area is smaller than the moving subject, and the periphery of the subject is included as in the case where the AF area is larger than the moving subject. Therefore, it is not possible to acquire the AF evaluation value of only the moving subject.

フォーカス評価値取得エリアDの大きさは、顔部の認識による追尾のための第1のエリアAと色情報による追尾のための第2のエリアCとの包含関係から適正な大きさに設定可能である。例えば、顔部による追尾のための第1のエリアAが色情報による追尾のための第2のエリアCを包含していれば、フォーカス評価値取得エリアDは、顔部による追尾のための第1のエリアAを包含する大きさに設定できる。色情報による追尾のための第2のエリアCが顔部による追尾のための第1のエリアAを包含していれば、フォーカス評価値取得エリアDは、色情報による追尾のための第2のエリアCを包含するフォーカス評価値取得エリアDを設定できる。   The size of the focus evaluation value acquisition area D can be set to an appropriate size from the inclusion relationship between the first area A for tracking by face recognition and the second area C for tracking by color information. It is. For example, if the first area A for tracking by the face part includes the second area C for tracking by color information, the focus evaluation value acquisition area D is the first area for tracking by the face part. The size can include one area A. If the second area C for tracking by the color information includes the first area A for tracking by the face, the focus evaluation value acquisition area D is the second area for tracking by the color information. A focus evaluation value acquisition area D including the area C can be set.

又、追尾エリアとして指定された追尾エリア以外の例えば被写体Q2を含む追尾枠CA2内の追尾の禁止は、例えば、2つの手法、すなわち追尾エリアとして追尾枠CA1内の被写体Q1の顔部F1と、非追尾エリアとして追尾枠CA2内の被写体Q2の顔部F2との間隔が予め設定された第1の閾値以内で、かつ各フォーカス評価値取得エリアD内の各フォーカス評価値の差が予め設定された第2の閾値以上であれば、追尾枠CA2内の被写体Q2の顔部F2に対する追尾を禁止できる。
又、追尾エリアとしての追尾枠CA1内の被写体Q1の顔部F1と非追尾エリアとして追尾枠CA2内の被写体Q2の顔部F2との面積差を求め、当該面積差が予め設定された第3の閾値以上であれば、第1乃至第3の追尾処理部1306〜1308による非指定エリアとして例えば枠CA2内の被写体Q2の顔部に対する追尾を禁止できる。
Further, for example, prohibition of tracking in the tracking frame CA2 including the subject Q2 other than the tracking area designated as the tracking area is, for example, two methods, that is, the face F1 of the subject Q1 in the tracking frame CA1 as the tracking area, As the non-tracking area, the distance between the face Q2 of the subject Q2 in the tracking frame CA2 is within a preset first threshold, and the difference between the focus evaluation values in each focus evaluation value acquisition area D is set in advance. If it is equal to or greater than the second threshold, tracking of the face F2 of the subject Q2 within the tracking frame CA2 can be prohibited.
Further, an area difference between the face F1 of the subject Q1 in the tracking frame CA1 as the tracking area and the face F2 of the subject Q2 in the tracking frame CA2 as the non-tracking area is obtained, and the area difference is set in advance. If the threshold is equal to or greater than the threshold, tracking of the face portion of the subject Q2 in the frame CA2 can be prohibited as a non-designated area by the first to third tracking processing units 1306 to 1308, for example.

追尾処理後のAF処理では、CPU1301は、ウォブリング駆動によってフォーカスレンズを合焦位置まで駆動するが、ここで、ウォブリング動作について図27に示す説明図を参照して説明する。
コントラストAF方式は、自動的にピントを調節するオートフォーカス制御を行う機能として、撮像画像のAF領域のコントラストや高周波成分等を抽出してAF評価値を生成し、そのAF評価値が一番高くなるようにレンズ位置を調整する。
In the AF process after the tracking process, the CPU 1301 drives the focus lens to the in-focus position by wobbling driving. Here, the wobbling operation will be described with reference to an explanatory diagram shown in FIG.
The contrast AF method is a function for performing autofocus control that automatically adjusts the focus, and extracts the contrast and high frequency components of the AF area of the captured image to generate an AF evaluation value, and the AF evaluation value is the highest. Adjust the lens position so that

図1はフォーカスレンズ位置に対するAF評価値の変化を示す。フォーカスレンズ位置に対するAF評価値は、合焦位置で最大値(ピーク値)となり、合焦位置(ピーク位置)から遠距離側(後ピン側)又は近距離側(前ピン側)に離れるに従って小さくなる。従って、オートフォーカス制御を行う場合、AF評価値がピーク値となるように、フォーカスレンズレンズの位置制御を行う。   FIG. 1 shows the change of the AF evaluation value with respect to the focus lens position. The AF evaluation value with respect to the focus lens position becomes the maximum value (peak value) at the in-focus position, and becomes smaller as the distance from the in-focus position (peak position) increases to the far side (rear pin side) or near side (front pin side). Become. Therefore, when performing autofocus control, the position of the focus lens is controlled so that the AF evaluation value becomes a peak value.

AF評価値がピーク値となる位置にフォーカスレンズを移動させるためには、現在のフォーカスレンズ位置に対して合焦位置がどちら方向にあるか、つまり、合焦位置から遠距離側に位置しているのか、近距離側に位置しているのかを判断しなければならない。
この具体的な方法は、画像に影響を与えない程度にフォーカスレンズを微小振動(ウォブリング)動作させ、AF評価値の変動方向を検出するものとなる。
In order to move the focus lens to the position where the AF evaluation value reaches the peak value, the direction of the focus position relative to the current focus lens position, that is, the far position from the focus position It must be determined whether it is located on the short distance side.
In this specific method, the focus lens is microvibrated (wobbled) to the extent that it does not affect the image, and the variation direction of the AF evaluation value is detected.

次に、例えば撮像素子114の撮像面上における位相差AFについて図28及び図29を参照して説明する。
撮像素子114により射出瞳の異なる部分を通過した光束を受光することによって位相差AFが可能である。撮像素子114の撮像面は、AF用画素列がベイヤー配列されている。この撮像素子114の撮像面においてベイヤー配列の一部分に配置されたAF用画素列の各撮像素子114の各出力に基づく位相差検出方式の焦点検出が可能である。
Next, for example, phase difference AF on the imaging surface of the imaging element 114 will be described with reference to FIGS.
Phase difference AF is possible by receiving a light beam that has passed through different portions of the exit pupil by the image sensor 114. On the imaging surface of the imaging element 114, the pixel rows for AF are arranged in a Bayer array. It is possible to perform focus detection by a phase difference detection method based on the outputs of the image pickup elements 114 of the AF pixel array arranged in a part of the Bayer array on the image pickup surface of the image pickup element 114.

図28はAF用画素列の構成を示す。AF用画素列には、撮影レンズの射出瞳の上側部分100aからの光束200aと下側部分100bからの光束200bとを分離させるための開口部の位置が対称となっている遮光部300a、300bを有する一対の画素400a、400bが垂直方向に沿って複数個配列されている。   FIG. 28 shows the configuration of the AF pixel column. In the AF pixel row, the light shielding portions 300a and 300b in which the positions of the openings for separating the light beam 200a from the upper portion 100a of the exit pupil of the photographing lens and the light beam 200b from the lower portion 100b are symmetrical. A plurality of pixels 400a and 400b having a plurality of pixels are arranged along the vertical direction.

第1AF画素400aは、遮光部300aの開口が光電変換部に対して下側に偏っている。第2AF画素400bは、遮光部300bの開口が上側に偏っている。第1のAF画素400aと第2のAF画素4bとは、AF用画素列において交互に配置される。第1のAF画素400a、第2のAF画素400bは、連続的に配置される必要はなく、ベイヤー配列の中で離散的に配置してもよい。   In the first AF pixel 400a, the opening of the light shielding unit 300a is biased downward with respect to the photoelectric conversion unit. In the second AF pixel 400b, the opening of the light shielding portion 300b is biased upward. The first AF pixel 400a and the second AF pixel 4b are alternately arranged in the AF pixel column. The first AF pixel 400a and the second AF pixel 400b do not need to be arranged continuously, and may be arranged discretely in a Bayer array.

射出瞳の上側部分100aからの光束200aは、マイクロレンズ500a、遮光部300aの開口を通過して第1のAF画素400aの光電変換部で受光される。射出瞳の下側部分100bからの光束200bは、マイクロレンズ500b、遮光部300bの開口を通過して第2のAF画素400bの光電変換部で受光される。このように射出瞳の異なる部分を通過する光束をそれぞれ検出する構成を有する。   The light beam 200a from the upper portion 100a of the exit pupil passes through the openings of the microlens 500a and the light shielding unit 300a and is received by the photoelectric conversion unit of the first AF pixel 400a. The light beam 200b from the lower portion 100b of the exit pupil passes through the openings of the microlens 500b and the light shielding unit 300b and is received by the photoelectric conversion unit of the second AF pixel 400b. In this way, the light beam passing through different portions of the exit pupil is detected.

第1のAF画素400aの画素出力をa列画素出力、第2のAF画素400bの画素出力をb列画素出力とする。図29において画素400a1〜400a3を含むa列画素出力はDaで示す。画素400b1〜400b3を含むb列画素出力はDbで示される。これにより、一対の像Da、Dbが生成される。   The pixel output of the first AF pixel 400a is the a-column pixel output, and the pixel output of the second AF pixel 400b is the b-column pixel output. In FIG. 29, a column pixel output including the pixels 400a1 to 400a3 is indicated by Da. The b column pixel output including the pixels 400b1 to 400b3 is denoted by Db. Thereby, a pair of images Da and Db are generated.

a列、b列画素出力の間には、AF用画素列の配列方向において位相差fが生ずる。位相差AF方式の原理に基づき、上記位相差fよりAF用画素列に対応する被写体に関する撮影レンズのデフォーカス量とデフォーカス方向を求めることができる。
AF用画素列は、全撮影画面に対応する撮像領域に所定の間隔で複数個設けられ、撮影画面の全域にてデフォーカス量を求めることが可能である。
また、撮像素子とは別体の公知のTTL位相差検出ユニットを設け、デフォーカス量、デフォーカス方向を検出し相対的距離を求めてもよい。また、撮影レンズを通過する光束とは異なる光束を用いる外光式位相差検出ユニットを設け、被写体距離を検出して相対的距離を求めてもよい。
A phase difference f is generated between the a-column and b-column pixel outputs in the arrangement direction of the AF pixel columns. Based on the principle of the phase difference AF method, the defocus amount and defocus direction of the photographing lens relating to the subject corresponding to the AF pixel row can be obtained from the phase difference f.
A plurality of AF pixel columns are provided at predetermined intervals in an imaging region corresponding to the entire shooting screen, and a defocus amount can be obtained over the entire shooting screen.
Further, a known TTL phase difference detection unit separate from the image sensor may be provided, and the relative distance may be obtained by detecting the defocus amount and the defocus direction. Further, an external light type phase difference detection unit that uses a light beam different from the light beam passing through the photographing lens may be provided, and the subject distance may be detected to obtain the relative distance.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。
さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。
Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention.
Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

100:撮像装置、102:撮影光学系、104:焦点調整機構、106:絞り、108:絞り駆動機構、110:シャッタ、112:シャッタ駆動機構、114:撮像素子、116:撮像素子インターフェイス(IF)回路、118:SDRAM、120:表示素子、122:表示素子駆動回路、124:タッチパネル、126:タッチパネル駆動回路、128:記録メディア、1301:CPU、130:システムコントローラ、132:カメラ操作スイッチ、134:ROM、101:撮像部、118a:ワークエリア、118b:評価画像エリア、118c:参照画像エリア、118d:追尾位置ログエリア、118e:コントラスト情報ログエリア、128a:画像ファイル、1302:AF制御回路、1303:AE制御回路、1304:画像処理回路、1305:顔認識回路、1306:第1の追尾処理回路、1307:第2の追尾処理回路、1308:第3の追尾処理回路、1309:フォーカス評価値取得エリア設定部、1310:追尾候補検出部、1311:追尾エリア指定部、1312:追尾禁止エリア設定部、1313:メモリ制御回路、402,404,406:顔パーツ。   DESCRIPTION OF SYMBOLS 100: Imaging device, 102: Imaging optical system, 104: Focus adjustment mechanism, 106: Aperture, 108: Aperture drive mechanism, 110: Shutter, 112: Shutter drive mechanism, 114: Image sensor, 116: Image sensor interface (IF) Circuit: 118: SDRAM, 120: Display element, 122: Display element driving circuit, 124: Touch panel, 126: Touch panel driving circuit, 128: Recording medium, 1301: CPU, 130: System controller, 132: Camera operation switch, 134: ROM, 101: imaging unit, 118a: work area, 118b: evaluation image area, 118c: reference image area, 118d: tracking position log area, 118e: contrast information log area, 128a: image file, 1302: AF control circuit, 1303 : AE control circuit, 304: Image processing circuit, 1305: Face recognition circuit, 1306: First tracking processing circuit, 1307: Second tracking processing circuit, 1308: Third tracking processing circuit, 1309: Focus evaluation value acquisition area setting unit, 1310 : Tracking candidate detection unit, 1311: tracking area designation unit, 1312: tracking prohibition area setting unit, 1313: memory control circuit, 402, 404, 406: face parts.

Claims (16)

被写体を撮像する撮像部と、
前記撮像部の撮像により取得された画像データ中の前記被写体を追尾するための複数の特徴を取得する複数のエリアを包含するエリアを有し、かつ前記被写体に対するフォーカス評価値を取得するためのフォーカス評価値取得エリアを設定するフォーカス評価値取得エリア設定部と、
前記被写体を追尾する追尾部と、
前記被写体を含む追尾エリアが指定されると、前記フォーカス評価値取得エリア内の前記フォーカス評価値に基づいて前記指定された追尾エリア以外の非指定エリアに対する前記追尾部による追尾を禁止するエリアとする追尾禁止エリア設定部と、
を具備し、
前記追尾禁止エリア設定部は、前記追尾エリアと前記非指定エリアとの間隔が予め設定された第1の閾値以内で、かつ前記各フォーカス評価値取得エリア内の前記各フォーカス評価値の差が予め設定された第2の閾値以上であれば、または、前記追尾エリアと前記非指定エリアとの間隔が予め設定された第1の閾値以内で、かつ前記追尾エリアと前記非指定エリアとの面積差が予め設定された第3の閾値以上であれば、前記追尾部による前記非指定エリアに対する追尾を禁止することを特徴とする追尾装置。
An imaging unit for imaging a subject;
A focus having an area including a plurality of areas for acquiring a plurality of features for tracking the subject in the image data acquired by imaging of the imaging unit, and for acquiring a focus evaluation value for the subject A focus evaluation value acquisition area setting unit for setting an evaluation value acquisition area;
A tracking unit for tracking the subject;
When a tracking area including the subject is designated, the tracking unit prohibits tracking by the tracking unit for non-designated areas other than the designated tracking area based on the focus evaluation value in the focus evaluation value acquisition area. Tracking area setting section,
Equipped with,
The tracking prohibition area setting unit is configured such that an interval between the tracking area and the non-designated area is within a preset first threshold, and a difference between the focus evaluation values in the focus evaluation value acquisition areas is determined in advance. If it is greater than or equal to the set second threshold, or the distance between the tracking area and the non-designated area is within a preset first threshold, and the area difference between the tracking area and the non-designated area Is a third threshold value set in advance , the tracking device prohibits tracking of the non-designated area by the tracking unit.
被写体を撮像する撮像部と、
前記撮像部の撮像により取得された画像データ中からそれぞれ異なる特徴により前記被写体の追尾を行う追尾部と、
前記追尾部による前記複数の追尾を行うための複数の追尾エリアを包含するエリアを有し、かつ前記被写体に対するフォーカス評価値を取得するためのフォーカス評価値取得エリアを設定するフォーカス評価値取得エリア設定部と、
前記撮像部の撮像により取得された画像データ中に含まれる少なくとも1つの前記被写体から追尾対象とする前記被写体を含む追尾エリアを指定する追尾エリア指定部と、
前記追尾エリア指定部により指定された前記追尾エリアと他の前記被写体を含む非指定エリアとの間隔と、前記各フォーカス評価値取得エリア内の前記各フォーカス評価値とに基づいて前記追尾部による前記非指定エリアに対する追尾を禁止するエリアとする追尾禁止エリア設定部と、
を具備し、
前記追尾禁止エリア設定部は、前記追尾エリア指定部により指定された前記追尾エリアと前記非指定エリアとの間隔が予め設定された第1の閾値以内で、かつ前記各フォーカス評価値取得エリア内の前記各フォーカス評価値の差が予め設定された第2の閾値以上であれば、または、前記追尾エリアと前記非指定エリアとの間隔が予め設定された第1の閾値以内で、かつ前記追尾エリアと前記非指定エリアとの面積差が予め設定された第3の閾値以上であれば、前記追尾部による前記非指定エリアに対する追尾を禁止することを特徴とする追尾装置。
An imaging unit for imaging a subject;
A tracking unit that tracks the subject according to different characteristics from image data acquired by imaging of the imaging unit;
A focus evaluation value acquisition area setting that includes an area including a plurality of tracking areas for performing the plurality of tracking by the tracking unit, and sets a focus evaluation value acquisition area for acquiring a focus evaluation value for the subject And
A tracking area designating unit for designating a tracking area including the subject to be tracked from at least one of the subjects included in the image data acquired by imaging of the imaging unit;
Based on the interval between the tracking area designated by the tracking area designation unit and the non-designated area including the other subject, and the focus evaluation values in the focus evaluation value acquisition areas, the tracking unit performs the tracking evaluation by the tracking unit. A tracking prohibited area setting section which is an area for which tracking is prohibited for a non-designated area;
Equipped with,
The tracking prohibition area setting unit includes an interval between the tracking area designated by the tracking area designating unit and the non-designated area within a preset first threshold, and within each focus evaluation value acquisition area. If the difference between the focus evaluation values is greater than or equal to a preset second threshold, or the interval between the tracking area and the non-designated area is within a preset first threshold and the tracking area When the area difference between the non-designated area and the non-designated area is equal to or greater than a preset third threshold , the tracking device prohibits the tracking of the non-designated area by the tracking unit.
前記追尾部は、前記被写体の顔部の追尾と、前記被写体の色情報による追尾とを含み、
前記フォーカス評価値取得エリア設定部は、前記顔部の追尾のための第1のエリアと前記色情報の追尾のための第2のエリアとを包含するエリアを有し、かつ前記フォーカス評価値を取得するためのフォーカス評価値取得エリアを設定する、
ことを特徴とする請求項1又は2に記載の追尾装置。
The tracking unit includes tracking of the face portion of the subject and tracking based on the color information of the subject,
The focus evaluation value acquisition area setting unit includes an area including a first area for tracking the face portion and a second area for tracking the color information, and the focus evaluation value is Set the focus evaluation value acquisition area to acquire,
The tracking device according to claim 1, wherein:
前記フォーカス評価値取得エリア設定部は、前記色情報の追尾に対する信頼性を有する場合、前記顔部の追尾のための前記第1のエリアと前記色情報の追尾のための前記第2のエリアとの包含関係の判定に基づいて前記フォーカス評価値取得エリアを設定することを特徴とする請求項に記載の追尾装置。 When the focus evaluation value acquisition area setting unit has reliability for tracking the color information, the first area for tracking the face portion and the second area for tracking the color information; The tracking device according to claim 3 , wherein the focus evaluation value acquisition area is set based on the determination of the inclusion relation. 前記フォーカス評価値取得エリア設定部は、前記顔部の追尾のためのエリアが前記色情報の追尾のためのエリアを包含していれば、前記顔部の追尾のためのエリアを包含する前記フォーカス評価値取得エリアを設定することを特徴とする請求項に記載の追尾装置。 The focus evaluation value acquisition area setting unit includes the focus including the area for tracking the face if the area for tracking the face includes the area for tracking the color information. The tracking device according to claim 4 , wherein an evaluation value acquisition area is set. 前記フォーカス評価値取得エリア設定部は、前記色情報の追尾のためのエリアが前記顔部の追尾のためのエリアを包含していれば、前記色情報の追尾のためのエリアを包含する前記フォーカス評価値取得エリアを設定することを特徴とする請求項に記載の追尾装置。 The focus evaluation value acquisition area setting unit, if the area for tracking of the color information if encompasses an area for tracking of the face portion, the focus encompasses an area for tracking of the color information The tracking device according to claim 4 , wherein an evaluation value acquisition area is set . 前記追尾部は、前記追尾エリアに対して前記被写体の前記顔部と前記色情報とにより追尾を行い、前記非指定エリアに対して前記フォーカス評価値により追尾を行うことを特徴とする請求項に記載の追尾装置。 The tracking unit according to claim 3, wherein the perform tracking by said color information and said face portion of said object with respect to the tracking area, performing tracking by the focus evaluation value with respect to the non-designated area The tracking device described in 1. 前記撮像部の撮像により取得された前記画像データ中から少なくとも1つ前記被写体を含む追尾候補エリアを検出し、当該追尾候補エリアに枠を設定する追尾候補検出部を備え、
前記追尾エリア指定部は、前記枠の設定された前記追尾候補エリアに対して前記追尾対象とする前記追尾候補エリアの指示を受けると、当該指示を受けた前記追尾候補エリアを追尾エリアに指定する、
ことを特徴とする請求項2に記載の追尾装置。
A tracking candidate detection unit that detects a tracking candidate area including at least one of the subjects from the image data acquired by imaging of the imaging unit, and sets a frame in the tracking candidate area;
When the tracking area designating unit receives an instruction for the tracking candidate area as the tracking target for the tracking candidate area in which the frame is set, the tracking area designating unit designates the tracking candidate area that has received the instruction as a tracking area. ,
The tracking device according to claim 2.
前記追尾エリア指定部は、前記追尾対象とする指示を受けた前記追尾エリアの前記枠を部の大きさに応じたサイズに設定することを特徴とする請求項に記載の追尾装置。 The tracking device according to claim 8 , wherein the tracking area specifying unit sets the frame of the tracking area that has received the instruction to be tracked to a size according to the size of a face . 前記追尾エリア指定部は、前記追尾対象とする指示を受けていない前記追尾候補エリアのサイズを前記追尾エリアの前記枠のサイズと同一サイズに設定することを特徴とする請求項に記載の追尾装置。 10. The tracking according to claim 9 , wherein the tracking area designating unit sets the size of the tracking candidate area that has not received an instruction to be the tracking target to the same size as the size of the frame of the tracking area. apparatus. 請求項1乃至10のうちいずれか1項記載の追尾装置と、
前記撮像部の撮像により取得された前記画像データに対して画像処理を行う画像処理部と、
前記画像処理部により画像処理された前記画像データを表示する表示部と、
を具備することを特徴とする撮像装置。
The tracking device according to any one of claims 1 to 10 ,
An image processing unit that performs image processing on the image data acquired by imaging of the imaging unit;
A display unit for displaying the image data image-processed by the image processing unit;
An imaging apparatus comprising:
撮像部の撮像により取得された画像データ中の被写体を追尾するための複数の特徴を取得する複数のエリアを包含するエリアを有し、かつ前記被写体に対するフォーカス評価値を取得するためのフォーカス評価値取得エリアを設定し、
前記被写体を含む追尾エリアが指定されると、前記フォーカス評価値取得エリア内の前記フォーカス評価値に基づいて前記指定された追尾エリア以外の非指定エリアに対する前記追尾を禁止し、
前記追尾エリアと前記非指定エリアとの間隔が予め設定された第1の閾値以内で、かつ前記各フォーカス評価値取得エリア内の前記各フォーカス評価値の差が予め設定された第2の閾値以上であれば、または、前記追尾エリアと前記非指定エリアとの間隔が予め設定された第1の閾値以内で、かつ前記追尾エリアと前記非指定エリアとの面積差が予め設定された第3の閾値以上であれば、前記非指定エリアに対する追尾を禁止する、
ことを特徴とする撮像装置に用いる追尾方法。
Focus for having the encompassing area of the plurality of areas for obtaining a plurality of features for tracking the object Utsushitai in the image data acquired by the imaging of the imaging unit, and obtains a focus evaluation value for the object Set the evaluation value acquisition area,
When the tracking area including the object is specified, and prohibit the previous SL add tails for said non-designated areas other than the tracking area where the specified based on the focus evaluation value of the focus evaluation value acquisition area,
The interval between the tracking area and the non-designated area is within a preset first threshold, and the difference between the focus evaluation values in the focus evaluation value acquisition area is equal to or greater than a preset second threshold. Or the interval between the tracking area and the non-designated area is within a preset first threshold, and the area difference between the tracking area and the non-designated area is set in advance. If it is greater than or equal to the threshold, tracking for the non-designated area is prohibited.
The tracking method used for the imaging device characterized by the above-mentioned.
前記フォーカス評価値取得エリアは、前記被写体の顔部の追尾のための第1のエリアと、前記被写体の色情報の追尾のための第2のエリアとを包含することを特徴とする請求項12記載の撮像装置に用いる追尾方法。 The focus evaluation value acquisition area, claim 12, characterized in that it comprises a first area for tracking the face of the subject, and a second area for tracking color information of the object The tracking method used for the imaging device of description. 前記フォーカス評価値取得エリアの設定は、前記色情報の追尾に対する信頼性を有する場合、前記顔部の追尾のための前記第1のエリアと前記色情報の追尾のための前記第2のエリアとの包含関係の判定に基づいて前記フォーカス評価値取得エリアを設定することを特徴とする請求項13に記載の撮像装置に用いる追尾方法。 When the focus evaluation value acquisition area has reliability for tracking the color information, the first area for tracking the face portion and the second area for tracking the color information The tracking method used for the imaging apparatus according to claim 13 , wherein the focus evaluation value acquisition area is set based on the determination of the inclusion relation. 前記フォーカス評価値取得エリアの設定は、前記顔部の追尾のためのエリアが前記色情報の追尾のためのエリアを包含していれば、前記顔部の追尾のためのエリアを包含する前記フォーカス評価値取得エリアを設定することを特徴とする請求項13に記載の撮像装置に用いる追尾方法。 The focus evaluation value acquisition area is set such that if the area for tracking the face includes the area for tracking the color information, the focus including the area for tracking the face is included. The tracking method used for the imaging apparatus according to claim 13 , wherein an evaluation value acquisition area is set. 前記フォーカス評価値取得エリアの設定は、前記色情報の追尾のためのエリアが前記顔部の追尾のためのエリアを包含していれば、前記色情報の追尾のためのエリアを包含する前記フォーカス評価値取得エリアを設定することを特徴とする請求項13に記載の撮像装置に用いる追尾方法。 The focus evaluation value acquisition area is set so that the color information tracking area includes the color information tracking area if the color information tracking area includes the face tracking area. The tracking method used for the imaging apparatus according to claim 13 , wherein an evaluation value acquisition area is set.
JP2012021020A 2012-02-02 2012-02-02 TRACKING DEVICE, IMAGING DEVICE, TRACKING METHOD USED FOR IMAGING DEVICE Expired - Fee Related JP5965654B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012021020A JP5965654B2 (en) 2012-02-02 2012-02-02 TRACKING DEVICE, IMAGING DEVICE, TRACKING METHOD USED FOR IMAGING DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012021020A JP5965654B2 (en) 2012-02-02 2012-02-02 TRACKING DEVICE, IMAGING DEVICE, TRACKING METHOD USED FOR IMAGING DEVICE

Publications (2)

Publication Number Publication Date
JP2013162225A JP2013162225A (en) 2013-08-19
JP5965654B2 true JP5965654B2 (en) 2016-08-10

Family

ID=49174163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012021020A Expired - Fee Related JP5965654B2 (en) 2012-02-02 2012-02-02 TRACKING DEVICE, IMAGING DEVICE, TRACKING METHOD USED FOR IMAGING DEVICE

Country Status (1)

Country Link
JP (1) JP5965654B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015079185A (en) * 2013-10-18 2015-04-23 株式会社ニコン Imaging device
JP2018200481A (en) * 2018-08-01 2018-12-20 株式会社ニコン Imaging device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5167750B2 (en) * 2006-10-03 2013-03-21 株式会社ニコン TRACKING DEVICE, IMAGING DEVICE, AND TRACKING METHOD
JP2010021943A (en) * 2008-07-14 2010-01-28 Sanyo Electric Co Ltd Imaging apparatus
JP2010113129A (en) * 2008-11-06 2010-05-20 Nikon Corp Image tracking device, focusing device, and image capturing apparatus
JP2011107501A (en) * 2009-11-19 2011-06-02 Nikon Corp Focusing device and imaging apparatus
JP5642410B2 (en) * 2010-03-30 2014-12-17 パナソニック株式会社 Face recognition device and face recognition method

Also Published As

Publication number Publication date
JP2013162225A (en) 2013-08-19

Similar Documents

Publication Publication Date Title
JP5830373B2 (en) Imaging device
JP5251215B2 (en) Digital camera
JP5961929B2 (en) camera
JP5226903B1 (en) TRACKING DEVICE AND TRACKING METHOD
JP2014081420A (en) Tracking device and method thereof
JP5771461B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
JP2005215040A (en) Autofocus system
JP5810136B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
US20180027172A1 (en) Focus adjusting apparatus, focus adjusting method, image capturing apparatus, and storage medium
JP5851206B2 (en) TRACKING DEVICE AND TRACKING METHOD
JP2013012940A (en) Tracking apparatus and tracking method
JP2007133301A (en) Autofocus camera
JP2006208443A (en) Automatic focusing apparatus
JP5965654B2 (en) TRACKING DEVICE, IMAGING DEVICE, TRACKING METHOD USED FOR IMAGING DEVICE
JP2013015751A (en) Imaging apparatus
JP6172973B2 (en) Image processing device
JP2009105851A (en) Imaging apparatus, control method and program thereof
JP2010134309A (en) Autofocus device, autofocus method and imaging apparatus
JP5977526B2 (en) Image processing apparatus and image processing method
JP5839857B2 (en) Imaging apparatus, imaging method, and imaging program
JP5315019B2 (en) Autofocus device, autofocus method, and imaging device
JP5965653B2 (en) TRACKING DEVICE AND TRACKING METHOD
JP5769518B2 (en) Imaging device
JP6138632B2 (en) Imaging apparatus, imaging method, and program
JP2000330008A (en) Automatic focusing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150128

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160704

R151 Written notification of patent or utility model registration

Ref document number: 5965654

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees