JP5771461B2 - TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM - Google Patents

TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM Download PDF

Info

Publication number
JP5771461B2
JP5771461B2 JP2011144771A JP2011144771A JP5771461B2 JP 5771461 B2 JP5771461 B2 JP 5771461B2 JP 2011144771 A JP2011144771 A JP 2011144771A JP 2011144771 A JP2011144771 A JP 2011144771A JP 5771461 B2 JP5771461 B2 JP 5771461B2
Authority
JP
Japan
Prior art keywords
face
tracking
color information
unit
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011144771A
Other languages
Japanese (ja)
Other versions
JP2013012941A (en
Inventor
尚 米山
尚 米山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2011144771A priority Critical patent/JP5771461B2/en
Priority to US13/534,075 priority patent/US8929598B2/en
Priority to CN201210224984.2A priority patent/CN102857690B/en
Publication of JP2013012941A publication Critical patent/JP2013012941A/en
Application granted granted Critical
Publication of JP5771461B2 publication Critical patent/JP5771461B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、人物等の被写体を追尾する追尾装置、追尾方法及び追尾プログラムに関する。   The present invention relates to a tracking device, a tracking method, and a tracking program for tracking a subject such as a person.

人物等の被写体を追尾する技術としては、被写体を追尾するための少なくとも2つの領域を用いて被写体を追尾する技術として例えば特許文献1がある。この特許文献1は、被写体を撮像して取得された画像データ上に被写体を追尾するための第1領域と第2領域とを有し、第1領域を常に基準領域として被写体の追尾を行い、第2領域を第1領域と独立して被写体の追尾を行うもので、例えば第1領域において顔領域の検出と第2領域として追尾領域の移動とを互いに独立して実行し、顔領域の検出と、追尾領域の画像データ内の位置との少なくとも一方に基づき、顔領域の位置を推定して設定し、顔領域が直接検出できなくなった場合でも、顔領域と独立して移動させている追尾領域の位置に基づいて、顔領域の位置を推定して設定することを開示する。この特許文献1は、以前の複数の画像データにおいて、第1領域と第2領域とが対応付けられていると判断した場合に、第1領域と第2領域との位置関係が特定されることを開示する。   As a technique for tracking a subject such as a person, Patent Document 1 is known as a technique for tracking a subject using at least two areas for tracking the subject. This Patent Document 1 has a first area and a second area for tracking a subject on image data acquired by imaging the subject, and always tracks the subject using the first area as a reference area. The second area is used to track the subject independently of the first area. For example, the detection of the face area in the first area and the movement of the tracking area as the second area are performed independently of each other to detect the face area. And the position of the tracking area based on at least one of the positions in the image data, the position of the face area is estimated and set, and even when the face area cannot be directly detected, tracking is performed independently of the face area. Disclosed is to estimate and set the position of the face area based on the position of the area. In Patent Document 1, when it is determined that the first area and the second area are associated with each other in a plurality of previous image data, the positional relationship between the first area and the second area is specified. Is disclosed.

特開2009−268086号公報JP 2009-268086 A

しかしながら、上記特許文献1では、以前の複数の画像データにおいて、第1領域と第2領域とが対応付けられていると判断した場合に、第1領域と第2領域との位置関係が特定されるので、顔領域が直接検出できなくなった場合、第1領域と第2領域との対応付けができなくなり、顔領域と独立して移動させている追尾領域の位置に基づいて顔領域の位置を推定することが難しくなる。又、複数の被写体が存在すると、第1領域と第2領域との位置関係を特定する場合、同一の被写体中において第1領域と第2領域との対応付けが行われればよいが、目的の被写体とこの被写体とは別の被写体上でそれぞれ第1領域と第2領域との対応付けが行われてしまうと、目的の被写体とは別の被写体の顔領域の位置を推定するおそれがあり、目的の被写体の追尾が困難になるおそれがある。   However, in Patent Document 1, when it is determined that the first area and the second area are associated with each other in a plurality of previous image data, the positional relationship between the first area and the second area is specified. Therefore, when the face area cannot be directly detected, the first area cannot be associated with the second area, and the position of the face area is determined based on the position of the tracking area moved independently of the face area. It becomes difficult to estimate. In addition, when there are a plurality of subjects, when the positional relationship between the first region and the second region is specified, the first region and the second region may be associated with each other in the same subject. If the first region and the second region are associated with each other on the subject and the subject different from each other, there is a risk of estimating the position of the face region of the subject different from the target subject. It may be difficult to track the target subject.

本発明の目的は、少なくとも2つの領域を用いて被検体の追尾を行う場合に、確実に被検体の追尾ができる追尾装置、追尾方法及び追尾プログラムを提供することにある。   An object of the present invention is to provide a tracking device, a tracking method, and a tracking program that can reliably track a subject when the subject is tracked using at least two regions.

本発明の主要な局面に係る追尾装置は、被写体が撮像された画像デタ中から前記被写体の顔部を検出する顔部検出部と、前記画像データ中における前記顔部に対応する位置の色情報及び該色情報に対応する領域を検出する色情報検出部と、前記顔部検出部で検出された画像上での前記顔部の位置情報と、前記色情報検出部で検出された前記顔部の色情報との信頼性を判断する信頼性判断部と、前記顔部検出部により検出された結果と、前記色情報検出部により検出された色情報及び該色情報に対応する領域と、前記信頼性判断部で判断された前記信頼性とに基づいて前記顔部を追尾する顔部追尾部と、前記被体中の前記顔部と関連付けられた前記顔部以外の周辺部位を追尾する周辺部位追尾部と、前記顔部追尾部による前記顔部の追尾が出来ない場合、前記周辺部位追尾部による前記顔部以外の部位の追尾に切り替える追尾切替部と、を具備し、前記追尾切替部は、前記顔部以外の前記周辺部位の位置から前記顔部として推定される位置で、前記顔部が検出される、又は前記顔部に対応する前記色情報が検出されると、前記顔部追尾部による前記顔部の追尾に戻す。 Tracking apparatus according to the principal aspect of the present invention, a face part detecting section for detecting a face portion of the subject from the image data that the object is captured, the position corresponding to the face portion in the said image data Color information and a color information detection unit for detecting a region corresponding to the color information , position information of the face on the image detected by the face detection unit, and the color information detection unit A reliability determination unit that determines the reliability of the color information of the face , a result detected by the face detection unit , color information detected by the color information detection unit, and an area corresponding to the color information; the said is judged in reliability determination unit reliability and tracking the face portion based on the face part tracking unit, a peripheral part other than the face portion associated with said face portion of said object scene body during The peripheral part tracking part to be tracked and the tracking of the face part by the face part tracking part are If not come, anda tracking switching unit for switching the tracking of the portion other than the face portion by the peripheral part tracking unit, the tracking switching unit, as the face portion from the position of the peripheral portion other than the face portion When the face part is detected at the estimated position or the color information corresponding to the face part is detected, the face part tracking unit returns to the face part tracking.

本発明の主要な局面に係る追尾方法は、被写体が撮像された画像デタ中から顔部検出部により前記被写体の顔部を検出し、前記画像データ中における前記顔部に対応する位置の色情報及び該色情報に対応する領域を色情報検出部により検出し、信頼性判断部により、前記顔部検出部で検出された画像上での前記顔部の位置情報と、前記色情報検出部で検出された前記顔部の色情報との信頼性を判断し、前記顔部検出部により検出された結果と、前記色情報検出部により検出された色情報及び該色情報に対応する領域と、前記信頼性判断部により判断された前記信頼性とに基づいて顔部追尾部により前記顔部を追尾し、前記被体中の前記顔部と関連付けられた前記顔部以外の周辺部位を周辺部位追尾部により追尾し、前記顔部追尾部による前記顔部の追尾が出来ない場合、前記周辺部位追尾部による前記顔部以外の前記周辺部位の追尾に切り替え、前記追尾の切り替えは、前記顔部以外の前記周辺部位の位置から前記顔部として推定される位置で、前記顔部が検出される、又は前記顔部に対応する前記色情報が検出されると、前記顔部追尾部による前記顔部の追尾に戻る。 Tracking method according to the main aspect of the present invention, in an image data that the object is imaged to detect a face portion of the subject by the face part detecting unit, the position corresponding to the face portion in the said image data Color information and a region corresponding to the color information are detected by a color information detection unit, and the position information of the face on the image detected by the face detection unit is detected by the reliability determination unit, and the color information detection The reliability of the color information of the face portion detected by the face portion, the result detected by the face portion detection portion , the color information detected by the color information detection portion, and the area corresponding to the color information When, wherein it is determined by the reliability determination unit based on the reliability tracking the face portion by a face part tracking section, the peripheral portion other than the face portion associated with said face portion of the photographic material during Is tracked by the peripheral part tracking unit, and by the face tracking unit If you can not tracking of Kikao part, you switch to the tracking of the peripheral portion other than the face portion due to the peripheral part tracking unit, switching of the tracking, the face part from the position of the peripheral portion other than the face part When the face part is detected at the position estimated as or the color information corresponding to the face part is detected, the face part tracking unit returns to the face part tracking.

本発明の主要な局面に係る追尾プログラムは、コンピュータに、被写体が撮像された画像デタ中から前記被写体の顔部を検出させる顔部検出機能と、前記画像データ中における前記顔部に対応する位置の色情報及び該色情報に対応する領域を検出する色情報検出機能と、前記顔部検出機能で検出された画像上での前記顔部の位置情報と、前記色情報検出機能で検出された前記顔部の色情報との信頼性を判断する信頼性判断機能と、前記顔部検出機能により検出された結果と、前記色情報検出機能により検出された色情報及び該色情報に対応する領域と、前記信頼性判断機能により判断された前記信頼性とに基づいて前記顔部を追尾する顔部追尾機能と、前記被体中の前記顔部と関連付けられた前記顔部以外の周辺部位を追尾る周辺部位追尾機能と、前記顔部追尾機能による前記顔部の追尾が出来ない場合、前記周辺部位追尾機能による前記顔部以外の前記周辺部位の追尾に切り替える追尾切替機能とを実現させ、前記追尾切替機能は、前記顔部以外の前記周辺部位の位置から前記顔部として推定される位置で、前記顔部が検出される、又は前記顔部に対応する前記色情報が検出されると、前記顔部追尾機能による前記顔部の追尾に戻す。 Tracking program according to the principal aspect of the present invention causes a computer, a face part detecting function of detecting a face portion of the subject from the image data that the object is captured, corresponding to the face portion in the said image data Color information detection function for detecting color information of a position to be detected and a region corresponding to the color information , position information of the face on the image detected by the face detection function, and detection by the color information detection function a reliability determining function of determining the reliability of the color information of the face portion that is, a result detected by the face part detecting function, corresponding to the color information and the color information detected by the color information detecting function a region, said judged by the reliability determining function and reliability and the face portion tracking function for tracking the face portion based on said other than the face portion associated with said face portion of the photographic material during peripheral sites track the peripheral site And tail function, when the face portion tracking function due to not be tracking the face portion, to realize a tracking switching function for switching the tracking of the peripheral portion other than the face portion by the surrounding site tracking function, the tracking switching function Is the position estimated as the face from the position of the peripheral part other than the face, or the face is detected when the color information corresponding to the face is detected. Return to the tracking of the face by the tracking function.

本発明によれば、少なくとも2つの領域を用いて被検体の追尾を行う場合に、確実に被検体の追尾ができる追尾装置、追尾方法及び追尾プログラムを提供できる。   According to the present invention, it is possible to provide a tracking device, a tracking method, and a tracking program that can reliably track a subject when the subject is tracked using at least two regions.

本発明に係る追尾装置を備えた撮像装置の一実施の形態を示すブロック構成図。The block block diagram which shows one Embodiment of the imaging device provided with the tracking apparatus which concerns on this invention. 同装置における顔部検出回路による顔部検出の作用を説明するための図。The figure for demonstrating the effect | action of the face part detection by the face part detection circuit in the apparatus. 同装置における顏部追尾回路による輝度情報を用いて顏部の追尾の作用を説明するための図。The figure for demonstrating the effect | action of the tracking of a buttocks using the brightness | luminance information by the buttocks tracking circuit in the apparatus. 同装置における顏部追尾回路による色情報を用いての顏部の追尾の作用を説明するための図。The figure for demonstrating the effect | action of the tracking of a buttocks using the color information by the buttocks tracking circuit in the apparatus. 同装置における被検体に対する顔部検出位置と顔部追尾位置と周辺部追尾位置とを示す図。The figure which shows the face part detection position with respect to the subject in the same apparatus, a face part tracking position, and a peripheral part tracking position. 同装置における顔部の正面の顔に対して設定された顔部追尾枠を示す図。The figure which shows the face part tracking frame set with respect to the face in front of the face part in the same apparatus. 同装置における顔部の横顔に対して設定された顔部追尾枠を示す図。The figure which shows the face tracking frame set with respect to the profile of the face in the same apparatus. 同装置における周辺部位追尾回路により胸部を追尾するための胸部追尾枠を示す図。The figure which shows the chest tracking frame for tracking a chest by the peripheral region tracking circuit in the same apparatus. 同装置における撮影動作フローチャート。The imaging | photography operation | movement flowchart in the same apparatus. 同装置における追尾処理フローチャート。The tracking process flowchart in the same apparatus.

以下、本発明の一実施の形態について図面を参照して説明する。
図1は追尾装置を備えた撮像装置の一例としてのブロック構成図を示す。撮像装置100は、撮影光学系102と、焦点調整機構104と、絞り106と、絞り駆動機構108と、シャッタ110と、シャッタ駆動機構112と、撮像素子114と、撮像素子インターフェイス(IF)回路116と、RAM118と、表示素子120と、表示素子駆動回路122と、タッチパネル124と、タッチパネル駆動回路126と、記録メディア128と、システムコントローラ130と、操作部132と、ROM134とを有する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block configuration diagram as an example of an imaging apparatus including a tracking device. The imaging apparatus 100 includes an imaging optical system 102, a focus adjustment mechanism 104, a diaphragm 106, a diaphragm driving mechanism 108, a shutter 110, a shutter driving mechanism 112, an imaging element 114, and an imaging element interface (IF) circuit 116. A RAM 118, a display element 120, a display element drive circuit 122, a touch panel 124, a touch panel drive circuit 126, a recording medium 128, a system controller 130, an operation unit 132, and a ROM 134.

撮影光学系102は、被写体からの光束Fを、撮像素子114の受光面上に集光する。この撮影光学系102は、フォーカスレンズ等の複数のレンズを有する。焦点調整機構104は、モータ及びその駆動回路等を有し、システムコントローラ130内のコンピュータとしてのCPU1301の制御に従って撮影光学系102内のフォーカスレンズをその光軸方向(図示一点鎖線方向)に駆動する。
絞り106は、開閉自在に構成され、撮影光学系102を介して撮像素子114に入射する光束Fの量を調整する。絞り駆動機構108は、絞り106を駆動するための駆動機構を有し、システムコントローラ130内のCPU1301の制御に従って絞り106を駆動する。
The photographing optical system 102 condenses the light flux F from the subject on the light receiving surface of the image sensor 114. The photographing optical system 102 has a plurality of lenses such as a focus lens. The focus adjustment mechanism 104 includes a motor, a drive circuit thereof, and the like, and drives the focus lens in the photographing optical system 102 in the optical axis direction (the one-dot chain line direction in the drawing) according to the control of the CPU 1301 as a computer in the system controller 130. .
The diaphragm 106 is configured to be openable and closable, and adjusts the amount of the light beam F incident on the image sensor 114 via the photographing optical system 102. The aperture drive mechanism 108 has a drive mechanism for driving the aperture 106 and drives the aperture 106 according to the control of the CPU 1301 in the system controller 130.

シャッタ110は、撮像素子114の受光面を遮光状態又は露光状態とすることにより撮像素子114の露光時間を調整する。シャッタ駆動機構112は、シャッタ110を駆動させるための駆動機構を有し、システムコントローラ130内のCPU1301の制御に従ってシャッタ110を駆動する。   The shutter 110 adjusts the exposure time of the image sensor 114 by setting the light receiving surface of the image sensor 114 to a light shielding state or an exposure state. The shutter drive mechanism 112 has a drive mechanism for driving the shutter 110 and drives the shutter 110 according to the control of the CPU 1301 in the system controller 130.

撮像素子114は、撮影光学系102を介して集光された例えば人物等の被写体及びその背景からの光束Fが結像される受光面を有する。この撮像素子114の受光面は、複数の画素を2次元状に配置して構成されており、この受光面の光入射側には、カラーフィルタが設けられている。このような撮像素子114は、受光面に結像された光束Fに対応した像(被写体像)を、その光量に応じた電気信号(以下、画像信号という)に変換する。ここで、撮像素子114は、CCD方式やCMOS方式等の種々の構成の撮像素子が知られている。また、カラーフィルタの色配列もベイヤ配列等の種々の配列が知られている。本実施形態は、撮像素子114の構成が特定の構成に限定されるものではなく、種々の構成の撮像素子を用いることが可能である。   The image sensor 114 has a light receiving surface on which a subject such as a person condensed through the photographing optical system 102 and a light flux F from the background thereof are imaged. The light receiving surface of the image sensor 114 is configured by two-dimensionally arranging a plurality of pixels, and a color filter is provided on the light incident side of the light receiving surface. Such an image sensor 114 converts an image (subject image) corresponding to the light beam F formed on the light receiving surface into an electrical signal (hereinafter referred to as an image signal) corresponding to the light amount. Here, as the imaging device 114, imaging devices having various configurations such as a CCD system and a CMOS system are known. Various color filters such as a Bayer array are also known. In the present embodiment, the configuration of the image sensor 114 is not limited to a specific configuration, and image sensors having various configurations can be used.

撮像素子IF回路116は、システムコントローラ130内のCPU1301の制御に従って撮像素子114を駆動する。また、撮像素子IF回路116は、システムコントローラ130内のCPU1301の制御に従って撮像素子114で得られた画像信号を読み出し、読み出した画像信号に対してCDS(相関二重サンプリング)処理やAGC(自動利得制御)処理等のアナログ処理を施す。さらに、撮像素子IF回路116は、アナログ処理した画像信号をデジタル信号(以下、画像データという)に変換する。   The image sensor IF circuit 116 drives the image sensor 114 according to the control of the CPU 1301 in the system controller 130. The image sensor IF circuit 116 reads out an image signal obtained by the image sensor 114 under the control of the CPU 1301 in the system controller 130, and performs CDS (correlated double sampling) processing or AGC (automatic gain) on the read image signal. Control) Analog processing such as processing is performed. Further, the image sensor IF circuit 116 converts the analog processed image signal into a digital signal (hereinafter referred to as image data).

RAM118は、例えばSDRAMであり、ワークエリア、評価画像エリア、参照画像エリア、追尾位置ログエリア、追尾色領域ログエリアをそれぞれ記憶エリアとして有する。
ワークエリアは、撮像素子IF回路116で得られた画像データ等を含む各データ、例えば撮像装置100の各部で発生した各データを一時記憶する。
評価画像エリアは、評価画像データを一時記憶する。この評価画像データは、追尾処理における追尾対象の被写体を含むフレームの画像データである。追尾処理においては、追尾対象を追尾するように処理が行われる。
参照画像エリアは、参照画像データを一時記憶する。この参照画像データは、追尾処理において、追尾対象の探索の対象となるフレームの画像データである。追尾処理においては、参照画像データ中で探索が行われる。
追尾位置ログエリアは、追尾位置ログを一時記憶する。この追尾位置ログは、追尾処理の結果として得られた追尾位置を記録したログである。本実施の形態では、複数の追尾処理を併用して追尾対象を追尾する。したがって、追尾位置ログには、それぞれの追尾処理によって得られた追尾位置を例えば過去10フレーム分個別に記録する。また、追尾位置ログには、後述の優先追尾位置判定処理によって採用された最終的な追尾位置も記録する。
追尾色領域ログエリアは、追尾色領域ログを一時記憶する。この追尾色領域ログは、追尾処理によって得られた追尾色領域を記録したログである。本実施の形態では、追尾色領域を例えば過去10フレーム分個別に記録する。
The RAM 118 is, for example, an SDRAM, and has a work area, an evaluation image area, a reference image area, a tracking position log area, and a tracking color area log area as storage areas.
The work area temporarily stores each data including image data obtained by the image sensor IF circuit 116, for example, each data generated in each part of the imaging device 100.
The evaluation image area temporarily stores evaluation image data. This evaluation image data is image data of a frame including a subject to be tracked in the tracking process. In the tracking process, processing is performed so as to track the tracking target.
The reference image area temporarily stores reference image data. This reference image data is image data of a frame to be searched for a tracking target in the tracking process. In the tracking process, a search is performed in the reference image data.
The tracking position log area temporarily stores a tracking position log. The tracking position log is a log in which the tracking position obtained as a result of the tracking process is recorded. In the present embodiment, a tracking target is tracked using a plurality of tracking processes. Therefore, in the tracking position log, the tracking positions obtained by the respective tracking processes are individually recorded, for example, for the past 10 frames. In addition, the final tracking position adopted by the priority tracking position determination process described later is also recorded in the tracking position log.
The tracking color area log area temporarily stores a tracking color area log. The tracking color area log is a log in which the tracking color area obtained by the tracking process is recorded. In the present embodiment, the tracking color area is recorded individually for the past 10 frames, for example.

表示素子120は、例えば液晶ディスプレイ(LCD)であり、ライブビュー用の画像及び記録メディア128に記録される画像等の各種画像を表示する。表示素子駆動回路122は、システムコントローラ130のCPU1301から入力された画像データに基づいて表示素子120を駆動し、この表示素子120に画像を表示する。
タッチパネル124は、表示素子120の表示画面上に一体的に形成されており、表示画面上へのユーザの指等の接触位置等を検出する。タッチパネル駆動回路126は、タッチパネル124を駆動すると共に、タッチパネル124からの接触検出信号をシステムコントローラ130のCPU1301に出力する。CPU1301は、接触検出信号から、ユーザの表示画面上への接触操作を検出し、その接触操作に応じた処理を実行する。
The display element 120 is, for example, a liquid crystal display (LCD), and displays various images such as an image for live view and an image recorded on the recording medium 128. The display element driving circuit 122 drives the display element 120 based on the image data input from the CPU 1301 of the system controller 130 and displays an image on the display element 120.
The touch panel 124 is integrally formed on the display screen of the display element 120, and detects a contact position of a user's finger or the like on the display screen. The touch panel drive circuit 126 drives the touch panel 124 and outputs a contact detection signal from the touch panel 124 to the CPU 1301 of the system controller 130. The CPU 1301 detects a contact operation on the display screen of the user from the contact detection signal, and executes processing according to the contact operation.

記録メディア128は、例えばメモリカードであり、撮影動作によって得られた画像ファイルが記録される。この画像ファイルは、画像データに所定のヘッダを付与して構成される。ヘッダには、撮影条件を示すデータ及び追尾位置を示すデータ等が、タグデータとして記録される。   The recording medium 128 is a memory card, for example, and records an image file obtained by a shooting operation. This image file is configured by adding a predetermined header to image data. In the header, data indicating shooting conditions, data indicating a tracking position, and the like are recorded as tag data.

システムコントローラ130は、撮像装置100の動作を制御するもので、CPU1301と、AF制御回路1302と、AE制御回路1303と、画像処理回路1304と、顔部検出回路1305、色情報検出回路1306と、顏部追尾回路1307と、周辺部位追尾回路1308と、追尾切替回路1309と、メモリ制御回路1310とを有する。   The system controller 130 controls the operation of the imaging apparatus 100, and includes a CPU 1301, an AF control circuit 1302, an AE control circuit 1303, an image processing circuit 1304, a face detection circuit 1305, a color information detection circuit 1306, A heel tracking circuit 1307, a peripheral part tracking circuit 1308, a tracking switching circuit 1309, and a memory control circuit 1310 are provided.

CPU1301は、焦点調整機構104と、絞り駆動機構108と、シャッタ駆動機構112と、表示素子駆動回路122と、タッチパネル駆動回路126等のシステムコントローラ130の外部の各機能ブロック、及びシステムコントローラ130内部の各回路の動作を制御する。   The CPU 1301 includes functional blocks outside the system controller 130 such as the focus adjustment mechanism 104, the aperture driving mechanism 108, the shutter driving mechanism 112, the display element driving circuit 122, the touch panel driving circuit 126, and the like. Controls the operation of each circuit.

AF制御回路1302は、コントラストAF処理を制御する。具体的にAF制御回路1302は、撮像素子IF回路116で得られた画像データの高周波成分を抽出し、この抽出した高周波成分を積算することにより、AF用の合焦評価値を取得する。CPU1301は、この合焦評価値に従って画像データのコントラストを評価しつつ、焦点調整機構104を制御してフォーカスレンズを合焦状態とする。
AE制御回路1303は、AE動作を制御する。具体的にAE制御回路1303は、撮像素子IF回路116で得られた画像データを用いて被写体輝度を算出する。CPU1301は、この被写体輝度に従って、露光時の絞り106の開口量(絞り値)、シャッタ110の開放時間(シャッタ速度値)、撮像素子感度やISO感度等を算出する。
The AF control circuit 1302 controls contrast AF processing. Specifically, the AF control circuit 1302 extracts high-frequency components of the image data obtained by the image sensor IF circuit 116, and obtains an AF focus evaluation value by integrating the extracted high-frequency components. The CPU 1301 controls the focus adjustment mechanism 104 to bring the focus lens into focus while evaluating the contrast of the image data according to the focus evaluation value.
The AE control circuit 1303 controls the AE operation. Specifically, the AE control circuit 1303 calculates the subject brightness using the image data obtained by the imaging element IF circuit 116. The CPU 1301 calculates the aperture amount (aperture value) of the aperture 106 during exposure, the opening time of the shutter 110 (shutter speed value), the image sensor sensitivity, the ISO sensitivity, and the like according to the subject brightness.

画像処理回路1304は、撮像素子IF回路116で得られた画像データに対する各種の画像処理を行う。この画像処理は、例えば色補正処理、ガンマ(γ)補正処理、圧縮処理等を含む。また、画像処理回路1304は、圧縮されている画像データに対する伸張処理も施す。   The image processing circuit 1304 performs various types of image processing on the image data obtained by the imaging element IF circuit 116. This image processing includes, for example, color correction processing, gamma (γ) correction processing, compression processing, and the like. The image processing circuit 1304 also performs decompression processing on the compressed image data.

顔部検出回路1305は、例えば人物等の被写体が撮像された画像デ―タ中から被写体の顔部を検出する。この顔部検出回路1305は、各フレームで得られる画像データと、図2(a)に示すような各顔パーツ402、404、406との相関量を求める。顔パーツ402は、人物の鼻部周辺の陰影のパターンに対応した画像データであり、顔パーツ404は、人物の目部周辺の陰影のパターンに対応した画像データであり、顔パーツ406は、人物の口部周辺の陰影のパターンに対応した画像データである。画像データと各顏パーツ402、404、406との相関量は、図2(b)に示すような、人物の顔部を示す所定の配置となったときに最大となる。このとき、各顏パーツ402、404、406を含む領域408に人物の顏部が存在しているとする。なお、各顏パーツ402、404、406は、予め設定した検索顔の大きさに応じて大きさを変えてもよい。ここで、図2(b)では、顏領域を矩形領域としているが、円形領域としても良い。   The face part detection circuit 1305 detects the face part of the subject from image data in which a subject such as a person is captured. This face detection circuit 1305 obtains the correlation amount between the image data obtained in each frame and each face part 402, 404, 406 as shown in FIG. The face part 402 is image data corresponding to a shadow pattern around a person's nose, the face part 404 is image data corresponding to a shadow pattern around a person's eye, and the face part 406 is a person This is image data corresponding to the shadow pattern around the mouth. The correlation amount between the image data and each of the heel parts 402, 404, and 406 is maximized when a predetermined arrangement indicating the face of a person is obtained as shown in FIG. At this time, it is assumed that a human heel exists in an area 408 including the heel parts 402, 404, and 406. Note that the size of each of the heel parts 402, 404, and 406 may be changed according to a preset size of the search face. Here, in FIG. 2B, the heel region is a rectangular region, but it may be a circular region.

色情報検出回路1306は、画像データ中における顔部検出回路1305により検出される顔部に対応する例えば肌色等の色情報の領域を検出する。又、色情報検出回路1306は、画像データ中における周辺部位追尾回路1308により検出される被検体中の顔部以外の周辺部位に対応する例えば肌色等の色情報の領域を検出する。   The color information detection circuit 1306 detects an area of color information such as skin color corresponding to the face portion detected by the face portion detection circuit 1305 in the image data. Further, the color information detection circuit 1306 detects a region of color information such as skin color corresponding to a peripheral part other than the face part in the subject detected by the peripheral part tracking circuit 1308 in the image data.

顏部追尾回路1307は、顔部検出回路1305により検出された顔部の輝度情報、又は色情報検出回路1306により検出された顔部に対応する例えば肌色の色情報の領域に基づいて顔部を追尾する。この顏部追尾回路1307は、色情報検出回路1306による肌色の色情報の領域の検出よりも、顔部検出回路1305による顔部の検出を優先して顔部を追尾する。   The buttock tracking circuit 1307 detects the face based on the luminance information of the face detected by the face detection circuit 1305 or the color information area of the skin color corresponding to the face detected by the color information detection circuit 1306, for example. To track. The hip tracking circuit 1307 tracks the face by prioritizing the face detection by the face detection circuit 1305 over the detection of the skin color information area by the color information detection circuit 1306.

ここで、顏部の追尾について説明する。顏部追尾回路1307は、画像データの輝度情報を用いて追尾処理を行う。この輝度情報を用いた追尾処理は、例えば図3(a)に示す(N−1)フレームにおいて追尾対象である被写体が設定された場合、この(N−1)フレームの画像データを評価画像データとしてRAM118の評価画像エリアに記憶する。この評価画像データの追尾対象を含む所定範囲202の画像データが基準画像データに設定される。この後、追尾処理では、同図(b)に示すNフレームとなる参照画像データ中において基準画像データ202と対応する部分を探索する。
Nフレームの追尾処理を例に示すと、顏部追尾回路1307は、Nフレームの画像データを参照画像データとしてRAM118の参照画像エリアに記憶する。顏部追尾回路1307は、この参照画像データのうちの所定の探索範囲204の画像データと基準画像データ202との相関量を求めることにより、参照画像データの基準画像データ202と対応する部分を探索する。相関量は、例えば基準画像データと参照画像データとの差分絶対値和から判定する。なお、差分絶対値和は、画素毎に輝度差の絶対値を求めてそれを積算したものである。
Here, tracking of the buttocks will be described. The heel tracking circuit 1307 performs a tracking process using the luminance information of the image data. For example, when the subject to be tracked is set in the (N-1) frame shown in FIG. 3A, the tracking process using the luminance information is performed by using the image data of the (N-1) frame as the evaluation image data. Is stored in the evaluation image area of the RAM 118. Image data within a predetermined range 202 including the tracking target of the evaluation image data is set as the reference image data. Thereafter, in the tracking process, a portion corresponding to the standard image data 202 is searched for in the reference image data of N frames shown in FIG.
Taking the N frame tracking process as an example, the buttock tracking circuit 1307 stores N frame image data as reference image data in the reference image area of the RAM 118. The heel tracking circuit 1307 searches for a portion of the reference image data corresponding to the reference image data 202 by obtaining a correlation amount between the image data in the predetermined search range 204 and the reference image data 202. To do. The correlation amount is determined from, for example, the sum of absolute differences between the standard image data and the reference image data. The sum of absolute differences is obtained by calculating and integrating the absolute value of the luminance difference for each pixel.

例えば、図3(b)に示す参照画像データの領域206の参照画像データと基準画像データ202との差分絶対値和を求めたとすると、参照画像データの領域206と基準画像データ202とは明らかに異なる画像データであり、差分絶対値和が大きくなる。これに対し、参照画像データの領域208と基準画像データ202との差分絶対値和を求めたとすると、差分絶対値和が小さくなる。このように、基準画像データ202との相関量が大きくなるに従って差分絶対値和が小さくなる。輝度情報を用いた追尾処理では、相関量が最大の、即ち差分絶対値和が最小の領域を参照画像データから探索する。図2(b)の例では、領域208が基準画像データ202と対応する部分として探索される。なお、追尾位置ログエリアには、領域208の中で最も一致度の高い位置を追尾位置として記録する。このような一致度の高い位置が複数ある場合、例えば領域208の中心に近い位置を追尾位置とする。次回の追尾処理時には、この追尾位置を追尾処理の開始位置とすることが望ましい。これにより、追尾処理にかかる時間を軽減することが可能である。   For example, if the sum of absolute differences between the reference image data in the reference image data area 206 and the standard image data 202 shown in FIG. 3B is obtained, the reference image data area 206 and the standard image data 202 are clearly shown. It is different image data, and the sum of absolute differences is increased. On the other hand, if the sum of absolute differences between the reference image data area 208 and the standard image data 202 is obtained, the sum of absolute differences becomes small. Thus, the difference absolute value sum decreases as the correlation amount with the reference image data 202 increases. In the tracking process using luminance information, an area having the maximum correlation amount, that is, the minimum difference absolute value sum is searched from the reference image data. In the example of FIG. 2B, the area 208 is searched as a portion corresponding to the reference image data 202. In the tracking position log area, the position with the highest degree of matching in the area 208 is recorded as the tracking position. When there are a plurality of such positions with a high degree of coincidence, for example, a position close to the center of the region 208 is set as the tracking position. In the next tracking process, this tracking position is preferably set as the start position of the tracking process. As a result, the time required for the tracking process can be reduced.

又、顏部追尾回路1307は、画像データの肌色の色情報を用いて追尾処理を行う。肌色の色情報を用いた追尾処理は、評価画像データ内で設定された色と同色であると判定できる領域を追尾色領域として探索する。顏部追尾回路1307は、図4(a)に示すように、(N−1)フレームにおいて、被写体のある位置302が指定された場合、評価画像データ中の位置302の色情報を取得する。そして、顏部追尾回路1307は、位置302を追尾処理の開始位置として、位置302と同じ色情報を有する領域を探索する。具体的に顏部追尾回路1307は、位置302を開始位置から周辺に向かうように順次肌色の色情報を取得し、取得した色情報が位置302の色情報と同一であると判定できる場合には領域に含め、取得した色情報が位置302の色情報と同一であると判定できない場合には領域に含めない。このようにして追尾色領域を探索すると、例えば、図4(a)に示すような単色の被写体の場合、被写体に内接する矩形領域304が追尾色領域となる。また、追尾位置ログエリアに記録する追尾位置は、例えば追尾色領域304の重心位置(図4(a)の例では、位置302と同じ)とする。次回の追尾処理においては、この追尾位置を追尾処理の開始位置とする。   Also, the buttock tracking circuit 1307 performs tracking processing using the skin color information of the image data. In the tracking process using the skin color information, an area that can be determined to be the same color as the color set in the evaluation image data is searched for as a tracking color area. As shown in FIG. 4A, the buttock tracking circuit 1307 acquires the color information of the position 302 in the evaluation image data when the position 302 where the subject is located is designated in the (N-1) frame. Then, the buttock tracking circuit 1307 searches for an area having the same color information as the position 302, with the position 302 as the start position of the tracking process. Specifically, the buttock tracking circuit 1307 sequentially acquires the skin color information so that the position 302 moves from the start position to the periphery, and when it can be determined that the acquired color information is the same as the color information of the position 302 If the acquired color information cannot be determined to be the same as the color information at the position 302, it is not included in the region. When the tracking color area is searched in this way, for example, in the case of a monochromatic subject as shown in FIG. 4A, a rectangular area 304 inscribed in the subject becomes the tracking color area. The tracking position recorded in the tracking position log area is, for example, the center of gravity position of the tracking color area 304 (same as the position 302 in the example of FIG. 4A). In the next tracking process, this tracking position is set as the starting position of the tracking process.

Nフレームの追尾処理を例に示すと、顏部追尾回路1307は、図4(b)に示す参照画像データとして記憶したNフレームの画像データの所定の探索範囲の中で、(N−1)フレームの追尾位置302を追尾処理の開始位置とし、追尾位置302の周辺から順次、追尾色領域304の色と同色であると判定できる領域を追尾色領域として探索する。図4(b)の例では、領域306が追尾色領域となる。また、図4(b)の例では、重心位置308を追尾位置とし、この追尾位置308を、追尾位置ログエリアに記録する。また、追尾色領域ログエリアには、追尾色領域306の範囲を示す情報(例えば、四隅の位置)を記録する。   Taking the N frame tracking process as an example, the buttock tracking circuit 1307 (N−1) within a predetermined search range of the N frame image data stored as the reference image data shown in FIG. The tracking position 302 of the frame is set as the tracking processing start position, and an area that can be determined to be the same color as the tracking color area 304 is sequentially searched from the periphery of the tracking position 302 as the tracking color area. In the example of FIG. 4B, the area 306 is a tracking color area. In the example of FIG. 4B, the center of gravity position 308 is set as the tracking position, and the tracking position 308 is recorded in the tracking position log area. Also, information indicating the range of the tracking color area 306 (for example, the positions of the four corners) is recorded in the tracking color area log area.

周辺部位追尾回路1308は、被検体中の顔部以外の周辺部位を追尾する。この周辺部位追尾回路1308は、上記顏部追尾回路1307と同様に、画像データの輝度情報及び肌色の色情報を用いて周辺部位の追尾処理を行う。この周辺部位追尾回路1308は、顔部から予め設定された位置関係を有する例えば被検体の胴体部、具体的には胴体部に存在する胸部を顔部以外の部位として追尾する。この顔部と胸部との位置関係は、画像データ上において被検体の顔部から予め設定された距離だけ下方、すなわち人物の顔部よりも下方を首部、胸部、腹部、脚部とすると、顔部から予め設定された距離だけ下方の位置が胸部であるとの関係に設定されている。周辺部位追尾回路1308は、なお、周辺部位は、被検体中の顔部に限らず、例えば首部、腹部、脚部、腕部であってもよい。   The peripheral part tracking circuit 1308 tracks peripheral parts other than the face part in the subject. Similar to the buttock tracking circuit 1307, the peripheral part tracking circuit 1308 performs a peripheral part tracking process using luminance information of image data and skin color information. The peripheral part tracking circuit 1308 tracks, for example, a torso part of a subject having a preset positional relationship from the face part, specifically, a chest part existing in the torso part as a part other than the face part. The positional relationship between the face part and the chest part is as follows: the lower part than the face part of the subject on the image data, that is, the lower part than the face part of the person is the neck part, the chest part, the abdomen part, and the leg part. The position is set such that the position below the chest by a preset distance is the chest. In the peripheral part tracking circuit 1308, the peripheral part is not limited to the face part in the subject but may be, for example, the neck part, the abdomen part, the leg part, or the arm part.

図5は被検体に対する顔部検出位置Aと顔部追尾位置Bと周辺部追尾位置Cとを示す。顔部検出位置Aは、顔部検出回路1305により検出された顔部を示し、例えば図2に示す矩形の領域408に対応する。
顔部追尾位置Bは、色情報検出回路1306により検出された顔部に対応する肌色の色情報の領域に基づいて顔部を追尾するための位置を示し、例えば図4(a)(b)に示す追尾色領域304の重心位置302又は308に対応する。この顔部追尾位置Bは、上記の通り追尾位置ログエリアに記録される。
周辺部追尾位置Cは、周辺部位追尾回路1308により追尾する被検体中の顔部以外の周辺部位、例えば胸部を示す。この周辺部追尾位置Cは、例えば矩形の枠により被検体中の胸部を示す。この周辺部追尾位置Cは、矩形の枠に限らず、円形の枠であってもよい。
FIG. 5 shows a face detection position A, a face tracking position B, and a peripheral tracking position C for the subject. The face detection position A indicates the face detected by the face detection circuit 1305 and corresponds to, for example, the rectangular area 408 shown in FIG.
The face tracking position B indicates a position for tracking the face based on the skin color information area corresponding to the face detected by the color information detection circuit 1306. For example, FIG. 4 (a) (b) Corresponds to the barycentric position 302 or 308 of the tracking color area 304 shown in FIG. The face tracking position B is recorded in the tracking position log area as described above.
The peripheral part tracking position C indicates a peripheral part other than the face part in the subject to be tracked by the peripheral part tracking circuit 1308, for example, the chest. The peripheral portion tracking position C indicates the chest in the subject by a rectangular frame, for example. The peripheral portion tracking position C is not limited to a rectangular frame, but may be a circular frame.

なお、顏部追尾回路1307は、顔部検出回路1305により検出された顔部、又は色情報検出回路1306により検出された顔部に対応する肌色の色情報の領域に基づいて顔部を追尾するとき例えば図6又は図7に示すように矩形の顔部追尾枠D1を例えばLCDである表示素子120に表示する。図6は顔部の正面の顔に対して設定された顔部追尾枠D1を示し、図7は顔部の横顔に対して設定された顔部追尾枠D1を示す。この顔部追尾枠D1は、矩形の枠に限らず、円形の枠であってもよい。なお、顔部は、正面の顔又は横顔であっても顔部として追尾される。   Note that the buttock tracking circuit 1307 tracks the face based on the face detected by the face detection circuit 1305 or the skin color information area corresponding to the face detected by the color information detection circuit 1306. Sometimes, for example, as shown in FIG. 6 or FIG. 7, a rectangular face tracking frame D1 is displayed on the display element 120, which is an LCD, for example. FIG. 6 shows the face tracking frame D1 set for the face in front of the face, and FIG. 7 shows the face tracking frame D1 set for the side face of the face. The face tracking frame D1 is not limited to a rectangular frame, but may be a circular frame. The face portion is tracked as a face portion even if it is a front face or a side face.

又、周辺部位追尾回路1308は、被検体中の顔部以外の周辺部位として例えば胸部を追尾するとき例えば図8に示すように矩形の胸部追尾枠D2を例えばLCDである表示素子120に表示する。この胸部追尾枠D2は、矩形の枠に限らず、円形の枠であってもよい。   The peripheral part tracking circuit 1308 displays, for example, a rectangular chest tracking frame D2 on the display element 120 such as an LCD as shown in FIG. 8, for example, when tracking the chest as a peripheral part other than the face in the subject. . The chest tracking frame D2 is not limited to a rectangular frame, and may be a circular frame.

追尾切替回路1309は、顔部追尾回路1307による顔部の追尾が出来ない場合、例えば図6又は図7に示すような顔部追尾枠D1の表示による顔部の追尾から周辺部位追尾回路1308による顔部以外の部位、例えば図8に示すような胸部の追尾に切り替え、同図に示すように胸部上に矩形の胸部追尾枠D2を例えばLCDである表示素子120に表示する。
この追尾切替回路1309は、顔部以外の部位、例えば胸部の位置から顔部として推定される位置で、顔部が検出される、又は顔部に対応する肌色の色情報が検出されると、図8に示すような周辺部位追尾回路1308による胸部の追尾(胸部追尾枠D2の表示)から図6又は図7に示すような顔部追尾回路1307による顔部の追尾(顔部追尾枠D1の表示)に戻る。
なお、顔部と胸部との位置関係は、画像データ上において被検体の顔部から予め設定された距離だけ下方、すなわち人物の顔部よりも下方を首部、胸部、腹部、脚部とすると、顔部から予め設定された距離だけ下方の位置が胸部であるとの関係に設定されているので、人物の胸部よりも予め設定された距離だけ上方に顔部が存在することを推定できる。
When the face tracking circuit 1307 cannot track the face, the tracking switching circuit 1309 uses, for example, the tracking of the face by displaying the face tracking frame D1 as shown in FIG. 6 or FIG. Switching to a part other than the face, for example, chest tracking as shown in FIG. 8, a rectangular chest tracking frame D2 is displayed on the chest on the display element 120, for example, LCD as shown in FIG.
The tracking switching circuit 1309 detects a face part or a skin color color information corresponding to the face part at a position estimated as a face part from a part other than the face part, for example, a chest part position. From the tracking of the chest by the peripheral part tracking circuit 1308 as shown in FIG. 8 (display of the chest tracking frame D2) to the tracking of the face by the face tracking circuit 1307 as shown in FIG. 6 or 7 (of the face tracking frame D1). Return to display.
Note that the positional relationship between the face and the chest is a predetermined distance from the subject's face on the image data, i.e., below the face of the person is the neck, chest, abdomen, and legs. Since the position below the face by a preset distance is set to be the chest, it can be estimated that the face exists above the person's chest by a preset distance.

追尾切替回路1309は、顔部に対応する肌色の色情報を予め記憶し、顔部として推定される位置における色情報が予め記憶されている色情報と一致したときに、顔部に対応する肌色の色情報が検出されたとして顔部追尾回路1307による顔部の追尾に戻る。
追尾切替回路1309は、少なくとも顔部検出回路1305により顔部が検出されず、かつ色情報検出回路1306により肌色の色情報の領域が検出されない場合、顔部追尾回路1307による顔部の追尾が出来ないと判定する。
追尾切替回路1309は、画像デ―タ中に顔部が検出されず、肌色の色情報の領域に基づいて顔部を追尾できず当該追尾の性能が悪化すれば、顔部追尾回路1307による顔部の追尾が出来ないと判定する。
The tracking switching circuit 1309 stores in advance the skin color information corresponding to the face, and when the color information at the position estimated as the face matches the color information stored in advance, the skin color corresponding to the face Is detected, the process returns to face tracking by the face tracking circuit 1307.
The tracking switching circuit 1309 can track the face by the face tracking circuit 1307 when at least the face detection circuit 1305 does not detect the face and the color information detection circuit 1306 does not detect the skin color information area. Judge that there is no.
If the face switching circuit 1309 does not detect the face in the image data and cannot track the face based on the skin color information area, and the performance of the tracking deteriorates, the face switching circuit 1307 causes the face It is determined that the part cannot be tracked.

メモリ制御回路1310は、CPU1301等がRAM118、記録メディア128、ROM134に対してアクセスするための制御を行うインターフェイスである。
操作部132は、ユーザによって操作される各種の操作部材である。この操作部132は、例えば、レリーズ釦、動画釦、モードダイヤル、選択キー、電源釦等を含む。
レリーズ釦は、1stレリーズスイッチと、2ndレリーズスイッチとを有する。1stレリーズスイッチは、ユーザがレリーズ釦を半押しするとオンするスイッチである。この1stレリーズスイッチがオンすることにより、AF処理等の撮影準備動作が行われる。2ndレリーズスイッチは、ユーザがレリーズ釦を全押しするとオンするスイッチである。この2ndレリーズスイッチがオンすることにより、静止画撮影用の露光動作が行われる。
動画釦は、動画撮影の開始又は終了を指示するための操作部材である。ユーザによって動画釦が押されると動画撮影処理が開始される。また、動画撮影処理の実行中に動画釦が押されると、動画撮影処理が終了される。
モードダイヤルは、撮像装置の撮影設定を選択するための操作部材である。本実施形態では、撮像装置の撮影設定として、例えば、静止画撮影モードと動画撮影モードを選択できる。静止画撮影モードは、静止画像を撮影するための撮影設定である。また、動画撮影モードは、動画像を撮影するための撮影設定である。
選択キーは、例えばメニュー画面上での項目の選択や決定をするための操作部材である。ユーザによって選択キーが操作されるとメニュー画面上での項目の選択や決定が行われる。
電源釦は、撮像装置の電源をオン又はオフするための操作部材である。ユーザによって電源釦が操作されると、本装置100が起動して動作可能な状態となる。撮像装置が起動している間に電源釦が操作されると、本装置100が省電力待機状態となる。
The memory control circuit 1310 is an interface that controls the CPU 1301 and the like to access the RAM 118, the recording medium 128, and the ROM 134.
The operation unit 132 is various operation members operated by the user. The operation unit 132 includes, for example, a release button, a moving image button, a mode dial, a selection key, a power button, and the like.
The release button has a 1st release switch and a 2nd release switch. The 1st release switch is a switch that is turned on when the user half-presses the release button. When the 1st release switch is turned on, a shooting preparation operation such as an AF process is performed. The 2nd release switch is a switch that is turned on when the user fully presses the release button. When the 2nd release switch is turned on, an exposure operation for still image shooting is performed.
The moving image button is an operation member for instructing the start or end of moving image shooting. When the moving image button is pressed by the user, the moving image shooting process is started. Further, when the moving image button is pressed during the moving image shooting process, the moving image shooting process is ended.
The mode dial is an operation member for selecting shooting settings of the imaging apparatus. In the present embodiment, for example, a still image shooting mode and a moving image shooting mode can be selected as shooting settings of the imaging apparatus. The still image shooting mode is a shooting setting for shooting a still image. The moving image shooting mode is a shooting setting for shooting a moving image.
The selection key is an operation member for selecting or determining an item on the menu screen, for example. When the selection key is operated by the user, an item is selected or determined on the menu screen.
The power button is an operation member for turning on or off the power of the imaging apparatus. When the power button is operated by the user, the apparatus 100 is activated and becomes operable. If the power button is operated while the imaging apparatus is activated, the apparatus 100 enters a power saving standby state.

ROM134は、CPU1301が種々の処理を実行するためのプログラムコードを記憶する。プログラムコードは、被写体を追尾する追尾プログラムを含む。この追尾プログラムは、コンピュータとしてのCPU1301に、被写体が撮像された画像デ―タ中から被写体の顔部を検出させる顔部検出機能と、画像データ中における顔部に対応する位置を追尾する顔対応部検出機能と、前記顔部検出機能により検出された結果と前記顔部対応部検出機能により検出された結果に基づいて前記顔部を追尾する顔部追尾機能と、被検体中の顔部以外の周辺部位を追尾させる周辺部位追尾機能と、顔部追尾機能による顔部の追尾が出来ない場合、周辺部位追尾機能による顔部以外の周辺部位の追尾に切り替える追尾切替機能とを実現させる。
追尾切替機能は、顔部以外の周辺部位の位置から顔部として推定される位置で、顔部が検出される、又は顔部に対応する色情報が検出されると、顔部追尾機能による顔部の追尾に戻る。
The ROM 134 stores program codes for the CPU 1301 to execute various processes. The program code includes a tracking program for tracking the subject. This tracking program causes a CPU 1301 as a computer to detect a face part of a subject from image data obtained by imaging the subject, and a face correspondence to track a position corresponding to the face part in image data. A part detection function, a face tracking function for tracking the face based on a result detected by the face detection function and a result detected by the face corresponding part detection function, and other than the face part in the subject The peripheral part tracking function for tracking the peripheral part of the face and the tracking switching function for switching to the tracking of the peripheral part other than the face part by the peripheral part tracking function when the face part tracking function cannot be performed by the face part tracking function are realized.
The tracking switching function is used when a face is detected at a position estimated from the position of a peripheral part other than the face, or when color information corresponding to the face is detected. Return to part tracking.

また、ROM134は、撮影光学系102、絞り106及び撮像素子114等の動作に必要な制御パラメータ、並びに画像処理回路1304での画像処理に必要な制御パラメータ等の各種の制御パラメータを記憶している。さらにROM134は、顏検出回路1307における顏検出に用いられる顏パーツのデータや追尾枠を表示するためのデータ等も記憶している。   The ROM 134 stores various control parameters such as control parameters necessary for the operation of the photographing optical system 102, the aperture 106, the image sensor 114, and the like, and control parameters necessary for image processing in the image processing circuit 1304. . Further, the ROM 134 also stores heel part data used for heel detection in the heel detection circuit 1307, data for displaying a tracking frame, and the like.

次に、上記の如く構成された本装置の動作について図9に示す撮影動作フローチャートを参照して説明する。
CPU1301は、ROM134から必要なプログラムコードを読み込んで本装置100の動作を制御する。
CPU1301は、ステップS100において、現在の本装置100の撮影設定が静止画撮影モードであるか否かを判定する。この撮影設定は、モードダイヤルによって設定される。
判定の結果、撮影設定が静止画撮影モードであると、CPU1301は、ステップS102において、ライブビュー動作を開始させる。ライブビュー動作として、CPU1301は、シャッタ駆動機構112を制御してシャッタ110を開放した後、撮像素子IF回路116を制御して撮像素子114による撮像を開始させる。その後、CPU1301は、撮像素子114による撮像の結果としてRAM118のワークエリアに記憶された画像データを画像処理回路1304に入力してライブビュー表示用の画像処理を施す。続いて、CPU1301は、ライブビュー表示用の画像処理がされた画像データを表示素子駆動回路122に入力し、表示素子120に画像を表示させる。このような表示動作を繰り返し実行することにより、被写体の画像を動画表示する。この動画表示により、ユーザは、被写体を観察することが可能である。
Next, the operation of the present apparatus configured as described above will be described with reference to the photographing operation flowchart shown in FIG.
The CPU 1301 reads necessary program codes from the ROM 134 and controls the operation of the apparatus 100.
In step S100, the CPU 1301 determines whether the current shooting setting of the apparatus 100 is the still image shooting mode. This shooting setting is set by the mode dial.
If the result of determination is that the shooting setting is still image shooting mode, the CPU 1301 starts the live view operation in step S102. As a live view operation, the CPU 1301 controls the shutter drive mechanism 112 to open the shutter 110, and then controls the image sensor IF circuit 116 to start imaging by the image sensor 114. Thereafter, the CPU 1301 inputs the image data stored in the work area of the RAM 118 as a result of imaging by the imaging device 114 to the image processing circuit 1304 and performs image processing for live view display. Subsequently, the CPU 1301 inputs image data that has been subjected to image processing for live view display to the display element driving circuit 122 and causes the display element 120 to display an image. By repeatedly executing such a display operation, the subject image is displayed as a moving image. By this moving image display, the user can observe the subject.

CPU1301は、ステップS104において、1stレリーズスイッチがオンされたか否かを判定する。この判定の結果、1stレリーズスイッチがオンされたと判定するまでCPU1301は、ライブビュー動作を継続する。
1stレリーズスイッチがオンされると、CPU1301は、ステップS106において、レリーズAF処理を行う。このレリーズAFでは、スキャン駆動によって、フォーカスレンズを合焦位置まで駆動させる。スキャン駆動では、CPU1301は、焦点調整機構104を制御してフォーカスレンズを所定のスキャン範囲内で一方向に駆動させつつ、AF制御回路1302で順次算出される合焦評価値を評価する。CPU1301は、合焦評価値の評価の結果、コントラストが最大となるレンズ位置において、フォーカスレンズの駆動を停止させる。このようなスキャン駆動は、AF前のフォーカスレンズの位置と合焦位置との差が大きい場合に行われる。
In step S104, the CPU 1301 determines whether the first release switch is turned on. As a result of this determination, the CPU 1301 continues the live view operation until it is determined that the first release switch is turned on.
When the first release switch is turned on, the CPU 1301 performs a release AF process in step S106. In this release AF, the focus lens is driven to the in-focus position by scan driving. In scan drive, the CPU 1301 controls the focus adjustment mechanism 104 to drive the focus lens in one direction within a predetermined scan range, and evaluates the focus evaluation values sequentially calculated by the AF control circuit 1302. The CPU 1301 stops the driving of the focus lens at the lens position where the contrast is maximized as a result of the evaluation of the focus evaluation value. Such scan driving is performed when the difference between the position of the focus lens before AF and the in-focus position is large.

CPU1301は、ステップS108において、表示素子駆動回路122を制御して、表示素子120に追尾枠を表示させる。ここで、追尾枠は、表示素子120の画面上の追尾対象の位置に表示させる。例えば、レリーズAFで合焦した被写体を追尾対象とし、その被写体に追尾枠を表示させるようしても良い。顏検出回路1307によって人物の顏部が検出された場合には、例えば図6又は図7に示すように顔部に追尾枠D1を表示させるようにしても良い。さらに、タッチパネル124により、表示素子120の画面上に表示された被写体が指定された場合には、その被写体上に追尾枠を表示させるようにしても良い。このように、本実施形態においては、CPU1301、AF制御回路1302、顏検出回路1307、タッチパネル124等が追尾対象設定部の一例として機能する。   In step S108, the CPU 1301 controls the display element driving circuit 122 to display a tracking frame on the display element 120. Here, the tracking frame is displayed at the position of the tracking target on the screen of the display element 120. For example, a subject focused by the release AF may be set as a tracking target, and a tracking frame may be displayed on the subject. When the human eyelid is detected by the eyelid detection circuit 1307, for example, a tracking frame D1 may be displayed on the face as shown in FIG. Furthermore, when a subject displayed on the screen of the display element 120 is designated by the touch panel 124, a tracking frame may be displayed on the subject. Thus, in the present embodiment, the CPU 1301, the AF control circuit 1302, the eyelid detection circuit 1307, the touch panel 124, and the like function as an example of the tracking target setting unit.

CPU1301は、ステップS110において、被写体を追尾する追尾処理を行う。この追尾処理は、後述する。
CPU1301は、ステップS112において、追尾位置の被写体に合焦するようにAF処理を行うと共に、追尾位置の被写体の露光が適正となるようにAE処理を行う。
追尾処理後のAF処理においては、スキャン駆動又はウォブリング駆動によって、フォーカスレンズを合焦位置まで駆動させる。ウォブリング駆動では、CPU1301は、フォーカスレンズを駆動したときにAF制御回路1302で算出された合焦評価値が、前回のレンズ位置での合焦評価値に対して増加したかを判定する。そして、CPU1301は、合焦評価値が増加した場合には前回と同方向にフォーカスレンズを微小駆動させ、合焦評価値が減少した場合には前回と逆方向にフォーカスレンズを微小駆動させる。このような動作を高速で繰り返してフォーカスレンズを徐々に合焦位置まで駆動させる。
また、AE処理において、CPU1301は、AE制御回路1303で算出された追尾位置の被写体の輝度を予め定められた適正な量(適正露光量)とする、本露光時の絞り106の開口量(絞り値)、シャッタ110の開放時間(シャッタ速度値)を算出する。
In step S110, the CPU 1301 performs a tracking process for tracking the subject. This tracking process will be described later.
In step S112, the CPU 1301 performs AF processing so as to focus on the subject at the tracking position, and performs AE processing so that exposure of the subject at the tracking position is appropriate.
In the AF process after the tracking process, the focus lens is driven to the in-focus position by scan driving or wobbling driving. In wobbling driving, the CPU 1301 determines whether or not the focus evaluation value calculated by the AF control circuit 1302 when the focus lens is driven has increased with respect to the focus evaluation value at the previous lens position. The CPU 1301 finely drives the focus lens in the same direction as the previous time when the focus evaluation value increases, and finely drives the focus lens in the opposite direction to the previous time when the focus evaluation value decreases. Such an operation is repeated at high speed to gradually drive the focus lens to the in-focus position.
In the AE process, the CPU 1301 sets the aperture of the aperture 106 (aperture) during main exposure to set the luminance of the subject at the tracking position calculated by the AE control circuit 1303 to a predetermined appropriate amount (appropriate exposure amount). Value), the shutter 110 opening time (shutter speed value) is calculated.

CPU1301は、ステップS114において、2ndレリーズスイッチがオンされたか否かを判定する。2ndレリーズスイッチがオンされていないと判定されると、CPU1301は、ステップS110の追尾処理以後の処理を実行する。このように、静止画撮影モード時には、2ndレリーズスイッチがオンされるまでは、追尾処理が継続される。   In step S114, the CPU 1301 determines whether or not the 2nd release switch is turned on. If it is determined that the 2nd release switch is not turned on, the CPU 1301 executes processing after the tracking processing in step S110. In this way, in the still image shooting mode, the tracking process is continued until the 2nd release switch is turned on.

また、2ndレリーズスイッチがオンされると、CPU1301は、ステップS116において、表示素子駆動回路122を制御して、追尾枠D1を非表示とする。
CPU1301は、ステップS118において、静止画像データを記録メディア128に記録する処理を行う。この際、CPU1301は、シャッタ駆動機構112を制御して、シャッタ110を閉じる。その後、CPU1301は、絞り駆動機構108を制御して、絞り106を先に算出した絞り値まで絞り込む。続いて、CPU1301は、シャッタ駆動機構112を制御して、シャッタ110を先に算出した開放時間だけ開放しつつ、撮像素子114による撮像(露光)を行う。その後、CPU1301は、撮像素子114を介して得られた静止画像データを画像処理回路1304において処理する。そして、CPU1301は、画像処理回路1304において処理された静止画像データにヘッダを付与して静止画像ファイルを生成し、生成した静止画像ファイルを記録メディア128に記録する。
CPU1301は、ステップS120において、上記ステップS110の追尾処理の結果として得られた追尾位置を示すデータを、先に記録メディア128に記録した静止画像ファイルに追記する。その後に、CPU1301は、図9に示す撮影動作を示すフローチャートに従った動作を終了する。
When the 2nd release switch is turned on, the CPU 1301 controls the display element driving circuit 122 to hide the tracking frame D1 in step S116.
In step S <b> 118, the CPU 1301 performs processing for recording still image data on the recording medium 128. At this time, the CPU 1301 controls the shutter driving mechanism 112 to close the shutter 110. Thereafter, the CPU 1301 controls the aperture driving mechanism 108 to narrow the aperture 106 to the previously calculated aperture value. Subsequently, the CPU 1301 controls the shutter driving mechanism 112 to perform imaging (exposure) by the imaging element 114 while opening the shutter 110 for the previously calculated opening time. Thereafter, the CPU 1301 processes still image data obtained via the image sensor 114 in the image processing circuit 1304. The CPU 1301 adds a header to the still image data processed by the image processing circuit 1304 to generate a still image file, and records the generated still image file on the recording medium 128.
In step S120, the CPU 1301 adds data indicating the tracking position obtained as a result of the tracking process in step S110 to the still image file previously recorded on the recording medium 128. Thereafter, the CPU 1301 ends the operation according to the flowchart showing the photographing operation shown in FIG.

一方、上記ステップS100において、撮影設定が動画撮影モードであると判定されると、CPU1301は、ステップS122において、ライブビュー動作を開始する。   On the other hand, when it is determined in step S100 that the shooting setting is the moving image shooting mode, the CPU 1301 starts a live view operation in step S122.

動画撮影オンの指示である動画釦がオンされたと判定されると、CPU1301は、ステップS126において、表示素子駆動回路122を制御して表示素子120に例えば図6又は図7に示すように顔部に追尾枠D1を表示させる。
CPU1301は、ステップS128において、顔部検出回路1305、顔部追尾回路1307、周辺部位追尾回路1308へ追尾処理の開始を指示する。この追尾処理は、後述する。
CPU1301は、ステップS130において、AF制御回路1302へ追尾位置の被写体に合焦するようにAF処理を指示すると共に、AE制御回路1303へ追尾位置の被写体の露光が適正となるようにAE処理を指示する。このときのAF処理では、ウォブリング駆動によって撮影光学系102のフォーカスレンズを合焦位置まで駆動させる。
If it is determined that the moving image button, which is an instruction to turn on moving image shooting, is turned on, the CPU 1301 controls the display element driving circuit 122 in step S126 to cause the display element 120 to display a face portion as shown in FIG. To display the tracking frame D1.
In step S128, the CPU 1301 instructs the face detection circuit 1305, the face tracking circuit 1307, and the peripheral part tracking circuit 1308 to start tracking processing. This tracking process will be described later.
In step S130, the CPU 1301 instructs the AF control circuit 1302 to perform AF processing to focus on the subject at the tracking position, and instructs the AE control circuit 1303 to perform AE processing so that the subject at the tracking position is properly exposed. To do. In the AF process at this time, the focus lens of the photographing optical system 102 is driven to the in-focus position by wobbling driving.

CPU1301は、ステップS132において、動画像データを記録メディア128に記録する処理を行う。この際、CPU1301は、絞り駆動機構108を制御し、絞り106をAE処理において算出した絞り値まで絞り込む。続いて、CPU1301は、AE処理において算出したシャッタ速度値に対応した時間だけ撮像素子114による撮像(露光)を実行させる。露光の終了後、CPU1301は、動画像ファイルを生成して記録メディア128に記録する。また、CPU1301は、撮像素子114を介して得られた動画像データを画像処理回路1304において処理し、画像処理回路1304において処理された動画像データを動画像ファイルに記録する。   In step S <b> 132, the CPU 1301 performs processing for recording moving image data on the recording medium 128. At this time, the CPU 1301 controls the aperture driving mechanism 108 to narrow the aperture 106 to the aperture value calculated in the AE process. Subsequently, the CPU 1301 causes the image sensor 114 to perform imaging (exposure) for a time corresponding to the shutter speed value calculated in the AE process. After the exposure is completed, the CPU 1301 generates a moving image file and records it on the recording medium 128. Further, the CPU 1301 processes the moving image data obtained via the image sensor 114 in the image processing circuit 1304, and records the moving image data processed in the image processing circuit 1304 in a moving image file.

CPU1301は、ステップS134において、上記ステップS128の追尾処理の結果として得られた追尾位置を示すデータを、先に記録メディア128に記録した動画像ファイルに記録する。
CPU1301は、ステップS136において、動画釦がオフされたか否かを判定する。この判定の結果、動画釦がオフされていないと判定されると、CPU1301は、ステップS128の追尾処理以後の処理を実行する。このように、動画撮影モード時では、動画釦がオフされるまでは、追尾処理と動画像データの記録が継続される。
In step S134, the CPU 1301 records data indicating the tracking position obtained as a result of the tracking process in step S128 in the moving image file previously recorded on the recording medium 128.
In step S136, the CPU 1301 determines whether or not the moving image button has been turned off. As a result of this determination, if it is determined that the moving image button is not turned off, the CPU 1301 executes processing after the tracking processing in step S128. Thus, in the moving image shooting mode, the tracking process and the recording of moving image data are continued until the moving image button is turned off.

また、動画釦がオフされたと判定されると、CPU1301は、ステップS138において、表示素子駆動回路122を制御し、追尾枠D1を非表示とする。その後、CPU1301は、図9に示す撮影動作を示すフローチャートに従った動作を終了する。
次に、本実施の形態に係る追尾処理について図10に示す追尾処理フローチャートに従って説明する。
CPU1301は、ステップS200において、撮像素子IF回路116を制御して撮像素子114による撮像を実行する。
CPU1301は、ステップS201において、撮像素子114による撮像により、撮像素子IF回路116において得られた画像データをRAM118に取り込む。CPU1301は、初回の追尾処理で得られた画像データを評価画像データとし、この画像データをRAM118の評価画像エリアに取り込む。また、CPU1301は、2回目以後の追尾処理で得られた画像データを参照画像データとし、これら2回目以後の追尾処理で得られた画像データをそれぞれRAM118の参照画像エリアに取り込む。
If it is determined that the moving image button is turned off, the CPU 1301 controls the display element driving circuit 122 to hide the tracking frame D1 in step S138. Thereafter, the CPU 1301 ends the operation according to the flowchart showing the photographing operation shown in FIG.
Next, the tracking process according to the present embodiment will be described with reference to the tracking process flowchart shown in FIG.
In step S <b> 200, the CPU 1301 controls the image sensor IF circuit 116 to perform image capturing with the image sensor 114.
In step S <b> 201, the CPU 1301 captures the image data obtained in the imaging element IF circuit 116 into the RAM 118 by imaging with the imaging element 114. The CPU 1301 uses the image data obtained by the first tracking process as evaluation image data, and takes this image data into the evaluation image area of the RAM 118. Further, the CPU 1301 uses the image data obtained by the second and subsequent tracking processes as reference image data, and takes the image data obtained by the second and subsequent tracking processes into the reference image area of the RAM 118, respectively.

CPU1301は、ステップS202において、顔部検出回路1305により、例えば人物等の被写体が撮像された画像デ―タ中から被写体の顔部を検出する。この顔部検出回路1305は、上記図2(a)(b)を参照して説明したように各フレームで得られる画像データと各顔パーツ402、404、406との相関量を求め、この相関量が人物の顔部を示す所定の配置となったときに最大となることを利用して人物の顏部が存在している領域を検出する。   In step S202, the CPU 1301 uses the face detection circuit 1305 to detect the face of the subject from image data obtained by capturing the subject such as a person. The face detection circuit 1305 obtains the correlation amount between the image data obtained in each frame and each face part 402, 404, 406 as described with reference to FIGS. A region where a person's buttocks exists is detected using the fact that the amount is maximized when a predetermined arrangement indicating the person's face is obtained.

CPU1301は、ステップS203において、周辺部位追尾回路1308により、被検体中の顔部以外の周辺部位、例えば顔部検出回路1305により検出された顔部から予め設定された距離だけ下方の胸部を周辺部位として設定する。
CPU1301は、ステップS204において、顔部追尾回路1307により画像データの輝度情報を用いて顔部の追尾処理を行うと共に、周辺部位追尾回路1308により画像データの輝度情報を用いて胸部の追尾処理を行う。輝度情報を用いた追尾処理は、顔部と胸部とに対し、上記図3(a)(b)を参照して説明と同様に、(N−1)フレームにおいて追尾対象である被写体が設定された場合、この(N−1)フレームの画像データを評価画像データとしてRAM118の評価画像エリアに記憶する。この評価画像データの追尾対象を含む所定範囲202の画像データが基準画像データに設定される。この後、追尾処理では、同図(b)に示すNフレームとなる参照画像データ中において基準画像データ202と対応する部分を探索する。
In step S203, the CPU 1301 causes the peripheral part tracking circuit 1308 to display a peripheral part other than the face part in the subject, for example, a chest below a predetermined distance from the face part detected by the face part detection circuit 1305. Set as.
In step S204, the CPU 1301 performs a face tracking process using the luminance information of the image data by the face tracking circuit 1307 and performs a chest tracking process using the luminance information of the image data by the peripheral part tracking circuit 1308. . In the tracking process using luminance information, the subject to be tracked is set in the (N-1) frame for the face and chest as described above with reference to FIGS. In this case, the image data of the (N-1) frame is stored in the evaluation image area of the RAM 118 as evaluation image data. Image data within a predetermined range 202 including the tracking target of the evaluation image data is set as the reference image data. Thereafter, in the tracking process, a portion corresponding to the standard image data 202 is searched for in the reference image data of N frames shown in FIG.

なお、初回の追尾処理においては、評価画像データのみが取得された状態であるので、ステップS204以後の処理は省略される。以後の説明においては、評価画像データと参照画像データの両方が取得されているものとして説明を続ける。
CPU1301は、ステップS205において、輝度情報を用いた顔部と胸部との各追尾処理の結果として得られた各追尾位置を、それぞれRAM118の追尾ログエリアに記憶する。
Note that in the first tracking process, only the evaluation image data has been acquired, so the processes after step S204 are omitted. In the following description, the description will be continued on the assumption that both the evaluation image data and the reference image data have been acquired.
In step S <b> 205, the CPU 1301 stores each tracking position obtained as a result of each tracking process of the face and chest using luminance information in the tracking log area of the RAM 118.

CPU1301は、ステップS206において、顔部追尾回路1307により画像データの色情報を用いて顔部の追尾処理を行うと共に、周辺部位追尾回路1308により画像データの色情報を用いて胸部の追尾処理を行う。色情報を用いた追尾処理は、顔部と胸部とに対し、評価画像データ内で設定された色と同色であると判定できる領域を追尾色領域として探索する。この顏部追尾回路1307は、上記図4(a)に示すように、(N−1)フレームにおいて、被写体のある位置302が指定された場合、評価画像データ中の位置302の色情報を取得し、この位置302を追尾処理の開始位置として、位置302と同じ色情報を有する領域を探索する。   In step S206, the CPU 1301 performs a face tracking process using the color information of the image data by the face tracking circuit 1307 and performs a chest tracking process using the color information of the image data by the peripheral part tracking circuit 1308. . In the tracking process using color information, an area that can be determined to be the same color as the color set in the evaluation image data for the face and chest is searched for as a tracking color area. As shown in FIG. 4A, the buttock tracking circuit 1307 acquires color information of the position 302 in the evaluation image data when the position 302 where the subject is located is designated in the (N−1) frame. Then, an area having the same color information as that of the position 302 is searched for using this position 302 as the tracking process start position.

CPU1301は、ステップS207において、色情報を用いた追尾処理の結果として得られた顔部と胸部との各追尾位置をRAM118の追尾ログエリアに記憶する。CPU1301は、色情報を用いた追尾処理の結果として得られた追尾色領域をRAM118の追尾色領域ログエリアに記憶する。   In step S <b> 207, the CPU 1301 stores each tracking position of the face and chest obtained as a result of the tracking process using color information in the tracking log area of the RAM 118. The CPU 1301 stores the tracking color area obtained as a result of the tracking process using the color information in the tracking color area log area of the RAM 118.

CPU1301は、ステップS208において、追尾切替回路1309により、顔部の追尾が出来るか否かを判定する。具体的に、追尾切替回路1309は、画像デ―タ中に顔部が検出されず、肌色の色情報の領域に基づいて顔部を追尾できず当該追尾の性能が悪化しているか否かを判定する。
画像デ―タ中に顔部が検出され、または肌色の色情報の領域に基づいて顔部を追尾できるとき、顔部にて追尾可能と判断する。なお、肌色の色情報の領域に基づく追尾可否は、追尾対象として記憶した肌色情報が前記画像データ中に存在するか否かで判定する。
画像デ―タ中に顔部が検出されず、かつ肌色の色情報の領域に基づいて顔部を追尾できないとき、顔部にて追尾不可と判断する。
In step S <b> 208, the CPU 1301 determines whether or not the face can be tracked by the tracking switching circuit 1309. Specifically, the tracking switching circuit 1309 determines whether or not the face is not detected in the image data and the face cannot be tracked based on the skin color information area, and the tracking performance is deteriorated. judge.
When the face is detected in the image data or the face can be tracked based on the skin color information area, it is determined that the face can be tracked. Whether tracking is possible based on the skin color information area is determined based on whether the skin color information stored as a tracking target exists in the image data.
When the face is not detected in the image data and the face cannot be tracked based on the skin color information area, it is determined that the face cannot be tracked.

この判定の結果、画像デ―タ中に顔部のデータが有り、かつ肌色の色情報の領域に基づいて顔部を追尾できれば、CPU1301は、ステップS209において、優先追尾位置判定処理を行う。この優先追尾位置判定処理は、顔部の追尾において、輝度情報を用いた追尾処理の結果と色情報を用いた追尾処理の結果との何れを採用するかを判定するための処理であり、ここでは、上記の通り輝度情報及び色情報を用いてそれぞれ顔部の追尾が出来るので、例えば色情報を用いた追尾処理の結果を優先する。   If the result of this determination is that there is face data in the image data and the face can be tracked based on the skin color information area, the CPU 1301 performs priority tracking position determination processing in step S209. This priority tracking position determination process is a process for determining which one of the result of the tracking process using luminance information and the result of the tracking process using color information is used for tracking a face part. Then, since the face portion can be tracked using the luminance information and the color information as described above, priority is given to the result of the tracking processing using the color information, for example.

CPU1301は、ステップS210において、優先追尾位置判定処理の結果として採用された追尾位置の信頼性を判断する。輝度情報を用いた追尾処理の結果が採用された場合には、例えば参照画像データのコントラストから信頼性を判断する。具体的には、参照画像データにおける追尾対象の領域の隣接画素間の差分和が所定値以上である場合には、信頼性があると判断する。また、色情報を用いた追尾処理の結果が採用された場合には、例えば参照画像データの彩度から信頼性を判断する。具体的には、参照画像データの追尾位置の彩度が所定値以上である場合には、信頼性があると判断する。これらの信頼性を判定するための閾値はシミュレーション結果または実験データを基に適宜設定可能である。   In step S210, the CPU 1301 determines the reliability of the tracking position employed as a result of the priority tracking position determination process. When the result of the tracking process using the luminance information is adopted, for example, the reliability is determined from the contrast of the reference image data. Specifically, when the sum of differences between adjacent pixels in the tracking target area in the reference image data is equal to or greater than a predetermined value, it is determined that there is reliability. Further, when the result of the tracking process using color information is adopted, the reliability is determined from the saturation of the reference image data, for example. Specifically, if the saturation at the tracking position of the reference image data is greater than or equal to a predetermined value, it is determined that the reference image data is reliable. These threshold values for determining reliability can be appropriately set based on simulation results or experimental data.

CPU1301は、ステップS211において、参照画像データの最終的な追尾位置を、RAM118の追尾ログエリアに記録する。次回の追尾処理においては、輝度情報を用いた追尾処理と色情報を用いた追尾処理の両方で、この最終的な追尾位置を追尾処理の開始位置とする。ただし、ステップS216の信頼性判断において、信頼性がないと判断された場合には、追尾位置を記録しないようにしても良い。
CPU1301は、ステップS212において、表示素子駆動回路122を制御し、例えば図6又は図7に示すように顔部追尾枠D1の表示位置をステップS218で記憶させた追尾位置に対応した位置に更新する。
In step S <b> 211, the CPU 1301 records the final tracking position of the reference image data in the tracking log area of the RAM 118. In the next tracking process, the final tracking position is set as the starting position of the tracking process in both the tracking process using luminance information and the tracking process using color information. However, if it is determined in step S216 that the reliability is not reliable, the tracking position may not be recorded.
In step S212, the CPU 1301 controls the display element driving circuit 122 to update the display position of the face tracking frame D1 to a position corresponding to the tracking position stored in step S218, for example, as shown in FIG. .

一方、上記ステップS208での判定の結果、画像デ―タ中に顔部のデータが無く、肌色の色情報の領域に基づいて顔部を追尾できず当該追尾の性能が悪化していれば、CPU1301は、顔部の追尾が出来ないと判定する。
CPU1301は、ステップS213に移り、追尾切替回路1309により、顔部の追尾から周辺部位における周辺部位追尾回路1308による追尾に切り替える。周辺部位とは、CPU1301が、顔検出結果と予め取得した統計データから推定した位置である。具体的には、顔部の位置を基準とし、この基準の位置から統計データに応じて得られた距離分だけ下方の位置を顔周辺部の位置とする。ここで、ROM134に記憶されている統計データは、ある固定の距離で測定した顔部の位置から顔周辺部の位置までの統計データである。したがって、撮像装置から追尾対象までの距離が統計データを得たときの距離と異なる場合には、その距離差に応じて顔周辺部の位置を補正する。撮像装置から追尾対象までの距離は、例えば顔部のサイズ(画面上に占める顔部のサイズの割合)から算出する。そして、この距離に応じて統計データの値を補正して実際の画像データ上での顔周辺部の位置を算出する。周辺部位追尾回路1308は、画像データの輝度情報及び色情報を用いて周辺部位の追尾処理を行う。
On the other hand, as a result of the determination in step S208, if there is no face data in the image data, the face cannot be tracked based on the skin color information area, and the tracking performance deteriorates. The CPU 1301 determines that the face cannot be tracked.
The CPU 1301 moves to step S213, and the tracking switching circuit 1309 switches from tracking the face to tracking by the peripheral part tracking circuit 1308 in the peripheral part. The peripheral part is a position estimated by the CPU 1301 from the face detection result and statistical data acquired in advance. Specifically, the position of the face is used as a reference, and the position below the reference position by the distance obtained according to the statistical data is set as the position of the face periphery. Here, the statistical data stored in the ROM 134 is statistical data from the position of the face portion measured at a certain fixed distance to the position of the face peripheral portion. Therefore, when the distance from the imaging device to the tracking target is different from the distance when the statistical data is obtained, the position of the face peripheral portion is corrected according to the distance difference. The distance from the imaging device to the tracking target is calculated from, for example, the size of the face (ratio of the size of the face on the screen). Then, the value of the statistical data is corrected according to this distance, and the position of the peripheral portion of the face on the actual image data is calculated. The peripheral part tracking circuit 1308 performs a peripheral part tracking process using luminance information and color information of image data.

CPU1301は、ステップS214において、優先追尾位置判定処理を行う。この優先追尾位置判定処理は、周辺部位の追尾において、輝度情報を用いた追尾処理の結果と色情報を用いた追尾処理の結果との何れを採用するかを判定するための処理である。具体的には、輝度情報及び色情報から算出した追尾位置の位置関係と、輝度情報及び色情報から算出した追尾位置における色情報から優先追尾位置を判定する。   In step S214, the CPU 1301 performs priority tracking position determination processing. This priority tracking position determination process is a process for determining which one of the result of the tracking process using luminance information and the result of the tracking process using color information is to be used for tracking the peripheral part. Specifically, the priority tracking position is determined from the positional relationship of the tracking position calculated from the luminance information and the color information and the color information at the tracking position calculated from the luminance information and the color information.

CPU1301は、ステップS215において、優先追尾位置判定処理の結果として採用された追尾位置の信頼性を判断する。輝度情報を用いた追尾処理の結果が採用された場合には、例えば参照画像データのコントラストから信頼性を判断する。具体的には、参照画像データにおける追尾対象の領域の隣接画素間の差分和が所定値以上である場合には、信頼性があると判断する。   In step S215, the CPU 1301 determines the reliability of the tracking position adopted as a result of the priority tracking position determination process. When the result of the tracking process using the luminance information is adopted, for example, the reliability is determined from the contrast of the reference image data. Specifically, when the sum of differences between adjacent pixels in the tracking target area in the reference image data is equal to or greater than a predetermined value, it is determined that there is reliability.

CPU1301は、ステップS211において、参照画像データの最終的な追尾位置を、RAM118の追尾ログエリアに記録する。次回の追尾処理においては、輝度情報を用いた追尾処理で、この最終的な追尾位置を追尾処理の開始位置とする。ただし、ステップS216の信頼性判断において、信頼性がないと判断された場合には、追尾位置を記録しないようにしても良い。
CPU1301は、ステップS212において、表示素子駆動回路122を制御し、例えば図6又は図8に示すように胸部追尾枠D2の表示位置をステップS211で記憶させた追尾位置に対応した位置に更新する。
In step S <b> 211, the CPU 1301 records the final tracking position of the reference image data in the tracking log area of the RAM 118. In the next tracking process, this final tracking position is set as the start position of the tracking process in the tracking process using luminance information. However, if it is determined in step S216 that the reliability is not reliable, the tracking position may not be recorded.
In step S212, the CPU 1301 controls the display element driving circuit 122 to update the display position of the chest tracking frame D2 to a position corresponding to the tracking position stored in step S211 as shown in FIG. 6 or FIG.

CPU1301は、上記ステップS201〜S207を実行し、ステップS208において、追尾切替回路1309により、顔部の追尾が出来るか否か、すなわち、顔部以外の部位、例えば胸部の位置から顔部として推定される位置で、顔部が検出される、又は顔部に対応する肌色の色情報が検出されるか否かを判定する。
この判定の結果、例えば胸部の位置から顔部として推定される位置で、顔部が検出されず、又は顔部に対応する肌色の色情報が検出されなければ、CPU1301は、上記ステップS213に移り、追尾切替回路1309により、胸部の追尾を継続する。周辺部位追尾回路1308は、上記の通り、画像データの輝度情報及び色情報を用いて胸部の追尾処理を行う。
The CPU 1301 executes steps S201 to S207. In step S208, the tracking switching circuit 1309 estimates whether or not the face can be tracked, that is, the face is estimated from a part other than the face, for example, the position of the chest. It is determined whether or not the face portion is detected or the skin color information corresponding to the face portion is detected.
As a result of the determination, for example, if the face is not detected at the position estimated as the face from the position of the chest, or if the skin color information corresponding to the face is not detected, the CPU 1301 proceeds to step S213. The tracking of the chest is continued by the tracking switching circuit 1309. As described above, the peripheral part tracking circuit 1308 performs the chest tracking process using the luminance information and the color information of the image data.

一方、上記判定の結果、胸部の位置から顔部として推定される位置で、顔部が検出され、又は顔部に対応する肌色の色情報が検出されると、CPU1301は、周辺部位追尾回路1308による胸部の追尾から顔部追尾回路1307による顔部の追尾に戻る。なお、追尾切替回路1309は、顔部に対応する肌色の色情報を予め記憶し、顔部として推定される位置における色情報が予め記憶されている色情報と一致したときに、顔部に対応する肌色の色情報が検出されたとする。
CPU1301は、上記ステップS209〜S211を実行し、ステップS212において、図8に示すような周辺部位追尾回路1308による図8に示すような胸部の追尾(胸部追尾枠D2の表示)から図6又は図7に示すような顔部追尾回路1307による顔部の追尾(顔部追尾枠D1の表示)に戻る。
その後、CPU1301は、図10に示す追尾処理フローチャートに従った追尾処理を終了する。
On the other hand, as a result of the above determination, when the face is detected at the position estimated as the face from the position of the chest or the skin color information corresponding to the face is detected, the CPU 1301 detects the peripheral part tracking circuit 1308. Return from tracking the chest to tracking the face by the face tracking circuit 1307. The tracking switching circuit 1309 stores the color information of the skin color corresponding to the face in advance, and corresponds to the face when the color information at the position estimated as the face matches the color information stored in advance. Suppose that color information of the skin color to be detected is detected.
The CPU 1301 executes steps S209 to S211 described above, and in step S212, the chest tracking (display of the chest tracking frame D2) as shown in FIG. 8 by the peripheral part tracking circuit 1308 as shown in FIG. Returning to the face tracking (display of the face tracking frame D1) by the face tracking circuit 1307 as shown in FIG.
Thereafter, the CPU 1301 ends the tracking process according to the tracking process flowchart shown in FIG.

このように上記一実施の形態によれば、被写体の顔部にて追尾が継続出来ないとき、顔部以外の周辺部位として例えば胸部の追尾に切り替えて被検体の追尾を行う。これにより、例えば顔部及び少なくとも胸部の2つの領域を用いて被検体の追尾を行う場合に、例えば基準領域として顔部を用いての追尾結果が良くなくても、胸部等の領域を基準領域として切り替えて、この胸部等の領域を用いて確実に被検体の追尾ができる。
又、胸部等の領域を基準領域として被検体の追尾をしている状態で、この胸部の位置から顔部として推定される位置で顔部が検出される又は顔部に対応する色情報が検出されると、再び、顔部を用いての追尾ができる。
Thus, according to the above-described embodiment, when tracking cannot be continued in the face portion of the subject, the subject is tracked by switching to, for example, chest tracking as a peripheral region other than the face portion. Thus, for example, when tracking a subject using at least two areas of the face and the chest, for example, even if the tracking result using the face as a reference area is not good, the area such as the chest is used as the reference area. And the subject can be reliably tracked using the region such as the chest.
Also, in the state where the subject is being tracked using the region such as the chest as a reference region, the face is detected at a position estimated as the face from the position of the chest or color information corresponding to the face is detected. Then, tracking using the face can be performed again.

顔部の追尾から例えば胸部の追尾への切り替えは、画像デ―タ中に顔部のデータが無く、肌色の色情報の領域に基づいて顔部を追尾できず当該追尾の性能が悪化ことを条件としているので、顔部の追尾が完全に出来ない状態になった時点で胸部への追従に切り替えることができる。
胸部の追尾から顔部の追尾への戻りは、胸部の位置から顔部として推定される位置で、顔部が検出され、又は顔部に対応する肌色の色情報が検出されることを条件としているので、顔部の追尾が完全に出来る状態になった時点で顔部への追従に戻ることができる。
Switching from face tracking to chest tracking, for example, indicates that there is no face data in the image data and the face cannot be tracked based on the skin color information area, and the tracking performance deteriorates. Since it is a condition, it is possible to switch to tracking the chest when the face tracking is completely impossible.
The return from the tracking of the chest to the tracking of the face is performed on the condition that the face is detected at the position estimated as the face from the position of the chest or that the skin color information corresponding to the face is detected. Therefore, it is possible to return to following the face when the face is completely tracked.

顔部と胸部とは、画像データ上において被検体の顔部から予め設定された距離だけ下方に胸部であるとの関係に設定され、かつ胸部よりも予め設定された距離だけ上方に顔部が存在することに設定されているので、例えば顔部の追尾が出来なくなっても、同一人物の胸部の追尾に確実に切り替えることができ、他の人物の胸部の追尾に切り替わることがない。同様に、胸部の追尾から顔部の追尾に戻る場合も、同一人物の顔部の追尾に確実に切り替えることができ、他の人物の顔部の追尾に切り替わることがない。これにより、追尾の対象部位が切り替わっても、常に同一人物の追尾を継続できる。   The face portion and the chest portion are set to have a relationship of being a chest portion below the face portion of the subject on the image data by a preset distance, and the face portion is above the chest portion by a preset distance. Since it is set to exist, for example, even if face tracking cannot be performed, switching to the chest tracking of the same person can be surely performed, and switching to the tracking of the chest of another person is not performed. Similarly, when returning from the tracking of the chest to the tracking of the face, it is possible to surely switch to the tracking of the face of the same person, without switching to the tracking of the face of another person. Thereby, even if the tracking target part is switched, tracking of the same person can always be continued.

なお、上記一実施の形態では、顔部の追尾と胸部の追尾とを切り替えているが、これに限らず、顔部の追尾を主の追尾とし、周辺部位の追尾として例えば首部の追尾、腹部の追尾、脚部の追尾、腕部の追尾のいずれかを追加してもよい。
さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。
In the above-described embodiment, the tracking of the face and the tracking of the chest are switched. However, the tracking is not limited to this, and the tracking of the face is set as the main tracking, and the tracking of the peripheral part is performed, for example, the tracking of the neck and the abdomen. Any one of the following tracking, leg tracking, and arm tracking may be added.
Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

100:撮像装置、102:撮影光学系、104:焦点調整機構、106:絞り、108:絞り駆動機構、110:シャッタ、112:シャッタ駆動機構、114:撮像素子、116:撮像素子インターフェイス(IF)回路、118:RAM、120:表示素子、122:表示素子駆動回路、124:タッチパネル、126:タッチパネル駆動回路、128:記録メディア、130:システムコントローラ、132:操作部、134:ROM、1301:CPU、1302:AF制御回路、1303:AE制御回路、1304:画像処理回路、1305:顔部検出回路、1306:色情報検出回路、1307:顏部追尾回路、1308:周辺部位追尾回路、1309:追尾切替回路、1310:メモリ制御回路、402,404,406:顔パーツ、308:重心位置、A:顔部検出位置、B:顔部追尾位置、C:周辺部追尾位置、D1:矩形の追尾枠。   DESCRIPTION OF SYMBOLS 100: Imaging device, 102: Imaging optical system, 104: Focus adjustment mechanism, 106: Aperture, 108: Aperture drive mechanism, 110: Shutter, 112: Shutter drive mechanism, 114: Image sensor, 116: Image sensor interface (IF) Circuit: 118: RAM, 120: Display element, 122: Display element drive circuit, 124: Touch panel, 126: Touch panel drive circuit, 128: Recording medium, 130: System controller, 132: Operation unit, 134: ROM, 1301: CPU 1302: AF control circuit, 1303: AE control circuit, 1304: Image processing circuit, 1305: Face detection circuit, 1306: Color information detection circuit, 1307: Hip part tracking circuit, 1308: Peripheral part tracking circuit, 1309: Tracking Switching circuit, 1310: Memory control circuit, 402, 404, 406: Part, 308: center-of-gravity position, A: the face part detection position, B: the face part tracking position, C: periphery tracking position, D1: rectangular tracking frame.

Claims (9)

被写体が撮像された画像デタ中から前記被写体の顔部を検出する顔部検出部と、
前記画像データ中における前記顔部に対応する位置の色情報及び該色情報に対応する領域を検出する色情報検出部と、
前記顔部検出部で検出された画像上での前記顔部の位置情報と、前記色情報検出部で検出された前記顔部の色情報との信頼性を判断する信頼性判断部と、
前記顔部検出部により検出された結果と、前記色情報検出部により検出された色情報及び該色情報に対応する領域と、前記信頼性判断部で判断された前記信頼性とに基づいて前記顔部を追尾する顔部追尾部と、
前記被体中の前記顔部と関連付けられた前記顔部以外の周辺部位を追尾する周辺部位追尾部と、
前記顔部追尾部による前記顔部の追尾が出来ない場合、前記周辺部位追尾部による前記顔部以外の部位の追尾に切り替える追尾切替部と、
を具備し、
前記追尾切替部は、前記顔部以外の前記周辺部位の位置から前記顔部として推定される位置で、前記顔部が検出される、又は前記顔部に対応する前記色情報が検出されると、前記顔部追尾部による前記顔部の追尾に戻す
ことを特徴とする追尾装置。
A face part detecting section for detecting a face portion of the subject from the image data that the object is captured,
Color information at a position corresponding to the face in the image data and a color information detection unit for detecting a region corresponding to the color information ;
A reliability determination unit that determines the reliability of the position information of the face on the image detected by the face detection unit and the color information of the face detected by the color information detection unit;
Based on the result detected by the face detection unit , the color information detected by the color information detection unit, the area corresponding to the color information, and the reliability determined by the reliability determination unit A face tracking unit for tracking the face,
A peripheral part tracking unit for tracking the peripheral portion other than said face section associated with the face portion of the photographic material in,
When the face tracking unit cannot track the face part, a tracking switching unit that switches to tracking of a part other than the face part by the peripheral part tracking part;
Comprising
The tracking switching unit detects the face or detects the color information corresponding to the face at a position estimated as the face from the position of the peripheral part other than the face. A tracking device that returns to tracking of the face by the face tracking unit.
前記追尾切替部は、前記顔部に対応する色情報を予め記憶し、前記顔部として推定される位置における色情報が前記予め記憶されている前記色情報と一致したときに、前記顔部に対応する前記色情報が検出されたとして前記顔部追尾部による前記顔部の追尾に戻ることを特徴とする請求項1に記載の追尾装置。 The tracking switching unit stores color information corresponding to the face portion in advance, and when the color information at a position estimated as the face portion matches the color information stored in advance, The tracking device according to claim 1, wherein the tracking is returned to the tracking of the face by the face tracking unit when the corresponding color information is detected. 前記顔部追尾部は、前記色情報検出部による前記色情報に対応する前記領域の検出よりも、前記顔部検出部による前記顔部の検出を優先することを特徴とする請求項1に記載の追尾装置。 The face portion tracking unit, rather than the detection of the area corresponding to the color information by the color information detecting unit, according to claim 1, characterized in that priority is given to detection of the face portion by the face part detecting section Tracking device. 前記追尾切替部は、少なくとも前記顔部検出部により前記顔部が検出されず、かつ前記色情報検出部により前記色情報に対応する前記領域が検出されない場合、前記顔部追尾部による前記顔部の追尾が出来ないと判定することを特徴とする請求項1に記載の追尾装置。 The tracking switching unit is configured to detect the face by the face tracking unit when at least the face detection unit does not detect the face and the color information detection unit does not detect the area corresponding to the color information. The tracking device according to claim 1, wherein it is determined that the tracking of the first track cannot be performed. 前記追尾切替部は、前記画像デタ中に前記顔部のデータが無く、かつ前記色情報に対応する前記領域に基づいて前記顔部を追尾できなければ、前記顔部追尾部による前記顔部の追尾が出来ないと判定することを特徴とする請求項4に記載の追尾装置。 The tracking switching unit, said face portion without data is in the image data, and to be able to track the face portion based on the area corresponding to the color information, the face by the face part tracking unit The tracking device according to claim 4, wherein it is determined that tracking of a part cannot be performed. 前記色情報検出部は、前記色情報として肌色を検出することを特徴とする請求項1乃至5のうちいずれか1項に記載の追尾装置。 The color information detecting unit, a tracking device according to any one of claims 1 to 5, characterized in that detecting the skin color as the color information. 前記周辺部位追尾部は、前記顔部から予め設定された位置関係を有する前記被体の胴体部を前記顔部以外の部位として追尾することを特徴とする請求項1に記載の追尾装置。 The surrounding site tracking unit tracking apparatus according to claim 1, characterized in that tracking the body portion of the object scene having a predetermined positional relationship from the face portion as the site other than the face portion. 被写体が撮像された画像デタ中から顔部検出部により前記被写体の顔部を検出し、
前記画像データ中における前記顔部に対応する位置の色情報及び該色情報に対応する領域を色情報検出部により検出し、
信頼性判断部により、前記顔部検出部で検出された画像上での前記顔部の位置情報と、前記色情報検出部で検出された前記顔部との色情報の信頼性を判断し、
前記顔部検出部により検出された結果と、前記色情報検出部により検出された色情報及び該色情報に対応する領域と、前記信頼性判断部により判断された前記信頼性とに基づいて顔部追尾部により前記顔部を追尾し、
前記被体中の前記顔部と関連付けられた前記顔部以外の周辺部位を周辺部位追尾部により追尾し、
前記顔部追尾部による前記顔部の追尾が出来ない場合、前記周辺部位追尾部による前記顔部以外の前記周辺部位の追尾に切り替え、
前記追尾の切り替えは、前記顔部以外の前記周辺部位の位置から前記顔部として推定される位置で、前記顔部が検出される、又は前記顔部に対応する前記色情報が検出されると、前記顔部追尾部による前記顔部の追尾に戻る
ことを特徴とする追尾方法。
Detecting a face portion of the subject by the face part detecting section from an image data that the object is captured,
The color information detection unit detects color information at a position corresponding to the face portion in the image data and a region corresponding to the color information ,
The reliability determination unit determines the reliability of the position information of the face part on the image detected by the face part detection unit and the color information of the face part detected by the color information detection unit,
Based on the result detected by the face detection unit , the color information detected by the color information detection unit, the area corresponding to the color information, and the reliability determined by the reliability determination unit The face tracking unit tracks the face part,
Wherein the peripheral portion other than the face portion associated with said face portion of the photographic material during tracked by the peripheral part tracking unit,
If you can not tracking of the face part by the face part tracking unit, it switches to the tracking of the peripheral portion other than the face portion due to the peripheral part tracking unit,
The tracking switching is performed when the face part is detected or the color information corresponding to the face part is detected at a position estimated as the face part from the position of the peripheral part other than the face part. The tracking method returns to the tracking of the face by the face tracking unit .
コンピュータに、
被写体が撮像された画像デタ中から前記被写体の顔部を検出させる顔部検出機能と、
前記画像データ中における前記顔部に対応する位置の色情報及び該色情報に対応する領域を検出する色情報検出機能と、
前記顔部検出機能で検出された画像上での前記顔部の位置情報と、前記色情報検出機能で検出された前記顔部の色情報との信頼性を判断する信頼性判断機能と、
前記顔部検出機能により検出された結果と、前記色情報検出機能により検出された色情報及び該色情報に対応する領域と、前記信頼性判断機能により判断された前記信頼性とに基づいて前記顔部を追尾する顔部追尾機能と、
前記被体中の前記顔部と関連付けられた前記顔部以外の周辺部位を追尾る周辺部位追尾機能と、
前記顔部追尾機能による前記顔部の追尾が出来ない場合、前記周辺部位追尾機能による前記顔部以外の前記周辺部位の追尾に切り替える追尾切替機能と、
を実現させ
前記追尾切替機能は、前記顔部以外の前記周辺部位の位置から前記顔部として推定される位置で、前記顔部が検出される、又は前記顔部に対応する前記色情報が検出されると、前記顔部追尾機能による前記顔部の追尾に戻す、
追尾プログラム。
On the computer,
A face part detecting function of detecting a face portion of the subject from the image data that the object is captured,
A color information detection function for detecting color information at a position corresponding to the face portion in the image data and a region corresponding to the color information ;
A reliability determination function for determining the reliability of the position information of the face on the image detected by the face detection function and the color information of the face detected by the color information detection function;
Based on the result detected by the face detection function , the color information detected by the color information detection function, the area corresponding to the color information, and the reliability determined by the reliability determination function A face tracking function for tracking the face,
A surrounding site tracking function to track the peripheral portion other than the face portion associated with said face portion of said object scene body in,
If you can not track the face portion by the face portion tracking function, and tracking the switching function for switching the tracking of the peripheral portion other than the face portion by the surrounding site tracking function,
Realized ,
When the tracking switching function detects the face or the color information corresponding to the face at a position estimated as the face from the position of the peripheral part other than the face , Returning to the face tracking by the face tracking function,
Tracking program.
JP2011144771A 2011-06-29 2011-06-29 TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM Active JP5771461B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011144771A JP5771461B2 (en) 2011-06-29 2011-06-29 TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
US13/534,075 US8929598B2 (en) 2011-06-29 2012-06-27 Tracking apparatus, tracking method, and storage medium to store tracking program
CN201210224984.2A CN102857690B (en) 2011-06-29 2012-06-29 Follow-up mechanism, method for tracing, camera head and image capture method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011144771A JP5771461B2 (en) 2011-06-29 2011-06-29 TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM

Publications (2)

Publication Number Publication Date
JP2013012941A JP2013012941A (en) 2013-01-17
JP5771461B2 true JP5771461B2 (en) 2015-09-02

Family

ID=47686443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011144771A Active JP5771461B2 (en) 2011-06-29 2011-06-29 TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM

Country Status (1)

Country Link
JP (1) JP5771461B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023100698A1 (en) 2022-01-14 2023-07-20 Canon Kabushiki Kaisha Image blur correction device, control method therefor, imaging device, program and storage medium

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5978639B2 (en) * 2012-02-06 2016-08-24 ソニー株式会社 Image processing apparatus, image processing method, program, and recording medium
CN105741312B (en) * 2014-12-09 2018-04-27 株式会社理光 Destination object tracking and equipment
JP6825203B2 (en) * 2015-12-01 2021-02-03 株式会社ニコン Imaging controller and camera
JP6604509B2 (en) * 2015-12-17 2019-11-13 カシオ計算機株式会社 Imaging apparatus, subject tracking method, and program
WO2017212653A1 (en) * 2016-06-10 2017-12-14 オリンパス株式会社 Image processing device, image processing method, and image processing program
CN107483849A (en) * 2017-07-29 2017-12-15 安徽博威康信息技术有限公司 A kind of studio video intelligent switching system
JP6785481B1 (en) 2020-05-22 2020-11-18 パナソニックIpマネジメント株式会社 Image tracking device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5233720B2 (en) * 2009-02-12 2013-07-10 ソニー株式会社 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP5594157B2 (en) * 2011-01-14 2014-09-24 株式会社Jvcケンウッド Imaging apparatus and imaging method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023100698A1 (en) 2022-01-14 2023-07-20 Canon Kabushiki Kaisha Image blur correction device, control method therefor, imaging device, program and storage medium

Also Published As

Publication number Publication date
JP2013012941A (en) 2013-01-17

Similar Documents

Publication Publication Date Title
JP5771461B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
JP5830373B2 (en) Imaging device
JP5251215B2 (en) Digital camera
JP4018695B2 (en) Method and apparatus for continuous focusing and exposure adjustment in a digital imaging device
US8929598B2 (en) Tracking apparatus, tracking method, and storage medium to store tracking program
JP5226903B1 (en) TRACKING DEVICE AND TRACKING METHOD
JP2014081420A (en) Tracking device and method thereof
JP5810136B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
US20100046798A1 (en) Image processing apparatus, image processing method, and storage medium
JP5851206B2 (en) TRACKING DEVICE AND TRACKING METHOD
JP2013012940A (en) Tracking apparatus and tracking method
JP6172973B2 (en) Image processing device
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP5807324B2 (en) Focused image display device and focused image display method
JP5965654B2 (en) TRACKING DEVICE, IMAGING DEVICE, TRACKING METHOD USED FOR IMAGING DEVICE
JP5839857B2 (en) Imaging apparatus, imaging method, and imaging program
JP5977526B2 (en) Image processing apparatus and image processing method
JP2013219531A (en) Image processing device, and image processing method
JP4810440B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP5769518B2 (en) Imaging device
JP6138632B2 (en) Imaging apparatus, imaging method, and program
JP5965653B2 (en) TRACKING DEVICE AND TRACKING METHOD
JP6293334B2 (en) Imaging apparatus, imaging method, and program
JP2013012942A (en) Imaging apparatus
JP2008259024A (en) Electronic camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150415

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150629

R151 Written notification of patent or utility model registration

Ref document number: 5771461

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250