JP2013012944A - Tracker and tracking method - Google Patents

Tracker and tracking method Download PDF

Info

Publication number
JP2013012944A
JP2013012944A JP2011144775A JP2011144775A JP2013012944A JP 2013012944 A JP2013012944 A JP 2013012944A JP 2011144775 A JP2011144775 A JP 2011144775A JP 2011144775 A JP2011144775 A JP 2011144775A JP 2013012944 A JP2013012944 A JP 2013012944A
Authority
JP
Japan
Prior art keywords
tracking
image data
image
calculation
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011144775A
Other languages
Japanese (ja)
Inventor
Kento Koyano
賢人 古谷野
Nao Yoneyama
尚 米山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2011144775A priority Critical patent/JP2013012944A/en
Publication of JP2013012944A publication Critical patent/JP2013012944A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a tracker and a tracking method for performing appropriate tracking processing even in a case when tracking performance is deteriorated such as execution of special image processing, for example.SOLUTION: A tracker includes a system controller 130 for setting a first image generation mode for generating first image data being image data obtained by photographing or a second image generation mode for generating the first image data and generating second image data obtained by performing prescribed processing on the first image data, detecting feature information on the image data and detecting a face part of an object. The system controller 130 operates a moving position of a tracking object in response to the feature information or the face part detected from the image data. The system controller 130 switches a system to an operation different from an operation performed when the first image generation mode is set if the second image generation mode is set.

Description

本発明は、被写体を追尾する追尾装置及び追尾方法に関する。   The present invention relates to a tracking device and a tracking method for tracking a subject.

従来、動体を撮影する際や動画像を撮影する際に、特定の被写体に追従するように自動合焦制御(AF)や自動露光制御(AE)を行う技術が知られている。このような特定の被写体を追従するために追尾処理が用いられている。追尾処理には、輝度情報を利用するものや、色情報を利用するもの、顏検出を利用するもの等、種々のものがある。特許文献1には、撮像手段より出力された撮像信号に基づいて、被写体像に対する追尾動作を行う自動追尾装置が開示されている。   2. Description of the Related Art Conventionally, techniques for performing automatic focusing control (AF) or automatic exposure control (AE) so as to follow a specific subject when shooting a moving object or shooting a moving image are known. Tracking processing is used to follow such a specific subject. There are various types of tracking processes such as those using luminance information, those using color information, and those using wrinkle detection. Patent Document 1 discloses an automatic tracking device that performs a tracking operation on a subject image based on an imaging signal output from an imaging unit.

特許文献1に開示されている自動追尾装置では、被写体の特徴を表わすパラメータ(例えば被写体及び背景の色等)を、予め設定された追尾視野について抽出し、この抽出した特徴と、新たに抽出した被写体の特徴とに基づいて、被写体の移動の有無、及び被写体が移動した場合にはその移動方向又は移動位置を検出する。そして、追尾視野を、被写体の移動に追尾して移動させる。   In the automatic tracking device disclosed in Patent Document 1, parameters representing the characteristics of the subject (for example, the color of the subject and the background) are extracted for a preset tracking field of view, and the extracted features and newly extracted Based on the characteristics of the subject, the presence / absence of movement of the subject and, if the subject moves, the moving direction or moving position thereof are detected. Then, the tracking visual field is moved following the movement of the subject.

特許第2605004号公報Japanese Patent No. 2605004

ところで、1種類のみの追尾処理を用いた場合、追尾処理に失敗してしまうと、それ以降は正しい追尾処理が不能となる可能性がある。このような事情を鑑みて、複数種類の追尾処理を行う技術が提案されているが、これには下記のような課題が存在する。
例えば、特殊な画像処理(例えば、複数枚の画像を合成して1枚の画像を生成する処理)を行う場合には、画像処理の負荷が増大する。このとき、当該画像処理を一部に含む追尾処理にも当然に影響が生じ、通常の追尾処理では生じなかった追尾性能の劣化をきたすことがある。
By the way, when only one type of tracking process is used, if the tracking process fails, the correct tracking process may not be possible thereafter. In view of such circumstances, a technique for performing a plurality of types of tracking processing has been proposed, but this has the following problems.
For example, when performing special image processing (for example, processing for generating a single image by combining a plurality of images), the load of the image processing increases. At this time, the tracking process including part of the image processing is naturally affected, and the tracking performance that is not generated in the normal tracking process may be deteriorated.

さらには、例えば複数の特徴を組み合わせて追尾処理をする際には、追尾処理に用いる入力画像データが特徴毎に異なり(例えばRAWデータとYCデータ等)、それぞれの入力画像データの生成フレームレートに差がある場合には、例えば“第1の特徴”についてはn-1フレーム目の追尾処理が完了しているときに“第2の特徴”についてはn-4フレーム目までしか追尾処理が完了していないという現象が起きうる。   Furthermore, for example, when performing tracking processing by combining a plurality of features, the input image data used for the tracking processing differs for each feature (for example, RAW data and YC data), and the generation frame rate of each input image data is set. If there is a difference, for example, for the “first feature”, the tracking process for the (n−1) th frame is completed, and for the “second feature”, the tracking process is completed only up to the n−4th frame. The phenomenon of not doing can happen.

このとき、第1の特徴と第2の特徴とで同期をとろうとしても、n-4フレーム同士では現在の被写体からのずれが生じており、またn-1フレームとn-4フレームとではそもそもフレームが異なるため同期しても正しい追尾結果は得られない。つまり、何れにしても追尾性能の劣化が生じてしまう。   At this time, even if an attempt is made to synchronize the first feature and the second feature, there is a deviation from the current subject between the n-4 frames, and between the n-1 frame and the n-4 frame In the first place, since the frames are different, a correct tracking result cannot be obtained even if they are synchronized. That is, in any case, the tracking performance is degraded.

本発明は、上述の事情に鑑みてなされたもので、例えば特殊な画像処理を行う場合等の、追尾性能の劣化が生じ得る場合であっても、適切な追尾処理を行うことができる追尾装置及び追尾方法を提供することを目的とする。   The present invention has been made in view of the above-described circumstances. For example, a tracking device capable of performing appropriate tracking processing even when degradation of tracking performance, such as when performing special image processing, can occur. And to provide a tracking method.

前記の目的を達成するために、本発明の第1の態様の追尾装置は、
撮影して得た画像データである第1の画像データを生成する第1の画像生成モードと、前記第1の画像データを生成すると共に前記第1の画像データに所定の処理を施した第2の画像データを生成する第2の画像生成モードと、のうち何れかの画像生成モードを設定する作画モード設定部と、
当該追尾装置に入力された画像データを、前記作画モード設定部の設定に応じて処理する画像処理部と、
前記画像処理部により処理された画像データについて特徴情報を検出し、且つ、被写体の顔部位を検出する追尾検出部と、
前記特徴情報または前記顔部位に基づいて、追尾対象の移動位置を演算する追尾演算部と、
前記第2の画像生成モードが設定された場合には、前記追尾演算部による演算を、前記第1の画像生成モードが設定された場合に実行する演算とは異なる演算に切り換える演算切換部と、
を具備することを特徴とする。
In order to achieve the above object, the tracking device according to the first aspect of the present invention includes:
A first image generation mode for generating first image data, which is image data obtained by photographing, and a second for generating the first image data and performing predetermined processing on the first image data. A second image generation mode for generating the image data; a drawing mode setting unit for setting any one of the image generation modes;
An image processing unit that processes the image data input to the tracking device according to the setting of the drawing mode setting unit;
A tracking detection unit that detects feature information about the image data processed by the image processing unit and detects a face part of the subject;
A tracking calculation unit that calculates a movement position of the tracking target based on the feature information or the face part;
A calculation switching unit that switches the calculation by the tracking calculation unit to a calculation different from the calculation executed when the first image generation mode is set when the second image generation mode is set;
It is characterized by comprising.

前記の目的を達成するために、本発明の第2の態様の追尾方法は、
撮影して得た画像データである第1の画像データを生成する第1の画像生成モードと、前記第1の画像データを生成すると共に前記第1の画像データに所定の処理を施した第2の画像データを生成する第2の画像生成モードと、のうち何れかの画像生成モードを設定し、
入力された画像データを、前記作画モード設定部の設定に応じて処理し、
前記処理された画像データについて特徴情報を検出し、且つ、被写体の顔部位を検出し、
前記特徴情報または前記顔部位に基づいて、追尾対象の移動位置を演算し、
前記第2の画像生成モードが設定された場合には、前記追尾演算部による演算を、前記第1の画像生成モードが設定された場合に実行する演算とは異なる演算に切り換える、
ことを特徴とする。
In order to achieve the above object, the tracking method according to the second aspect of the present invention includes:
A first image generation mode for generating first image data, which is image data obtained by photographing, and a second for generating the first image data and performing predetermined processing on the first image data. One of the second image generation modes for generating the image data and the image generation mode, and
The input image data is processed according to the setting of the drawing mode setting unit,
Detecting feature information about the processed image data, and detecting a face part of the subject,
Based on the feature information or the face part, the movement position of the tracking target is calculated,
When the second image generation mode is set, the calculation by the tracking calculation unit is switched to a calculation different from the calculation executed when the first image generation mode is set.
It is characterized by that.

本発明によれば、例えば特殊な画像処理を行う場合等の、追尾性能の劣化が生じ得る場合であっても、適切な追尾処理を行うことができる追尾装置及び追尾方法を提供することができる。   According to the present invention, it is possible to provide a tracking device and a tracking method capable of performing appropriate tracking processing even when tracking performance may be deteriorated, for example, when performing special image processing. .

図1は、本発明の一実施形態に係る追尾装置を備えた撮像装置の一例としての構成を示す図である。FIG. 1 is a diagram illustrating a configuration as an example of an imaging apparatus including a tracking device according to an embodiment of the present invention. 図2は、輝度情報を用いた追尾処理について説明するための図である。FIG. 2 is a diagram for explaining tracking processing using luminance information. 図3は、色情報を用いた追尾処理について説明するための図である。FIG. 3 is a diagram for explaining tracking processing using color information. 図4は、顏検出処理について説明するための図である。FIG. 4 is a diagram for explaining wrinkle detection processing. 図5は、撮像装置の撮影動作を示すフローチャートである。FIG. 5 is a flowchart showing the shooting operation of the imaging apparatus. 図6は、本発明の一実施形態に係る追尾方法としての追尾処理について示すフローチャートである。FIG. 6 is a flowchart showing a tracking process as a tracking method according to an embodiment of the present invention. 図7は、本発明の一実施形態に係る追尾方法としての追尾処理について示すタイミングチャートである。FIG. 7 is a timing chart showing a tracking process as a tracking method according to an embodiment of the present invention. 図8は、本発明の一実施形態に係る追尾方法としての追尾処理について示すタイミングチャートである。FIG. 8 is a timing chart showing a tracking process as a tracking method according to an embodiment of the present invention.

以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態に係る追尾装置を備えた撮像装置の一例としての構成を示す図である。図1に示す撮像装置100は、撮影光学系102と、焦点調整機構104と、絞り106と、絞り駆動機構108と、シャッタ110と、シャッタ駆動機構112と、撮像素子114と、撮像素子インターフェイス(IF)回路116と、RAM118と、表示素子120と、表示素子駆動回路122と、タッチパネル124と、タッチパネル駆動回路126と、記録メディア128と、システムコントローラ130と、操作部132と、ROM134と、を有している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration as an example of an imaging apparatus including a tracking device according to an embodiment of the present invention. An imaging apparatus 100 illustrated in FIG. 1 includes a photographing optical system 102, a focus adjustment mechanism 104, a diaphragm 106, a diaphragm driving mechanism 108, a shutter 110, a shutter driving mechanism 112, an imaging element 114, and an imaging element interface ( IF) circuit 116, RAM 118, display element 120, display element drive circuit 122, touch panel 124, touch panel drive circuit 126, recording medium 128, system controller 130, operation unit 132, and ROM 134. Have.

撮影光学系102は、図示しない被写体からの光束Fを、撮像素子114の受光面上に集光するための光学系である。この撮影光学系102は、フォーカスレンズ等の複数のレンズを有している。焦点調整機構104は、モータ及びその駆動回路等を有している。この焦点調整機構104は、システムコントローラ130内のCPU1301の制御に従って、撮影光学系102内のフォーカスレンズをその光軸方向(図示一点鎖線方向)に駆動させる。   The photographing optical system 102 is an optical system for condensing a light flux F from a subject (not shown) on the light receiving surface of the image sensor 114. The photographing optical system 102 has a plurality of lenses such as a focus lens. The focus adjustment mechanism 104 includes a motor and its drive circuit. The focus adjustment mechanism 104 drives the focus lens in the photographing optical system 102 in the optical axis direction (the one-dot chain line direction in the drawing) under the control of the CPU 1301 in the system controller 130.

絞り106は、開閉自在に構成され、撮影光学系102を介して撮像素子114に入射する光束Fの量を調整する。絞り駆動機構108は、絞り106を駆動するための駆動機構を有している。この絞り駆動機構108は、システムコントローラ130内のCPU1301の制御に従って、絞り106を駆動させる。   The diaphragm 106 is configured to be openable and closable, and adjusts the amount of the light beam F incident on the image sensor 114 via the photographing optical system 102. The aperture drive mechanism 108 has a drive mechanism for driving the aperture 106. The diaphragm driving mechanism 108 drives the diaphragm 106 according to the control of the CPU 1301 in the system controller 130.

シャッタ110は、撮像素子114の受光面を遮光状態又は露光状態とするように構成されている。このシャッタ110により、撮像素子114の露光時間が調整される。シャッタ駆動機構112は、シャッタ110を駆動させるための駆動機構を有し、システムコントローラ130内のCPU1301の制御に従って、シャッタ110を駆動させる。   The shutter 110 is configured to place the light receiving surface of the image sensor 114 in a light shielding state or an exposure state. The exposure time of the image sensor 114 is adjusted by the shutter 110. The shutter drive mechanism 112 has a drive mechanism for driving the shutter 110, and drives the shutter 110 under the control of the CPU 1301 in the system controller 130.

撮像素子114は、撮影光学系102を介して集光された被写体からの光束Fが結像される受光面を有している。撮像素子114の受光面は、複数の画素が2次元状に配置されて構成されており、また、受光面の光入射側には、カラーフィルタが設けられている。このような撮像素子114は、受光面に結像された光束Fに対応した像(被写体像)を、その光量に応じた電気信号(以下、画像信号という)に変換する。ここで、撮像素子114は、CCD方式やCMOS方式等の種々の構成の撮像素子が知られている。また、カラーフィルタの色配列もベイヤ配列等の種々の配列が知られている。本実施形態は、撮像素子114の構成が特定の構成に限定されるものではなく、種々の構成の撮像素子を用いることが可能である。この撮像素子114は、CPU1301によって生成された垂直同期信号VDのパルスの立ち上がりタイミング(立ち下がりタイミングでもよい)で、1フレームを撮像する露光動作を開始する。   The imaging element 114 has a light receiving surface on which a light flux F from a subject condensed through the photographing optical system 102 is imaged. The light receiving surface of the image sensor 114 is configured by two-dimensionally arranging a plurality of pixels, and a color filter is provided on the light incident side of the light receiving surface. Such an image sensor 114 converts an image (subject image) corresponding to the light beam F formed on the light receiving surface into an electrical signal (hereinafter referred to as an image signal) corresponding to the light amount. Here, as the imaging device 114, imaging devices having various configurations such as a CCD system and a CMOS system are known. Various color filters such as a Bayer array are also known. In the present embodiment, the configuration of the image sensor 114 is not limited to a specific configuration, and image sensors having various configurations can be used. The imaging element 114 starts an exposure operation for imaging one frame at the rising timing (or falling timing may be) of the pulse of the vertical synchronization signal VD generated by the CPU 1301.

撮像素子IF回路116は、システムコントローラ130内のCPU1301の制御に従って、撮像素子114を駆動させる。また、撮像素子IF回路116は、システムコントローラ130内のCPU1301の制御に従って、撮像素子114で得られた画像信号を読み出し、読み出した画像信号に対してCDS(相関二重サンプリング)処理やAGC(自動利得制御)処理等のアナログ処理を施す。さらに、撮像素子IF回路116は、アナログ処理した画像信号をデジタル信号に変換し、画像データ(RAWデータ)を生成する。   The image sensor IF circuit 116 drives the image sensor 114 under the control of the CPU 1301 in the system controller 130. The image sensor IF circuit 116 reads out the image signal obtained by the image sensor 114 under the control of the CPU 1301 in the system controller 130, and performs CDS (correlated double sampling) processing or AGC (automatic operation) on the read image signal. Analog processing such as gain control processing is performed. Further, the image sensor IF circuit 116 converts the analog processed image signal into a digital signal, and generates image data (RAW data).

RAM118は、例えばSDRAMであり、ワークエリア、評価画像エリア、参照画像エリア、追尾位置ログエリア、追尾色領域ログエリア、を記憶エリアとして有している。
ワークエリアは、撮像素子IF回路116で得られた画像データ(RAWデータ)等の、撮像装置100の各部で発生したデータを一時記憶しておくためにRAM118に設けられた記憶エリアである。
The RAM 118 is, for example, an SDRAM, and has a work area, an evaluation image area, a reference image area, a tracking position log area, and a tracking color area log area as storage areas.
The work area is a storage area provided in the RAM 118 for temporarily storing data generated in each unit of the imaging apparatus 100 such as image data (RAW data) obtained by the imaging element IF circuit 116.

評価画像エリアは、評価画像データを一時記憶しておくためにRAM118に設けられた記憶エリアである。評価画像データは、後述する追尾処理における追尾対象の被写体を含むフレームの画像データである。追尾処理においては、この追尾対象を追尾するように処理が行われる。   The evaluation image area is a storage area provided in the RAM 118 for temporarily storing evaluation image data. The evaluation image data is image data of a frame including a subject to be tracked in a tracking process described later. In the tracking process, processing is performed so as to track this tracking target.

参照画像エリアは、参照画像データを一時記憶しておくためにRAM118に設けられた記憶エリアである。参照画像データは、後述する追尾処理において、追尾対象の探索の対象となるフレームの画像データである。追尾処理においては、参照画像データ中で探索が行われる。   The reference image area is a storage area provided in the RAM 118 for temporarily storing reference image data. The reference image data is image data of a frame to be searched for a tracking target in tracking processing described later. In the tracking process, a search is performed in the reference image data.

追尾位置ログエリアは、追尾位置ログを一時記憶しておくためにRAM118に設けられた記憶エリアである。追尾位置ログは、追尾処理の結果として得られた追尾位置を記録したログである。本実施形態では、複数の追尾処理を併用して追尾対象を追尾する。したがって、追尾位置ログには、それぞれの追尾処理によって得られた追尾位置(候補追尾位置)を過去10フレーム分個別に記録する。また、追尾位置ログには、後述の優先追尾位置判定処理によって採用された最終的な追尾位置も記録する。   The tracking position log area is a storage area provided in the RAM 118 for temporarily storing the tracking position log. The tracking position log is a log in which the tracking position obtained as a result of the tracking process is recorded. In the present embodiment, a tracking target is tracked using a plurality of tracking processes in combination. Therefore, in the tracking position log, the tracking positions (candidate tracking positions) obtained by the respective tracking processes are individually recorded for the past 10 frames. In addition, the final tracking position adopted by the priority tracking position determination process described later is also recorded in the tracking position log.

追尾色領域ログエリアは、追尾色領域ログを一時記憶しておくためにRAM118に設けられた記憶エリアである。追尾色領域ログは、追尾処理によって得られた追尾色領域を記録したログである。本実施形態では、追尾色領域を過去10フレーム分記録する。追尾色領域の詳細については後述する。   The tracking color area log area is a storage area provided in the RAM 118 for temporarily storing the tracking color area log. The tracking color area log is a log in which the tracking color area obtained by the tracking process is recorded. In this embodiment, the tracking color area is recorded for the past 10 frames. Details of the tracking color area will be described later.

表示素子120は、例えば液晶ディスプレイ(LCD)であり、ライブビュー用の画像及び記録メディア128に記録された画像等の各種の画像を表示する。表示素子駆動回路122は、システムコントローラ130のCPU1301から入力された画像データに基づいて表示素子120を駆動させ、表示素子120に画像を表示させる。   The display element 120 is a liquid crystal display (LCD), for example, and displays various images such as an image for live view and an image recorded on the recording medium 128. The display element driving circuit 122 drives the display element 120 based on the image data input from the CPU 1301 of the system controller 130 and causes the display element 120 to display an image.

タッチパネル124は、表示素子120の表示画面上に一体的に形成されており、表示画面上へのユーザの指等の接触位置等を検出する。タッチパネル駆動回路126は、タッチパネル124を駆動するとともに、タッチパネル124からの接触検出信号をシステムコントローラ130のCPU1301に出力する。CPU1301は、接触検出信号から、ユーザの表示画面上への接触操作を検出し、その接触操作に応じた処理を実行する。   The touch panel 124 is integrally formed on the display screen of the display element 120, and detects a contact position of a user's finger or the like on the display screen. The touch panel drive circuit 126 drives the touch panel 124 and outputs a contact detection signal from the touch panel 124 to the CPU 1301 of the system controller 130. The CPU 1301 detects a contact operation on the display screen of the user from the contact detection signal, and executes processing according to the contact operation.

記録メディア128は、例えばメモリカードであり、撮影動作によって得られた画像ファイルが記録される。画像ファイルは、画像データに所定のヘッダを付与して構成されるファイルである。ヘッダには、撮影条件を示すデータ及び追尾位置を示すデータ等が、タグデータとして記録される。   The recording medium 128 is a memory card, for example, and records an image file obtained by a shooting operation. The image file is a file configured by adding a predetermined header to image data. In the header, data indicating shooting conditions, data indicating a tracking position, and the like are recorded as tag data.

システムコントローラ130は、撮像装置100の動作を制御するための制御回路として、CPU1301と、AF制御回路1302と、AE制御回路1303と、画像処理回路1304と、追尾処理回路1305、1306と、顏検出回路1307と、色情報取得回路1308と、メモリ制御回路1309と、を有している。   The system controller 130 is a control circuit for controlling the operation of the imaging apparatus 100. The CPU 1301, the AF control circuit 1302, the AE control circuit 1303, the image processing circuit 1304, the tracking processing circuits 1305 and 1306, and eyelid detection A circuit 1307, a color information acquisition circuit 1308, and a memory control circuit 1309 are included.

CPU1301は、焦点調整機構104、絞り駆動機構108、シャッタ駆動機構112、表示素子駆動回路122、タッチパネル駆動回路126等のシステムコントローラ130の外部の各ブロック、及びシステムコントローラ130の内部の各制御回路の動作を制御する。このCPU1301は、制御部としての機能も有し、後述の優先追尾判定処理において最終的な追尾位置を決定することも行う。また、CPU1301は、撮像素子114を制御する垂直同期信号VDを生成する。さらに、CPU1301は、当該撮像装置100を、後述する画像処理回路1304による“特殊な画像処理(処理時間が所定の閾値以上の画像処理)”を実行しない“第1の画像生成モード”、または“特殊な画像処理”を実行する“第2の画像生成モード”に設定する。この設定は、例えばユーザによる操作部132やタッチパネル124の操作に基づいて行われる。これらの各“画像生成モード”の設定は、それぞれ対応する“画像生成処理”を当該撮像装置に実行させる為の操作が為されたことを意味する。   The CPU 1301 includes blocks outside the system controller 130 such as the focus adjustment mechanism 104, the aperture driving mechanism 108, the shutter driving mechanism 112, the display element driving circuit 122, and the touch panel driving circuit 126, and each control circuit inside the system controller 130. Control the behavior. The CPU 1301 also has a function as a control unit, and determines a final tracking position in a priority tracking determination process described later. Further, the CPU 1301 generates a vertical synchronization signal VD for controlling the image sensor 114. Furthermore, the CPU 1301 causes the imaging apparatus 100 to execute “first image generation mode” in which “special image processing (image processing whose processing time is equal to or greater than a predetermined threshold)” by an image processing circuit 1304 described later, or “ The “second image generation mode” for executing “special image processing” is set. This setting is performed based on the operation of the operation unit 132 or the touch panel 124 by the user, for example. Each of these “image generation modes” settings means that an operation for causing the imaging apparatus to execute a corresponding “image generation process” is performed.

AF制御回路1302は、コントラストAF処理を制御する。具体的には、AF制御回路1302は、撮像素子IF回路116で得られた画像データ(RAWデータ)の高周波成分を抽出し、この抽出した高周波成分を積算することにより、AF用の合焦評価値を取得する。CPU1301は、この合焦評価値に従って画像データのコントラストを評価しつつ、焦点調整機構104を制御してフォーカスレンズを合焦状態とする。   The AF control circuit 1302 controls contrast AF processing. Specifically, the AF control circuit 1302 extracts high-frequency components of the image data (RAW data) obtained by the image sensor IF circuit 116, and integrates the extracted high-frequency components to thereby evaluate the focus for AF. Get the value. The CPU 1301 controls the focus adjustment mechanism 104 to bring the focus lens into focus while evaluating the contrast of the image data according to the focus evaluation value.

AE制御回路1303は、AE動作を制御する。具体的には、AE制御回路1303は、撮像素子IF回路116で得られた画像データ(RAWデータ)を用いて被写体輝度を算出する。CPU1301は、この被写体輝度に従って、露光時の絞り106の開口量(絞り値)、シャッタ110の開放時間(シャッタ速度値)、撮像素子感度やISO感度等を算出する。   The AE control circuit 1303 controls the AE operation. Specifically, the AE control circuit 1303 calculates the subject brightness using the image data (RAW data) obtained by the imaging element IF circuit 116. The CPU 1301 calculates the aperture amount (aperture value) of the aperture 106 during exposure, the opening time of the shutter 110 (shutter speed value), the image sensor sensitivity, the ISO sensitivity, and the like according to the subject brightness.

画像処理回路1304は、画像データに対する各種の画像処理を行う。この画像処理としては、圧縮処理、RAWデータからYCデータ(輝度信号と色差信号からなる画像データ)への変換処理、複数フレームの画像データを合成して1つのフレームの画像データを生成する処理、1フレームの画像データに対して行う光学的処理または現像に類する処理、及び1フレームの画像データの一部を切り出して複数の画像データを生成する処理等が含まれる。なお、画像処理回路1304は、圧縮された画像データに対する伸張処理も施す。   The image processing circuit 1304 performs various image processing on the image data. As this image processing, compression processing, conversion processing from RAW data to YC data (image data composed of a luminance signal and a color difference signal), processing for combining a plurality of frames of image data to generate one frame of image data, This includes processing similar to optical processing or development performed on one frame of image data, processing of cutting out a part of one frame of image data, and generating a plurality of image data. Note that the image processing circuit 1304 also performs decompression processing on the compressed image data.

第1の追尾位置検出部としての追尾処理回路1305は、第1の特徴情報としての画像データの輝度情報を用いた追尾処理を行う。この輝度情報を用いた追尾処理について簡単に説明する。輝度情報を用いた追尾処理では、例えば、図2(a)に示す(N−1)フレームにおいて追尾対象が設定された場合、この(N−1)フレームの画像データを、評価画像データとしてRAM118の評価画像エリアに記憶する。この評価画像データの追尾対象を含む所定範囲202の画像データを、基準画像データに設定する。この後の追尾処理では、参照画像データの基準画像データ202と対応する部分を探索する。
Nフレームの追尾処理を例に示すと、まず、Nフレームの画像データを、参照画像データとしてRAM118の参照画像エリアに記憶する。この参照画像データのうちの所定の探索範囲204の画像データと基準画像データ202との相関量を求めることにより、参照画像データの基準画像データ202と対応する部分を探索する。相関量は、例えば基準画像データと参照画像データとの差分絶対値和(画素毎に輝度差の絶対値を求めてそれを積算したもの)から判定する。例えば、図2(b)に示す参照画像データの領域206の参照画像データと基準画像データ202との差分絶対値和を求めたとすると、参照画像データの領域206と基準画像データ202とは明らかに異なる画像データであり、差分絶対値和が大きくなる。これに対し、参照画像データの領域208と基準画像データ202との差分絶対値和を求めたとすると、差分絶対値和が小さくなる。このように、基準画像データ202との相関量が大きくなるに従って差分絶対値和が小さくなる。輝度情報を用いた追尾処理では、相関量が最大の、即ち差分絶対値和が最小の領域を参照画像データから探索する。図2(b)の例では、領域208となる。なお、追尾位置ログエリアには、領域208の中で最も一致度の高い位置を追尾位置として記録する。なお、このような位置が複数ある場合には、例えば、領域208の中心に近い位置を追尾位置とする。次回の追尾処理時には、この追尾位置を追尾処理の開始位置とすることが望ましい。これにより、追尾処理にかかる時間を軽減することが可能である。
A tracking processing circuit 1305 as a first tracking position detection unit performs tracking processing using luminance information of image data as first feature information. The tracking process using this luminance information will be briefly described. In the tracking process using luminance information, for example, when a tracking target is set in the (N-1) frame shown in FIG. 2A, the image data of the (N-1) frame is used as the evaluation image data in the RAM 118. Is stored in the evaluation image area. Image data in a predetermined range 202 including the tracking target of the evaluation image data is set as reference image data. In the subsequent tracking process, a portion corresponding to the reference image data 202 of the reference image data is searched.
As an example of N frame tracking processing, N frame image data is first stored in the reference image area of the RAM 118 as reference image data. A portion of the reference image data corresponding to the reference image data 202 is searched for by obtaining a correlation amount between the image data in the predetermined search range 204 and the reference image data 202. The correlation amount is determined from, for example, the sum of absolute differences between the standard image data and the reference image data (obtained by obtaining absolute values of luminance differences for each pixel and integrating them). For example, if the sum of absolute differences between the reference image data in the reference image data area 206 and the standard image data 202 shown in FIG. 2B is obtained, the reference image data area 206 and the standard image data 202 are clearly shown. It is different image data, and the sum of absolute differences is increased. On the other hand, if the sum of absolute differences between the reference image data area 208 and the standard image data 202 is obtained, the sum of absolute differences becomes small. Thus, the difference absolute value sum decreases as the correlation amount with the reference image data 202 increases. In the tracking process using luminance information, an area having the maximum correlation amount, that is, the minimum difference absolute value sum is searched from the reference image data. In the example of FIG. In the tracking position log area, the position with the highest degree of matching in the area 208 is recorded as the tracking position. When there are a plurality of such positions, for example, a position close to the center of the region 208 is set as the tracking position. In the next tracking process, this tracking position is preferably set as the start position of the tracking process. As a result, the time required for the tracking process can be reduced.

第2の追尾位置検出部としての追尾処理回路1306は、第2の特徴情報としての画像データの色情報を用いた追尾処理を行う。この色情報を用いた追尾処理について簡単に説明する。色情報を用いた追尾処理では、評価画像データ内で設定された色と同色であると判定できる領域である追尾色領域を探索する。図3(a)に示すように、(N−1)フレームにおいて、被写体のある位置302が指定された場合、評価画像データ中の位置302の色情報を取得する。そして、位置302を追尾処理の開始位置として、位置302と同じ色情報を有する領域を探索する。具体的には、位置302を開始位置から周辺に向かうように順次色情報を取得し、取得した色情報が位置302の色情報と同一であると判定できる場合には領域に含め、取得した色情報が位置302の色情報と同一であると判定できない場合には領域に含めない。このようにして追尾色領域を探索すると、例えば、図3(a)に示すような単色の被写体の場合、被写体に内接する矩形領域304が追尾色領域となる。また、追尾位置ログエリアに記録する追尾位置は、例えば追尾色領域304の重心位置(図3(a)の例では、位置302と同じ)とする。次回の追尾処理においては、この追尾位置を追尾処理の開始位置とする。   A tracking processing circuit 1306 as a second tracking position detection unit performs tracking processing using color information of image data as second feature information. The tracking process using this color information will be briefly described. In the tracking process using color information, a tracking color area that is an area that can be determined to be the same color as the color set in the evaluation image data is searched. As shown in FIG. 3A, when the position 302 of the subject is designated in the (N-1) frame, the color information of the position 302 in the evaluation image data is acquired. Then, an area having the same color information as the position 302 is searched for using the position 302 as the start position of the tracking process. Specifically, the color information is sequentially acquired from the start position toward the periphery from the start position, and if it can be determined that the acquired color information is the same as the color information at the position 302, the acquired color information is included in the area. When it cannot be determined that the information is the same as the color information at the position 302, it is not included in the area. When the tracking color area is searched in this way, for example, in the case of a monochromatic subject as shown in FIG. 3A, a rectangular area 304 inscribed in the subject becomes the tracking color area. Further, the tracking position recorded in the tracking position log area is, for example, the barycentric position of the tracking color area 304 (same as the position 302 in the example of FIG. 3A). In the next tracking process, this tracking position is set as the starting position of the tracking process.

Nフレームの追尾処理を例に示すと、図3(b)に示す参照画像データとして記憶したNフレームの画像データの所定の探索範囲の中で、(N−1)フレームの追尾位置302を追尾処理の開始位置とし、追尾位置302の周辺から順次、追尾色領域304の色と同色であると判定できる領域を追尾色領域として探索する。図3(b)の例では、領域306が追尾色領域となる。また、図3(b)の例では、重心位置308を追尾位置とし、この追尾位置308を、追尾位置ログエリアに記録する。また、追尾色領域ログエリアには、追尾色領域306の範囲を示す情報(例えば、四隅の位置)を記録する。   As an example of the N frame tracking process, the tracking position 302 of the (N-1) frame is tracked within a predetermined search range of the N frame image data stored as the reference image data shown in FIG. An area that can be determined to be the same color as the color of the tracking color area 304 is sequentially searched from the periphery of the tracking position 302 as the processing start position. In the example of FIG. 3B, the area 306 is a tracking color area. In the example of FIG. 3B, the center of gravity position 308 is set as the tracking position, and the tracking position 308 is recorded in the tracking position log area. Also, information indicating the range of the tracking color area 306 (for example, the positions of the four corners) is recorded in the tracking color area log area.

顏検出回路1307は、画像データにおける被写体(人物)の顏を検出する。ここで、顏検出処理について簡単に説明する。顏検出処理においては、各フレームで得られる画像データと、図4(a)に示すような顔パーツ402、404、406との相関量を求める。顔パーツ402は、人物の鼻部周辺の陰影のパターンに対応した画像データであり、顔パーツ404は、人物の目部周辺の陰影のパターンに対応した画像データであり、顔パーツ406は、人物の口部周辺の陰影のパターンに対応した画像データである。画像処理データと顏パーツ402、404、406との相関量は、図4(b)に示すような、人物の顔を示す所定の配置となったときに最大となる。このとき、顏パーツ402、404、406を含む領域408に顏が存在しているとする。なお、顔パーツ402、404、406は予め設定した検索顔の大きさに応じて、大きさを変えても良い。ここで、図4(b)では、顏領域を矩形領域としているが、円形領域としても良い。   A wrinkle detection circuit 1307 detects a wrinkle of a subject (person) in image data. Here, the wrinkle detection process will be briefly described. In the wrinkle detection process, the correlation amount between the image data obtained in each frame and the face parts 402, 404, and 406 as shown in FIG. The face part 402 is image data corresponding to a shadow pattern around a person's nose, the face part 404 is image data corresponding to a shadow pattern around a person's eye, and the face part 406 is a person This is image data corresponding to the shadow pattern around the mouth. The amount of correlation between the image processing data and the eyelid parts 402, 404, and 406 is maximized when a predetermined arrangement indicating a person's face is obtained as shown in FIG. At this time, it is assumed that a wrinkle exists in a region 408 including the wrinkle parts 402, 404, and 406. Note that the size of the face parts 402, 404, and 406 may be changed according to a preset search face size. Here, in FIG. 4B, the heel region is a rectangular region, but it may be a circular region.

特徴情報取得部の一例としての色情報取得回路1308は、追尾処理回路1305で得られた追尾位置の色情報を取得する。
メモリ制御回路1309は、CPU1301等が、RAM118、記録メディア128、ROM134にアクセスするための制御を行うインターフェイスである。
A color information acquisition circuit 1308 as an example of a feature information acquisition unit acquires the color information of the tracking position obtained by the tracking processing circuit 1305.
The memory control circuit 1309 is an interface that performs control for the CPU 1301 and the like to access the RAM 118, the recording medium 128, and the ROM 134.

操作部132は、ユーザによって操作される各種の操作部材である。操作部132としては、例えば、レリーズ釦、動画釦、モードダイヤル、選択キー、電源釦等が含まれる。
レリーズボタン釦は、1stレリーズスイッチと、2ndレリーズスイッチと、を有している。1stレリーズスイッチは、ユーザがレリーズ釦を半押しするとオンするスイッチである。1stレリーズスイッチがオンすることにより、AF処理等の撮影準備動作が行われる。また、2ndレリーズスイッチは、ユーザがレリーズ釦を全押しするとオンするスイッチである。2ndレリーズスイッチがオンすることにより、静止画撮影用の露光動作が行われる。
動画釦は、動画撮影の開始又は終了を指示するための操作部材である。ユーザによって動画釦が押されると動画撮影処理が開始される。また、動画撮影処理の実行中に動画釦が押されると、動画撮影処理が終了される。
モードダイヤルは、撮像装置の撮影設定を選択するための操作部材である。本実施形態では、撮像装置の撮影設定として、例えば、静止画撮影モードと動画撮影モードを選択できる。静止画撮影モードは、静止画像を撮影するための撮影設定である。また、動画撮影モードは、動画像を撮影するための撮影設定である。
選択キーは、例えばメニュー画面上での項目の選択や決定をするための操作部材である。ユーザによって選択キーが操作されるとメニュー画面上での項目の選択や決定が行われる。
電源釦は、撮像装置の電源をオン又はオフするための操作部材である。ユーザによって電源釦が操作されると、撮像装置100が起動して動作可能な状態となる。撮像装置が起動している間に電源釦が操作されると、撮像装置100が省電力待機状態となる。
The operation unit 132 is various operation members operated by the user. The operation unit 132 includes, for example, a release button, a moving image button, a mode dial, a selection key, a power button, and the like.
The release button button has a 1st release switch and a 2nd release switch. The 1st release switch is a switch that is turned on when the user half-presses the release button. When the 1st release switch is turned on, a shooting preparation operation such as AF processing is performed. The 2nd release switch is a switch that is turned on when the user fully presses the release button. When the 2nd release switch is turned on, an exposure operation for still image shooting is performed.
The moving image button is an operation member for instructing the start or end of moving image shooting. When the moving image button is pressed by the user, the moving image shooting process is started. Further, when the moving image button is pressed during the moving image shooting process, the moving image shooting process is ended.
The mode dial is an operation member for selecting shooting settings of the imaging apparatus. In the present embodiment, for example, a still image shooting mode and a moving image shooting mode can be selected as shooting settings of the imaging apparatus. The still image shooting mode is a shooting setting for shooting a still image. The moving image shooting mode is a shooting setting for shooting a moving image.
The selection key is an operation member for selecting or determining an item on the menu screen, for example. When the selection key is operated by the user, an item is selected or determined on the menu screen.
The power button is an operation member for turning on or off the power of the imaging apparatus. When the power button is operated by the user, the imaging apparatus 100 is activated and becomes operable. If the power button is operated while the imaging apparatus is activated, the imaging apparatus 100 enters a power saving standby state.

ROM134は、CPU1301が種々の処理を実行するためのプログラムコードを記憶している。また、ROM134は、撮影光学系102、絞り106、及び撮像素子114等の動作に必要な制御パラメータ、並びに画像処理回路1304での画像処理に必要な制御パラメータ等の、各種の制御パラメータを記憶している。さらには、ROM134は、顏検出回路1307における顏検出に用いられる顏パーツのデータや追尾枠を表示するためのデータ等も記憶している。   The ROM 134 stores program codes for the CPU 1301 to execute various processes. In addition, the ROM 134 stores various control parameters such as control parameters necessary for the operation of the photographing optical system 102, the aperture 106, the image sensor 114, and the like, and control parameters necessary for image processing in the image processing circuit 1304. ing. Furthermore, the ROM 134 also stores heel part data used for heel detection in the heel detection circuit 1307, data for displaying a tracking frame, and the like.

次に、本実施形態に係る撮像装置の動作について説明する。図5は、撮像装置100の撮影動作を示すフローチャートである。CPU1301は、ROM134から必要なプログラムコードを読み込んで図5の動作を制御する。
S100において、CPU1301は、現在の撮像装置100の撮影設定が静止画撮影モードであるかを判定する。前述したように、撮影設定は、モードダイヤルによって設定される。
Next, the operation of the imaging apparatus according to the present embodiment will be described. FIG. 5 is a flowchart showing the shooting operation of the imaging apparatus 100. The CPU 1301 reads the necessary program code from the ROM 134 and controls the operation of FIG.
In step S <b> 100, the CPU 1301 determines whether the current shooting setting of the imaging apparatus 100 is the still image shooting mode. As described above, the shooting setting is set by the mode dial.

S100において、撮影設定が静止画撮影モードであると判定した場合に、S102において、CPU1301は、ライブビュー動作を開始させる。ライブビュー動作として、CPU1301は、シャッタ駆動機構112を制御してシャッタ110を開放した後、CPU1301は、撮像素子IF回路116を制御して撮像素子114による撮像を開始させる。その後、CPU1301は、撮像素子114による撮像の結果としてRAM118のワークエリアに記憶された画像データを画像処理回路1304に入力してライブビュー表示用の画像処理を施す。続いて、CPU1301は、ライブビュー表示用の画像処理がされた画像データを表示素子駆動回路122に入力し、表示素子120に画像を表示させる。このような表示動作を繰り返し実行することにより、被写体の画像を動画表示する。この動画表示により、ユーザは、被写体を観察することが可能である。   When it is determined in S100 that the shooting setting is the still image shooting mode, in S102, the CPU 1301 starts a live view operation. As a live view operation, the CPU 1301 controls the shutter drive mechanism 112 to release the shutter 110, and then the CPU 1301 controls the image sensor IF circuit 116 to start imaging by the image sensor 114. Thereafter, the CPU 1301 inputs the image data stored in the work area of the RAM 118 as a result of imaging by the imaging device 114 to the image processing circuit 1304 and performs image processing for live view display. Subsequently, the CPU 1301 inputs image data that has been subjected to image processing for live view display to the display element driving circuit 122 and causes the display element 120 to display an image. By repeatedly executing such a display operation, the subject image is displayed as a moving image. By this moving image display, the user can observe the subject.

S104において、CPU1301は、1stレリーズスイッチがオンされたかを判定する。S104において、1stレリーズスイッチがオンされたと判定するまでは、CPU1301は、ライブビュー動作を継続する。
また、S104において、1stレリーズスイッチがオンされたと判定した場合に、S106において、CPU1301は、レリーズAF処理を行う。レリーズAFにおいては、スキャン駆動によって、フォーカスレンズを合焦位置まで駆動させる。スキャン駆動では、CPU1301は、焦点調整機構104を制御して、フォーカスレンズを所定のスキャン範囲内で一方向に駆動させつつ、AF制御回路1302で順次算出される合焦評価値を評価する。そして、CPU1301は、合焦評価値の評価の結果、コントラストが最大となるレンズ位置において、フォーカスレンズの駆動を停止させる。このようなスキャン駆動は、AF前のフォーカスレンズの位置と合焦位置との差が大きい場合に行われる。
In step S104, the CPU 1301 determines whether the first release switch is turned on. The CPU 1301 continues the live view operation until it is determined in S104 that the 1st release switch is turned on.
If it is determined in S104 that the first release switch is turned on, in S106, the CPU 1301 performs a release AF process. In the release AF, the focus lens is driven to the in-focus position by scan driving. In the scan drive, the CPU 1301 controls the focus adjustment mechanism 104 to evaluate the focus evaluation values sequentially calculated by the AF control circuit 1302 while driving the focus lens in one direction within a predetermined scan range. Then, the CPU 1301 stops the driving of the focus lens at the lens position where the contrast is maximized as a result of the evaluation of the focus evaluation value. Such scan driving is performed when the difference between the position of the focus lens before AF and the in-focus position is large.

S108において、CPU1301は、表示素子駆動回路122を制御して、表示素子120に追尾枠を表示させる。ここで、追尾枠は、表示素子120の画面上の追尾対象の位置に表示させる。例えば、レリーズAFで合焦した被写体を追尾対象とし、その被写体に追尾枠を表示させるようにしても良いし、顏検出回路1307によって顏が検出された場合には、その顔に追尾枠を表示させるようにしても良い。さらに、タッチパネル124により、表示素子120の画面上に表示された被写体が指定された場合には、その被写体上に追尾枠を表示させるようにしても良い。このように、本実施形態においては、CPU1301、AF制御回路1302、顏検出回路1307、タッチパネル124等が追尾対象設定部の一例として機能する。   In step S108, the CPU 1301 controls the display element driving circuit 122 to display a tracking frame on the display element 120. Here, the tracking frame is displayed at the position of the tracking target on the screen of the display element 120. For example, the subject focused by the release AF may be set as a tracking target, and a tracking frame may be displayed on the subject. When a wrinkle is detected by the wrinkle detection circuit 1307, a tracking frame is displayed on the face. You may make it let it. Furthermore, when a subject displayed on the screen of the display element 120 is designated by the touch panel 124, a tracking frame may be displayed on the subject. Thus, in the present embodiment, the CPU 1301, the AF control circuit 1302, the eyelid detection circuit 1307, the touch panel 124, and the like function as an example of the tracking target setting unit.

S110において、CPU1301は、追尾処理を行う。この追尾処理の詳細については後述する。
S112において、CPU1301は、追尾位置の被写体に合焦するようにAF処理を行うとともに、追尾位置の被写体の露光が適正となるようにAE処理を行う。
追尾処理後のAF処理においては、スキャン駆動、またはウォブリング駆動によって、フォーカスレンズを合焦位置まで駆動させる。ウォブリング駆動では、CPU1301は、フォーカスレンズを駆動したときにAF制御回路1302で算出された合焦評価値が、前回のレンズ位置での合焦評価値に対して増加したかを判定する。そして、CPU1301は、合焦評価値が増加した場合には前回と同方向にフォーカスレンズを微小駆動させ、合焦評価値が減少した場合には前回と逆方向にフォーカスレンズを微小駆動させる。このような動作を高速で繰り返してフォーカスレンズを徐々に合焦位置まで駆動させる。
In S110, the CPU 1301 performs a tracking process. Details of this tracking process will be described later.
In step S112, the CPU 1301 performs AF processing so that the subject at the tracking position is focused, and performs AE processing so that exposure of the subject at the tracking position is appropriate.
In the AF processing after the tracking processing, the focus lens is driven to the in-focus position by scan driving or wobbling driving. In wobbling driving, the CPU 1301 determines whether or not the focus evaluation value calculated by the AF control circuit 1302 when the focus lens is driven has increased with respect to the focus evaluation value at the previous lens position. The CPU 1301 finely drives the focus lens in the same direction as the previous time when the focus evaluation value increases, and finely drives the focus lens in the opposite direction to the previous time when the focus evaluation value decreases. Such an operation is repeated at high speed to gradually drive the focus lens to the in-focus position.

また、AE処理において、CPU1301は、AE制御回路1303で算出された追尾位置の被写体の輝度を予め定められた適正な量(適正露光量)とする、本露光時の絞り106の開口量(絞り値)、シャッタ110の開放時間(シャッタ速度値)を算出する。   In the AE process, the CPU 1301 sets the aperture of the aperture 106 (aperture) during main exposure to set the luminance of the subject at the tracking position calculated by the AE control circuit 1303 to a predetermined appropriate amount (appropriate exposure amount). Value), the shutter 110 opening time (shutter speed value) is calculated.

S114において、CPU1301は、2ndレリーズスイッチがオンされたかを判定する。S114において、2ndレリーズスイッチがオンされていないと判定した場合に、CPU1301は、S110の追尾処理以後の処理を実行する。このように、静止画撮影モード時には、2ndレリーズスイッチがオンされるまでは、追尾処理が継続される。   In step S114, the CPU 1301 determines whether the 2nd release switch is turned on. If it is determined in S114 that the 2nd release switch is not turned on, the CPU 1301 executes processing after the tracking processing in S110. In this way, in the still image shooting mode, the tracking process is continued until the 2nd release switch is turned on.

また、S114において、2ndレリーズスイッチがオンされたと判定した場合に、S116において、CPU1301は、表示素子駆動回路122を制御して、追尾枠を非表示とする。
S118において、CPU1301は、静止画像データを記録メディア128に記録する処理を行う。この際、CPU1301は、シャッタ駆動機構112を制御して、シャッタ110を閉じる。その後、CPU1301は、絞り駆動機構108を制御して、絞り106を先に算出した絞り値まで絞り込む。続いて、CPU1301は、シャッタ駆動機構112を制御して、シャッタ110を先に算出した開放時間だけ開放しつつ、撮像素子114による撮像(露光)を行う。その後、CPU1301は、撮像素子114を介して得られた静止画像データを画像処理回路1304において処理する。そして、CPU1301は、画像処理回路1304において処理された静止画像データにヘッダを付与して静止画像ファイルを生成し、生成した静止画像ファイルを記録メディア128に記録する。
S120において、CPU1301は、S110の追尾処理の結果として得られた追尾位置を示すデータを、先に記録メディア128に記録した静止画像ファイルに追記する。その後に、CPU1301は、図5に示す動作を終了させる。
In S114, when it is determined that the 2nd release switch is turned on, in S116, the CPU 1301 controls the display element driving circuit 122 to hide the tracking frame.
In step S <b> 118, the CPU 1301 performs processing for recording still image data on the recording medium 128. At this time, the CPU 1301 controls the shutter driving mechanism 112 to close the shutter 110. Thereafter, the CPU 1301 controls the aperture driving mechanism 108 to narrow the aperture 106 to the previously calculated aperture value. Subsequently, the CPU 1301 controls the shutter driving mechanism 112 to perform imaging (exposure) by the imaging element 114 while opening the shutter 110 for the previously calculated opening time. Thereafter, the CPU 1301 processes still image data obtained via the image sensor 114 in the image processing circuit 1304. The CPU 1301 adds a header to the still image data processed by the image processing circuit 1304 to generate a still image file, and records the generated still image file on the recording medium 128.
In S120, the CPU 1301 adds data indicating the tracking position obtained as a result of the tracking processing in S110 to the still image file previously recorded on the recording medium 128. Thereafter, the CPU 1301 ends the operation shown in FIG.

また、S100において、撮影設定が動画撮影モードであると判定した場合に、S122において、CPU1301は、ライブビュー動作を開始させる。
S124において、CPU1301は、動画釦がオンされたかを判定する。S124において、動画釦がオンされたと判定するまでは、CPU1301は、ライブビュー動作を継続する。
If it is determined in S100 that the shooting setting is the moving image shooting mode, in S122, the CPU 1301 starts a live view operation.
In step S124, the CPU 1301 determines whether the moving image button has been turned on. Until it is determined in S124 that the moving image button has been turned on, the CPU 1301 continues the live view operation.

また、S124において、動画釦がオンされたと判定した場合に、S126において、CPU1301は、表示素子駆動回路122を制御して、表示素子120に追尾枠を表示させる。
S128において、CPU1301は、追尾処理を行う。この追尾処理の詳細については、後述する。
In S124, when it is determined that the moving image button is turned on, in S126, the CPU 1301 controls the display element driving circuit 122 to display the tracking frame on the display element 120.
In S128, the CPU 1301 performs a tracking process. Details of the tracking process will be described later.

S130において、CPU1301は、追尾位置の被写体に合焦するようにAF処理を行うともに、追尾位置の被写体の露光が適正となるようにAE処理を行う。S130におけるAF処理おいては、ウォブリング駆動によって、フォーカスレンズを合焦位置まで駆動させる。   In step S130, the CPU 1301 performs AF processing so as to focus on the subject at the tracking position, and performs AE processing so that the exposure of the subject at the tracking position is appropriate. In the AF process in S130, the focus lens is driven to the in-focus position by wobbling driving.

S132において、CPU1301は、動画像データを記録メディア128に記録する処理を行う。この際、CPU1301は、絞り駆動機構108を制御して、絞り106をAE処理において算出した絞り値まで絞り込む。続いて、CPU1301は、AE処理において算出したシャッタ速度値に対応した時間だけ撮像素子114による撮像(露光)を実行させる。露光の終了後、CPU1301は、動画像ファイルを生成して記録メディア128に記録する。また、CPU1301は、撮像素子114を介して得られた動画像データを画像処理回路1304において処理し、画像処理回路1304において処理された動画像データを動画像ファイルに記録する。   In step S <b> 132, the CPU 1301 performs processing for recording moving image data on the recording medium 128. At this time, the CPU 1301 controls the aperture driving mechanism 108 to narrow the aperture 106 to the aperture value calculated in the AE process. Subsequently, the CPU 1301 causes the image sensor 114 to perform imaging (exposure) for a time corresponding to the shutter speed value calculated in the AE process. After the exposure is completed, the CPU 1301 generates a moving image file and records it on the recording medium 128. Further, the CPU 1301 processes the moving image data obtained via the image sensor 114 in the image processing circuit 1304, and records the moving image data processed in the image processing circuit 1304 in a moving image file.

S134において、CPU1301は、S128の追尾処理の結果として得られた追尾位置を示すデータを、先に記録メディア128に記録した動画像ファイルと同時記録する。
S136において、CPU1301は、動画釦がオフされたかを判定する。S136において、動画釦がオフされていないと判定した場合に、CPU1301は、S128の追尾処理以後の処理を実行する。このように、動画撮影モード時では、動画釦がオフされるまでは、追尾処理と動画像データの記録が継続される。
In S134, the CPU 1301 simultaneously records data indicating the tracking position obtained as a result of the tracking process in S128 together with the moving image file previously recorded on the recording medium 128.
In step S136, the CPU 1301 determines whether the moving image button has been turned off. If it is determined in S136 that the moving image button is not turned off, the CPU 1301 executes processing after the tracking processing in S128. Thus, in the moving image shooting mode, the tracking process and the recording of moving image data are continued until the moving image button is turned off.

また、S136において、動画釦がオフされたと判定した場合に、S138において、CPU1301は、表示素子駆動回路122を制御して、追尾枠を非表示とする。その後、CPU1301は、図5に示す動作を終了させる。
以下、本一実施形態に係る追尾方法としての追尾処理について図6乃至図8を参照して説明する。本実施形態においては、複数の追尾処理を併用して追尾対象の追尾を行う。図6は、本発明の一実施形態に係る追尾方法としての追尾処理について示すフローチャートである。図7及び図8は、本発明の一実施形態に係る追尾方法としての追尾処理について示すタイミングチャートである。
If it is determined in S136 that the moving image button has been turned off, in S138, the CPU 1301 controls the display element driving circuit 122 to hide the tracking frame. Thereafter, the CPU 1301 ends the operation shown in FIG.
Hereinafter, tracking processing as a tracking method according to the present embodiment will be described with reference to FIGS. In the present embodiment, tracking of a tracking target is performed using a plurality of tracking processes in combination. FIG. 6 is a flowchart showing a tracking process as a tracking method according to an embodiment of the present invention. 7 and 8 are timing charts showing a tracking process as a tracking method according to an embodiment of the present invention.

図7及び図8に記載の“画像データ”は“RAWデータ”を示しており、“画像処理データ”は“RAWデータに対して上述の“特殊な処理”を施して生成したデータ(例えばYCデータや複数フレームを一つのフレームに合成した画像データ)“を示している。また、図7及び図8に示されている各グラフは、それぞれ上から順に“垂直同期信号VDのON/OFF期間”、“撮像素子114の露光期間”、“RAWデータの生成期間”、“画像処理データの生成期間”、“第1の特徴情報(輝度情報)を利用する追尾処理期間”、“第2の特徴情報(色情報)を利用する追尾処理期間”、“被写体の顔部位を利用する追尾処理期間”、“何れの追尾処理を利用するかの判定及び追尾位置の信頼性の判定期間”、“追尾枠の表示位置の更新期間”を示している。   “Image data” shown in FIGS. 7 and 8 indicates “RAW data”, and “Image processing data” is data generated by performing the above-mentioned “special processing” on RAW data (for example, YC Data and image data obtained by combining a plurality of frames into one frame). Each graph shown in FIGS. 7 and 8 includes, in order from the top, “ON / OFF period of vertical synchronizing signal VD”, “exposure period of image sensor 114”, “RAW data generation period”, “ “Image processing data generation period”, “Tracking process period using first feature information (luminance information)”, “Tracking process period using second feature information (color information)”, “Face part of subject” “Tracking process period to be used”, “Determination of which tracking process is used and determination period of reliability of tracking position”, and “Update period of display position of tracking frame” are shown.

図7及び図8に示すように、CPU1301からの垂直同期信号VDに同期して、撮像素子114は露光を開始し、予め設定された期間(1フレーム分)だけ露光する。すなわち、CPU1301は、垂直同期信号VDにより撮像素子IF回路116を制御して撮像素子114による撮像を実行する。そして、CPU1301は、撮像素子114による撮像により、撮像素子IF回路116において得られた画像データをRAM118に取り込む。   As shown in FIGS. 7 and 8, the image sensor 114 starts exposure in synchronization with the vertical synchronization signal VD from the CPU 1301, and performs exposure for a preset period (one frame). That is, the CPU 1301 controls the image sensor IF circuit 116 with the vertical synchronization signal VD and executes image capturing with the image sensor 114. Then, the CPU 1301 captures the image data obtained in the imaging element IF circuit 116 into the RAM 118 by imaging with the imaging element 114.

なお、初回の追尾処理で得られた画像データは、評価画像データとする。このため、CPU1301は、初回の追尾処理で得られた画像データをRAM118の評価画像エリアに取り込む。また、2回目以後の追尾処理で得られた画像データは、参照画像データとする。このため、CPU1301は、2回目以後の追尾処理で得られた画像データをRAM118の参照画像エリアに取り込む。   Note that the image data obtained by the first tracking process is evaluated image data. For this reason, the CPU 1301 captures the image data obtained in the first tracking process into the evaluation image area of the RAM 118. Further, the image data obtained by the second and subsequent tracking processing is referred to as reference image data. For this reason, the CPU 1301 captures the image data obtained in the second and subsequent tracking processing into the reference image area of the RAM 118.

また、初回の追尾処理においては、評価画像データのみが取得された状態であるので、S203乃至S219の処理、及びS222乃至S232の処理は省略される。以後の説明においては、評価画像データと参照画像データの両方が取得されているものとして説明を続ける。   In the initial tracking process, only the evaluation image data has been acquired, so the processes of S203 to S219 and S222 to S232 are omitted. In the following description, the description will be continued on the assumption that both the evaluation image data and the reference image data have been acquired.

S201において、CPU1301は、画像処理回路1304による画像処理に要する時間が、所定の閾値以上であるか否かを判定する。つまり、“画像処理時間≧閾値”であるか否かを判定する。例えば、当該撮像装置100が“第2の画像生成モード”に設定されている場合であって“特殊な処理”を行う場合等の、追尾性能の劣化が生じる可能性がある場合には“画像処理時間≧閾値”となる。当該撮像装置100が“第1の画像生成モード”に設定されている場合には、画像処理回路1304による“特殊な処理”を行わないため“画像処理時間<閾値”となる。   In step S201, the CPU 1301 determines whether the time required for image processing by the image processing circuit 1304 is equal to or greater than a predetermined threshold. That is, it is determined whether “image processing time ≧ threshold”. For example, when the imaging apparatus 100 is set to the “second image generation mode” and “special processing” is performed, the tracking performance may be deteriorated. Processing time ≧ threshold ”. When the imaging apparatus 100 is set to the “first image generation mode”, “special processing” by the image processing circuit 1304 is not performed, and “image processing time <threshold”.

このS201における判定結果に基づいて、以降の追尾処理工程を切り換えることによって、CPU1301は、例えば当該撮像装置100が“第2の画像生成モード”に設定されている場合等の、追尾性能の劣化が生じる可能性がある場合であっても、適切な追尾処理を実行することができる。   By switching the subsequent tracking processing steps based on the determination result in S201, the CPU 1301 causes deterioration in tracking performance, for example, when the imaging apparatus 100 is set to the “second image generation mode”. Even if there is a possibility of occurrence, an appropriate tracking process can be executed.

“画像処理時間≧閾値”の場合には、図8に示すように、顔検出による追尾処理の結果を含めると“追尾結果判断(図6のフローチャートにおける追尾位置設定ステップ)”で決定された当該最終的な追尾位置を、輝度情報/色情報を利用した次回の追尾処理における開始位置とすることができない。このことを鑑み、被写体の顔部位が検出された場合には、S201乃至S206の一連の処理によって顔部位のみを利用した追尾処理を実行し、他方、被写体の顔部位が検出されない場合には、S211乃至S219の一連の処理によって、輝度情報/色情報のみを利用した追尾処理を実行する。以下、詳細に説明する。   In the case of “image processing time ≧ threshold”, as shown in FIG. 8, when the result of the tracking process by face detection is included, the result determined by “tracking result determination (tracking position setting step in the flowchart of FIG. 6)” The final tracking position cannot be used as the start position in the next tracking process using luminance information / color information. In view of this, when the face part of the subject is detected, the tracking process using only the face part is executed by the series of processes of S201 to S206, and when the face part of the subject is not detected, A tracking process using only luminance information / color information is executed by a series of processes from S211 to S219. Details will be described below.

S201において、画像処理回路1304による画像処理時間が所定の閾値以上であると判定した場合、CPU1301は、S202において“画像処理データ”を取得する。この“画像処理データ”は、当該フレームの直前フレーム生成中に撮像素子114が垂直同期信号VDに同期して露光した信号に基づく画像データ(RAWデータ)に、画像処理回路1304によって所定の画像処理を施して生成した画像データである。   If it is determined in S201 that the image processing time by the image processing circuit 1304 is equal to or greater than the predetermined threshold, the CPU 1301 acquires “image processing data” in S202. This “image processing data” is converted into image data (RAW data) based on a signal exposed by the image sensor 114 in synchronism with the vertical synchronization signal VD during the generation of the frame immediately before that frame by the image processing circuit 1304. This is image data generated by applying.

S203において、CPU1301は顏検出回路1307によって被写体の顏部位の検出処理を実行し、S204において、顔部位が検出されたか否かを判定する。
S204において、顔部位を検出したと判定した場合、CPU1301はS205において顔部位の中から追尾位置(例えば顔部位領域の重心位置)を演算し、顔部位を用いた追尾処理を行う。顔部位を用いた追尾処理については、前述したので説明を省略する。
In step S <b> 203, the CPU 1301 executes detection processing for the eyelid part of the subject by the eyelid detection circuit 1307, and determines in step S <b> 204 whether a face part is detected.
If it is determined in S204 that a face part has been detected, the CPU 1301 calculates a tracking position (for example, the gravity center position of the face part region) from the face part in S205, and performs tracking processing using the face part. Since the tracking process using the face part has been described above, the description thereof will be omitted.

S206において、CPU1301は、S205で演算した参照画像データの最終的な追尾位置を、RAM118の追尾ログエリアに記録する。   In S206, the CPU 1301 records the final tracking position of the reference image data calculated in S205 in the tracking log area of the RAM 118.

S210において、CPU1301は、表示素子駆動回路122を制御して、追尾枠の表示位置をS206で記憶させた追尾位置に対応した位置に更新する。その後、CPU1301は、図6の追尾処理を終了させる。
ところで、S204において顔部位が検出されていないと判定した場合、CPU1301は、S211において“画像データ(RAWデータ)”を取得する。この“画像データ”は、当該フレームの直前フレーム生成中に撮像素子114が垂直同期信号VDに同期して露光した信号に基づく画像データ(RAWデータ)である。
In S210, the CPU 1301 controls the display element driving circuit 122 to update the display position of the tracking frame to a position corresponding to the tracking position stored in S206. Thereafter, the CPU 1301 ends the tracking process of FIG.
If it is determined in S204 that no face part has been detected, the CPU 1301 acquires “image data (RAW data)” in S211. This “image data” is image data (RAW data) based on a signal exposed by the image sensor 114 in synchronization with the vertical synchronization signal VD during the generation of the frame immediately before the relevant frame.

S212及びS213において、CPU1301は、追尾処理回路1305により、第1の追尾処理としての輝度情報を用いた追尾処理を行う(輝度情報の検出と追尾位置の演算)。輝度情報を用いた追尾処理については、前述したので説明を省略する。なお、CPU1301は、S212及びS213の処理(輝度情報を用いた追尾処理)の結果として得られた追尾位置を、第1の候補追尾位置としてRAM118の追尾ログエリアに記憶させる。   In S212 and S213, the CPU 1301 uses the tracking processing circuit 1305 to perform tracking processing using luminance information as the first tracking processing (detection of luminance information and calculation of the tracking position). Since the tracking process using the luminance information has been described above, the description thereof will be omitted. Note that the CPU 1301 stores the tracking position obtained as a result of the processing in S212 and S213 (tracking processing using luminance information) in the tracking log area of the RAM 118 as the first candidate tracking position.

S214において、CPU1301は、S213で得られた追尾位置の信頼性を判断する。例えば参照画像データのコントラストから信頼性を判断する。具体的には、参照画像データにおける追尾対象の領域の隣接画素間の差分和が所定値以下である場合には、信頼性があると判断する。信頼性を判定するための閾値は適宜設定可能である。   In S214, the CPU 1301 determines the reliability of the tracking position obtained in S213. For example, the reliability is determined from the contrast of the reference image data. Specifically, when the sum of differences between adjacent pixels in the tracking target area in the reference image data is equal to or less than a predetermined value, it is determined that there is reliability. The threshold for determining reliability can be set as appropriate.

S215及びS216において、CPU1301は、追尾処理回路1306により、第2の追尾処理としての色情報を用いた追尾処理を行う(色情報の検出と追尾位置の演算)。色情報を用いた追尾処理については、前述したので説明を省略する。なお、CPU1301は、S215及びS216の処理(色情報を用いた追尾処理)の結果として得られた追尾位置を、第2の候補追尾位置としてRAM118の追尾ログエリアに記憶させる。   In S215 and S216, the CPU 1301 uses the tracking processing circuit 1306 to perform tracking processing using color information as the second tracking processing (detection of color information and calculation of the tracking position). Since the tracking process using the color information has been described above, the description thereof will be omitted. Note that the CPU 1301 stores the tracking position obtained as a result of the processing of S215 and S216 (tracking processing using color information) in the tracking log area of the RAM 118 as the second candidate tracking position.

S217において、CPU1301は、S216で得られた追尾位置の信頼性を判断する。例えば参照画像データの彩度から信頼性を判断する。具体的には、参照画像データの追尾位置の彩度が所定値以上である場合には、信頼性があると判断する。信頼性を判定するための閾値は適宜設定可能である。   In S217, the CPU 1301 determines the reliability of the tracking position obtained in S216. For example, the reliability is determined from the saturation of the reference image data. Specifically, if the saturation at the tracking position of the reference image data is greater than or equal to a predetermined value, it is determined that the reference image data is reliable. The threshold for determining reliability can be set as appropriate.

S218において、CPU1301は、追尾位置の判定処理を行う。この追尾位置の判定処理は、輝度情報を用いた追尾処理の結果と色情報を用いた追尾処理の結果との何れを採用するかを判定する処理である。この追尾位置の判定処理は、例えば各特徴情報に基づいて演算した追尾位置の信頼性に基づく判定処理とすればよい。   In step S218, the CPU 1301 performs tracking position determination processing. The tracking position determination process is a process for determining which of a tracking process result using luminance information and a tracking process result using color information is to be adopted. The tracking position determination process may be, for example, a determination process based on the reliability of the tracking position calculated based on each feature information.

S219において、CPU1301は、S218の判定結果に基づいて採用した最終的な追尾位置のみを、RAM118の追尾ログエリアに記録する。次回の追尾処理においては、輝度情報を用いた追尾処理と色情報を用いた追尾処理の両方で、この最終的な追尾位置を追尾処理の開始位置とする。   In S219, the CPU 1301 records only the final tracking position adopted based on the determination result in S218 in the tracking log area of the RAM 118. In the next tracking process, the final tracking position is set as the starting position of the tracking process in both the tracking process using luminance information and the tracking process using color information.

そして、S210において、CPU1301は、表示素子駆動回路122を制御して、追尾枠の表示位置をS219で記憶させた追尾位置に対応した位置に更新する。その後、CPU1301は、図6の追尾処理を終了させる。
ところで、“画像処理時間<閾値”の場合には、図7に示すように、顔検出による追尾処理の結果を含めても“追尾結果判断(図6のフローチャートにおける追尾位置設定ステップ)”で決定された当該最終的な追尾位置を、輝度情報/色情報を利用した次回の追尾処理における開始位置とすることができる。従って、被写体の顔部位を利用した追尾処理と、輝度情報/色情報を利用した追尾処理との双方を実行する。以下、詳細に説明する。
In step S210, the CPU 1301 controls the display element driving circuit 122 to update the display position of the tracking frame to a position corresponding to the tracking position stored in step S219. Thereafter, the CPU 1301 ends the tracking process of FIG.
By the way, in the case of “image processing time <threshold”, as shown in FIG. 7, even if the result of tracking processing by face detection is included, “tracking result determination (tracking position setting step in the flowchart of FIG. 6)” is determined. The final tracking position thus made can be used as a start position in the next tracking process using luminance information / color information. Accordingly, both the tracking process using the face part of the subject and the tracking process using the luminance information / color information are executed. Details will be described below.

S201において、画像処理回路1304による画像処理時間が所定の閾値以上ではないと判定した場合、CPU1301は、S221において“画像データ(RAWデータ)”を取得する。この“画像データ”は、当該フレームの直前フレーム生成中に撮像素子114が垂直同期信号VDに同期して露光した信号に基づく画像データ(RAWデータ)である。   If it is determined in S201 that the image processing time by the image processing circuit 1304 is not equal to or greater than the predetermined threshold, the CPU 1301 acquires “image data (RAW data)” in S221. This “image data” is image data (RAW data) based on a signal exposed by the image sensor 114 in synchronization with the vertical synchronization signal VD during the generation of the frame immediately before the relevant frame.

S222及びS223において、CPU1301は、追尾処理回路1305により、第1の追尾処理としての輝度情報を用いた追尾処理を行う(輝度情報の検出と追尾位置の演算)。輝度情報を用いた追尾処理については、前述したので説明を省略する。なお、CPU1301は、S222及びS223の処理(輝度情報を用いた追尾処理)の結果として得られた追尾位置を、第1の候補追尾位置としてRAM118の追尾ログエリアに記憶させる。   In S222 and S223, the CPU 1301 causes the tracking processing circuit 1305 to perform tracking processing using luminance information as the first tracking processing (detection of luminance information and calculation of the tracking position). Since the tracking process using the luminance information has been described above, the description thereof will be omitted. Note that the CPU 1301 stores the tracking position obtained as a result of the processing of S222 and S223 (tracking processing using luminance information) in the tracking log area of the RAM 118 as the first candidate tracking position.

S224において、CPU1301は、S213で得られた追尾位置の信頼性を判断する。例えば参照画像データのコントラストから信頼性を判断する。具体的な判断方法については、前述したので説明を省略する。
S225及びS226において、CPU1301は、追尾処理回路1306により、第2の追尾処理としての色情報を用いた追尾処理を行う(色情報の検出と追尾位置の演算)。色情報を用いた追尾処理については、前述したので説明を省略する。なお、CPU1301は、S225及びS226の処理(色情報を用いた追尾処理)の結果として得られた追尾位置を、第2の候補追尾位置としてRAM118の追尾ログエリアに記憶させる。
In S224, the CPU 1301 determines the reliability of the tracking position obtained in S213. For example, the reliability is determined from the contrast of the reference image data. Since the specific determination method has been described above, the description thereof will be omitted.
In S225 and S226, the CPU 1301 uses the tracking processing circuit 1306 to perform tracking processing using color information as the second tracking processing (detection of color information and calculation of the tracking position). Since the tracking process using the color information has been described above, the description thereof will be omitted. Note that the CPU 1301 stores the tracking position obtained as a result of the processing of S225 and S226 (tracking processing using color information) in the tracking log area of the RAM 118 as the second candidate tracking position.

S227において、CPU1301は、S216で得られた追尾位置の信頼性を判断する。例えば参照画像データの彩度から信頼性を判断する。具体的な判断方法については、前述したので説明を省略する。
S228において、CPU1301は“画像処理データ”を取得する。この“画像処理データ”は、当該フレームの直前フレーム生成中に撮像素子114が垂直同期信号VDに同期して露光した信号に基づく画像データ(RAWデータ)に、画像処理回路1304によって所定の画像処理を施して生成した画像データである。
In S227, the CPU 1301 determines the reliability of the tracking position obtained in S216. For example, the reliability is determined from the saturation of the reference image data. Since the specific determination method has been described above, the description thereof will be omitted.
In step S228, the CPU 1301 acquires “image processing data”. This “image processing data” is converted into image data (RAW data) based on a signal exposed by the image sensor 114 in synchronism with the vertical synchronization signal VD during the generation of the frame immediately before that frame by the image processing circuit 1304. This is image data generated by applying.

S229において、CPU1301は顏検出回路1307によって被写体の顏部位の検出処理を実行する。
S230において、CPU1301は顔部位の中から追尾位置(例えば顔部位領域の重心位置)を演算し、顔部位を用いた追尾処理を行う。顔部位を用いた追尾処理については、前述したので説明を省略する。
In step S <b> 229, the CPU 1301 executes detection processing for the eyelid part of the subject by the eyelid detection circuit 1307.
In S230, the CPU 1301 calculates a tracking position (for example, the gravity center position of the face part region) from the face part, and performs a tracking process using the face part. Since the tracking process using the face part has been described above, the description thereof will be omitted.

S231において、CPU1301は、追尾位置の判定処理を行う。この追尾位置の判定処理は、輝度情報を用いた追尾処理の結果と、色情報を用いた追尾処理の結果と、顔部位を用いた追尾処理の結果とのうち何れを採用するかを判定する処理である。この追尾位置の判定処理は、例えば各特徴情報に基づいて演算した追尾位置の信頼性に基づく判定処理としたり、条件に応じて顔部位を用いた追尾処理を優先したりすればよい。   In step S231, the CPU 1301 performs tracking position determination processing. This tracking position determination process determines which one of the result of the tracking process using the luminance information, the result of the tracking process using the color information, and the result of the tracking process using the face part is adopted. It is processing. The tracking position determination process may be, for example, a determination process based on the reliability of the tracking position calculated based on each feature information, or priority may be given to the tracking process using a face part depending on conditions.

S232において、CPU1301は、S231の判定結果に基づいて採用した最終的な追尾位置のみを、RAM118の追尾ログエリアに記録する。次回の追尾処理においては、輝度情報を用いた追尾処理と色情報を用いた追尾処理の両方で、この最終的な追尾位置を追尾処理の開始位置とする。   In S232, the CPU 1301 records only the final tracking position adopted based on the determination result of S231 in the tracking log area of the RAM 118. In the next tracking process, the final tracking position is set as the starting position of the tracking process in both the tracking process using luminance information and the tracking process using color information.

以上説明したように、本一実施形態によれば、例えば特殊な画像処理を行う場合等の、追尾性能の劣化が生じ得る場合であっても、適切な追尾処理を行うことができる追尾装置及び追尾方法を提供することができる。
なお、上述の例では、追尾処理に用いる特徴情報として色情報、輝度情報、及び被写体顔部位を挙げているが、その他にも例えば輪郭情報を所謂シルエット検出により検出し、これを用いて追尾処理を行っても勿論よい。
As described above, according to the present embodiment, a tracking device capable of performing appropriate tracking processing even when degradation of tracking performance, such as when performing special image processing, can occur, and A tracking method can be provided.
In the above-described example, color information, luminance information, and a subject face part are cited as feature information used for the tracking process. However, for example, contour information is detected by so-called silhouette detection, and the tracking process is performed using this. Of course, you may do.

ところで、ライブビュー表示における表示フレームレートは、画像処理回路1304による画像処理時間に応じて変化する為、第1の画像生成モードが設定された場合の画像表示に係るフレームレートと、第2の画像生成モードが設定された場合の画像表示に係るフレームレートとを互いに異なるフレームレートとすることが好ましい。   By the way, since the display frame rate in the live view display changes according to the image processing time by the image processing circuit 1304, the frame rate related to the image display when the first image generation mode is set, and the second image It is preferable that the frame rate related to the image display when the generation mode is set is a different frame rate.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。また、前述の動作の説明において、便宜上「まず」、「次に」等を用いて動作を説明しているが、この順で動作を実施することが必須であることを意味するものではない。
以上説明した実施形態においては、画像処理時間と閾値とに応じて処理を切り替えているが、追尾演算の処理を切り替える為の判断基準はこれに限らない。以下、応用例として前記判断基準のバリエーションを説明する。
第1の応用例として、処理に時間がかかる画像処理モードと、時間がかからない画像処理モードとで追尾処理を切替えるといったように、設定されている画像処理モードを追尾演算切換えの判断基準にしてもよい。
第2の応用例として、画像処理を優先する場合には追尾処理を簡略化し、追尾処理を優先する場合には画像処理を簡略化するといったように、処理毎の優先順位を追尾演算切換えの判断基準にしてもよい。
第3の応用例として、例えば輝度で追尾するのに適した被写体の場合には輝度追尾処理を優先して他の追尾処理を簡略化し、色で追尾するのに適した被写体の場合には色追尾処理を優先して他の追尾処理を簡略化するといったように、被写体の特徴を追尾演算切換えの判断基準にしてもよい。
第4の応用例として、例えば連写中に追尾を行う場合、低速度の連写選択時には精度を優先し通常の追尾処理を行い、高速度の連写選択時には速度を優先し追尾処理を簡略化するといったように、カメラの設定を追尾演算切換えの判断基準にしてもよい。
第5の応用例として、撮影レンズの焦点距離が短い(画角が広い)場合には精度を優先し通常の追尾処理を行い、焦点距離が長い(画角が狭い)場合は速度を優先し追尾処理を簡略化するといったように、レンズの焦点距離を追尾演算切換えの判断基準にしてもよい。
Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention. Further, in the description of the operation described above, the operation is described using “first”, “next”, and the like for convenience. However, it does not mean that the operation is essential in this order.
In the embodiment described above, the process is switched according to the image processing time and the threshold, but the determination criterion for switching the tracking calculation process is not limited to this. In the following, variations of the determination criteria will be described as application examples.
As a first application example, the set image processing mode is used as a determination criterion for switching the tracking calculation, such as switching the tracking processing between an image processing mode that takes time to process and an image processing mode that does not take time. Good.
As a second application example, the tracking processing is simplified when the priority is given to image processing, and the image processing is simplified when priority is given to the tracking processing. It may be a standard.
As a third application example, for example, in the case of a subject suitable for tracking by luminance, priority is given to the luminance tracking processing, and other tracking processing is simplified, and in the case of a subject suitable for tracking by color, color is selected. The feature of the subject may be used as a criterion for switching the tracking calculation so that the tracking process is prioritized and other tracking processes are simplified.
As a fourth application example, for example, when tracking is performed during continuous shooting, accuracy is prioritized when low-speed continuous shooting is selected, and normal tracking processing is performed when high-speed continuous shooting is selected. For example, the camera setting may be used as a criterion for switching the tracking calculation.
As a fifth application example, when the focal length of the taking lens is short (wide angle of view), priority is given to accuracy and normal tracking processing is performed. When the focal length is long (angle of view is narrow), priority is given to speed. In order to simplify the tracking process, the focal length of the lens may be used as a criterion for switching the tracking calculation.

さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

100…撮像装置、102…撮影光学系、104…焦点調整機構、106…絞り、108…絞り駆動機構、110…シャッタ、112…シャッタ駆動機構、114…撮像素子、116…撮像素子インターフェイス(IF)回路、118…RAM、120…表示素子、122…表示素子駆動回路、124…タッチパネル、126…タッチパネル駆動回路、128…記録メディア、130…システムコントローラ、132…操作部、134…ROM、1301…CPU、1302…AF制御回路、1303…AE制御回路、1304…画像処理回路、1305,1306…追尾処理回路、1307…顏検出回路、1308…色情報取得回路、1309…メモリ制御回路   DESCRIPTION OF SYMBOLS 100 ... Imaging device, 102 ... Imaging optical system, 104 ... Focus adjustment mechanism, 106 ... Aperture, 108 ... Aperture drive mechanism, 110 ... Shutter, 112 ... Shutter drive mechanism, 114 ... Imaging element, 116 ... Imaging element interface (IF) Circuit: 118 ... RAM, 120 ... Display element, 122 ... Display element drive circuit, 124 ... Touch panel, 126 ... Touch panel drive circuit, 128 ... Recording medium, 130 ... System controller, 132 ... Operation unit, 134 ... ROM, 1301 ... CPU 1302: AF control circuit, 1303 ... AE control circuit, 1304 ... Image processing circuit, 1305, 1306 ... Tracking processing circuit, 1307 ... Haze detection circuit, 1308 ... Color information acquisition circuit, 1309 ... Memory control circuit

Claims (9)

撮影して得た画像データである第1の画像データを生成する第1の画像生成モードと、前記第1の画像データを生成すると共に前記第1の画像データに所定の処理を施した第2の画像データを生成する第2の画像生成モードと、のうち何れかの画像生成モードを設定する作画モード設定部と、
当該追尾装置に入力された画像データを、前記作画モード設定部の設定に応じて処理する画像処理部と、
前記画像処理部により処理された画像データについて特徴情報を検出し、且つ、被写体の顔部位を検出する追尾検出部と、
前記特徴情報または前記顔部位に基づいて、追尾対象の移動位置を演算する追尾演算部と、
前記第2の画像生成モードが設定された場合には、前記追尾演算部による演算を、前記第1の画像生成モードが設定された場合に実行する演算とは異なる演算に切り換える演算切換部と、
を具備することを特徴とする追尾装置。
A first image generation mode for generating first image data, which is image data obtained by photographing, and a second for generating the first image data and performing predetermined processing on the first image data. A second image generation mode for generating the image data; a drawing mode setting unit for setting any one of the image generation modes;
An image processing unit that processes the image data input to the tracking device according to the setting of the drawing mode setting unit;
A tracking detection unit that detects feature information about the image data processed by the image processing unit and detects a face part of the subject;
A tracking calculation unit that calculates a movement position of the tracking target based on the feature information or the face part;
A calculation switching unit that switches the calculation by the tracking calculation unit to a calculation different from the calculation executed when the first image generation mode is set when the second image generation mode is set;
A tracking device comprising:
前記演算切換部は、前記第2の画像生成モードが設定された場合には、前記追尾検出部による前記被写体の顔部位の検出の有無に応じて、前記追尾演算部による演算を切り換える
ことを特徴とする請求項1に記載の追尾装置。
When the second image generation mode is set, the calculation switching unit switches the calculation by the tracking calculation unit according to whether or not the face part of the subject is detected by the tracking detection unit. The tracking device according to claim 1.
前記演算切換部は、前記追尾検出部により前記被写体の顔部位が検出された場合には、前記追尾演算部による演算を前記被写体の顔部位の検出結果に基づいた演算に切り換え、前記被写体の顔部位が検出されなかった場合には、前記追尾演算部による演算を前記特徴情報に基づいた演算に切り換える
ことを特徴とする請求項1に記載の追尾装置。
When the tracking detection unit detects the face part of the subject, the calculation switching unit switches the calculation by the tracking calculation part to a calculation based on the detection result of the face part of the subject. 2. The tracking device according to claim 1, wherein when a part is not detected, the calculation performed by the tracking calculation unit is switched to a calculation based on the feature information.
前記特徴情報は、色情報、輝度情報、輪郭情報のうち少なくとも何れかひとつの情報である
ことを特徴とする請求項1に記載の追尾装置。
The tracking device according to claim 1, wherein the feature information is at least one of color information, luminance information, and contour information.
前記所定の処理は、複数フレームの画像データを合成して1つのフレームの前記第2の画像データを生成する処理、1フレームの画像データに対して行う光学的処理または現像に類する処理、及び1フレームの画像データの一部を切り出して複数の前記第2の画像データを生成する処理、のうち少なくとも何れか一つの処理である
ことを特徴とする請求項1に記載の追尾装置。
The predetermined process includes a process of combining a plurality of frames of image data to generate the second image data of one frame, a process similar to an optical process or development performed on one frame of image data, and 1 The tracking device according to claim 1, wherein the tracking device is at least one of a plurality of second image data generated by cutting out part of image data of a frame.
前記第1の画像生成モードが設定された場合の画像表示に係るフレームレートと、前記第2の画像生成モードが設定された場合の画像表示に係るフレームレートとは異なる
ことを特徴とする請求項1に記載の追尾装置。
The frame rate for image display when the first image generation mode is set is different from the frame rate for image display when the second image generation mode is set. 2. The tracking device according to 1.
前記第2の画像生成モードが設定された場合には、前記所定の画像処理に対して前記追尾演算を優先して処理する
ことを特徴とする請求項1に記載の追尾装置。
2. The tracking device according to claim 1, wherein when the second image generation mode is set, the tracking calculation is performed with priority over the predetermined image processing.
前記第2の画像生成モードが設定された場合には、前記追尾演算に対して前記所定の画像処理を優先して処理する場合には、前記追尾演算の処理のうち一部の処理を実行しない
ことを特徴とする請求項1に記載の追尾装置。
When the second image generation mode is set, when the predetermined image processing is performed with priority over the tracking calculation, some of the tracking calculation processes are not executed. The tracking device according to claim 1.
撮影して得た画像データである第1の画像データを生成する第1の画像生成モードと、前記第1の画像データを生成すると共に前記第1の画像データに所定の処理を施した第2の画像データを生成する第2の画像生成モードと、のうち何れかの画像生成モードを設定し、
入力された画像データを、前記作画モード設定部の設定に応じて処理し、
前記処理された画像データについて特徴情報を検出し、且つ、被写体の顔部位を検出し、
前記特徴情報または前記顔部位に基づいて、追尾対象の移動位置を演算し、
前記第2の画像生成モードが設定された場合には、前記追尾演算部による演算を、前記第1の画像生成モードが設定された場合に実効する演算とは異なる演算に切り換える、
ことを特徴とする追尾方法。
A first image generation mode for generating first image data, which is image data obtained by photographing, and a second for generating the first image data and performing predetermined processing on the first image data. One of the second image generation modes for generating the image data and the image generation mode, and
The input image data is processed according to the setting of the drawing mode setting unit,
Detecting feature information about the processed image data, and detecting a face part of the subject,
Based on the feature information or the face part, the movement position of the tracking target is calculated,
When the second image generation mode is set, the calculation performed by the tracking calculation unit is switched to a calculation different from the calculation performed when the first image generation mode is set.
The tracking method characterized by this.
JP2011144775A 2011-06-29 2011-06-29 Tracker and tracking method Withdrawn JP2013012944A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011144775A JP2013012944A (en) 2011-06-29 2011-06-29 Tracker and tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011144775A JP2013012944A (en) 2011-06-29 2011-06-29 Tracker and tracking method

Publications (1)

Publication Number Publication Date
JP2013012944A true JP2013012944A (en) 2013-01-17

Family

ID=47686446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011144775A Withdrawn JP2013012944A (en) 2011-06-29 2011-06-29 Tracker and tracking method

Country Status (1)

Country Link
JP (1) JP2013012944A (en)

Similar Documents

Publication Publication Date Title
JP5830373B2 (en) Imaging device
JP5226903B1 (en) TRACKING DEVICE AND TRACKING METHOD
US9317748B2 (en) Tracking apparatus
JP5771461B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
US10033919B2 (en) Focus adjusting apparatus, focus adjusting method, image capturing apparatus, and storage medium
US8823863B2 (en) Image capturing apparatus and control method therefor
US20100046798A1 (en) Image processing apparatus, image processing method, and storage medium
WO2015002303A1 (en) Tracking device, tracking method, and non-transitory recording medium having tracking program stored therein
JP5851206B2 (en) TRACKING DEVICE AND TRACKING METHOD
JP2009111716A (en) Imaging apparatus, program and template generating method
US11012615B2 (en) Imaging apparatus, control method and non-transitory computer readable medium that determines a confused state
JP2013012940A (en) Tracking apparatus and tracking method
JP6172973B2 (en) Image processing device
JP6603892B2 (en) Imaging device
JP2008301161A (en) Image processing device, digital camera, and image processing method
JP5965654B2 (en) TRACKING DEVICE, IMAGING DEVICE, TRACKING METHOD USED FOR IMAGING DEVICE
JP5769518B2 (en) Imaging device
JP5839857B2 (en) Imaging apparatus, imaging method, and imaging program
JP5977526B2 (en) Image processing apparatus and image processing method
JP2013012944A (en) Tracker and tracking method
US9525815B2 (en) Imaging apparatus, method for controlling the same, and recording medium to control light emission
US11743597B2 (en) Electronic apparatus and control method thereof, and storage medium
JP2009194469A (en) Imaging apparatus
US9866755B2 (en) Image capture apparatus and method for controlling the same
JP2014038164A (en) Image processor

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902