JP2013157725A - Tracking device and tracking method - Google Patents

Tracking device and tracking method Download PDF

Info

Publication number
JP2013157725A
JP2013157725A JP2012015486A JP2012015486A JP2013157725A JP 2013157725 A JP2013157725 A JP 2013157725A JP 2012015486 A JP2012015486 A JP 2012015486A JP 2012015486 A JP2012015486 A JP 2012015486A JP 2013157725 A JP2013157725 A JP 2013157725A
Authority
JP
Japan
Prior art keywords
tracking
area
color
comparison
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012015486A
Other languages
Japanese (ja)
Other versions
JP5965653B2 (en
Inventor
Nao Yoneyama
尚 米山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2012015486A priority Critical patent/JP5965653B2/en
Publication of JP2013157725A publication Critical patent/JP2013157725A/en
Application granted granted Critical
Publication of JP5965653B2 publication Critical patent/JP5965653B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a tracking device that can track a tracking object even when there is a similar color at the periphery of the tracking object.SOLUTION: An image acquisition unit 13061 acquires an image including a tracking object which is a tracking target from, for example, a RAM 118 described later. A tracking region setting unit 13062 sets a tracking region to the tracking object at an image of (N-1)th frame. A color acquisition position determination unit 13063 determines a plurality of color acquisition positions on the basis of the position of the tracking region. A similar color detection unit 13064 compares a tracking color which is a color of the tracking region at the (N-1)th frame with each color of the color acquisition positions at the Nth frame, and selects a color acquisition position about which the color is the most similar as the most similar color position. A tracking region update unit 13065 has the tracking region setting unit 13062 set the position based on the most similar color position as the tracking region at the Nth frame. This is repeated and tracking of the tracking object is performed.

Description

本発明は、被写体を追尾する追尾装置及び追尾方法に関する。   The present invention relates to a tracking device and a tracking method for tracking a subject.

一般に、動体を撮影する際や動画像を撮影する際に、特定の被写体に追従するように自動合焦制御(AF)や自動露光制御(AE)を行う技術が知られている。このような特定の被写体に追従するために追尾処理が用いられている。追尾処理には、輝度情報を利用するもの、色情報を利用するもの、顔検出を利用するもの等、種々のものがある。例えば特許文献1には、被写体の色情報に基づいて、被写体を追尾する技術が開示されている。例えば色情報に基づいて被写体を追尾する場合、追尾対象として設定された領域の色と類似する色が画像の中で探索される。   In general, a technique for performing automatic focusing control (AF) or automatic exposure control (AE) so as to follow a specific subject when shooting a moving body or shooting a moving image is known. Tracking processing is used to follow such a specific subject. There are various types of tracking processes, such as those using luminance information, those using color information, and those using face detection. For example, Patent Document 1 discloses a technique for tracking a subject based on the color information of the subject. For example, when tracking a subject based on color information, a color similar to the color of an area set as a tracking target is searched for in the image.

特許第2605004号公報Japanese Patent No. 2605004

追尾対象である追尾被写体を色情報に基づいて追尾する際に、追尾被写体の周辺に追尾被写体と類似する色を有する非追尾被写体が出現すると、追尾対象が追尾被写体から非追尾被写体に移行し、非追尾被写体の追尾が開始され、追尾被写体が見失われる恐れがある。   When tracking a tracking subject that is a tracking target based on color information, if a non-tracking subject having a color similar to the tracking subject appears around the tracking subject, the tracking target shifts from the tracking subject to a non-tracking subject, Tracking of a non-tracking subject is started, and the tracking subject may be lost.

そこで本発明は、追尾被写体の周辺に追尾被写体の色と類似の色を有する被写体が存在しても、追尾被写体の追尾を継続できる追尾装置及び追尾方法を提供することを目的とする。   Accordingly, an object of the present invention is to provide a tracking device and a tracking method capable of continuing tracking of a tracking subject even when a subject having a color similar to the color of the tracking subject exists around the tracking subject.

前記目的を果たすため、本発明の一態様によれば、追尾装置は、画像を取得する画像取得部と、前記画像のうち一部の領域を追尾領域に設定し、この追尾領域の色を追尾色に設定する追尾領域設定部と、前記画像において所定の位置関係を有する少なくとも3つの領域を比較領域に設定する比較領域設定部と、前記比較領域のうち前記追尾色に最も類似する色を有する前記比較領域を更新領域として選択する類似色検出部と、前記更新領域に基づいて前記追尾領域を再設定する追尾領域更新を前記追尾領域設定部に実行させる追尾領域更新部と、を具備することを特徴とする。   In order to achieve the object, according to one aspect of the present invention, a tracking device sets an image acquisition unit that acquires an image, a partial area of the image as a tracking area, and tracks the color of the tracking area. A tracking region setting unit for setting a color, a comparison region setting unit for setting at least three regions having a predetermined positional relationship in the image as comparison regions, and a color most similar to the tracking color among the comparison regions A similar color detection unit that selects the comparison region as an update region, and a tracking region update unit that causes the tracking region setting unit to perform tracking region update that resets the tracking region based on the update region. It is characterized by.

前記目的を果たすため、本発明の別の一態様によれば、追尾装置は、画像を取得する画像取得部と、少なくも3つの比較領域の所定の位置関係をポイントテンプレートとして記憶するテンプレート記憶部と、前記画像のうち一部の領域を追尾領域に設定し、この追尾領域の色を追尾色に設定する追尾領域設定部と、前記画像において前記追尾領域の位置に基づいて前記ポイントテンプレートの位置を設定するテンプレート設定部と、設定された前記ポイントテンプレートの前記比較領域のうち前記追尾色に最も類似する色を有する前記比較領域を更新領域として選択する類似色検出部と、前記更新領域に基づいて前記追尾領域を再設定する追尾領域更新を前記追尾領域設定部に実行させる追尾領域更新部と、を具備することを特徴とする。   To achieve the above object, according to another aspect of the present invention, the tracking device includes an image acquisition unit that acquires an image, and a template storage unit that stores a predetermined positional relationship of at least three comparison regions as a point template. A tracking area setting unit that sets a part of the image as a tracking area and sets a color of the tracking area as a tracking color, and the position of the point template based on the position of the tracking area in the image. Based on the update region, a similar color detection unit that selects, as an update region, the comparison region having the color most similar to the tracking color among the comparison regions of the set point template And a tracking area updating unit that causes the tracking area setting unit to execute tracking area updating for resetting the tracking area.

前記目的を果たすため、本発明の一態様によれば、追尾方法は、画像を取得することと、前記画像のうち一部の領域を追尾領域に設定し、この追尾領域の色を追尾色に設定することと、前記画像において所定の位置関係を有する少なくとも3つの領域を比較領域に設定することと、前記比較領域のうち前記追尾色に最も類似する色を有する前記比較領域を更新領域として選択することと、前記更新領域に基づいて前記追尾領域を再設定することと、を具備することを特徴とする。   In order to achieve the above object, according to one aspect of the present invention, a tracking method includes acquiring an image, setting a partial area of the image as a tracking area, and setting the color of the tracking area to a tracking color. Setting, setting at least three regions having a predetermined positional relationship in the image as comparison regions, and selecting the comparison region having the color most similar to the tracking color as the update region among the comparison regions And resetting the tracking area based on the update area.

前記目的を果たすため、本発明の別の一態様によれば、追尾方法は、画像を取得することと、前記画像のうち一部の領域を追尾領域に設定し、この追尾領域の色を追尾色に設定することと、前記画像において前記追尾領域の位置に基づいて、少なくも3つの比較領域の所定の位置関係を有するポイントテンプレートの位置を設定することと、前記ポイントテンプレートの前記比較領域のうち前記追尾色に最も類似する色を有する前記比較領域を更新領域として選択することと、前記更新領域に基づいて前記追尾領域を再設定することと、を具備することを特徴とする。   To achieve the above object, according to another aspect of the present invention, a tracking method includes acquiring an image, setting a part of the image as a tracking region, and tracking the color of the tracking region. Setting a color, setting a position of a point template having a predetermined positional relationship among at least three comparison areas based on the position of the tracking area in the image, and setting the position of the comparison area of the point template. The comparison area having the color most similar to the tracking color is selected as an update area, and the tracking area is reset based on the update area.

本発明によれば、追尾被写体の周辺に追尾被写体の色と類似の色を有する被写体が存在しても、追尾被写体の追尾を継続できる追尾装置及び追尾方法を提供できる。   According to the present invention, it is possible to provide a tracking device and a tracking method capable of continuing tracking of a tracking subject even if a subject having a color similar to the color of the tracking subject exists around the tracking subject.

本発明の一実施形態に係る追尾装置を備えた撮像装置の構成の一例を示す図。The figure which shows an example of a structure of the imaging device provided with the tracking apparatus which concerns on one Embodiment of this invention. 顔検出処理について説明するための図。The figure for demonstrating a face detection process. 一実施形態に係る撮像装置の撮影動作の一例を示すフローチャート。6 is a flowchart illustrating an example of a shooting operation of the imaging apparatus according to the embodiment. 第1の実施形態に係る追尾方法としての追尾処理の一例を示すフローチャート。The flowchart which shows an example of the tracking process as a tracking method which concerns on 1st Embodiment. 第1の実施形態に係る色情報取得位置判断処理の一例を示すフローチャート。5 is a flowchart illustrating an example of color information acquisition position determination processing according to the first embodiment. 第1の実施形態に係る色情報取得位置判断処理によって得られる色情報取得位置の一例について説明するための図。FIG. 5 is a diagram for explaining an example of a color information acquisition position obtained by a color information acquisition position determination process according to the first embodiment. 第1の実施形態に係る最類似色判断処理の一例を示すフローチャート。6 is a flowchart illustrating an example of the most similar color determination process according to the first embodiment. 第1の実施形態に係る最類似色判断処理による最類似色の取得を説明するための図。The figure for demonstrating acquisition of the most similar color by the most similar color judgment process which concerns on 1st Embodiment. 従来の色追尾技術の一例について説明するための図。The figure for demonstrating an example of the conventional color tracking technique. 従来の色追尾技術において生じ得る不都合を説明するための図。The figure for demonstrating the inconvenience which may arise in the conventional color tracking technique. 第1の実施形態に係る色情報取得位置判断処理によって得られる色情報取得位置の一例について説明するための図。FIG. 5 is a diagram for explaining an example of a color information acquisition position obtained by a color information acquisition position determination process according to the first embodiment. 第2の実施形態に係る追尾処理の一例を示すフローチャート。The flowchart which shows an example of the tracking process which concerns on 2nd Embodiment. 第3の実施形態に係る追尾処理の一例を示すフローチャート。The flowchart which shows an example of the tracking process which concerns on 3rd Embodiment. 第4の実施形態に係る色情報取得位置判断処理の一例を示すフローチャート。10 is a flowchart illustrating an example of color information acquisition position determination processing according to the fourth embodiment. 第4の実施形態に係る色情報取得位置判断処理によって得られる色情報取得位置の一例について説明するための図。The figure for demonstrating an example of the color information acquisition position obtained by the color information acquisition position judgment process which concerns on 4th Embodiment. 第5の実施形態に係る最類似色判断処理の一例を示すフローチャート。10 is a flowchart illustrating an example of the most similar color determination process according to the fifth embodiment.

[第1の実施形態]
本発明の第1の実施形態について図面を参照して説明する。図1は、本実施形態に係る追尾装置を備えた撮像装置の構成の一例を示す図である。図1に示す撮像装置100は、撮影光学系102と、焦点調整機構104と、絞り106と、絞り駆動機構108と、シャッタ110と、シャッタ駆動機構112と、撮像素子114と、撮像素子インターフェイス(IF)回路116と、RAM118と、表示素子120と、表示素子駆動回路122と、タッチパネル124と、タッチパネル駆動回路126と、記録メディア128と、システムコントローラ130と、操作部132と、ROM134とを有している。
[First Embodiment]
A first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating an example of a configuration of an imaging apparatus including a tracking device according to the present embodiment. An imaging apparatus 100 illustrated in FIG. 1 includes a photographing optical system 102, a focus adjustment mechanism 104, a diaphragm 106, a diaphragm driving mechanism 108, a shutter 110, a shutter driving mechanism 112, an imaging element 114, and an imaging element interface ( IF) circuit 116, RAM 118, display element 120, display element drive circuit 122, touch panel 124, touch panel drive circuit 126, recording medium 128, system controller 130, operation unit 132, and ROM 134. doing.

撮影光学系102は、図示しない被写体からの光束Fを、撮像素子114の受光面上に集光するための光学系である。この撮影光学系102は、フォーカスレンズ等の複数のレンズを有している。また、撮影光学系102は、ズーム機構を有していてもよい。焦点調整機構104は、モータ及びその駆動回路等を有している。この焦点調整機構104は、システムコントローラ130内のCPU1301の制御に従って、撮影光学系102内のフォーカスレンズをその光軸方向(図示一点鎖線方向)に駆動させる。   The photographing optical system 102 is an optical system for condensing a light flux F from a subject (not shown) on the light receiving surface of the image sensor 114. The photographing optical system 102 has a plurality of lenses such as a focus lens. Further, the photographing optical system 102 may have a zoom mechanism. The focus adjustment mechanism 104 includes a motor and its drive circuit. The focus adjustment mechanism 104 drives the focus lens in the photographing optical system 102 in the optical axis direction (the one-dot chain line direction in the drawing) under the control of the CPU 1301 in the system controller 130.

絞り106は、開閉自在に構成され、撮影光学系102を介して撮像素子114に入射する光束Fの量を調整する。絞り駆動機構108は、絞り106を駆動するための駆動機構を有している。この絞り駆動機構108は、システムコントローラ130内のCPU1301の制御に従って、絞り106を駆動させる。   The diaphragm 106 is configured to be openable and closable, and adjusts the amount of the light beam F incident on the image sensor 114 via the photographing optical system 102. The aperture drive mechanism 108 has a drive mechanism for driving the aperture 106. The diaphragm driving mechanism 108 drives the diaphragm 106 according to the control of the CPU 1301 in the system controller 130.

シャッタ110は、撮像素子114の受光面を遮光状態又は露光状態とするように構成されている。このシャッタ110により、撮像素子114の露光時間が調整される。シャッタ駆動機構112は、シャッタ110を駆動させるための駆動機構を有し、システムコントローラ130内のCPU1301の制御に従って、シャッタ110を駆動させる。   The shutter 110 is configured to place the light receiving surface of the image sensor 114 in a light shielding state or an exposure state. The exposure time of the image sensor 114 is adjusted by the shutter 110. The shutter drive mechanism 112 has a drive mechanism for driving the shutter 110, and drives the shutter 110 under the control of the CPU 1301 in the system controller 130.

撮像素子114は、撮影光学系102を介して集光された被写体からの光束Fが結像される受光面を有している。撮像素子114の受光面は、複数の画素が2次元状に配置されて構成されており、また、受光面の光入射側には、カラーフィルタが設けられている。このような撮像素子114は、受光面に結像された光束Fに対応した像(被写体像)を、その光量に応じた電気信号(以下、画像信号という)に変換する。ここで、撮像素子114としては、CCD方式やCMOS方式等の種々の構成の撮像素子が知られている。また、カラーフィルタの色配列としては、ベイヤ配列等の種々の配列が知られている。本実施形態は、撮像素子114の構成が特定の構成に限定されるものではない。したがって、種々の構成の撮像素子が用いられ得る。   The imaging element 114 has a light receiving surface on which a light flux F from a subject condensed through the photographing optical system 102 is imaged. The light receiving surface of the image sensor 114 is configured by two-dimensionally arranging a plurality of pixels, and a color filter is provided on the light incident side of the light receiving surface. Such an image sensor 114 converts an image (subject image) corresponding to the light beam F formed on the light receiving surface into an electrical signal (hereinafter referred to as an image signal) corresponding to the light amount. Here, as the imaging element 114, imaging elements having various configurations such as a CCD system and a CMOS system are known. Various arrangements such as a Bayer arrangement are known as the color arrangement of the color filter. In the present embodiment, the configuration of the image sensor 114 is not limited to a specific configuration. Therefore, image pickup devices with various configurations can be used.

撮像素子IF回路116は、システムコントローラ130内のCPU1301の制御に従って、撮像素子114を駆動させる。また、撮像素子IF回路116は、システムコントローラ130内のCPU1301の制御に従って、撮像素子114で得られた画像信号を読み出し、読み出した画像信号に対してCDS(相関二重サンプリング)処理やAGC(自動利得制御)処理等のアナログ処理を施す。さらに、撮像素子IF回路116は、アナログ処理した画像信号をデジタル信号(以下、画像データという)に変換する。   The image sensor IF circuit 116 drives the image sensor 114 under the control of the CPU 1301 in the system controller 130. The image sensor IF circuit 116 reads the image signal obtained by the image sensor 114 according to the control of the CPU 1301 in the system controller 130, and performs CDS (correlated double sampling) processing or AGC (automatic operation) on the read image signal. Analog processing such as gain control processing is performed. Further, the image sensor IF circuit 116 converts the analog processed image signal into a digital signal (hereinafter referred to as image data).

表示素子120は、例えば液晶ディスプレイ(LCD)であり、ライブビュー用の画像及び記録メディア128に記録された画像等の各種の画像を表示する。表示素子駆動回路122は、システムコントローラ130のCPU1301から入力された画像データに基づいて表示素子120を駆動させ、表示素子120に画像を表示させる。   The display element 120 is a liquid crystal display (LCD), for example, and displays various images such as an image for live view and an image recorded on the recording medium 128. The display element driving circuit 122 drives the display element 120 based on the image data input from the CPU 1301 of the system controller 130 and causes the display element 120 to display an image.

タッチパネル124は、表示素子120の表示画面上に一体的に形成されており、表示画面上へのユーザの指等の接触位置等を検出する。タッチパネル駆動回路126は、タッチパネル124を駆動するとともに、タッチパネル124からの接触検出信号をシステムコントローラ130のCPU1301に出力する。CPU1301は、接触検出信号から、ユーザの表示画面上への接触操作を検出し、その接触操作に応じた処理を実行する。   The touch panel 124 is integrally formed on the display screen of the display element 120, and detects a contact position of a user's finger or the like on the display screen. The touch panel drive circuit 126 drives the touch panel 124 and outputs a contact detection signal from the touch panel 124 to the CPU 1301 of the system controller 130. The CPU 1301 detects a contact operation on the display screen of the user from the contact detection signal, and executes processing according to the contact operation.

記録メディア128は、例えばメモリカードであり、撮影動作によって得られた画像ファイルが記録される。画像ファイルは、画像データに所定のヘッダを付与して構成されるファイルである。ヘッダには、撮影条件を示すデータ及び追尾位置を示すデータ等が、タグデータとして記録される。   The recording medium 128 is a memory card, for example, and records an image file obtained by a shooting operation. The image file is a file configured by adding a predetermined header to image data. In the header, data indicating shooting conditions, data indicating a tracking position, and the like are recorded as tag data.

システムコントローラ130は、撮像装置100の動作を制御するための制御回路として、CPU1301と、AF制御回路1302と、AE制御回路1303と、画像処理回路1304と、焦点距離取得回路1305と、追尾処理回路1306と、顔検出回路1307と、メモリ制御回路1308とを有している。   The system controller 130 is a control circuit for controlling the operation of the imaging apparatus 100, and includes a CPU 1301, an AF control circuit 1302, an AE control circuit 1303, an image processing circuit 1304, a focal length acquisition circuit 1305, and a tracking processing circuit. 1306, a face detection circuit 1307, and a memory control circuit 1308.

CPU1301は、焦点調整機構104、絞り駆動機構108、シャッタ駆動機構112、表示素子駆動回路122、タッチパネル駆動回路126等のシステムコントローラ130の外部の各ブロック、及びシステムコントローラ130の内部の各制御回路の動作を制御する。   The CPU 1301 includes blocks outside the system controller 130 such as the focus adjustment mechanism 104, the aperture driving mechanism 108, the shutter driving mechanism 112, the display element driving circuit 122, and the touch panel driving circuit 126, and each control circuit inside the system controller 130. Control the behavior.

AF制御回路1302は、コントラストAF処理を制御する。具体的には、AF制御回路1302は、撮像素子IF回路116で得られた画像データの高周波成分を抽出し、この抽出した高周波成分を積算することにより、AF用の合焦評価値を取得する。CPU1301は、この合焦評価値に従って画像データのコントラストを評価しつつ、焦点調整機構104を制御してフォーカスレンズを合焦状態とする。   The AF control circuit 1302 controls contrast AF processing. Specifically, the AF control circuit 1302 extracts the high frequency component of the image data obtained by the image sensor IF circuit 116, and acquires the focus evaluation value for AF by integrating the extracted high frequency component. . The CPU 1301 controls the focus adjustment mechanism 104 to bring the focus lens into focus while evaluating the contrast of the image data according to the focus evaluation value.

AE制御回路1303は、AE動作を制御する。具体的には、AE制御回路1303は、撮像素子IF回路116で得られた画像データを用いて被写体輝度を算出する。CPU1301は、この被写体輝度に従って、露光時の絞り106の開口量(絞り値)、シャッタ110の開放時間(シャッタ速度値)、撮像素子感度やISO感度等を算出する。   The AE control circuit 1303 controls the AE operation. Specifically, the AE control circuit 1303 calculates subject luminance using the image data obtained by the image sensor IF circuit 116. The CPU 1301 calculates the aperture amount (aperture value) of the aperture 106 during exposure, the opening time of the shutter 110 (shutter speed value), the image sensor sensitivity, the ISO sensitivity, and the like according to the subject brightness.

画像処理回路1304は、画像データに対する各種の画像処理を行う。この画像処理としては、色補正処理、ガンマ(γ)補正処理、圧縮処理等が含まれる。また、画像処理回路1304は、圧縮されている画像データに対する伸張処理も施す。   The image processing circuit 1304 performs various image processing on the image data. This image processing includes color correction processing, gamma (γ) correction processing, compression processing, and the like. The image processing circuit 1304 also performs decompression processing on the compressed image data.

焦点距離取得回路1305は、撮影光学系102がズーム機構を有する場合に設けられる。焦点距離取得回路1305は、撮影光学系102からその焦点距離を取得する。追尾処理回路1306は、後に詳述する本実施形態に係る追尾処理を実行する。追尾処理回路1306は、画像取得部13061と、追尾領域設定部13062と、色取得位置決定部13063と、類似色検出部13064と、追尾領域更新部13065と、信頼性判定部13066と、追尾色重心検索部13067とを有する。画像取得部13061は、例えば後述のRAM118から追尾対象である追尾被写体を含む画像を、追尾処理回路1306に取り込む。追尾領域設定部13062は、(N−1)フレーム目の画像において追尾被写体に追尾領域を設定する。色取得位置決定部13063は、追尾領域の位置を基準として複数の色取得位置を決定する。類似色検出部13064は、(N−1)フレーム目の画像における追尾領域の色である追尾色と、Nフレーム目の画像における色取得位置の各色とを比較し、最も色が類似している色取得位置を最類似色位置として選択する。追尾領域更新部13065は、追尾領域設定部13062に、最類似色位置に基づく位置をNフレーム目の画像における追尾領域に再設定させる。信頼性判定部13066は、追尾領域更新部13065による追尾領域の更新についての信頼性を判定する。これが繰り返されて追尾被写体の追尾が行われる。また、追尾色重心検索部13067は、従来の色追尾技術である追尾色重心検索を行う。すなわち、追尾色重心検索部13067は、例えば前のフレームの追尾領域の位置に基づいて決定されたサーチエリア内をラスタースキャンし、追尾色と同じ色情報を有する領域を検索し、その重心位置を決定する。   The focal length acquisition circuit 1305 is provided when the photographing optical system 102 has a zoom mechanism. A focal length acquisition circuit 1305 acquires the focal length from the photographing optical system 102. The tracking processing circuit 1306 executes tracking processing according to the present embodiment described in detail later. The tracking processing circuit 1306 includes an image acquisition unit 13061, a tracking region setting unit 13062, a color acquisition position determination unit 13063, a similar color detection unit 13064, a tracking region update unit 13065, a reliability determination unit 13066, and a tracking color. And a center-of-gravity search unit 13067. The image acquisition unit 13061 captures, for example, an image including a tracking subject that is a tracking target from the RAM 118 described later into the tracking processing circuit 1306. The tracking area setting unit 13062 sets a tracking area for the tracking subject in the image of the (N−1) th frame. The color acquisition position determination unit 13063 determines a plurality of color acquisition positions based on the position of the tracking area. The similar color detection unit 13064 compares the tracking color, which is the color of the tracking area in the (N-1) -th frame image, with each color at the color acquisition position in the N-th frame image, and has the most similar color. The color acquisition position is selected as the most similar color position. The tracking area update unit 13065 causes the tracking area setting unit 13062 to reset the position based on the most similar color position to the tracking area in the Nth frame image. The reliability determination unit 13066 determines the reliability of the tracking region update unit 13065 for updating the tracking region. This is repeated to track the tracking subject. The tracking color centroid search unit 13067 performs a tracking color centroid search, which is a conventional color tracking technique. That is, the tracking color centroid search unit 13067, for example, performs a raster scan in the search area determined based on the position of the tracking area of the previous frame, searches for an area having the same color information as the tracking color, and determines the centroid position. decide.

顔検出回路1307は、画像データにおける被写体(人物)の顔を検出する。ここで、顔検出処理について簡単に説明する。顔検出処理においては、各フレームで得られる画像データと、図2(a)に示すような顔パーツ402、404、406との相関量を求める。顔パーツ402は、人物の鼻部周辺の陰影のパターンに対応した画像データであり、顔パーツ404は、人物の目部周辺の陰影のパターンに対応した画像データであり、顔パーツ406は、人物の口部周辺の陰影のパターンに対応した画像データである。画像データと顔パーツ402、404、406との相関量は、図2(b)に示すような、人物の顔を示す所定の配置となったときに最大となる。このとき、顔パーツ402、404、406を含む領域408に顔が存在しているとする。なお、顔パーツ402、404、406は予め設定した検索顔の大きさに応じて、大きさを変えても良い。ここで、図2(b)では、顔領域を矩形領域としているが、円形領域としても良い。メモリ制御回路1308は、CPU1301等が、RAM118、記録メディア128、ROM134にアクセスするための制御を行うインターフェイスである。   The face detection circuit 1307 detects the face of the subject (person) in the image data. Here, the face detection process will be briefly described. In the face detection process, the correlation amount between the image data obtained in each frame and the face parts 402, 404, and 406 as shown in FIG. The face part 402 is image data corresponding to a shadow pattern around a person's nose, the face part 404 is image data corresponding to a shadow pattern around a person's eye, and the face part 406 is a person This is image data corresponding to the shadow pattern around the mouth. The amount of correlation between the image data and the face parts 402, 404, and 406 is maximized when a predetermined arrangement indicating a person's face is obtained as shown in FIG. At this time, it is assumed that a face exists in a region 408 including the face parts 402, 404, and 406. Note that the size of the face parts 402, 404, and 406 may be changed according to a preset search face size. Here, in FIG. 2B, the face area is a rectangular area, but it may be a circular area. The memory control circuit 1308 is an interface that performs control for the CPU 1301 and the like to access the RAM 118, the recording medium 128, and the ROM 134.

操作部132は、ユーザによって操作される各種の操作部材である。操作部132としては、例えば、レリーズボタン、動画ボタン、モードダイヤル、選択キー、電源ボタン等が含まれる。レリーズボタンは、1stレリーズスイッチと、2ndレリーズスイッチとを有している。1stレリーズスイッチは、ユーザがレリーズボタンを半押しするとオンするスイッチである。1stレリーズスイッチがオンすることにより、AF処理等の撮影準備動作が行われる。また、2ndレリーズスイッチは、ユーザがレリーズボタンを全押しするとオンするスイッチである。2ndレリーズスイッチがオンすることにより、静止画撮影用の露光動作が行われる。動画ボタンは、動画撮影の開始又は終了を指示するための操作部材である。ユーザによって動画ボタンが押されると動画撮影処理が開始される。また、動画撮影処理の実行中に動画ボタンが押されると、動画撮影処理が終了される。   The operation unit 132 is various operation members operated by the user. The operation unit 132 includes, for example, a release button, a moving image button, a mode dial, a selection key, a power button, and the like. The release button has a 1st release switch and a 2nd release switch. The 1st release switch is a switch that is turned on when the user presses the release button halfway. When the 1st release switch is turned on, a shooting preparation operation such as AF processing is performed. The 2nd release switch is a switch that is turned on when the user fully presses the release button. When the 2nd release switch is turned on, an exposure operation for still image shooting is performed. The moving image button is an operation member for instructing the start or end of moving image shooting. When the user presses the moving image button, the moving image shooting process is started. When the moving image button is pressed during the moving image shooting process, the moving image shooting process is terminated.

モードダイヤルは、撮像装置の撮影設定を選択するための操作部材である。本実施形態では、撮像装置の撮影設定として、例えば、静止画撮影モードと動画撮影モードを選択できる。静止画撮影モードは、静止画像を撮影するための撮影設定である。また、動画撮影モードは、動画像を撮影するための撮影設定である。選択キーは、例えばメニュー画面上での項目の選択や決定をするための操作部材である。ユーザによって選択キーが操作されるとメニュー画面上での項目の選択や決定が行われる。電源ボタンは、撮像装置の電源をオン又はオフするための操作部材である。ユーザによって電源ボタンが操作されると、撮像装置100が起動して動作可能な状態となる。撮像装置が起動している間に電源ボタンが操作されると、撮像装置100が省電力待機状態となる。   The mode dial is an operation member for selecting shooting settings of the imaging apparatus. In the present embodiment, for example, a still image shooting mode and a moving image shooting mode can be selected as shooting settings of the imaging apparatus. The still image shooting mode is a shooting setting for shooting a still image. The moving image shooting mode is a shooting setting for shooting a moving image. The selection key is an operation member for selecting or determining an item on the menu screen, for example. When the selection key is operated by the user, an item is selected or determined on the menu screen. The power button is an operation member for turning on or off the power of the imaging apparatus. When the power button is operated by the user, the imaging apparatus 100 is activated and becomes operable. If the power button is operated while the imaging apparatus is activated, the imaging apparatus 100 enters a power saving standby state.

ROM134は、CPU1301が種々の処理を実行するためのプログラムコードを記憶している。また、ROM134は、撮影光学系102、絞り106、及び撮像素子114等の動作に必要な制御パラメータ、並びに画像処理回路1304での画像処理に必要な制御パラメータ等の、各種の制御パラメータを記憶している。さらに、ROM134は、顔検出回路1307における顔検出に用いられる顔パーツのデータや追尾枠を表示するためのデータ等も記憶している。   The ROM 134 stores program codes for the CPU 1301 to execute various processes. In addition, the ROM 134 stores various control parameters such as control parameters necessary for the operation of the photographing optical system 102, the aperture 106, the image sensor 114, and the like, and control parameters necessary for image processing in the image processing circuit 1304. ing. Further, the ROM 134 also stores face part data used for face detection in the face detection circuit 1307, data for displaying a tracking frame, and the like.

RAM118は、例えばSDRAMであり、ワークエリア、追尾画像エリア、追尾色ログエリア及び追尾データログエリアを記憶エリアとして有している。ワークエリアは、撮像素子IF回路116で得られた画像データ等の、撮像装置100の各部で発生したデータを一時記憶しておくためにRAM118に設けられた記憶エリアである。追尾画像エリアは、追尾画像データを一時記憶しておくためにRAM118に設けられた記憶エリアである。追尾画像データは、追尾処理における追尾被写体を含む画像のデータである。追尾処理においては、この追尾画像データが用いられる。追尾色ログエリアは、追尾処理において、追尾領域の色情報である追尾色を一時記憶しておくためにRAM118に設けられた記憶エリアである。追尾処理においては、追尾色ログエリアに記憶された追尾色と、色取得位置の色とが比較されて最類似色位置が選定される。追尾データログエリアは、追尾データログを一時記憶しておくためにRAM118に設けられた記憶エリアである。追尾データログは、追尾処理の結果として得られた追尾位置を記録したログである。   The RAM 118 is, for example, an SDRAM, and has a work area, a tracking image area, a tracking color log area, and a tracking data log area as storage areas. The work area is a storage area provided in the RAM 118 for temporarily storing data generated in each part of the imaging apparatus 100 such as image data obtained by the imaging element IF circuit 116. The tracking image area is a storage area provided in the RAM 118 for temporarily storing tracking image data. The tracking image data is data of an image including a tracking subject in the tracking process. This tracking image data is used in the tracking process. The tracking color log area is a storage area provided in the RAM 118 for temporarily storing the tracking color that is the color information of the tracking area in the tracking process. In the tracking process, the most similar color position is selected by comparing the tracking color stored in the tracking color log area with the color at the color acquisition position. The tracking data log area is a storage area provided in the RAM 118 for temporarily storing the tracking data log. The tracking data log is a log in which the tracking position obtained as a result of the tracking process is recorded.

次に、本実施形態に係る撮像装置の動作について説明する。撮像装置100の撮影動作を示すフローチャートを図3に示す。CPU1301は、ROM134から必要なプログラムコードを読み込んで図3の動作を制御する。   Next, the operation of the imaging apparatus according to the present embodiment will be described. A flowchart showing the photographing operation of the imaging apparatus 100 is shown in FIG. The CPU 1301 reads the necessary program code from the ROM 134 and controls the operation of FIG.

CPU1301は、ステップS100において現在の撮像装置100の撮影設定が静止画撮影モードであるか否かを判定する。前述のとおり、撮影設定は、モードダイヤルによって設定される。ステップS100において撮影設定が静止画撮影モードであると判定された場合、CPU1301は、ステップS102においてライブビュー動作を開始させる。このライブビュー動作において、CPU1301は、シャッタ駆動機構112を制御してシャッタ110を開放した後、撮像素子IF回路116を制御して撮像素子114に撮像を開始させる。その後、CPU1301は、撮像素子114による撮像の結果としてRAM118のワークエリアに記憶された画像データを画像処理回路1304に入力する。画像処理回路1304は、入力された画像データに対してライブビュー表示用の画像処理を施す。続いて、CPU1301は、ライブビュー表示用の画像処理が施された画像データを表示素子駆動回路122に入力し、表示素子120に画像を表示させる。このような表示動作が繰り返し実行されることで、表示素子120に被写体の画像が動画表示される。ユーザは、この動画表示によって被写体を観察することが可能である。   In step S100, the CPU 1301 determines whether or not the current shooting setting of the imaging device 100 is the still image shooting mode. As described above, the shooting setting is set by the mode dial. When it is determined in step S100 that the shooting setting is the still image shooting mode, the CPU 1301 starts the live view operation in step S102. In this live view operation, the CPU 1301 controls the shutter driving mechanism 112 to open the shutter 110 and then controls the image sensor IF circuit 116 to cause the image sensor 114 to start imaging. Thereafter, the CPU 1301 inputs image data stored in the work area of the RAM 118 as a result of imaging by the imaging device 114 to the image processing circuit 1304. The image processing circuit 1304 performs image processing for live view display on the input image data. Subsequently, the CPU 1301 inputs image data that has been subjected to image processing for live view display to the display element driving circuit 122 and causes the display element 120 to display an image. By repeatedly executing such a display operation, an image of the subject is displayed on the display element 120 as a moving image. The user can observe the subject by this moving image display.

CPU1301は、ステップS104において1stレリーズスイッチがオンされたか否かを判定する。ステップS104において1stレリーズスイッチがオンされたと判定されるまで、CPU1301は、ライブビュー動作を継続する。   The CPU 1301 determines whether or not the 1st release switch is turned on in step S104. The CPU 1301 continues the live view operation until it is determined in step S104 that the 1st release switch is turned on.

ステップS104において1stレリーズスイッチがオンされたと判定された場合、CPU1301は、ステップS106においてレリーズAF処理を行う。レリーズAF処理において、CPU1301は、スキャン駆動によってフォーカスレンズを合焦位置まで駆動させる。スキャン駆動において、CPU1301は、焦点調整機構104を制御してフォーカスレンズを所定のスキャン範囲内で一方向に駆動させつつ、AF制御回路1302に合焦評価値を順次算出させる。CPU1301は、合焦評価値に基づいて合焦を評価する。CPU1301は、合焦評価値が最大となるレンズ位置において、フォーカスレンズの駆動を停止させる。このようなスキャン駆動は、AF前のフォーカスレンズの位置と合焦位置との差が大きい場合に行われる。   If it is determined in step S104 that the first release switch has been turned on, the CPU 1301 performs a release AF process in step S106. In the release AF process, the CPU 1301 drives the focus lens to the in-focus position by scan driving. In scan drive, the CPU 1301 controls the focus adjustment mechanism 104 to drive the focus lens in one direction within a predetermined scan range, and causes the AF control circuit 1302 to sequentially calculate focus evaluation values. The CPU 1301 evaluates the focus based on the focus evaluation value. The CPU 1301 stops driving the focus lens at the lens position where the focus evaluation value is maximized. Such scan driving is performed when the difference between the position of the focus lens before AF and the in-focus position is large.

CPU1301は、ステップS108において追尾領域を設定し、表示素子駆動回路122を制御して表示素子120に追尾枠を表示させる。ここで、例えば、レリーズAFで合焦した被写体が追尾被写体として設定され得る。また、顔検出回路1307によって顔が検出された場合、その顔が追尾被写体として設定され得る。さらに、タッチパネル124により表示素子120の画面上に表示された被写体が指定された場合、その被写体が追尾被写体として設定され得る。追尾被写体のうちこれら設定された追尾する領域を追尾領域と称することにする。この追尾領域は1画素でもよいし、複数画素でもよい。追尾領域を1画素など比較的狭い領域とする場合に、本実施形態は特に効果を奏する。また、CPU1301は、追尾領域を含み、追尾領域の色情報との差異が所定の閾値以下である色情報を有する矩形領域を探索し、この領域を同色領域として設定する。   In step S108, the CPU 1301 sets a tracking area and controls the display element driving circuit 122 to display a tracking frame on the display element 120. Here, for example, a subject focused by the release AF can be set as the tracking subject. Further, when a face is detected by the face detection circuit 1307, the face can be set as a tracking subject. Furthermore, when a subject displayed on the screen of the display element 120 is designated by the touch panel 124, the subject can be set as a tracking subject. The set tracking area in the tracking subject is referred to as a tracking area. This tracking area may be one pixel or a plurality of pixels. This embodiment is particularly effective when the tracking area is a relatively narrow area such as one pixel. In addition, the CPU 1301 searches for a rectangular area that includes color information whose difference from the color information of the tracking area is equal to or less than a predetermined threshold, and sets this area as the same color area.

CPU1301は、表示素子駆動回路122を制御して表示素子120に追尾領域を表す追尾枠を表示させる。追尾枠は、追尾領域を重心とする四角形の枠でもよいし、同色領域を表す枠でもよい。すなわち、追尾枠は表示素子120の画面上の追尾対象の位置に表示される。なお、追尾領域及び同色領域は、RAM118の追尾データログエリアに記録される。また、追尾領域の色情報は追尾色ログエリアに記録される。   The CPU 1301 controls the display element driving circuit 122 to display a tracking frame representing the tracking area on the display element 120. The tracking frame may be a rectangular frame with the tracking area as the center of gravity or a frame representing the same color area. That is, the tracking frame is displayed at the tracking target position on the screen of the display element 120. The tracking area and the same color area are recorded in the tracking data log area of the RAM 118. The color information of the tracking area is recorded in the tracking color log area.

ステップS110において、追尾処理が実行される。この追尾処理は、主に追尾処理回路1306によって実行される。この追尾処理の詳細については後述する。CPU1301は、ステップS112において追尾位置の被写体に合焦するようにAF処理を行うとともに、追尾位置の被写体の露光が適正となるようにAE処理を行う。追尾処理後のAF処理においてCPU1301は、スキャン駆動又はウォブリング駆動によって、フォーカスレンズを合焦位置まで駆動させる。ウォブリング駆動において、CPU1301は、フォーカスレンズを駆動したときにAF制御回路1302で算出された合焦評価値が、前回のレンズ位置での合焦評価値に対して増加したか否かを判定する。CPU1301は、合焦評価値が増加したと判定された場合には前回と同方向にフォーカスレンズを微小駆動させ、合焦評価値が減少した場合には前回と逆方向にフォーカスレンズを微小駆動させる。このような動作を高速で繰り返してフォーカスレンズを徐々に合焦位置まで駆動させる。AE処理においてCPU1301は、AE制御回路1303で算出された追尾位置の被写体の輝度を予め定められた適正な量(適正露光量)とする、本露光時の絞り106の開口量(絞り値)、シャッタ110の開放時間(シャッタ速度値)を算出する。   In step S110, a tracking process is executed. This tracking process is mainly executed by the tracking processing circuit 1306. Details of this tracking process will be described later. In step S112, the CPU 1301 performs AF processing so as to focus on the subject at the tracking position, and performs AE processing so that exposure of the subject at the tracking position is appropriate. In the AF process after the tracking process, the CPU 1301 drives the focus lens to the in-focus position by scan driving or wobbling driving. In wobbling driving, the CPU 1301 determines whether or not the focus evaluation value calculated by the AF control circuit 1302 when the focus lens is driven has increased with respect to the focus evaluation value at the previous lens position. The CPU 1301 finely drives the focus lens in the same direction as the previous time when it is determined that the focus evaluation value has increased, and finely drives the focus lens in the opposite direction to the previous time when the focus evaluation value has decreased. . Such an operation is repeated at high speed to gradually drive the focus lens to the in-focus position. In the AE process, the CPU 1301 sets an aperture amount (aperture value) of the aperture 106 during the main exposure, in which the luminance of the subject at the tracking position calculated by the AE control circuit 1303 is set to a predetermined appropriate amount (appropriate exposure amount). The opening time (shutter speed value) of the shutter 110 is calculated.

CPU1301は、ステップS114において2ndレリーズスイッチがオンされたか否かを判定する。2ndレリーズスイッチがオンされていないと判定された場合、処理はステップS110に戻る。このように、2ndレリーズスイッチがオンされるまで、追尾処理とAF・AE処理とが継続される。   In step S114, the CPU 1301 determines whether the 2nd release switch is turned on. If it is determined that the 2nd release switch is not turned on, the process returns to step S110. Thus, the tracking process and the AF / AE process are continued until the 2nd release switch is turned on.

ステップS114において2ndレリーズスイッチがオンされたと判定された場合、CPU1301は、ステップS116において表示素子駆動回路122を制御して、追尾枠を非表示とする。CPU1301は、ステップS118において静止画像データを記録メディア128に記録する処理を行う。すなわち、CPU1301は、シャッタ駆動機構112を制御してシャッタ110を閉じさせ、絞り駆動機構108を制御して絞り106を先に算出した絞り値まで絞り込ませる。続いて、CPU1301は、シャッタ駆動機構112を制御してシャッタ110を先に算出した開放時間だけ開放させつつ、撮像素子114に撮像(露光)を行わせる。その後、CPU1301は、撮像素子114を介して得られた静止画像データを画像処理回路1304に処理させる。CPU1301は、画像処理回路1304において処理された静止画像データにヘッダを付与して静止画像ファイルを生成し、生成した静止画像ファイルを記録メディア128に記録する。CPU1301は、ステップS120においてステップS110の追尾処理の結果として得られた追尾位置を示すデータを、先に記録メディア128に記録した静止画像ファイルに追記する。その後に、CPU1301は、図3に示す動作を終了させる。   If it is determined in step S114 that the 2nd release switch is turned on, the CPU 1301 controls the display element driving circuit 122 in step S116 to hide the tracking frame. In step S118, the CPU 1301 performs processing for recording still image data on the recording medium 128. That is, the CPU 1301 controls the shutter drive mechanism 112 to close the shutter 110 and controls the aperture drive mechanism 108 to narrow the aperture 106 to the previously calculated aperture value. Subsequently, the CPU 1301 controls the shutter driving mechanism 112 to cause the image sensor 114 to perform imaging (exposure) while opening the shutter 110 for the previously calculated opening time. Thereafter, the CPU 1301 causes the image processing circuit 1304 to process still image data obtained via the image sensor 114. The CPU 1301 adds a header to the still image data processed by the image processing circuit 1304 to generate a still image file, and records the generated still image file on the recording medium 128. In step S120, the CPU 1301 adds data indicating the tracking position obtained as a result of the tracking process in step S110 to the still image file previously recorded on the recording medium 128. Thereafter, the CPU 1301 ends the operation shown in FIG.

ステップS100において撮影設定が動画撮影モードであると判定された場合、CPU1301は、ステップS122において、ライブビュー動作を開始させる。CPU1301は、ステップS124において動画ボタンがオンされたか否かを判定する。ステップS124において、動画ボタンがオンされたと判定されるまで、CPU1301はライブビュー動作を継続する。   When it is determined in step S100 that the shooting setting is the moving image shooting mode, the CPU 1301 starts the live view operation in step S122. The CPU 1301 determines whether or not the moving image button is turned on in step S124. In step S124, the CPU 1301 continues the live view operation until it is determined that the moving image button is turned on.

ステップS124において動画ボタンがオンされたと判定された場合、CPU1301は、ステップS126において追尾領域を設定し、表示素子駆動回路122を制御して表示素子120に追尾枠を表示させる。ステップS128において後に詳述する追尾処理が実行される。CPU1301は、ステップS130において、追尾位置の被写体に合焦するようにAF処理を行うともに、追尾位置の被写体の露光が適正となるようにAE処理を行う。ステップS130におけるAF処理おいて、フォーカスレンズは、ウォブリング駆動によって合焦位置まで駆動される。   If it is determined in step S124 that the moving image button has been turned on, the CPU 1301 sets a tracking area in step S126 and controls the display element driving circuit 122 to display a tracking frame on the display element 120. In step S128, the tracking process described in detail later is executed. In step S130, the CPU 1301 performs AF processing so as to focus on the subject at the tracking position, and performs AE processing so that exposure of the subject at the tracking position is appropriate. In the AF process in step S130, the focus lens is driven to the in-focus position by wobbling driving.

CPU1301は、ステップS132において動画像データを記録メディア128に記録する処理を行う。すなわち、CPU1301は、絞り駆動機構108を制御して絞り106をAE処理において算出した絞り値まで絞り込ませ、AE処理において算出したシャッタ速度値に対応した時間だけ撮像素子114に撮像(露光)を実行させる。露光の終了後、CPU1301は、動画像ファイルを生成して記録メディア128に記録する。また、CPU1301は、撮像素子114を介して得られた動画像データを画像処理回路1304において処理し、画像処理回路1304において処理された動画像データを動画像ファイルに記録する。   In step S132, the CPU 1301 performs processing for recording moving image data on the recording medium 128. That is, the CPU 1301 controls the aperture driving mechanism 108 to reduce the aperture 106 to the aperture value calculated in the AE process, and performs imaging (exposure) on the image sensor 114 for a time corresponding to the shutter speed value calculated in the AE process. Let After the exposure is completed, the CPU 1301 generates a moving image file and records it on the recording medium 128. Further, the CPU 1301 processes the moving image data obtained via the image sensor 114 in the image processing circuit 1304, and records the moving image data processed in the image processing circuit 1304 in a moving image file.

CPU1301は、ステップS134においてステップS128の追尾処理の結果として得られた追尾位置を示すデータを、先に記録メディア128に記録した動画像ファイルに同時記録する。CPU1301は、ステップS136において動画ボタンがオフにされたか否かを判定する。動画ボタンがオフにされていないと判定された場合、処理はステップS128に戻る。このように、動画撮影モード時では、動画ボタンがオフされるまで追尾処理と動画像データの記録が継続される。   In step S134, the CPU 1301 simultaneously records data indicating the tracking position obtained as a result of the tracking process in step S128 in the moving image file previously recorded on the recording medium 128. In step S136, the CPU 1301 determines whether the moving image button has been turned off. If it is determined that the movie button is not turned off, the process returns to step S128. Thus, in the moving image shooting mode, the tracking process and the recording of moving image data are continued until the moving image button is turned off.

ステップS136において動画ボタンがオフされたと判定された場合、CPU1301は、ステップS138において表示素子駆動回路122を制御して、追尾枠を非表示とする。その後、CPU1301は、図3に示す動作を終了させる。   If it is determined in step S136 that the moving image button has been turned off, the CPU 1301 controls the display element driving circuit 122 in step S138 to hide the tracking frame. Thereafter, the CPU 1301 ends the operation shown in FIG.

本実施形態に係る追尾処理について図4を参照して説明する。CPU1301は、ステップS200において撮像素子IF回路116を制御して撮像素子114に撮像を実行させる。CPU1301は、ステップS202において、撮像素子114によって撮像された画像のデータを、撮像素子IF回路116を介してRAM118に取り込む。RAM118に取り込まれた画像のデータは、追尾処理回路1306内の画像取得部13061により、必要に応じて追尾処理回路1306に取り込まれる。   The tracking process according to the present embodiment will be described with reference to FIG. In step S200, the CPU 1301 controls the imaging element IF circuit 116 to cause the imaging element 114 to perform imaging. In step S <b> 202, the CPU 1301 captures the data of the image captured by the image sensor 114 into the RAM 118 via the image sensor IF circuit 116. Image data captured in the RAM 118 is captured by the image acquisition unit 13061 in the tracking processing circuit 1306 into the tracking processing circuit 1306 as necessary.

追尾処理回路1306内の色取得位置決定部13063は、ステップS204において色情報取得位置判断処理を実行する。この色情報取得位置判断処理について図5に示すフローチャートを参照して説明する。本実施形態では、色情報取得位置判断処理において、5つの色取得位置が設定される。   In step S204, the color acquisition position determination unit 13063 in the tracking processing circuit 1306 executes color information acquisition position determination processing. The color information acquisition position determination process will be described with reference to the flowchart shown in FIG. In the present embodiment, five color acquisition positions are set in the color information acquisition position determination process.

追尾領域設定部13062は、ステップS300においてX方向の補正倍率(補正倍率(X方向))を決定する。補正倍率(X方向)は、下記式(1)により算出される。
補正倍率(X方向)=同色領域幅(X方向)/第1の定数 (1)
ここで、同色領域幅(X方向)は、同色領域のX方向の長さを表す。同色領域とは、ステップS108の説明において述べたとおり、追尾領域と同じ色情報を有する領域を探索した結果得られる矩形領域である。また、第1の定数は所定の定数である。
The tracking area setting unit 13062 determines a correction magnification in the X direction (correction magnification (X direction)) in step S300. The correction magnification (X direction) is calculated by the following equation (1).
Correction magnification (X direction) = same color area width (X direction) / first constant (1)
Here, the same color region width (X direction) represents the length of the same color region in the X direction. The same color area is a rectangular area obtained as a result of searching for an area having the same color information as the tracking area, as described in the description of step S108. The first constant is a predetermined constant.

色取得位置決定部13063は、ステップS302において、Y方向の補正倍率(補正倍率(Y方向))を決定する。補正倍率(Y方向)は、下記式(2)により算出される。
補正倍率(Y方向)=同色領域幅(Y方向)/第2の定数 (2)
ここで、同色領域幅(Y方向)は、同色領域のY方向の長さを表す。また、第2の定数は所定の定数である。第2の定数は、第1の定数と同じ値でもよいし、異なる値でもよい。
In step S302, the color acquisition position determination unit 13063 determines a correction magnification in the Y direction (correction magnification (Y direction)). The correction magnification (Y direction) is calculated by the following equation (2).
Correction magnification (Y direction) = same color area width (Y direction) / second constant (2)
Here, the same color region width (Y direction) represents the length of the same color region in the Y direction. The second constant is a predetermined constant. The second constant may be the same value as the first constant or a different value.

色取得位置決定部13063は、ステップS304において、複数設定する追尾位置のX方向の間隔(間隔(X方向))を決定する。ここで、間隔(X方向)は、下記式(3)により算出される。
間隔(X方向)=第1の基準間隔×補正倍率(X方向) (3)
ここで、第1の基準間隔は所定の間隔である。
In step S304, the color acquisition position determination unit 13063 determines an interval in the X direction (interval (X direction)) of a plurality of tracking positions to be set. Here, the interval (X direction) is calculated by the following equation (3).
Interval (X direction) = first reference interval × correction magnification (X direction) (3)
Here, the first reference interval is a predetermined interval.

色取得位置決定部13063は、ステップS306において、複数設定する追尾位置のY方向の間隔(間隔(Y方向))を決定する。ここで、間隔(Y方向)は、下記式(4)により算出される。
間隔(Y方向)=第2の基準間隔×補正倍率(Y方向) (4)
ここで、第2の基準間隔は所定の間隔であり、第1の基準間隔と同じ値でもよいし、異なる値でもよい。
In step S306, the color acquisition position determination unit 13063 determines an interval in the Y direction (interval (Y direction)) of a plurality of tracking positions to be set. Here, the interval (Y direction) is calculated by the following equation (4).
Interval (Y direction) = second reference interval × correction magnification (Y direction) (4)
Here, the second reference interval is a predetermined interval, and may be the same value as the first reference interval or a different value.

色取得位置決定部13063は、ステップS308において、色取得位置(中央)を決定する。ここで、色取得位置(中央)のX座標x及びY座標yは、下記式(5)及び(6)により得られる。
x=追尾位置(X方向) (5)
y=追尾位置(Y方向) (6)
ここで、追尾位置(X方向)は、現在の追尾領域の重心の位置である追尾位置のX座標である。また、追尾位置(Y方向)は現在の追尾位置のY座標である。
In step S308, the color acquisition position determination unit 13063 determines a color acquisition position (center). Here, the X coordinate x and the Y coordinate y of the color acquisition position (center) are obtained by the following equations (5) and (6).
x = tracking position (X direction) (5)
y = tracking position (Y direction) (6)
Here, the tracking position (X direction) is the X coordinate of the tracking position, which is the position of the center of gravity of the current tracking area. The tracking position (Y direction) is the Y coordinate of the current tracking position.

色取得位置決定部13063は、ステップS310において、色取得位置(右)を決定する。ここで、色取得位置(右)のX座標x及びY座標yは、下記式(7)及び(8)により得られる。
x=追尾位置(X方向)+間隔(X方向) (7)
y=追尾位置(Y方向) (8)
色取得位置決定部13063は、ステップS312において、色取得位置(左)を決定する。ここで、色取得位置(左)のX座標x及びY座標yは、下記式(9)及び(10)により得られる。
x=追尾位置(X方向)−間隔(X方向) (9)
y=追尾位置(Y方向) (10)
色取得位置決定部13063は、ステップS314において、色取得位置(上)を決定する。ここで、色取得位置(上)のX座標x及びY座標yは、下記式(11)及び(12)により得られる。
x=追尾位置(X方向) (11)
y=追尾位置(Y方向)−間隔(Y方向) (12)
色取得位置決定部13063は、ステップS316において、色取得位置(下)を決定する。ここで、色取得位置(下)のX座標x及びY座標yは、下記式(13)及び(14)により得られる。
x=追尾位置(X方向) (13)
y=追尾位置(Y方向)+間隔(Y方向) (14)
ステップS316の後、処理は、色取得位置(中央)、色取得位置(右)、色取得位置(左)、色取得位置(上)及び色取得位置(下)を戻り値として、図4を参照して説明している追尾処理に戻る。
In step S310, the color acquisition position determination unit 13063 determines the color acquisition position (right). Here, the X coordinate x and the Y coordinate y of the color acquisition position (right) are obtained by the following equations (7) and (8).
x = tracking position (X direction) + interval (X direction) (7)
y = tracking position (Y direction) (8)
In step S312, the color acquisition position determination unit 13063 determines the color acquisition position (left). Here, the X coordinate x and Y coordinate y of the color acquisition position (left) are obtained by the following equations (9) and (10).
x = tracking position (X direction) −interval (X direction) (9)
y = tracking position (Y direction) (10)
In step S314, the color acquisition position determination unit 13063 determines the color acquisition position (upper). Here, the X coordinate x and Y coordinate y of the color acquisition position (upper) are obtained by the following equations (11) and (12).
x = tracking position (X direction) (11)
y = tracking position (Y direction) −interval (Y direction) (12)
In step S316, the color acquisition position determination unit 13063 determines the color acquisition position (bottom). Here, the X coordinate x and the Y coordinate y of the color acquisition position (bottom) are obtained by the following equations (13) and (14).
x = tracking position (X direction) (13)
y = tracking position (Y direction) + interval (Y direction) (14)
After step S316, the process returns the color acquisition position (center), the color acquisition position (right), the color acquisition position (left), the color acquisition position (upper), and the color acquisition position (lower) as return values, as shown in FIG. Return to the tracking process described with reference.

以上説明した色情報取得位置判断処理によれば、図6に示すような色取得位置が得られる。すなわち、図6において、自動車が追尾被写体310であり、その中に追尾領域320が設定されている。追尾領域320と同じ色の矩形領域が同色領域330として設定されている。ここで、色情報取得位置判断処理によって、追尾領域320の重心位置が色取得位置(中央)350Cに設定される。また、追尾領域320の右側に色取得位置(右)350Rが、追尾領域320の左側に色取得位置(左)350Lが、追尾領域320の上側に色取得位置(上)350Tが、追尾領域320の下側に色取得位置(下)350Bが、それぞれ設定される。   According to the color information acquisition position determination process described above, a color acquisition position as shown in FIG. 6 is obtained. That is, in FIG. 6, the car is the tracking subject 310, and the tracking area 320 is set therein. A rectangular area having the same color as that of the tracking area 320 is set as the same color area 330. Here, the center of gravity position of the tracking area 320 is set to the color acquisition position (center) 350C by the color information acquisition position determination process. The color acquisition position (right) 350R is on the right side of the tracking area 320, the color acquisition position (left) 350L is on the left side of the tracking area 320, and the color acquisition position (up) 350T is on the upper side of the tracking area 320. A color acquisition position (lower) 350B is set on the lower side.

図4に戻り、追尾処理について説明を続ける。追尾処理回路1306は、ステップS206において、色情報取得位置判断処理で決定された色取得位置(中央)350C、色取得位置(右)350R、色取得位置(左)350L、色取得位置(上)350T及び色取得位置(下)350Bのそれぞれの位置における色情報を取得する。追尾処理回路1306内の類似色検出部13064は、ステップS208において、最類似色判断処理を実行する。   Returning to FIG. 4, the description of the tracking process will be continued. In step S206, the tracking processing circuit 1306 determines the color acquisition position (center) 350C, the color acquisition position (right) 350R, the color acquisition position (left) 350L, and the color acquisition position (upper) determined in the color information acquisition position determination process. The color information at each position of 350T and the color acquisition position (bottom) 350B is acquired. In step S208, the similar color detection unit 13064 in the tracking processing circuit 1306 executes the most similar color determination process.

最類似色判断処理について図7に示すフローチャートを参照して説明する。類似色検出部13064は、ステップS400において、色取得位置(中央)350C、色取得位置(右)350R、色取得位置(左)350L、色取得位置(上)350T及び色取得位置(下)350Bのうち、その色情報が最も追尾色の色情報と類似している位置を選択する。この位置を最類似色位置と称する。なお、各色取得位置の色情報として、各色取得位置の1画素の色情報が用いられてもよいし、各色取得位置を中心とする複数画素の色情報が用いられてもよい。   The most similar color determination process will be described with reference to the flowchart shown in FIG. In step S400, the similar color detection unit 13064 selects a color acquisition position (center) 350C, a color acquisition position (right) 350R, a color acquisition position (left) 350L, a color acquisition position (upper) 350T, and a color acquisition position (lower) 350B. Among them, the position where the color information is most similar to the color information of the tracking color is selected. This position is called the most similar color position. As color information of each color acquisition position, color information of one pixel at each color acquisition position may be used, or color information of a plurality of pixels centering on each color acquisition position may be used.

類似色検出部13064は、ステップS402において追尾色の色情報と最類似色位置の色情報との差異が所定の閾値未満であるか否かを判定する。所定の閾値未満であれば、類似色検出部13064は、ステップS404において、戻り値に最類似色位置有りという情報と選択された最類似色位置の情報とを設定し、処理は図4を参照して説明している処理に戻る。一方、ステップS402の判定において所定の閾値以上であると判定された場合、類似色検出部13064は、ステップS406において、戻り値に最類似色位置無しという情報を設定し、処理は図4を参照して説明している処理に戻る。追尾色の色情報と最類似色位置の色情報との差異を評価することで、追尾の精度が向上する。   In step S402, the similar color detection unit 13064 determines whether the difference between the color information of the tracking color and the color information of the most similar color position is less than a predetermined threshold value. If it is less than the predetermined threshold value, the similar color detection unit 13064 sets information indicating that the most similar color position exists and information on the selected most similar color position in the return value in step S404, and the processing refers to FIG. Return to the processing explained. On the other hand, if it is determined in step S402 that the value is equal to or greater than the predetermined threshold value, the similar color detection unit 13064 sets information indicating that the most similar color position is not present in the return value in step S406, and the processing is illustrated in FIG. Return to the processing explained. The accuracy of tracking is improved by evaluating the difference between the color information of the tracking color and the color information of the most similar color position.

例えば図8のように、追尾被写体310である自動車が左に移動している場合を考える。この場合、色取得位置(中央)350C、色取得位置(右)350R、色取得位置(左)350L、色取得位置(上)350T及び色取得位置(下)350Bのうち、追尾色と類似している位置は、色取得位置(左)350Lであると選択される。ここで、追尾色の色情報と色取得位置(左)350Lの色情報との差異が所定の閾値未満であれば、戻り値に最類似色位置有りという情報とこの最類似色位置は色取得位置(左)350Lであるという情報とが設定される。   For example, as shown in FIG. 8, consider a case where an automobile that is the tracking subject 310 is moving to the left. In this case, the color acquisition position (center) 350C, color acquisition position (right) 350R, color acquisition position (left) 350L, color acquisition position (upper) 350T, and color acquisition position (lower) 350B are similar to the tracking color. Is selected to be the color acquisition position (left) 350L. Here, if the difference between the color information of the tracking color and the color information of the color acquisition position (left) 350L is less than a predetermined threshold value, the information indicating that the most similar color position exists in the return value and the most similar color position are obtained. Information that the position (left) is 350L is set.

図4に戻り、追尾処理について説明を続ける。追尾処理回路1306内の追尾領域更新部13065は、ステップS210において最類似色位置が有るか否かを判定する。最類似色位置が無いと判定されたされた場合、追尾領域更新部13065は、ステップS212において追尾領域を更新しない。その後、処理はステップS216に移る。一方、ステップS210の判定において最類似色位置があると判定されたされた場合、追尾領域更新部13065は、ステップS214において追尾領域設定部13062に、追尾領域を最類似色判断処理で選択された最類似色位置に更新させる。なお、追尾領域は、最類似色位置を示す1画素である点としてよいし、その点を重心とする幅を有する領域としてもよい。その後、処理はステップS216に移る。   Returning to FIG. 4, the description of the tracking process will be continued. The tracking area update unit 13065 in the tracking processing circuit 1306 determines whether or not there is a most similar color position in step S210. When it is determined that there is no most similar color position, the tracking area update unit 13065 does not update the tracking area in step S212. Thereafter, the process proceeds to step S216. On the other hand, if it is determined in step S210 that there is the most similar color position, the tracking area update unit 13065 has selected the tracking area by the tracking area setting unit 13062 in step S214 in the most similar color determination process. Update to the closest color position. The tracking area may be a point that is one pixel indicating the most similar color position, or may be an area having a width with the point being the center of gravity. Thereafter, the process proceeds to step S216.

追尾処理回路1306内の信頼性判定部13066は、ステップS216において追尾領域の信頼性を判断する。例えば信頼性判定部13066は、参照画像データの彩度から信頼性を判断する。具体的には、追尾領域の彩度及び輝度が所定値以上である場合、信頼性があると判断される。これらの信頼性を判定するための閾値は適宜設定され得る。   In step S216, the reliability determination unit 13066 in the tracking processing circuit 1306 determines the reliability of the tracking area. For example, the reliability determination unit 13066 determines the reliability from the saturation of the reference image data. Specifically, when the saturation and luminance of the tracking area are equal to or higher than a predetermined value, it is determined that the tracking area is reliable. These threshold values for determining reliability can be set as appropriate.

追尾処理回路1306は、ステップS218において最終的な追尾領域を、RAM118の追尾データログエリアに記録する。また、追尾処理回路1306は、次回の追尾処理においては用いる同色領域も合わせて取得し、RAM118の追尾データログエリアに記録する。また、追尾処理回路1306は、追尾領域の色情報を追尾色ログエリアに記録する。ただし、ステップS216の信頼性判断において、信頼性がないと判断された場合には、追尾位置等を記録しないようにしてもよい。信頼性の判断結果を用いることで、追尾精度が向上する。   The tracking processing circuit 1306 records the final tracking area in the tracking data log area of the RAM 118 in step S218. The tracking processing circuit 1306 also acquires the same color area to be used in the next tracking process and records it in the tracking data log area of the RAM 118. The tracking processing circuit 1306 records the color information of the tracking area in the tracking color log area. However, if it is determined in step S216 that the reliability is not reliable, the tracking position or the like may not be recorded. By using the reliability determination result, tracking accuracy is improved.

CPU1301は、ステップS220において表示素子駆動回路122を制御して、追尾枠の表示位置をステップS218で記憶させた追尾位置に対応した位置に更新する。すなわち、表示素子120に表示される追尾枠は更新され、ユーザは追尾位置を表示素子120上で確認しながら、撮像装置100の操作を行うことができる。その後、CPU1301は、図4の追尾処理を終了し、処理は図3を参照して説明した処理に戻る。   In step S220, the CPU 1301 controls the display element driving circuit 122 to update the display position of the tracking frame to a position corresponding to the tracking position stored in step S218. That is, the tracking frame displayed on the display element 120 is updated, and the user can operate the imaging apparatus 100 while confirming the tracking position on the display element 120. Thereafter, the CPU 1301 ends the tracking process of FIG. 4, and the process returns to the process described with reference to FIG. 3.

本実施形態によれば、5つの色取得位置のうち追尾領域と最も類似した色を有する位置に次のフレームにおける追尾領域が更新される。このようにして、色の類似度に基づいて、追尾領域が更新され、追尾被写体が追尾されることになる。   According to this embodiment, the tracking area in the next frame is updated to a position having the color most similar to the tracking area among the five color acquisition positions. In this way, the tracking area is updated based on the color similarity, and the tracking subject is tracked.

このように、例えば画像取得部13061は、画像を取得する画像取得部として機能する。例えば追尾領域設定部13062は、画像のうち一部の領域を追尾領域に設定し、この追尾領域の色を追尾色に設定する追尾領域設定部として機能する。例えば色取得位置決定部13063は、画像において所定の位置関係を有する少なくとも3つの領域を比較領域に設定する比較領域設定部として機能する。例えば類似色検出部13064は、比較領域のうち前記追尾色に最も類似する色を有する比較領域を更新領域として選択する類似色検出部として機能する。例えば追尾領域更新部13065は、更新領域に基づいて追尾領域を再設定する追尾領域更新を追尾領域設定部に実行させる追尾領域更新部として機能する。例えば信頼性判定部13066は、類似色検出部が決定した前記更新領域の信頼性を判定する信頼性判定部として機能する。例えば焦点距離取得回路1305は、画像を撮像する際に用いられた光学系の焦点距離を取得する焦点距離取得部として機能する。例えば表示素子120は、追尾領域を表示する追尾領域告知部として機能する。   Thus, for example, the image acquisition unit 13061 functions as an image acquisition unit that acquires an image. For example, the tracking area setting unit 13062 functions as a tracking area setting unit that sets a part of an image as a tracking area and sets the color of the tracking area as a tracking color. For example, the color acquisition position determination unit 13063 functions as a comparison region setting unit that sets at least three regions having a predetermined positional relationship in the image as comparison regions. For example, the similar color detection unit 13064 functions as a similar color detection unit that selects, as an update region, a comparison region having a color most similar to the tracking color among the comparison regions. For example, the tracking area update unit 13065 functions as a tracking area update unit that causes the tracking area setting unit to execute tracking area update for resetting the tracking area based on the update area. For example, the reliability determination unit 13066 functions as a reliability determination unit that determines the reliability of the update region determined by the similar color detection unit. For example, the focal length acquisition circuit 1305 functions as a focal length acquisition unit that acquires the focal length of the optical system used when capturing an image. For example, the display element 120 functions as a tracking area notification unit that displays the tracking area.

従来知られている色追尾技術と本実施形態に係る色追尾技術とを比較する。従来の色追尾技術について図9を参照して説明する。図9(a)に示すように、追尾被写体410に追尾領域420が設定されているものとする。ここで、追尾領域420内の色情報は取得されている。次のフレーム、すなわち、図9(b)に示すように追尾被写体410が移動したフレームにおいて、前のフレームの追尾領域420の位置に基づいて決定されたサーチエリア450内が例えばラスタースキャンされ、前のフレームの追尾領域420と同じ色情報を有する領域が検索される。そして、図9(c)に示すように同じ色情報を有する領域の例えば重心領域が新たな追尾領域420として更新される。   A conventionally known color tracking technique and the color tracking technique according to the present embodiment will be compared. A conventional color tracking technique will be described with reference to FIG. As shown in FIG. 9A, it is assumed that a tracking area 420 is set on the tracking subject 410. Here, the color information in the tracking area 420 has been acquired. In the next frame, that is, the frame in which the tracking subject 410 has moved as shown in FIG. 9B, the search area 450 determined based on the position of the tracking area 420 of the previous frame is raster-scanned, for example. An area having the same color information as the tracking area 420 of the frame is searched. Then, as shown in FIG. 9C, for example, the center of gravity area of the area having the same color information is updated as a new tracking area 420.

図9を参照して説明したような従来の色追尾技術を用いると、次のような不具合が生じる恐れがある。例えば図10(a)から図10(b)まで、追尾被写体410内の追尾領域420が所望の通りに追尾されていたとする。ここで図10(c)に示すように、追尾領域420と類似した色を有する物体480が追尾被写体に近づき、サーチエリア450内に入ったとき、追尾領域420が図10(c)に示すように物体480の部分に更新される恐れがある。この場合、これ以降追尾被写体410は見失われて物体480が追尾される恐れがある。   If the conventional color tracking technique as described with reference to FIG. 9 is used, the following problems may occur. For example, it is assumed that the tracking area 420 in the tracking subject 410 has been tracked as desired from FIGS. 10 (a) to 10 (b). Here, as shown in FIG. 10C, when an object 480 having a color similar to that of the tracking area 420 approaches the tracking subject and enters the search area 450, the tracking area 420 is shown in FIG. The object 480 may be updated. In this case, there is a possibility that the tracking subject 410 will be lost and the object 480 will be tracked thereafter.

これに対して、本実施形態では追尾色と最も類似する色を有する色取得位置が選択される。したがって、本実施形態に係る色追尾では色分解能が非常に高いと言える。このため、追尾被写体が見失われる可能性は従来技術に比べて極めて低い。本実施形態では、追尾領域は追尾被写体内において変位するが、色情報取得位置判断処理において同色領域の大きさに応じて色取得位置が適当に決定されているので、追尾領域は追尾被写体内に収まるように制御されている。例えば、図11に示すように、図8に示した場合よりも追尾被写体310である自動車が画像の大きな範囲を占めているとき、同色領域は大きくなる。このとき、色取得位置350の間隔は、図8に示した場合よりも広くなる。その結果、追尾被写体410は適切に追尾される。   On the other hand, in the present embodiment, a color acquisition position having a color most similar to the tracking color is selected. Therefore, it can be said that color resolution is very high in the color tracking according to the present embodiment. For this reason, the possibility that the tracking subject is lost is extremely low as compared with the prior art. In this embodiment, the tracking area is displaced within the tracking subject, but since the color acquisition position is appropriately determined according to the size of the same color area in the color information acquisition position determination process, the tracking area is within the tracking subject. It is controlled to fit. For example, as shown in FIG. 11, when the car that is the tracking subject 310 occupies a larger range of the image than in the case shown in FIG. At this time, the interval between the color acquisition positions 350 is wider than that shown in FIG. As a result, the tracking subject 410 is appropriately tracked.

本実施形態によれば、CPU1301によって行われる演算は、追尾色と数か所の色取得位置の色とを比較し最類似色位置を選択する演算であり、図9を参照して説明した従来技術のようにスキャンによる検索の演算を必要としない。したがって、従来技術に比べて本実施形態では、行われる演算量が格段に少ない。したがって、本実施形態によれば高速な処理が実現され得る。さらに、この高速化によって、フレーム間の追尾被写体の移動量は小さくなる。このことは、本実施形態に係る色追尾の原理において、追尾精度を向上させる。   According to the present embodiment, the calculation performed by the CPU 1301 is a calculation for selecting the most similar color position by comparing the tracking color with the colors at several color acquisition positions, and has been described with reference to FIG. Unlike the technology, it does not require a search operation by scanning. Therefore, in the present embodiment, the amount of calculation performed is significantly less than in the prior art. Therefore, according to the present embodiment, high-speed processing can be realized. Furthermore, this speeding up reduces the amount of movement of the tracking subject between frames. This improves the tracking accuracy in the color tracking principle according to the present embodiment.

なお、本実施形態では色取得位置を5点としたが、面を形成する3点以上であれば色取得位置は何点でもよい。また、必ずしも色取得位置のうちの1点が元の追尾領域と一致していなくてもよい。ただし、本実施形態のような5点が設定されると、追尾被写体がどのように移動してもよく追尾され得る。   In this embodiment, five color acquisition positions are used, but any number of color acquisition positions may be used as long as there are three or more points forming a surface. In addition, one point in the color acquisition position does not necessarily coincide with the original tracking area. However, if five points as in the present embodiment are set, the tracking subject may be tracked in any manner and may be tracked.

色情報取得位置判断処理において、撮影光学系102の焦点距離を考慮してもよい。例えば、CPU1301は、焦点距離取得回路1305によって取得された焦点距離に基づいて、焦点距離係数を算出する。CPU1301は、図5を参照して説明した色情報取得位置判断処理のステップS304及びステップS306における間隔の算出において、例えば下記式(15)及び(16)のようにこの焦点距離係数を考慮することができる。
間隔(X方向)=第1の基準間隔×補正倍率(X方向)×焦点距離係数 (15)
間隔(Y方向)=第2の基準間隔×補正倍率(Y方向)×焦点距離係数 (16)
なお、この場合、補正倍率は用いられなくてもよい。ただし、上式(15)及び(16)のように補正倍率も焦点距離係数も考慮されている方がより精度が高くなる。
In the color information acquisition position determination process, the focal length of the photographing optical system 102 may be taken into consideration. For example, the CPU 1301 calculates a focal length coefficient based on the focal length acquired by the focal length acquisition circuit 1305. The CPU 1301 considers this focal length coefficient as in the following formulas (15) and (16), for example, in the calculation of the interval in step S304 and step S306 of the color information acquisition position determination process described with reference to FIG. Can do.
Interval (X direction) = first reference interval × correction magnification (X direction) × focal length coefficient (15)
Interval (Y direction) = second reference interval × correction magnification (Y direction) × focal length coefficient (16)
In this case, the correction magnification may not be used. However, the accuracy is higher when the correction magnification and the focal length coefficient are taken into consideration as in the above equations (15) and (16).

このように焦点距離係数が考慮されることによって、焦点距離が長いときは間隔が大きくされ、焦点距離が短いときは間隔が小さくされる。その結果、図11を参照して行った説明と同様に、例えばズームアップされて追尾被写体が画像内で大きな範囲を占めているとき、ズームアウトされて追尾被写体が画像内で小さな範囲を占めている場合に比べて、色取得位置の間隔は大きくなる。その結果、本実施形態に係る色追尾の精度が向上する。なお、焦点距離に応じて、色取得追加位置の数、面積、配置等が変化するように構成されてもよい。   By considering the focal length coefficient in this way, the interval is increased when the focal length is long, and the interval is decreased when the focal length is short. As a result, similar to the explanation given with reference to FIG. 11, for example, when the zoomed-up subject is occupied by a tracking subject occupying a large range in the image, the tracking subject is zoomed out and the tracking subject occupies a small range in the image. Compared with the case where the color acquisition position is, the interval between the color acquisition positions becomes large. As a result, the accuracy of color tracking according to the present embodiment is improved. Note that the number, area, arrangement, and the like of the color acquisition additional positions may be changed according to the focal length.

また、本実施形態では図5を参照して説明した色情報取得位置判断処理において色取得位置が算出されているが、色取得位置の位置関係を表す情報がポイントテンプレートとしてROM134に予め記憶されており、色取得位置決定部13063が色情報取得位置判断処理においてこのテンプレートの配置を決定するように構成されてもよい。また、色取得位置の位置関係が互いに異なるテンプレートが複数用意されており、色情報取得位置判断処理において同色領域等の条件に基づいてテンプレートが選択され、このテンプレートの配置が決定されるように構成されてもよい。また、撮影光学系102の焦点距離に応じてテンプレートが選択されるように構成されてもよい。テンプレートを用いることによって、処理量が削減され、高速な処理が実現される。また、テンプレートが用いられると、最類似色以外に、類似度比率や色分布パターン等が利用され得る。   In the present embodiment, the color acquisition position is calculated in the color information acquisition position determination process described with reference to FIG. 5, but information indicating the positional relationship of the color acquisition positions is stored in advance in the ROM 134 as a point template. The color acquisition position determination unit 13063 may be configured to determine the arrangement of the template in the color information acquisition position determination process. Also, a plurality of templates having different positional relationships of color acquisition positions are prepared, and the template is selected based on conditions such as the same color area in the color information acquisition position determination process, and the arrangement of the templates is determined. May be. Further, the template may be selected according to the focal length of the photographing optical system 102. By using a template, the amount of processing is reduced and high-speed processing is realized. When a template is used, a similarity ratio, a color distribution pattern, and the like can be used in addition to the most similar color.

このように、例えばROM134は、少なくも3つの比較領域の所定の位置関係をポイントテンプレートとして記憶するテンプレート記憶部として機能し、例えば色取得位置決定部13063は、画像において追尾領域の位置に基づいて前記ポイントテンプレートの位置を設定するテンプレート設定部として機能する。   Thus, for example, the ROM 134 functions as a template storage unit that stores a predetermined positional relationship of at least three comparison areas as a point template. For example, the color acquisition position determination unit 13063 is based on the position of the tracking area in the image. It functions as a template setting unit for setting the position of the point template.

[第2の実施形態]
第2の実施形態について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。本実施形態では、第1の実施形態において最類似色位置が無いと判定されたとき、すなわち、例えば第1の実施形態による色追尾で追尾領域が追尾被写体から外れてしまったとき、スキャンによって追尾領域を検索する従来技術が用いられる。
[Second Embodiment]
A second embodiment will be described. Here, differences from the first embodiment will be described, and the same portions will be denoted by the same reference numerals and description thereof will be omitted. In the present embodiment, when it is determined that there is no most similar color position in the first embodiment, that is, for example, when the tracking area is out of the tracking subject in the color tracking according to the first embodiment, tracking is performed by scanning. Conventional techniques for searching for regions are used.

本実施形態に係る追尾処理を示すフローチャートを図12に示す。この図に示すように、ステップS500乃至ステップS508は、図4を参照して説明した第1の実施形態のステップS200乃至ステップS208とそれぞれ同じである。すなわち、CPU1301は、ステップS500において撮像素子IF回路116を制御して撮像素子114に撮像を実行させ、ステップS502において撮像素子114によって撮像された画像のデータを撮像素子IF回路116を介してRAM118に取り込む。追尾処理回路1306は、ステップS504において色情報取得位置判断処理を実行し、ステップS506において、色情報取得位置判断処理で決定された色取得位置のそれぞれの位置における色情報を取得し、ステップS508において、最類似色判断処理を実行する。   FIG. 12 is a flowchart showing the tracking process according to the present embodiment. As shown in this figure, steps S500 to S508 are the same as steps S200 to S208 of the first embodiment described with reference to FIG. That is, the CPU 1301 controls the imaging element IF circuit 116 in step S500 to cause the imaging element 114 to perform imaging, and the image data captured by the imaging element 114 in step S502 is stored in the RAM 118 via the imaging element IF circuit 116. take in. The tracking processing circuit 1306 executes color information acquisition position determination processing in step S504, acquires color information at each position of the color acquisition positions determined in the color information acquisition position determination processing in step S506, and in step S508. The most similar color determination process is executed.

続いて、追尾処理回路1306内の追尾領域更新部13065は、ステップS510において最類似色位置が有るか否かを判定する。最類似色位置が有ると判定されたされた場合、追尾領域更新部13065は、ステップS512において最類似色位置を追尾領域に決定する。その後、処理はステップS522に移る。一方、ステップS510において最類似色位置が無いと判定されたされた場合、追尾処理回路1306内の追尾色重心検索部13067は、ステップS514において追尾色重心検索を行う。ここで、追尾色重心検索とは、例えば図9を参照して説明した従来技術を用いた色追尾である。このように、例えば追尾色重心検索部13067は、画像を走査して追尾色に類似する類似領域を検索し、この類似領域の重心位置を決定する類似領域検索部として機能する。   Subsequently, the tracking area update unit 13065 in the tracking processing circuit 1306 determines whether or not there is a most similar color position in step S510. When it is determined that there is the most similar color position, the tracking area update unit 13065 determines the most similar color position as the tracking area in step S512. Thereafter, the process proceeds to step S522. On the other hand, if it is determined in step S510 that there is no most similar color position, the tracking color centroid search unit 13067 in the tracking processing circuit 1306 performs a tracking color centroid search in step S514. Here, the tracking color centroid search is color tracking using the prior art described with reference to FIG. 9, for example. Thus, for example, the tracking color centroid search unit 13067 functions as a similar region search unit that scans an image to search a similar region similar to the tracking color and determines the centroid position of the similar region.

追尾領域更新部13065は、ステップS516において追尾色重心があるか否かを判定する。追尾色重心があると判定された場合、追尾領域更新部13065は、ステップS518において色重心に基づいて追尾領域に決定する。その後、処理はステップS522に移る。ステップS516において追尾色重心がないと判定された場合、追尾領域更新部13065は、ステップS520において追尾領域を更新せず、処理はステップS522に移る。   The tracking area update unit 13065 determines whether or not there is a tracking color centroid in step S516. When it is determined that there is a tracking color centroid, the tracking area update unit 13065 determines a tracking area based on the color centroid in step S518. Thereafter, the process proceeds to step S522. When it is determined in step S516 that there is no tracking color centroid, the tracking area update unit 13065 does not update the tracking area in step S520, and the process proceeds to step S522.

ステップS522乃至ステップS5226は、図4を参照して説明した第1の実施形態のステップ216乃至220と同様である。すなわち、信頼性判定部13066は、ステップS522において追尾領域の信頼性を判断する。追尾処理回路1306は、ステップS524において最終的な追尾領域を、RAM118の追尾データログエリアに記録する。また、次回の追尾処理においては用いる同色領域も合わせて取得し、RAM118の追尾データログエリアに記録する。CPU1301は、ステップS526において表示素子駆動回路122を制御して、追尾枠の表示位置をステップS524で記憶させた追尾位置に対応した位置に更新する。その後、CPU1301は、図12の追尾処理を終了し、処理は図3を参照して説明した処理に戻る。その他の処理は、第1の実施形態の場合と同様である。   Steps S522 to S5226 are the same as steps 216 to 220 of the first embodiment described with reference to FIG. That is, the reliability determination unit 13066 determines the reliability of the tracking area in step S522. In step S524, the tracking processing circuit 1306 records the final tracking area in the tracking data log area of the RAM 118. In the next tracking process, the same color area to be used is also acquired and recorded in the tracking data log area of the RAM 118. In step S526, the CPU 1301 controls the display element driving circuit 122 to update the display position of the tracking frame to a position corresponding to the tracking position stored in step S524. Thereafter, the CPU 1301 ends the tracking process of FIG. 12, and the process returns to the process described with reference to FIG. Other processes are the same as those in the first embodiment.

本実施形態によれば、第1の実施形態において追尾被写体が見失われた際も、従来の技術を用いて、広い領域を探索して追尾被写体が見つけ出され得る。本実施形態によれば、第1の実施形態よりもさらに精度よく追尾被写体が追尾され得る。   According to the present embodiment, even when the tracking subject is lost in the first embodiment, the tracking subject can be found by searching a wide area using the conventional technique. According to the present embodiment, the tracking subject can be tracked with higher accuracy than in the first embodiment.

[第3の実施形態]
第3の実施形態について説明する。ここでは、第2の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。本実施形態では、第2の実施形態において最類似色位置があると判定されたときはフレームレートが高くされ、最類似色が無いと判定され、追尾色重心を用いるときはフレームレートが低くされる。
[Third Embodiment]
A third embodiment will be described. Here, differences from the second embodiment will be described, and the same portions will be denoted by the same reference numerals and description thereof will be omitted. In this embodiment, the frame rate is increased when it is determined that the most similar color position is present in the second embodiment, the frame rate is decreased when it is determined that there is no most similar color, and the tracking color centroid is used. .

本実施形態に係る追尾処理の一例を表すフローチャートを図13に示す。ステップS600乃至ステップS612の処理は、図12を参照して説明した第2の実施形態に係るステップS500乃至ステップS512の処理と同様である。すなわち、CPU1301は、ステップS600において撮像素子IF回路116を制御して撮像素子114に撮像を実行させ、ステップS602において撮像素子114によって撮像された画像のデータを撮像素子IF回路116を介してRAM118に取り込む。追尾処理回路1306は、ステップS604において色情報取得位置判断処理を実行し、ステップS606において色情報取得位置判断処理で決定された色取得位置のそれぞれの位置における色情報を取得し、ステップS608において最類似色判断処理を実行する。追尾処理回路1306は、ステップS610において最類似色位置が有るか否かを判定する。最類似色位置が有ると判定されたされた場合、追尾処理回路1306は、ステップS612において最類似色位置を追尾領域に決定する。   FIG. 13 is a flowchart illustrating an example of the tracking process according to the present embodiment. The processing from step S600 to step S612 is the same as the processing from step S500 to step S512 according to the second embodiment described with reference to FIG. That is, the CPU 1301 controls the imaging element IF circuit 116 in step S600 to cause the imaging element 114 to perform imaging, and the image data captured by the imaging element 114 in step S602 is stored in the RAM 118 via the imaging element IF circuit 116. take in. The tracking processing circuit 1306 executes a color information acquisition position determination process in step S604, acquires color information at each of the color acquisition positions determined in the color information acquisition position determination process in step S606, and in step S608, acquires the color information. A similar color determination process is executed. The tracking processing circuit 1306 determines whether or not there is a most similar color position in step S610. If it is determined that there is the most similar color position, the tracking processing circuit 1306 determines the most similar color position as the tracking area in step S612.

その後、追尾処理回路1306は、ステップS614においてフレームレートを高フレームレートに変更するようにCPU1301に指示を出力する。ここで高フレームレートとは、例えば60乃至120fps等である。その後、処理は、ステップS626に移る。   Thereafter, the tracking processing circuit 1306 outputs an instruction to the CPU 1301 to change the frame rate to a high frame rate in step S614. Here, the high frame rate is 60 to 120 fps, for example. Thereafter, the process proceeds to step S626.

また、ステップS616乃至ステップS620の処理は、図12を参照して説明した第2の実施形態に係るステップS514乃至ステップS518の処理と同様である。すなわち、ステップS610において最類似色位置が無いと判定されたされた場合、追尾処理回路1306は、ステップS616において追尾色重心検索を行い、ステップS618において追尾色重心があるか否かを判定する。追尾色重心があると判定された場合、追尾処理回路1306は、ステップS620において色重心を追尾領域に決定する。   Further, the processing from step S616 to step S620 is the same as the processing from step S514 to step S518 according to the second embodiment described with reference to FIG. That is, if it is determined in step S610 that there is no most similar color position, the tracking processing circuit 1306 performs a tracking color centroid search in step S616, and determines in step S618 whether there is a tracking color centroid. If it is determined that there is a tracking color centroid, the tracking processing circuit 1306 determines the color centroid as the tracking area in step S620.

その後、追尾処理回路1306は、ステップS622においてフレームレートを低フレームレートに変更するようにCPU1301に指示を出力する。ここで低フレームレートとは、例えば15乃至30fps等である。その後、処理は、ステップS626に移る。   Thereafter, the tracking processing circuit 1306 outputs an instruction to the CPU 1301 to change the frame rate to a low frame rate in step S622. Here, the low frame rate is, for example, 15 to 30 fps. Thereafter, the process proceeds to step S626.

また、ステップS624乃至ステップS630の処理は、図12を参照して説明した第2の実施形態に係るステップS520乃至ステップS526の処理と同様である。すなわち、ステップS618において追尾色重心がないと判定された場合、追尾処理回路1306は、ステップS5624において追尾領域を更新せず、処理はステップS626に移る。追尾処理回路1306は、ステップS626において追尾領域の信頼性を判断する。追尾処理回路1306は、ステップS628において最終的な追尾領域を、RAM118の追尾ログエリアに記録する。また、次回の追尾処理においては用いる同色領域も合わせて取得し、RAM118の追尾ログエリアに記録する。CPU1301は、ステップS630において表示素子駆動回路122を制御して、追尾枠の表示位置をステップS628で記憶させた追尾位置に対応した位置に更新する。その後、CPU1301は、図13の追尾処理を終了し、処理は図3を参照して説明した処理に戻る。その他の処理は、第2の実施形態の場合と同様である。   Further, the processing from step S624 to step S630 is the same as the processing from step S520 to step S526 according to the second embodiment described with reference to FIG. That is, if it is determined in step S618 that there is no tracking color centroid, the tracking processing circuit 1306 does not update the tracking area in step S5624, and the process proceeds to step S626. The tracking processing circuit 1306 determines the reliability of the tracking area in step S626. In step S628, the tracking processing circuit 1306 records the final tracking area in the tracking log area of the RAM 118. In the next tracking process, the same color area to be used is also acquired and recorded in the tracking log area of the RAM 118. In step S630, the CPU 1301 controls the display element driving circuit 122 to update the display position of the tracking frame to a position corresponding to the tracking position stored in step S628. Thereafter, the CPU 1301 ends the tracking process of FIG. 13, and the process returns to the process described with reference to FIG. 3. Other processes are the same as those in the second embodiment.

上述のとおり、追尾色重心検索を行う従来技術に比べ、最類似色位置を用いる本発明に係る技術では、処理速度が非常に早い。したがって、本実施形態ではこの処理速度に合わせてフレームレートを変更している。本実施形態によれば、処理に必要かつ十分な時間が確保され、全体として処理速度を速めることができる。最類似色位置に基づく追尾領域の決定を高フレームレートで実行することで、フレーム間の画像の差が小さくなるので、最類似色位置に基づく色追尾の精度は向上する。   As described above, the processing speed of the technique according to the present invention using the most similar color position is very fast compared to the conventional technique that performs the tracking color gravity center search. Therefore, in this embodiment, the frame rate is changed in accordance with this processing speed. According to the present embodiment, a necessary and sufficient time for processing is ensured, and the processing speed can be increased as a whole. By executing the determination of the tracking area based on the most similar color position at a high frame rate, an image difference between frames is reduced, so that the accuracy of color tracking based on the most similar color position is improved.

上記の60乃至120fpsや15乃至30fps等はもちろん一例である。また、これらフレームレートは、表示素子120が画像を表示するフレームレート、記録メディア128に画像を記録するフレームレート、又は画像を撮影する際に用いられたオートフォーカス、自動露出若しくはオートホワイトバランスのフレームレートに応じて変更されてもよい。オートフォーカス等のフレームレートに応じて変更されることで、必要な追尾のフレームレートが確保される。   Of course, the above 60 to 120 fps, 15 to 30 fps, and the like are examples. These frame rates are the frame rate at which the display element 120 displays an image, the frame rate at which an image is recorded on the recording medium 128, or the auto focus, auto exposure, or auto white balance frame used when shooting the image. It may be changed according to the rate. By changing according to the frame rate such as autofocus, a necessary tracking frame rate is ensured.

[第4の実施形態]
第4の実施形態について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。本実施形態では、第1の実施形態における色情報取得位置判断処理が異なる。
[Fourth Embodiment]
A fourth embodiment will be described. Here, differences from the first embodiment will be described, and the same portions will be denoted by the same reference numerals and description thereof will be omitted. In the present embodiment, the color information acquisition position determination process in the first embodiment is different.

本実施形態に係る色情報取得位置判断処理の一例を示すフローチャートを図14に示す。この図に示すように、ステップS701乃至ステップS716は、図5を参照して説明した第1の実施形態におけるステップS300乃至ステップS316と同様である。すなわち、色取得位置決定部13063は、ステップS700において補正倍率(X方向)を算出し、ステップS702において補正倍率(Y方向)を算出し、ステップS704において間隔(X方向)を算出し、ステップS706において間隔(Y方向)を算出する。次に色取得位置決定部13063は、ステップS708において色取得位置(中央)を算出し、ステップS710において色取得位置(右)を算出し、ステップS712において色取得位置(左)を算出し、ステップS714において色取得位置(上)を算出し、ステップS716において色取得位置(下)を算出する。   FIG. 14 is a flowchart illustrating an example of the color information acquisition position determination process according to the present embodiment. As shown in this figure, steps S701 to S716 are the same as steps S300 to S316 in the first embodiment described with reference to FIG. That is, the color acquisition position determination unit 13063 calculates a correction magnification (X direction) in step S700, calculates a correction magnification (Y direction) in step S702, calculates an interval (X direction) in step S704, and performs step S706. The interval (Y direction) is calculated at. Next, the color acquisition position determination unit 13063 calculates a color acquisition position (center) in step S708, calculates a color acquisition position (right) in step S710, calculates a color acquisition position (left) in step S712, In S714, the color acquisition position (upper) is calculated, and in step S716, the color acquisition position (lower) is calculated.

色取得位置決定部13063は、ステップS718において積算値(X方向)を算出する。ここで積算値(X方向)は、過去の複数のフレームにおける追尾領域の動きベクトルのX方向の積算値である。ここで上記のフレーム数は所定の値である。色取得位置決定部13063は、ステップS720において積算値(X方向)が所定の閾値より大きいか否かを判定する。積算値(X方向)が所定の閾値以下であると判定された場合、処理はステップS726に移る。   In step S718, the color acquisition position determination unit 13063 calculates an integrated value (X direction). Here, the integrated value (X direction) is an integrated value in the X direction of the motion vector of the tracking area in a plurality of past frames. Here, the number of frames is a predetermined value. In step S720, the color acquisition position determination unit 13063 determines whether the integrated value (X direction) is greater than a predetermined threshold value. If it is determined that the integrated value (X direction) is less than or equal to the predetermined threshold, the process proceeds to step S726.

ステップS720において所定の閾値よりも大きいと判定された場合、色取得位置決定部13063は、ステップS722において色取得追加位置(右)のX座標xとY座標yをそれぞれ下記式(17)及び(18)に基づいて決定する。
x=追尾位置(X方向)+間隔(X方向)×2 (17)
y=追尾位置(Y方向) (18)
続いて、色取得位置決定部13063は、ステップS724において色取得追加位置(左)のX座標xとY座標yをそれぞれ下記式(19)及び(20)に基づいて決定する。
x=追尾位置(X方向)−間隔(X方向)×2 (19)
y=追尾位置(Y方向) (20)
If it is determined in step S720 that the color acquisition position determination unit 13063 is greater than the predetermined threshold, the color acquisition position determination unit 13063 determines the X coordinate x and Y coordinate y of the color acquisition additional position (right) in steps S722 and (17) and ( 18).
x = tracking position (X direction) + interval (X direction) × 2 (17)
y = tracking position (Y direction) (18)
Subsequently, the color acquisition position determination unit 13063 determines the X coordinate x and the Y coordinate y of the color acquisition additional position (left) based on the following equations (19) and (20) in step S724.
x = tracking position (X direction) −interval (X direction) × 2 (19)
y = tracking position (Y direction) (20)

色取得位置決定部13063は、ステップS726において積算値(Y方向)を算出する。ここで積算値(Y方向)は、過去の複数のフレームにおける追尾領域の動きベクトルのY方向の積算値である。ここでフレーム数は所定の値である。CPU1301は、ステップS720において積算値(Y方向)が所定の閾値より大きいか否かを判定する。積算値(Y方向)が所定の閾値以下であると判定された場合、処理は図4を参照して説明した追尾処理に戻る。   In step S726, the color acquisition position determination unit 13063 calculates an integrated value (Y direction). Here, the integrated value (Y direction) is an integrated value in the Y direction of the motion vector of the tracking area in a plurality of past frames. Here, the number of frames is a predetermined value. In step S720, the CPU 1301 determines whether the integrated value (Y direction) is larger than a predetermined threshold value. If it is determined that the integrated value (Y direction) is equal to or less than the predetermined threshold, the process returns to the tracking process described with reference to FIG.

ステップS728において所定の閾値よりも大きいと判定された場合、色取得位置決定部13063は、ステップS730において色取得追加位置(上)のX座標xとY座標yをそれぞれ下記式(21)及び(22)に基づいて決定する。
x=追尾位置(X方向) (21)
y=追尾位置(Y方向)−間隔(Y方向)×2 (22)
続いて、色取得位置決定部13063は、ステップS732において色取得追加位置(下)のX座標xとY座標yをそれぞれ下記式(23)及び(24)に基づいて決定する。
x=追尾位置(X方向) (23)
y=追尾位置(Y方向)+間隔(X方向)×2 (24)
その後、処理は図4を参照して説明した追尾処理に戻る。
If it is determined in step S728 that it is greater than the predetermined threshold value, the color acquisition position determination unit 13063 sets the X coordinate x and Y coordinate y of the color acquisition additional position (upper) in steps S730 and (21) and ( 22).
x = tracking position (X direction) (21)
y = tracking position (Y direction) −interval (Y direction) × 2 (22)
Subsequently, the color acquisition position determination unit 13063 determines the X coordinate x and the Y coordinate y of the color acquisition additional position (lower) based on the following formulas (23) and (24) in step S732.
x = tracking position (X direction) (23)
y = tracking position (Y direction) + interval (X direction) × 2 (24)
Thereafter, the processing returns to the tracking processing described with reference to FIG.

追尾処理に戻る際の戻り値は、色取得位置(中央)、色取得位置(右)、色取得位置(左)、色取得位置(上)及び色取得位置(下)、並びに、追加された色取得追加位置(右)及び色取得追加位置(左)、及び/又は、色取得追加位置(上)及び色取得追加位置(下)である。その他の処理は、第1の実施形態と同様である。   Return values when returning to the tracking process include color acquisition position (center), color acquisition position (right), color acquisition position (left), color acquisition position (upper), color acquisition position (lower), and added Color acquisition additional position (right) and color acquisition additional position (left), and / or color acquisition additional position (upper) and color acquisition additional position (lower). Other processes are the same as those in the first embodiment.

本実施形態では、ステップS720の判定で所定の閾値よりも大きいと判定された場合、すなわち、追尾領域のX方向の速度が所定の値より大きいとき、色取得追加位置が左右に設定される。同様に、ステップS728の判定で所定の閾値よりも大きいと判定された場合、すなわち、追尾領域のY方向の速度が所定の値より大きいとき、色取得追加位置が上下に設定される。すなわち、例えば図15に示すように、追尾被写体310が左に所定の速度より早く動いているとき、色取得位置(中央)350C、色取得位置(右)350R、色取得位置(左)350L、色取得位置(上)350T及び色取得位置(下)350Bに加えて、色取得追加位置(左)360Lと画像の領域から外れているため図示されていない色取得追加位置(右)が設定される。したがって、本実施形態では、図7を参照して説明した最類似色判断処理では、これら7点のうち最も追尾色に類似する色を有する位置が最類似位置として選択される。   In the present embodiment, when it is determined in step S720 that it is larger than the predetermined threshold, that is, when the speed in the X direction of the tracking area is larger than a predetermined value, the color acquisition additional position is set to the left and right. Similarly, when it is determined in step S728 that the speed is larger than the predetermined threshold, that is, when the speed of the tracking area in the Y direction is higher than a predetermined value, the color acquisition additional position is set up and down. That is, for example, as shown in FIG. 15, when the tracking subject 310 is moving to the left faster than a predetermined speed, the color acquisition position (center) 350C, the color acquisition position (right) 350R, the color acquisition position (left) 350L, In addition to the color acquisition position (upper) 350T and the color acquisition position (lower) 350B, a color acquisition additional position (left) 360L and a color acquisition additional position (right) not shown because they are out of the image area are set. The Therefore, in the present embodiment, in the most similar color determination process described with reference to FIG. 7, the position having the color most similar to the tracking color among these seven points is selected as the most similar position.

本実施形態によれば、追尾被写体の速度が速いとき、追尾被写体が色取得位置から外れて、その結果、追尾被写体を追尾されなくなることを防止することができる。   According to the present embodiment, when the speed of the tracking subject is high, it is possible to prevent the tracking subject from being out of the color acquisition position and consequently not being tracked.

なお、本実施形態では、色取得追加位置は、上下及び/又は左右に1つずつ追加されているが、追尾被写体の速度に応じて複数個ずつ追加されるように構成されてもよい。また、追尾被写体の移動方向に応じて、移動する方向にのみ色取得追加位置を追加するように構成されてもよい。また、追尾被写体の速度に応じて色取得位置の間隔を変更するように構成されてもよい。また、追尾被写体の速度に応じて色の比較に用いられる領域の面積が変更されるように構成されてもよい。   In the present embodiment, one color acquisition additional position is added vertically and / or left and right, but a plurality of color acquisition additional positions may be added according to the speed of the tracking subject. Further, the color acquisition additional position may be added only in the moving direction according to the moving direction of the tracking subject. Further, the color acquisition position interval may be changed according to the speed of the tracking subject. Further, the area of the region used for color comparison may be changed according to the speed of the tracking subject.

また、追尾領域の動きベクトルに基づいて色取得位置の配置を、上下左右でなく斜めに配置されるように構成されてもよい。例えば、回転角度θを下記式(25)により決定される。
θ=tan−1(積算値(Y方向)/積算値(X方向)) (25)
そして回転角度θを用いて、色取得位置のX座標x´及びY座標y´をそれぞれ下記式(26)及び(27)のように求められ得る。
x´=x×cosθ−y×sinθ (26)
y´=x×sinθ+y×cosθ (27)
ここで、x及びyは、それぞれ上記式(7)乃至(14)で求まる値である。
Further, the arrangement of the color acquisition positions based on the motion vector of the tracking area may be arranged diagonally instead of vertically and horizontally. For example, the rotation angle θ is determined by the following equation (25).
θ = tan −1 (integrated value (Y direction) / integrated value (X direction)) (25)
Then, using the rotation angle θ, the X-coordinate x ′ and the Y-coordinate y ′ of the color acquisition position can be obtained by the following equations (26) and (27), respectively.
x ′ = x × cos θ−y × sin θ (26)
y ′ = x × sin θ + y × cos θ (27)
Here, x and y are values obtained by the above formulas (7) to (14), respectively.

このように、色取得位置を追尾被写体の移動方向に合わせて斜めに配置することによっても、追尾被写体が色取得位置から外れて、その結果、追尾被写体を追尾されなくなることが防止され得る。なお、第4の実施形態及び上述したその変形例は、第2の実施形態又は第3の実施形態と組み合わせて用いられてもよいことはもちろんである。   As described above, by arranging the color acquisition position obliquely in accordance with the moving direction of the tracking subject, it is possible to prevent the tracking subject from being out of the color acquisition position and as a result, the tracking subject is not tracked. Needless to say, the fourth embodiment and the modifications described above may be used in combination with the second embodiment or the third embodiment.

また、色取得位置の決定にポイントテンプレートを用いる場合、種々のポイントテンプレートが予め用意され、追尾被写体の移動速度に応じてそれらのうちから適当なポイントテンプレートが選択されるように構成されてもよい。   When a point template is used for determining the color acquisition position, various point templates may be prepared in advance, and an appropriate point template may be selected from them according to the moving speed of the tracking subject. .

[第5の実施形態]
第5の実施形態について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。本実施形態は、第1の実施形態と比較して、図7を参照して説明した最類似判断処理が異なる。本実施形態に係る最類似色判断処理を図16に示すフローチャートを参照して説明する。
[Fifth Embodiment]
A fifth embodiment will be described. Here, differences from the first embodiment will be described, and the same portions will be denoted by the same reference numerals and description thereof will be omitted. This embodiment is different from the first embodiment in the most similar determination process described with reference to FIG. The most similar color determination process according to the present embodiment will be described with reference to the flowchart shown in FIG.

類似色検出部13064は、ステップS800において、色取得位置(中央)、色取得位置(右)、色取得位置(左)、色取得位置(上)及び色取得位置(下)のうち、その色が最も追尾色と類似している最類似色位置を選択する。類似色検出部13064は、ステップS802において追尾色の色情報と最類似色位置の色情報との差異が所定の閾値未満であるか否かを判定する。   In step S800, the similar color detection unit 13064 selects the color from among the color acquisition position (center), the color acquisition position (right), the color acquisition position (left), the color acquisition position (upper), and the color acquisition position (lower). Selects the most similar color position that is most similar to the tracking color. In step S802, the similar color detection unit 13064 determines whether the difference between the color information of the tracking color and the color information of the most similar color position is less than a predetermined threshold.

ステップS802の判定において所定の閾値未満であると判定された場合、類似色検出部13064は、ステップS804において、色取得位置(中央)の色と最類似位置の色との差異が所定の閾値より大きいか否かを判定する。この判定において所定の閾値より大きいと判定された場合、類似色検出部13064は、ステップS806において戻り値に最類似色位置有りという情報とこの最類似色位置の情報とを設定し、処理は図4を参照して説明した追尾処理に戻る。   If it is determined in step S802 that the color is less than the predetermined threshold, the similar color detection unit 13064 determines that the difference between the color at the color acquisition position (center) and the color at the most similar position is greater than the predetermined threshold in step S804. Determine whether it is larger. If it is determined in this determination that it is greater than the predetermined threshold value, the similar color detection unit 13064 sets information indicating that the most similar color position is present and information on the most similar color position in the return value in step S806, and the processing is as shown in FIG. Returning to the tracking process described with reference to FIG.

一方、ステップS804の判定において所定の閾値以下と判定された場合、類似色検出部13064は、ステップS808において追尾色の色情報と最類似色位置の色情報との差異が所定の閾値未満であるか否かを判定する。この判定において所定の閾値未満であると判定された場合、類似色検出部13064は、ステップS810において戻り値に、最類似色位置有りという情報とこの最類似色位置の情報として色取得位置(中央)の位置とを設定し、処理は図4を参照して説明した追尾処理に戻る。ステップS808の判定において所定の閾値以上であると判定された場合、処理はステップS806に移る。   On the other hand, if it is determined in step S804 that the color value is equal to or less than the predetermined threshold value, the similar color detection unit 13064 has a difference between the color information of the tracking color and the color information of the most similar color position is less than the predetermined threshold value in step S808. It is determined whether or not. If it is determined in this determination that it is less than the predetermined threshold value, the similar color detection unit 13064 returns the information indicating that the most similar color position is present and the color acquisition position (center) as information on the most similar color position in the return value in step S810. ) And the process returns to the tracking process described with reference to FIG. If it is determined in step S808 that the threshold is equal to or greater than the predetermined threshold, the process proceeds to step S806.

ステップS802の判定において所定の閾値以上であると判定された場合、類似色検出部13064は、ステップS812において、戻り値に最類似色位置無しという情報を設定し、処理は図4を参照して説明した追尾処理に戻る。その他の処理は、第1の実施形態と同様である。   If it is determined in step S802 that the threshold value is equal to or greater than the predetermined threshold, the similar color detection unit 13064 sets information indicating that the most similar color position is not present in the return value in step S812, and the processing is described with reference to FIG. Return to the described tracking process. Other processes are the same as those in the first embodiment.

本実施形態によれば、追尾色に最も類似した色を有する色取得位置と色取得位置(中央)との色が近いとき、追尾領域として、追尾色に最も類似した色を有する色取得位置よりも色取得位置(中央)が優先的に採用される。すなわち、本実施形態では、複数の色取得位置のうち前の追尾領域と一致する中央の色取得位置の重み付けが高い。   According to this embodiment, when the color acquisition position having the color most similar to the tracking color is close to the color acquisition position (center), the color acquisition position having the color most similar to the tracking color is used as the tracking area. Also, the color acquisition position (center) is preferentially adopted. That is, in this embodiment, the weight of the central color acquisition position that matches the previous tracking area among the plurality of color acquisition positions is high.

前述のとおり本発明に係る色追尾技術では、色分解能が高い。このため、追尾領域の位置が必要以上に細かく更新されがちである。これに対して本実施形態によれば、追尾領域の不要な更新がある程度抑制され、安定した追尾が実現される。なお、第5の実施形態は、第2乃至第4の実施形態と組み合わせて用いられてもよいことはもちろんである。   As described above, the color tracking technique according to the present invention has high color resolution. For this reason, the position of the tracking area tends to be updated more finely than necessary. On the other hand, according to the present embodiment, unnecessary updating of the tracking area is suppressed to some extent, and stable tracking is realized. Needless to say, the fifth embodiment may be used in combination with the second to fourth embodiments.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除しても、発明が解決しようとする課題の欄で述べられた課題が解決でき、かつ、発明の効果が得られる場合には、この構成要素が削除された構成も発明として抽出され得る。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, even if some constituent elements are deleted from all the constituent elements shown in the embodiment, the problem described in the column of problems to be solved by the invention can be solved and the effect of the invention can be obtained. The configuration in which this component is deleted can also be extracted as an invention. Furthermore, constituent elements over different embodiments may be appropriately combined.

100…撮像装置、102…撮影光学系、104…焦点調整機構、106…絞り、108…絞り駆動機構、110…シャッタ、112…シャッタ駆動機構、114…撮像素子、116…撮像素子インターフェイス(IF)回路、118…RAM、120…表示素子、122…表示素子駆動回路、124…タッチパネル、126…タッチパネル駆動回路、128…記録メディア、130…システムコントローラ、132…操作部、134…ROM、1301…CPU、1302…AF制御回路、1303…AE制御回路、1304…画像処理回路、1305…焦点距離取得回路、1306…追尾処理回路、13061…画像取得部、13062…追尾領域設定部、13063…色取得位置決定部、13064…類似色検出部、13065…追尾領域更新部、13066…信頼性判定部、13067…追尾色重心検索部、1307…顔検出回路、1308…メモリ制御回路。   DESCRIPTION OF SYMBOLS 100 ... Imaging device, 102 ... Imaging optical system, 104 ... Focus adjustment mechanism, 106 ... Aperture, 108 ... Aperture drive mechanism, 110 ... Shutter, 112 ... Shutter drive mechanism, 114 ... Imaging element, 116 ... Imaging element interface (IF) Circuit: 118 ... RAM, 120 ... Display element, 122 ... Display element drive circuit, 124 ... Touch panel, 126 ... Touch panel drive circuit, 128 ... Recording medium, 130 ... System controller, 132 ... Operation unit, 134 ... ROM, 1301 ... CPU DESCRIPTION OF SYMBOLS 1302 ... AF control circuit, 1303 ... AE control circuit, 1304 ... Image processing circuit, 1305 ... Focal length acquisition circuit, 1306 ... Tracking processing circuit, 13061 ... Image acquisition part, 13062 ... Tracking area setting part, 13063 ... Color acquisition position Determination unit, 13064 ... Similar color detection unit, 13065 ... Tracking Frequency updating unit, 13066 ... reliability determination unit, 13,067 ... tracking color centroid searching unit, 1307 ... face detection circuit, 1308 ... memory controller.

Claims (18)

画像を取得する画像取得部と、
前記画像のうち一部の領域を追尾領域に設定し、この追尾領域の色を追尾色に設定する追尾領域設定部と、
前記画像において所定の位置関係を有する少なくとも3つの領域を比較領域に設定する比較領域設定部と、
前記比較領域のうち前記追尾色に最も類似する色を有する前記比較領域を更新領域として選択する類似色検出部と、
前記更新領域に基づいて前記追尾領域を再設定する追尾領域更新を前記追尾領域設定部に実行させる追尾領域更新部と、
を具備することを特徴とする追尾装置。
An image acquisition unit for acquiring images;
A tracking area setting unit that sets a part of the image as a tracking area and sets a color of the tracking area as a tracking color;
A comparison area setting unit that sets at least three areas having a predetermined positional relationship in the image as comparison areas;
A similar color detection unit that selects the comparison region having the color most similar to the tracking color among the comparison regions as an update region;
A tracking area update unit that causes the tracking area setting unit to execute a tracking area update that resets the tracking area based on the update area;
A tracking device comprising:
画像を取得する画像取得部と、
少なくも3つの比較領域の所定の位置関係をポイントテンプレートとして記憶するテンプレート記憶部と、
前記画像のうち一部の領域を追尾領域に設定し、この追尾領域の色を追尾色に設定する追尾領域設定部と、
前記画像において前記追尾領域の位置に基づいて前記ポイントテンプレートの位置を設定するテンプレート設定部と、
設定された前記ポイントテンプレートの前記比較領域のうち前記追尾色に最も類似する色を有する前記比較領域を更新領域として選択する類似色検出部と、
前記更新領域に基づいて前記追尾領域を再設定する追尾領域更新を前記追尾領域設定部に実行させる追尾領域更新部と、
を具備することを特徴とする追尾装置。
An image acquisition unit for acquiring images;
A template storage unit that stores a predetermined positional relationship of at least three comparison regions as a point template;
A tracking area setting unit that sets a part of the image as a tracking area and sets a color of the tracking area as a tracking color;
A template setting unit for setting the position of the point template based on the position of the tracking area in the image;
A similar color detection unit that selects, as an update region, the comparison region that has the color most similar to the tracking color among the comparison regions of the set point template;
A tracking area update unit that causes the tracking area setting unit to execute a tracking area update that resets the tracking area based on the update area;
A tracking device comprising:
前記比較領域設定部は、前記追尾領域の移動速度に応じて、前記比較領域の数、前記追尾領域と前記比較領域との距離、前記追尾領域及び前記比較領域を結ぶ線と前記画像の任意の軸とが成す角、並びに、前記追尾領域の面積のうち少なくとも1つを変更することを特徴とする請求項1に記載の追尾装置。   The comparison area setting unit is configured to select a number of the comparison areas, a distance between the tracking area and the comparison area, a line connecting the tracking area and the comparison area, and any image of the image according to a moving speed of the tracking area. The tracking device according to claim 1, wherein at least one of an angle formed with an axis and an area of the tracking region is changed. 前記画像を撮像する際に用いられた光学系の焦点距離を取得する焦点距離取得部を更に具備し、
前記比較領域設定部は、前記焦点距離に応じて、前記比較領域の数、前記追尾領域と前記比較領域との距離、前記追尾領域及び前記比較領域を結ぶ線と前記画像の横軸とが成す角、並びに、前記追尾領域の面積のうち少なくとも1つを変更する、
ことを特徴とする請求項1に記載の追尾装置。
Further comprising a focal length acquisition unit for acquiring a focal length of an optical system used when capturing the image;
The comparison area setting unit includes the number of comparison areas, the distance between the tracking area and the comparison area, a line connecting the tracking area and the comparison area, and the horizontal axis of the image according to the focal length. Changing at least one of the corners and the area of the tracking region;
The tracking device according to claim 1.
前記比較領域のうちの1つと前記追尾領域とは一致し、
前記類似色検出部は、前記比較領域の色と前記追尾色との類似度に応じて、前記比較領域のうち前記追尾領域と一致する前記比較領域とそれ以外の前記比較領域とで重み付けを変更して前記更新領域を決定する、
ことを特徴とする請求項1乃至4のうち何れか1項に記載の追尾装置。
One of the comparison areas and the tracking area coincide;
The similar color detection unit changes the weighting of the comparison area that matches the tracking area and the comparison areas other than the comparison area in the comparison area according to the similarity between the color of the comparison area and the tracking color. And determining the update area,
The tracking device according to any one of claims 1 to 4, wherein the tracking device is characterized in that:
前記追尾領域更新部が前記追尾領域更新を行うフレームレートは、前記画像を表示するフレームレート、前記画像を記録するフレームレート、並びに、前記画像を撮像する際に用いられたオートフォーカス、自動露出、及びオートホワイトバランスのフレームレートのうち少なくとも何れか1つに応じて変更されることを特徴とする請求項1乃至5のうち何れか1項に記載の追尾装置。   The frame rate at which the tracking region update unit performs the tracking region update includes a frame rate for displaying the image, a frame rate for recording the image, and auto-focus, automatic exposure used when capturing the image, 6. The tracking device according to claim 1, wherein the tracking device is changed according to at least one of a frame rate of auto white balance. 前記比較領域の色と前記追尾色との差異が所定の値以下であるとき、前記追尾領域更新部が前記追尾領域更新を行うフレームレートは高められることを特徴とする請求項1乃至6のうち何れか1項に記載の追尾装置。   The frame rate at which the tracking area update unit performs the tracking area update when the difference between the color of the comparison area and the tracking color is equal to or less than a predetermined value is increased. The tracking device according to any one of claims. 前記追尾領域を表示する追尾領域告知部を更に具備することを特徴とする請求項1乃至7のうち何れか1項に記載の追尾装置。   The tracking device according to claim 1, further comprising a tracking region notification unit that displays the tracking region. 前記類似色検出部が決定した前記更新領域の信頼性を判定する信頼性判定部を更に具備することを特徴とする請求項1乃至8のうち何れか1項に記載の追尾装置。   The tracking device according to claim 1, further comprising a reliability determination unit that determines the reliability of the update region determined by the similar color detection unit. 前記類似色検出部は、前記比較領域の色と前記追尾色との差異が所定の値以上であるとき、前記更新領域を決定せず、
前記類似色検出部が前記更新領域を決定しないとき、前記追尾領域更新部は、前記追尾領域更新を前記追尾領域設定部に実行させない、
ことを特徴とする請求項1乃至9のうち何れか1項に記載の追尾装置。
When the difference between the color of the comparison area and the tracking color is equal to or greater than a predetermined value, the similar color detection unit does not determine the update area,
When the similar color detection unit does not determine the update region, the tracking region update unit does not cause the tracking region setting unit to execute the tracking region update,
The tracking device according to claim 1, wherein the tracking device is one of the following.
前記画像を走査して前記追尾色に類似する類似領域を検索し、この類似領域の重心位置を決定する類似領域検索部を更に具備し、
前記比較領域の色と前記追尾色との差異が所定の値以上であるとき、
前記類似領域検索部は、前記重心位置を決定し、
前記追尾領域更新部は、前記追尾領域設定部に前記重心位置に基づいて前記追尾領域を再設定させる、
ことを特徴とする請求項1乃至10のうち何れか1項に記載の追尾装置。
The image processing apparatus further includes a similar area search unit that scans the image and searches for a similar area similar to the tracking color, and determines a centroid position of the similar area.
When the difference between the color of the comparison area and the tracking color is a predetermined value or more,
The similar region search unit determines the position of the center of gravity,
The tracking area update unit causes the tracking area setting unit to reset the tracking area based on the gravity center position.
The tracking device according to claim 1, wherein the tracking device is one of the following.
前記比較領域設定部は、前記追尾領域を含み前記追尾色に類似する色を有する領域の大きさに応じて前記比較領域の前記位置関係を決定することを特徴とする請求項1乃至11のうち何れか1項に記載の追尾装置。   The said comparison area setting part determines the said positional relationship of the said comparison area according to the magnitude | size of the area | region which has the color similar to the said tracking color including the said tracking area. The tracking device according to any one of claims. 前記比較領域設定部は、前記追尾領域の移動方向に応じて、前記追尾領域及び前記比較領域を結ぶ線と前記画像の任意の軸とが成す角を変更することを特徴とする請求項1乃至12のうち何れか1項に記載の追尾装置。   The comparison area setting unit changes an angle formed by a line connecting the tracking area and the comparison area and an arbitrary axis of the image according to a moving direction of the tracking area. The tracking device according to any one of 12. 前記比較領域は、前記追尾領域と一致する位置と、この追尾領域の上下左右の4か所の位置とを含む少なくとも5つの領域であることを特徴とする請求項1乃至12のうち何れか1項に記載の追尾装置。   13. The comparison area according to claim 1, wherein the comparison area is at least five areas including a position that coincides with the tracking area and four positions on the upper, lower, left, and right sides of the tracking area. The tracking device according to item. テンプレート設定部は、前記追尾領域の移動速度に応じて、前記比較領域の数、前記比較領域の間隔、前記比較領域を結ぶ線と前記画像の任意の軸とが成す角、及び前記追尾領域の面積のうち少なくとも1つが異なる複数の前記ポイントテンプレートの中から1つの前記ポイントテンプレートを選択することを特徴とする請求項2に記載の追尾装置。   The template setting unit, according to the moving speed of the tracking area, the number of the comparison areas, the interval between the comparison areas, the angle formed by the line connecting the comparison areas and an arbitrary axis of the image, and the tracking area The tracking device according to claim 2, wherein one point template is selected from a plurality of the point templates having at least one of different areas. 前記画像を撮像する際に用いられた光学系の焦点距離を取得する焦点距離取得部を更に具備し、
テンプレート設定部は、前記焦点距離に応じて、前記比較領域の数、前記比較領域の間隔、前記比較領域を結ぶ線と前記画像の任意の軸とが成す角、及び前記追尾領域の面積のうち少なくとも1つが異なる複数の前記ポイントテンプレートの中から1つの前記ポイントテンプレートを選択する、
ことを特徴とする請求項2に記載の追尾装置。
Further comprising a focal length acquisition unit for acquiring a focal length of an optical system used when capturing the image;
The template setting unit may include a number of the comparison regions, an interval between the comparison regions, an angle formed by a line connecting the comparison regions and an arbitrary axis of the image, and an area of the tracking region according to the focal length. Selecting one of the point templates from a plurality of the different point templates.
The tracking device according to claim 2.
画像を取得することと、
前記画像のうち一部の領域を追尾領域に設定し、この追尾領域の色を追尾色に設定することと、
前記画像において所定の位置関係を有する少なくとも3つの領域を比較領域に設定することと、
前記比較領域のうち前記追尾色に最も類似する色を有する前記比較領域を更新領域として選択することと、
前記更新領域に基づいて前記追尾領域を再設定することと、
を具備することを特徴とする追尾方法。
Acquiring images,
Setting a partial area of the image as a tracking area, and setting a color of the tracking area as a tracking color;
Setting at least three regions having a predetermined positional relationship in the image as comparison regions;
Selecting the comparison area having the color most similar to the tracking color among the comparison areas as an update area;
Resetting the tracking area based on the update area;
The tracking method characterized by comprising.
画像を取得することと、
前記画像のうち一部の領域を追尾領域に設定し、この追尾領域の色を追尾色に設定することと、
前記画像において前記追尾領域の位置に基づいて、少なくも3つの比較領域の所定の位置関係を有するポイントテンプレートの位置を設定することと、
前記ポイントテンプレートの前記比較領域のうち前記追尾色に最も類似する色を有する前記比較領域を更新領域として選択することと、
前記更新領域に基づいて前記追尾領域を再設定することと、
を具備することを特徴とする追尾方法。
Acquiring images,
Setting a partial area of the image as a tracking area, and setting a color of the tracking area as a tracking color;
Setting a position of a point template having a predetermined positional relationship of at least three comparison areas based on the position of the tracking area in the image;
Selecting the comparison area having the color most similar to the tracking color as the update area among the comparison areas of the point template;
Resetting the tracking area based on the update area;
The tracking method characterized by comprising.
JP2012015486A 2012-01-27 2012-01-27 TRACKING DEVICE AND TRACKING METHOD Active JP5965653B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012015486A JP5965653B2 (en) 2012-01-27 2012-01-27 TRACKING DEVICE AND TRACKING METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012015486A JP5965653B2 (en) 2012-01-27 2012-01-27 TRACKING DEVICE AND TRACKING METHOD

Publications (2)

Publication Number Publication Date
JP2013157725A true JP2013157725A (en) 2013-08-15
JP5965653B2 JP5965653B2 (en) 2016-08-10

Family

ID=49052553

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012015486A Active JP5965653B2 (en) 2012-01-27 2012-01-27 TRACKING DEVICE AND TRACKING METHOD

Country Status (1)

Country Link
JP (1) JP5965653B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017163510A (en) * 2016-03-11 2017-09-14 富士通株式会社 Imaging control program, imaging control method and imaging control device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007282188A (en) * 2006-03-15 2007-10-25 Nikon Corp Object tracker, object tracking method, object tracking program and optical equipment
WO2008026434A1 (en) * 2006-08-30 2008-03-06 Nikon Corporation Image tracking apparatus, image tracking method and camera
JP2008113423A (en) * 2006-10-03 2008-05-15 Nikon Corp Tracking device, image-capturing apparatus, and tracking method
JP2009296029A (en) * 2008-06-02 2009-12-17 Panasonic Corp Image pickup apparatus
JP2011044764A (en) * 2009-08-19 2011-03-03 Panasonic Corp Image capturing apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007282188A (en) * 2006-03-15 2007-10-25 Nikon Corp Object tracker, object tracking method, object tracking program and optical equipment
WO2008026434A1 (en) * 2006-08-30 2008-03-06 Nikon Corporation Image tracking apparatus, image tracking method and camera
JP2008113423A (en) * 2006-10-03 2008-05-15 Nikon Corp Tracking device, image-capturing apparatus, and tracking method
JP2009296029A (en) * 2008-06-02 2009-12-17 Panasonic Corp Image pickup apparatus
JP2011044764A (en) * 2009-08-19 2011-03-03 Panasonic Corp Image capturing apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017163510A (en) * 2016-03-11 2017-09-14 富士通株式会社 Imaging control program, imaging control method and imaging control device

Also Published As

Publication number Publication date
JP5965653B2 (en) 2016-08-10

Similar Documents

Publication Publication Date Title
JP4525089B2 (en) Auto focus system
JP5830373B2 (en) Imaging device
JP5251215B2 (en) Digital camera
US9317748B2 (en) Tracking apparatus
US7978968B2 (en) Auto focus device
US8284994B2 (en) Image processing apparatus, image processing method, and storage medium
EP3018891B1 (en) Tracking device, tracking method, and non-transitory recording medium having tracking program stored therein
JP2006258944A (en) Autofocus system
JP2006267221A (en) Auto focus system
JP2009111716A (en) Imaging apparatus, program and template generating method
JP5851206B2 (en) TRACKING DEVICE AND TRACKING METHOD
JP2007129310A (en) Imaging apparatus
JP2005338352A (en) Autofocus system
JP2006058431A (en) Autofocusing system
JP4596246B2 (en) Auto focus system
JP2013012940A (en) Tracking apparatus and tracking method
JP6172973B2 (en) Image processing device
JP2006267220A (en) Auto focus system
JP5965653B2 (en) TRACKING DEVICE AND TRACKING METHOD
JP5965654B2 (en) TRACKING DEVICE, IMAGING DEVICE, TRACKING METHOD USED FOR IMAGING DEVICE
JP2009229570A (en) Autofocus system
EP2091233A2 (en) Imaging apparatus
JP4568916B2 (en) Auto focus system
JP2009229568A (en) Autofocus system
JP5027704B2 (en) Auto focus system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150122

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160704

R151 Written notification of patent or utility model registration

Ref document number: 5965653

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250