JP5800559B2 - Subject tracking device, imaging device, subject tracking method and program - Google Patents

Subject tracking device, imaging device, subject tracking method and program Download PDF

Info

Publication number
JP5800559B2
JP5800559B2 JP2011098567A JP2011098567A JP5800559B2 JP 5800559 B2 JP5800559 B2 JP 5800559B2 JP 2011098567 A JP2011098567 A JP 2011098567A JP 2011098567 A JP2011098567 A JP 2011098567A JP 5800559 B2 JP5800559 B2 JP 5800559B2
Authority
JP
Japan
Prior art keywords
image data
tracking target
characteristic
tracking
target area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011098567A
Other languages
Japanese (ja)
Other versions
JP2012231319A5 (en
JP2012231319A (en
Inventor
将平 船本
将平 船本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011098567A priority Critical patent/JP5800559B2/en
Publication of JP2012231319A publication Critical patent/JP2012231319A/en
Publication of JP2012231319A5 publication Critical patent/JP2012231319A5/en
Application granted granted Critical
Publication of JP5800559B2 publication Critical patent/JP5800559B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、画像データ内の追尾対象領域において被写体を追尾する技術に関するものである。   The present invention relates to a technique for tracking a subject in a tracking target area in image data.

特許文献1には、画像データ中の任意の被写体を追尾する方法として、画像データ中の被写体の特徴色を抽出し、異なる画像データから特徴色を持つ領域を検出することにより追尾を行う技術が開示されている。特許文献1に開示される技術においては、追尾対象領域内の画像データと画像データ全体との特徴色を抽出する。そして、追尾対象領域内の画像データに特有で且つ安定して抽出することができる特徴色の領域を1、それ以外の領域を0とする2値画像データを用いて追尾することで追尾精度を向上させている。また、輝度の場合も同様に、追尾対象領域内の画像データと画像データ全体との特徴的な輝度を抽出する。そして、追尾対象領域内の画像データに特有で且つ安定して抽出することができる特徴的な輝度の領域を1、それ以外の領域を0とする2値画像データを用いて追尾することで追尾精度を向上させている。   Japanese Patent Application Laid-Open No. 2004-133867 discloses a technique for tracking an arbitrary subject in image data by extracting a feature color of the subject in the image data and detecting a region having the feature color from different image data. It is disclosed. In the technique disclosed in Patent Document 1, the feature colors of the image data in the tracking target area and the entire image data are extracted. Then, tracking is performed using binary image data in which the characteristic color region that is unique to the image data in the tracking target region and can be stably extracted is 1 and the other region is 0, thereby improving the tracking accuracy. It is improving. Similarly, in the case of luminance, characteristic luminance between the image data in the tracking target area and the entire image data is extracted. Then, tracking is performed by using binary image data in which a characteristic luminance area that is unique to image data in the tracking target area and can be stably extracted is 1 and other areas are 0. The accuracy is improved.

特開平9−181953号公報Japanese Patent Laid-Open No. 9-181953

特許文献1に開示される技術では、追尾に利用する特徴色を1色のみ抽出し、特徴色に基づいて画像データ中の探索領域を2値化して追尾を行っている。従って、主被写体が複数の色で構成されるシーンでは、特徴色として抽出できる部分が少なくなるため、ノイズや外乱の影響を受けやすくなる。また、2値化したデータを用いてマッチングを行っているため、精度が荒く、加えて階調や色調の変化が小さいシーンにおいて追尾精度を確保することができないといった問題がある。色ではなく輝度を用いる場合にも、特徴的な輝度を利用して2値化を行っているため、同様の問題が発生する。   In the technique disclosed in Patent Document 1, only one feature color used for tracking is extracted, and tracking is performed by binarizing a search area in image data based on the feature color. Therefore, in a scene in which the main subject is composed of a plurality of colors, there are few portions that can be extracted as characteristic colors, and therefore, the main subject is easily affected by noise and disturbance. In addition, since matching is performed using binarized data, there is a problem that accuracy is rough and tracking accuracy cannot be ensured in a scene where a change in gradation and tone is small. Even in the case of using luminance instead of color, the same problem occurs because binarization is performed using characteristic luminance.

そこで、本発明の目的は、被写体を精度よく追尾することにある。   Accordingly, an object of the present invention is to accurately track a subject.

本発明の被写体追尾装置は、第1の画像データ内の追尾対象領域から得られる色情報に基づいて、色相を所定の分類単位で分類し、前記第1の画像データ内の追尾対象領域の中心から各画素までの距離と、前記分類単位のそれぞれに対応する画素の数と、に基づいて、前記分類単位で分類したヒストグラムを生成し、前記ヒストグラムに基づいて、複数の特徴色と複数の前記特徴色のそれぞれの特徴度とを決定する決定手段と、前記第1の画像データの追尾対象領域から、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第3の画像データを生成し、前記第1の画像データとは別のフレームの第2の画像データから、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第4の画像データを生成する第1の生成手段と、前記第4の画像データの領域ごとに前記第3の画像データとの相関量である第1の相関量を求め、前記第1の相関量に基づいて、前記第2の画像データにおける追尾対象領域を設定する設定手段と、を有することを特徴とする。 The subject tracking device according to the present invention classifies hues in a predetermined classification unit based on color information obtained from a tracking target area in the first image data, and the center of the tracking target area in the first image data. A histogram classified by the classification unit is generated based on the distance from the pixel to each pixel and the number of pixels corresponding to each of the classification units, and a plurality of characteristic colors and a plurality of the plurality of the characteristic colors are generated based on the histogram. third image data having a determining means for determining a respective characteristic of the characteristic color, from the tracking target area in said first image data, the gradation corresponding to each feature of the plurality of the characteristic color First image data is generated from second image data in a frame different from the first image data to generate fourth image data having gradations corresponding to the respective characteristic degrees of the plurality of characteristic colors. Generating means, and A first correlation amount that is a correlation amount with the third image data is obtained for each region of the image data, and a tracking target region in the second image data is set based on the first correlation amount. And setting means.

本発明によれば、被写体を精度よく追尾することが可能となる。   According to the present invention, it is possible to accurately track a subject.

本発明の実施形態に係る撮像装置の主要構成を示す図である。It is a figure which shows the main structures of the imaging device which concerns on embodiment of this invention. 被写体追尾部における対象物の追尾処理を示すフローチャートである。It is a flowchart which shows the tracking process of the target object in a subject tracking part. 色相空間とヒストグラムとを示す図である。It is a figure which shows hue space and a histogram. 図2のステップS202、S205の処理を具体的に示す図である。It is a figure which shows concretely the process of step S202 of FIG. 2, and S205. テンプレート画像データから第1の輝度画像データを生成する処理と、探索領域画像データから第1の輝度画像データを生成する処理とを示す図である。It is a figure which shows the process which produces | generates 1st brightness | luminance image data from template image data, and the process which produces | generates 1st brightness | luminance image data from search area image data. 図2のステップS207における探索処理を説明するための図である。It is a figure for demonstrating the search process in step S207 of FIG. テンプレート画像データから第2の輝度画像データを生成する処理と、探索領域画像データから第2の輝度画像データを生成する処理とを示す図である。It is a figure which shows the process which produces | generates 2nd luminance image data from template image data, and the process which produces | generates 2nd luminance image data from search area image data. 図2のステップS203における特徴色決定処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the characteristic color determination process in step S203 of FIG. 図3(a)の部分色相空間と画素(x,y)のUV信号との対応関係を示す図である。It is a figure which shows the correspondence of the partial hue space of Fig.3 (a), and the UV signal of a pixel (x, y). 図3(b)に示すヒストグラムの作成において、各部分色相空間に属する画素にかける補正値について示す図である。It is a figure shown about the correction value applied to the pixel which belongs to each partial hue space in creation of the histogram shown in Drawing 3 (b). 図8のステップS814における処理について説明するための図である。It is a figure for demonstrating the process in step S814 of FIG. 図2のステップS210における追尾対象の位置の決定処理を示すフローチャートである。It is a flowchart which shows the determination process of the position of the tracking target in step S210 of FIG.

以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings.

図1は、本発明の実施形態に係る撮像装置の主要構成を示す図である。図1に示すように、撮像装置112は、被写体追尾部100、撮像素子108、撮像光学系操作部109、操作部110及び表示部111を備える。被写体追尾部100は、画像取得部101、画像記憶部102、システム制御部103、画像変換処理部104、相関演算部105及び追尾情報記憶部106を備える。なお、被写体追尾部100は、被写体追尾装置の適用例となる構成である。   FIG. 1 is a diagram illustrating a main configuration of an imaging apparatus according to an embodiment of the present invention. As illustrated in FIG. 1, the imaging device 112 includes a subject tracking unit 100, an imaging element 108, an imaging optical system operation unit 109, an operation unit 110, and a display unit 111. The subject tracking unit 100 includes an image acquisition unit 101, an image storage unit 102, a system control unit 103, an image conversion processing unit 104, a correlation calculation unit 105, and a tracking information storage unit 106. Note that the subject tracking unit 100 is an application example of the subject tracking device.

画像取得部101は、撮像素子108から画像信号を取得し、A/D変換を行った後にYUV形式の画像データに変換し、画像記憶部102に対して出力する。ここで、本実施形態で用いるYUV形式の画像データは、輝度信号であるY信号(0〜255の値をとる)と色差信号であるUV信号(−128〜127の値をとる)とを持つ。画像記憶部102は、画像取得部101から出力された画像データを記憶する。システム制御部103は、撮像装置112を統括制御する。画像変換処理部104は、画像記憶部102から画像データを読み出して画像処理を行うことにより2枚の輝度画像データを生成する。相関演算部105は、画像変換処理部104によって生成された2枚の輝度画像データのうち、一方の輝度画像データをテンプレート画像データとし、他方の輝度画像データ内において上記一方の輝度画像データと最も相関量が高い領域を探索する。追尾情報記憶部106は、被写体位置、相関量といった追尾処理用のデータを記憶する。なお、画像取得部101、システム制御部103、画像変換処理部104及び相関演算部105は、マイクロコンピュータがROMに記憶されるコンピュータプログラムを実行することにより実現される機能的な構成である。また、画像記憶部102及び追尾情報記憶部106は、RAMの一部記憶領域に対応する構成である。   The image acquisition unit 101 acquires an image signal from the image sensor 108, performs A / D conversion, converts the image signal into YUV format image data, and outputs the image data to the image storage unit 102. Here, the YUV format image data used in this embodiment has a Y signal (having a value of 0 to 255) that is a luminance signal and a UV signal (having a value of -128 to 127) that is a color difference signal. . The image storage unit 102 stores the image data output from the image acquisition unit 101. The system control unit 103 performs overall control of the imaging device 112. The image conversion processing unit 104 reads out image data from the image storage unit 102 and performs image processing to generate two pieces of luminance image data. The correlation calculation unit 105 uses one of the two luminance image data generated by the image conversion processing unit 104 as template image data, and is the most similar to the one of the luminance image data in the other luminance image data. A region having a high correlation amount is searched. The tracking information storage unit 106 stores tracking processing data such as a subject position and a correlation amount. The image acquisition unit 101, the system control unit 103, the image conversion processing unit 104, and the correlation calculation unit 105 have a functional configuration that is realized when the microcomputer executes a computer program stored in the ROM. The image storage unit 102 and the tracking information storage unit 106 are configured to correspond to a partial storage area of the RAM.

撮像素子108は、受光面上に結像された像による光信号を、対応する位置の受光画素毎に電気信号に変換する光電変換素子である。撮像光学系操作部109は、絞りの開口径を変化させたり、フォーカスレンズの移動制御を行ったりする。操作部110は、レリーズボタンを有し、ユーザからの操作を受け付ける。表示部111は、撮像装置112の設定状況を表示したり、撮影後に生成されたサムネイル画像データを表示する。なお、本実施形態に係る撮像装置112は、静止画像データ及び動画像データの何れも撮像することができる。   The image sensor 108 is a photoelectric conversion element that converts an optical signal based on an image formed on the light receiving surface into an electric signal for each light receiving pixel at a corresponding position. The imaging optical system operation unit 109 changes the aperture diameter of the diaphragm or performs movement control of the focus lens. The operation unit 110 has a release button and accepts an operation from the user. The display unit 111 displays the setting status of the imaging device 112 or thumbnail image data generated after shooting. Note that the imaging apparatus 112 according to the present embodiment can capture both still image data and moving image data.

以下では、上述した被写体追尾部100において任意の対象物を追尾する処理の一例について説明する。図2は、被写体追尾部100における対象物の追尾処理を示すフローチャートである。なお、図2に示す対象物の追尾処理は、操作部110におけるレリーズボタンが半押しされることにより開始される。   Hereinafter, an example of processing for tracking an arbitrary object in the subject tracking unit 100 described above will be described. FIG. 2 is a flowchart showing the object tracking processing in the subject tracking unit 100. 2 is started when the release button on the operation unit 110 is half-pressed.

対象物の追尾処理が開始されると、ステップS201において、画像取得部101は、撮像素子108から画像信号を取得し、A/D変換を行った後、YUV形式の画像データに変換して画像記憶部102に対して出力し、記憶させる。   When the tracking processing of the object is started, in step S201, the image acquisition unit 101 acquires an image signal from the image sensor 108, performs A / D conversion, and then converts the image data into YUV format image data. The data is output to the storage unit 102 and stored.

ステップS202において、システム制御部103は、画像記憶部102からm枚目(m=1、2、・・・)の画像データを読み出す。そして、システム制御部103は、m枚目の画像データ(第1の画像データ)から追尾対象領域に該当する部分を抽出し、テンプレート画像データを生成する。ここで、追尾開始位置は画像データの中心とし、追尾対象領域の大きさは、追尾情報記憶部106に設定してある数値(LTx,LTy)とする。追尾対象領域に該当する画像データの抽出が完了すると、システム制御部103は、当該画像データをテンプレート画像データとして追尾情報記憶部106に対して出力し、記憶させる。   In step S <b> 202, the system control unit 103 reads m-th (m = 1, 2,...) Image data from the image storage unit 102. Then, the system control unit 103 extracts a portion corresponding to the tracking target area from the m-th image data (first image data), and generates template image data. Here, the tracking start position is the center of the image data, and the size of the tracking target area is a numerical value (LTx, LTy) set in the tracking information storage unit 106. When the extraction of the image data corresponding to the tracking target area is completed, the system control unit 103 outputs the image data as template image data to the tracking information storage unit 106 and stores it.

ステップS203において、システム制御部103は、テンプレート画像データにおける特徴色を決定する。特徴色の決定には、図3に示す色相空間とヒストグラムとが用いられる。図3(a)に示す色相空間301は、色相環で構成される空間であり、部分色相空間302は、色相空間301を12等分した空間である。部分色相空間302はそれぞれ、Red、Red−Yellow、Yellow、Yellow−Green、Green、Green−Cyan、Cyan、Cyan−Blue、Blue、Blue−Magenta、Magenta、Magenta−Redの色相の領域を持ち、これらが特徴色の候補となる。本実施形態において、部分色相空間302は、色相空間301を12等分したものとしたが、各部分色相空間302の大きさは均等でなくてもよいし、部分色相空間302の数もテンプレート画像データ内の色の分布等によって数を変更してもよい。   In step S203, the system control unit 103 determines a feature color in the template image data. For the determination of the characteristic color, the hue space and the histogram shown in FIG. 3 are used. A hue space 301 shown in FIG. 3A is a space constituted by a hue circle, and a partial hue space 302 is a space obtained by dividing the hue space 301 into 12 equal parts. Each of the partial hue spaces 302 has regions of hues of Red, Red-Yellow, Yellow, Yellow-Green, Green, Green-Cyan, Cyan, Cyan-Blue, Blue, Blue-Magenta, Magenta, and Magenta-Red. Is a candidate for a feature color. In the present embodiment, the partial hue space 302 is obtained by dividing the hue space 301 into 12 equal parts, but the size of each partial hue space 302 may not be equal, and the number of the partial hue spaces 302 is also the template image. The number may be changed according to the color distribution in the data.

図3(b)に示すヒストグラム303は、テンプレート画像データの各画素を色差成分(色情報)に基づいて、分類単位である部分色相空間302に分類し、横軸を各部分色相空間302、縦軸をそれぞれの部分色相空間302に分類された画素の数に後述する補正値をかけて作成される。ここで、ヒストグラム303の縦軸の数値を、その部分色相空間302に対応する色の特徴度とする。但し、画素の色差成分が閾値以下であれば、無彩色空間(MT: Monotone)に分類し、部分色相空間302に属さない画素として扱う。なお、ヒストグラム生成処理については図8を用いて詳細に説明する。また、色差成分に基づいて各画素を部分色相空間302に分類する処理は、色相決定手段の処理例である。   The histogram 303 shown in FIG. 3B classifies each pixel of the template image data into the partial hue space 302 that is a classification unit based on the color difference component (color information), and the horizontal axis indicates each partial hue space 302 and the vertical axis. The axis is created by multiplying the number of pixels classified into each partial hue space 302 by a correction value described later. Here, the numerical value on the vertical axis of the histogram 303 is the characteristic level of the color corresponding to the partial hue space 302. However, if the color difference component of the pixel is less than or equal to the threshold value, the pixel is classified into an achromatic color space (MT: Monotone) and handled as a pixel that does not belong to the partial hue space 302. The histogram generation process will be described in detail with reference to FIG. The process of classifying each pixel into the partial hue space 302 based on the color difference component is a process example of the hue determination unit.

システム制御部103は、特徴色とヒストグラムとを追尾情報記憶部106に対して出力し、記憶させる。ここで特徴色はヒストグラムの上位3色であり、特徴度の高い順に第1の特徴色〜第3の特徴色が決定される。ヒストグラムの上位何色を特徴色とするかについては、上記のような固定値を用いたり、ある所定値以上の特徴度を持つ色相は全て特徴色としたり、特徴度の合計値が所定値に達するまで特徴色を選択するようにしてもよい。このように特徴色を決定する条件は任意である。   The system control unit 103 outputs the characteristic color and the histogram to the tracking information storage unit 106 and stores them. Here, the feature colors are the top three colors in the histogram, and the first to third feature colors are determined in descending order of the feature degree. As for the top color of the histogram, the fixed color as described above is used, all hues having a characteristic value equal to or higher than a predetermined value are set as characteristic colors, or the total value of the characteristic values is set to a predetermined value. The feature color may be selected until it is reached. In this way, the condition for determining the characteristic color is arbitrary.

ステップS204において、システム制御部103は、m+1枚目の画像データ(第2の画像データ)が画像記憶部102に記憶されるのを待ち、記憶されると、当該m+1枚目の画像データを読み出す。ステップS205において、システム制御部103は、m+1枚目の画像データから探索領域に該当する部分を抽出することにより探索領域画像データを生成する。探索領域画像データを生成すると、システム制御部103は、探索領域画像データを追尾情報記憶部106に対して出力し、記憶させる。   In step S204, the system control unit 103 waits for the (m + 1) th image data (second image data) to be stored in the image storage unit 102, and when stored, reads the (m + 1) th image data. . In step S205, the system control unit 103 generates search region image data by extracting a portion corresponding to the search region from the (m + 1) th image data. When the search area image data is generated, the system control unit 103 outputs the search area image data to the tracking information storage unit 106 and stores it.

図4は、図2のステップS202、S205の処理を具体的に示す図である。図4において、401はm枚目の画像データであり、403はm+1枚目の画像データである。ステップS202においては、m枚目の画像データ401から追尾対象領域402に該当する部分が抽出されることにより、テンプレート画像データ405が生成される。また、ステップS205においては、m+1枚目の画像データから探索領域404に該当する部分が抽出されることにより、探索領域画像データ406が生成される。m枚目の画像データ401及びm+1枚目の画像データ403はともにカラー画像データである。図4におけるRY、Y、R、G、C、MTの表記は、それぞれRedとYellowの中間色(Red−Yellow)、Yellow、Red、Green、Cyan、Monotoneを表しており、対応する模様の部分がその色であることを示している。   FIG. 4 is a diagram specifically showing the processing of steps S202 and S205 in FIG. In FIG. 4, 401 is m-th image data, and 403 is m + 1-th image data. In step S202, template image data 405 is generated by extracting a portion corresponding to the tracking target area 402 from the m-th image data 401. In step S205, search area image data 406 is generated by extracting a portion corresponding to the search area 404 from the (m + 1) th image data. The m-th image data 401 and the (m + 1) -th image data 403 are both color image data. The notations of RY, Y, R, G, C, and MT in FIG. 4 represent the red and yellow intermediate colors (Red-Yellow), Yellow, Red, Green, Cyan, and Monotone, respectively, and the corresponding pattern portions are Indicates that the color.

図4の例では、m枚目の画像データ401の中央付近に位置する人物の胴体付近を追尾対象領域402としている。追尾対象領域402の指定方法は、ユーザがタッチパネル等の操作機器で任意の位置を指定してもよいし、被写体の追尾処理の開始直前にピントを合わせていた画像データ中の位置としてもよい。なお、探索領域404の位置は、m枚目の画像データ401における追尾対象領域402と同心となるように設定され、探索領域404の大きさは、追尾情報記憶部106において設定される数値(LSx,LSy)となる。   In the example of FIG. 4, the vicinity of the torso of the person located near the center of the m-th image data 401 is set as the tracking target area 402. The method for specifying the tracking target area 402 may be that the user specifies an arbitrary position with an operating device such as a touch panel, or may be a position in the image data that has been focused immediately before the start of the subject tracking process. Note that the position of the search area 404 is set to be concentric with the tracking target area 402 in the m-th image data 401, and the size of the search area 404 is a numerical value (LSx) set in the tracking information storage unit 106. , LSy).

ステップS206において、システム制御部103は、ステップS202又は後述するステップS212で生成したテンプレート画像データ405と、ステップS205で生成した探索領域画像データ406とを追尾情報記憶部106から読み出す。そしてシステム制御部103は、テンプレート画像データ405と探索領域画像データ406とを画像変換処理部104に対して出力する。なお、ステップS206は、第1の生成手段の処理例である。   In step S206, the system control unit 103 reads the template image data 405 generated in step S202 or step S212 described later and the search area image data 406 generated in step S205 from the tracking information storage unit 106. Then, the system control unit 103 outputs the template image data 405 and the search area image data 406 to the image conversion processing unit 104. Step S206 is a processing example of the first generation unit.

画像変換処理部104は、テンプレート画像データ405及び探索領域画像データ406のそれぞれから各画素の輝度信号(Y信号)を抽出する。そして画像変換処理部104は、テンプレート画像データ405及び探索領域画像データ406のそれぞれについて、抽出した輝度信号のみで構成される第1の輝度画像データを生成する。   The image conversion processing unit 104 extracts a luminance signal (Y signal) of each pixel from each of the template image data 405 and the search area image data 406. Then, the image conversion processing unit 104 generates first luminance image data including only the extracted luminance signal for each of the template image data 405 and the search area image data 406.

図5は、テンプレート画像データ405から第1の輝度画像データ501を生成する処理と、探索領域画像データ406から第1の輝度画像データ502を生成する処理とを示す図である。なお、テンプレート画像データ405及び探索領域画像データ406はYUV形式の画像データである。そのため、第1の輝度画像データ501及び502は、元となるカラー画像データ(テンプレート画像データ405、探索領域画像データ406)の色差信号をカットすることにより生成することができる。画像変換処理部104は、第1の輝度画像データ501及び502を生成すると、相関演算部105に対して出力する。   FIG. 5 is a diagram showing a process for generating the first luminance image data 501 from the template image data 405 and a process for generating the first luminance image data 502 from the search area image data 406. Note that the template image data 405 and the search area image data 406 are YUV format image data. Therefore, the first luminance image data 501 and 502 can be generated by cutting the color difference signal of the original color image data (template image data 405, search area image data 406). After generating the first luminance image data 501 and 502, the image conversion processing unit 104 outputs the first luminance image data 501 and 502 to the correlation calculation unit 105.

ステップS207において、相関演算部105は、第1の輝度画像データ501及び502に対して輝度値によるマッチングを行うことにより、探索領域画像データ406内においてテンプレート画像データ405と最も相関が高い領域を探索する。なお、ステップS207は、第1の演算手段の処理例である。   In step S207, the correlation calculation unit 105 searches the region having the highest correlation with the template image data 405 in the search region image data 406 by matching the first luminance image data 501 and 502 with the luminance value. To do. Step S207 is a processing example of the first calculation means.

図6は、図2のステップS207における探索処理を説明するための図である。図6においては、探索領域画像データ406の第1の輝度画像データ602を、左上を原点(0,0)とし、1画素右へ進むに従ってx軸値を1加算し、1画素下へ進むに従ってy軸値を1加算する2次元座標(x,y)に見立てている。相関演算部105は、第1の輝度画像データ602に対して、第1の輝度画像データ601を(0,0)から1画素ずつずらしながらマッチングを行い、それぞれの位置における相関量を計算する。相関量は、領域間の同じ位置にある画素の輝度差の総和を表すSAD値から算出するものとする。第1の輝度画像データ601が第1の輝度画像データ602中の任意の位置(i,j)にあるときの相関量は次の式1によって計算される。
相関量={1−((i,j)のSAD値/最大SAD値)}×100・・・式1
ここで、最大SAD値とはSAD値が取り得る最大の数値である。従って、式1により相関量は0〜100の数値をとる。
FIG. 6 is a diagram for explaining the search process in step S207 of FIG. In FIG. 6, the first luminance image data 602 of the search area image data 406 is set to the origin (0, 0) at the upper left, and the x-axis value is incremented by 1 as it proceeds to the right by one pixel, and as it proceeds downward by one pixel. The two-dimensional coordinates (x, y) for adding 1 to the y-axis value are considered. The correlation calculation unit 105 performs matching on the first luminance image data 602 while shifting the first luminance image data 601 pixel by pixel from (0, 0), and calculates the correlation amount at each position. The correlation amount is calculated from the SAD value that represents the sum of the luminance differences of pixels at the same position between regions. The correlation amount when the first luminance image data 601 is at an arbitrary position (i, j) in the first luminance image data 602 is calculated by the following equation 1.
Correlation amount = {1- (SAD value of (i, j) / maximum SAD value)} × 100 (1)
Here, the maximum SAD value is the maximum value that the SAD value can take. Therefore, the amount of correlation takes a numerical value of 0 to 100 according to Equation 1.

相関演算部105は、全ての位置でマッチングが終了すると、最も相関が高かった位置(i,j)を次の画像データにおける追尾対象の位置とし、追尾対象の位置(i,j)の相関量とともにシステム制御部103に出力する。システム制御部103は、第1の輝度画像データに基づく追尾結果として、追尾対象の位置(i,j)と当該追尾対象の位置(i,j)の相関量とを追尾情報記憶部106に対して出力し、記憶させる。   When matching is completed at all positions, the correlation calculation unit 105 sets the position (i, j) having the highest correlation as the tracking target position in the next image data, and the correlation amount of the tracking target position (i, j). At the same time, it is output to the system control unit 103. The system control unit 103 sends the tracking target position (i, j) and the correlation amount of the tracking target position (i, j) to the tracking information storage unit 106 as a tracking result based on the first luminance image data. Output and memorize.

ステップS208において、システム制御部103は、特徴色とヒストグラムとを追尾情報記憶部106から読み出し、ヒストグラムによって示される特徴色の特徴度に基づいて、当該特徴色に対応する第2の輝度画像データの輝度値を計算する。その後、システム制御部103は、計算結果を画像変換処理部104に出力する。ここで、第kの特徴色(2≦k≦n)に対応する第2の輝度画像データの輝度値は次の式2によって求められる。
第kの特徴色に対応する第2の輝度画像データの輝度値=(第kの特徴色の特徴度/第1の特徴色の特徴度)×最大輝度値・・・式2
但し、特徴色として採用されなかった色相に対しては、システム制御部103は輝度値0を設定する。ここで、式2に示す最大輝度値は、本実施形態で扱うYUV形式の画像データが取り得る最大の輝度値であり、その値はY=255である。
In step S208, the system control unit 103 reads out the feature color and the histogram from the tracking information storage unit 106, and based on the feature degree of the feature color indicated by the histogram, the second luminance image data corresponding to the feature color. Calculate the luminance value. Thereafter, the system control unit 103 outputs the calculation result to the image conversion processing unit 104. Here, the luminance value of the second luminance image data corresponding to the kth characteristic color (2 ≦ k ≦ n) is obtained by the following equation 2.
Luminance value of the second luminance image data corresponding to the kth feature color = (feature of the kth feature color / feature of the first feature color) × maximum luminance value.
However, the system control unit 103 sets a luminance value of 0 for hues that are not employed as characteristic colors. Here, the maximum luminance value shown in Expression 2 is the maximum luminance value that can be taken by the YUV format image data handled in the present embodiment, and the value is Y = 255.

また、システム制御部103は、ステップS202又はS212において生成したテンプレート画像データ405と、ステップS205において生成した探索領域画像データ406とを追尾情報記憶部106から読み出す。そしてシステム制御部103は、テンプレート画像データ405と探索領域画像データ406とを画像変換処理部104に対して出力する。画像変換処理部104は、テンプレート画像データ405及び探索領域画像データ406のそれぞれから各画素の色差信号(UV信号)を抽出する。   Further, the system control unit 103 reads the template image data 405 generated in step S202 or S212 and the search area image data 406 generated in step S205 from the tracking information storage unit 106. Then, the system control unit 103 outputs the template image data 405 and the search area image data 406 to the image conversion processing unit 104. The image conversion processing unit 104 extracts a color difference signal (UV signal) of each pixel from each of the template image data 405 and the search area image data 406.

そして画像変換処理部104は、抽出した色差信号に基づいて、特徴色と一致する色差信号を持つ領域に対して式2で求めた輝度値を設定し、テンプレート画像データ405及び探索領域画像データ406のそれぞれから第2の輝度画像データを生成する。その後、画像変換処理部104は、テンプレート画像データ405から生成した第2の輝度画像データと、探索領域画像データ406から生成した第2の輝度画像データとを相関演算部105に対して出力する。   Then, based on the extracted color difference signal, the image conversion processing unit 104 sets the luminance value obtained by Expression 2 for the area having the color difference signal that matches the characteristic color, and the template image data 405 and the search area image data 406 are set. Second luminance image data is generated from each of the above. Thereafter, the image conversion processing unit 104 outputs the second luminance image data generated from the template image data 405 and the second luminance image data generated from the search area image data 406 to the correlation calculation unit 105.

図7は、テンプレート画像データ405から第2の輝度画像データ701を生成する処理と、探索領域画像データ406から第2の輝度画像データ702を生成する処理とを示す図である。図7において、第2の輝度画像データ701は、テンプレート画像データ405における特徴色と一致する色差信号を持つ領域を高輝度とし、それ以外の色差信号を持つ領域を輝度値0とすることにより生成されることを示している。また、第2の輝度画像データ702についても同様に、探索領域画像データ406における特徴色と一致する色差信号を持つ領域を高輝度とし、それ以外の色差信号を持つ領域を輝度値0とすることにより生成されることを示している。   FIG. 7 is a diagram showing a process for generating the second luminance image data 701 from the template image data 405 and a process for generating the second luminance image data 702 from the search area image data 406. In FIG. 7, the second luminance image data 701 is generated by setting an area having a color difference signal that matches the characteristic color in the template image data 405 to a high luminance and setting other areas having the color difference signal to a luminance value of 0. It is shown that. Similarly, for the second luminance image data 702, an area having a color difference signal matching the characteristic color in the search area image data 406 is set to high luminance, and an area having other color difference signals is set to a luminance value of 0. Is generated.

ステップS209において、相関演算部105は、第2の輝度画像データ701、702に対して、ステップS207と同様にマッチングによる相関演算を行う。そして相関演算部105は、最も相関が高い位置(i’,j’)と当該位置(i’,j’)の相関量とをシステム制御部103に対して出力する。システム制御部103は、最も相関が高い位置(i’,j’)と当該位置(i’,j’)の相関量とを、追尾対象の位置(i’,j’)と当該追尾対象の位置(i’,j’)の相関量として追尾情報記憶部106に出力し、記憶させる。なお、上記の追尾対象の位置(i’,j’)及び当該追尾対象の位置(i’,j’)の相関量が、第2の輝度画像データに基づく追尾結果となる。なお、ステップS208は、第2の生成手段の処理例である。ステップS209は、第2の演算手段の処理例である。   In step S209, the correlation calculation unit 105 performs a correlation calculation based on matching on the second luminance image data 701 and 702 in the same manner as in step S207. Then, the correlation calculation unit 105 outputs the position (i ′, j ′) with the highest correlation and the correlation amount at the position (i ′, j ′) to the system control unit 103. The system control unit 103 determines the position (i ′, j ′) having the highest correlation and the correlation amount between the position (i ′, j ′) and the position (i ′, j ′) of the tracking target and the tracking target. The correlation information of the position (i ′, j ′) is output to the tracking information storage unit 106 and stored. The correlation amount between the tracking target position (i ′, j ′) and the tracking target position (i ′, j ′) is a tracking result based on the second luminance image data. Step S208 is a processing example of the second generation unit. Step S209 is a processing example of the second calculation means.

ステップS210において、システム制御部103は、ステップS207における第1の輝度画像データに基づく追尾結果と、ステップS209における第2の輝度画像データに基づく追尾結果とを追尾情報記憶部106から読み出す。そしてシステム制御部103は、第1の輝度画像データに基づく追尾結果における相関量と、第2の輝度画像データに基づく追尾結果における相関量とから何れかの追尾結果を選択する。次にシステム制御部103は、その追尾結果における追尾対象の位置(tx,ty)を採用し、追尾情報記憶部106に記憶させる。そしてシステム制御部103は、採用した追尾対象の位置(tx,ty)を撮像光学系操作部109に対して出力する。   In step S210, the system control unit 103 reads from the tracking information storage unit 106 the tracking result based on the first luminance image data in step S207 and the tracking result based on the second luminance image data in step S209. Then, the system control unit 103 selects any tracking result from the correlation amount in the tracking result based on the first luminance image data and the correlation amount in the tracking result based on the second luminance image data. Next, the system control unit 103 adopts the position (tx, ty) of the tracking target in the tracking result and stores it in the tracking information storage unit 106. Then, the system control unit 103 outputs the adopted tracking target position (tx, ty) to the imaging optical system operation unit 109.

但し、第1の輝度画像データに基づく追尾結果における相関量と第2の輝度画像データの追尾結果における相関量との双方が所定値よりも小さい場合、システム制御部103は、追尾対象を見失ったと判断し、追尾対象喪失の信号を出力する。なお、ステップS210の詳細については、図8に示すフローチャートを用いて説明する。   However, when both the correlation amount in the tracking result based on the first luminance image data and the correlation amount in the tracking result of the second luminance image data are smaller than the predetermined value, the system control unit 103 has lost track of the tracking target. Judgment is made and a tracking target loss signal is output. The details of step S210 will be described with reference to the flowchart shown in FIG.

ステップS211において、撮像光学系操作部109は、入力した追尾対象の位置(tx,ty)に基づいて、絞りの開口径を変化させたり、フォーカスレンズの移動制御を行ったりする。但し、撮像光学系操作部109は、追尾対象喪失の信号を受信した場合、絞りの開口径の変化及びフォーカスレンズの移動は行わない。ステップS212において、システム制御部103は、追尾情報記憶部106から追尾対象の位置(tx,ty)の相関量を読み出し、相関量が予め設定された閾値よりも高いか否かを判定する。相関量が閾値よりも高い場合、システム制御部103は、探索領域画像データ406と追尾対象領域402の大きさの設定値(LTx,LTy)とを追尾情報記憶部106から読み出す。そしてシステム制御部103は、探索領域画像データ406内の追尾対象の位置(tx,ty)に該当する大きさ(LTx,LTy)の領域を抽出し、次の画像データ(m+1枚目の画像データ)における追尾処理のためのテンプレート画像データ405として追尾情報記憶部106に対して出力し、記憶させる。一方、上記相関量が予め設定された閾値以下である場合、システム制御部103は、m枚目のテンプレート画像データ405に対応する領域を探索領域画像データ406から抽出し、次の画像データ(m+1枚目の画像データ)におけるテンプレート画像データ405として追尾情報記憶部106に対して出力し、記憶させる。なお、ステップS211は、第1の抽出手段、第2の抽出手段、選択手段の処理例である。   In step S211, the imaging optical system operation unit 109 changes the aperture diameter of the diaphragm or controls the movement of the focus lens based on the input tracking target position (tx, ty). However, the imaging optical system operation unit 109 does not change the aperture diameter of the aperture and move the focus lens when receiving the tracking target loss signal. In step S212, the system control unit 103 reads the correlation amount at the tracking target position (tx, ty) from the tracking information storage unit 106, and determines whether the correlation amount is higher than a preset threshold value. When the correlation amount is higher than the threshold value, the system control unit 103 reads the search region image data 406 and the set value (LTx, LTy) of the tracking target region 402 from the tracking information storage unit 106. Then, the system control unit 103 extracts an area having a size (LTx, LTy) corresponding to the tracking target position (tx, ty) in the search area image data 406, and the next image data (m + 1th image data). ) Is output to the tracking information storage unit 106 as template image data 405 for the tracking process in FIG. On the other hand, when the correlation amount is equal to or smaller than a preset threshold value, the system control unit 103 extracts an area corresponding to the m-th template image data 405 from the search area image data 406, and the next image data (m + 1). Output to the tracking information storage unit 106 as template image data 405 in the first image data). Step S211 is a processing example of the first extraction unit, the second extraction unit, and the selection unit.

ステップS213において、システム制御部103は、レリーズボタンが押されたか否かを判定する。レリーズボタンが押されていない場合、システム制御部103は被写体の追尾処理を終了させる。一方、レリーズボタンが半押し又は全押しされた場合、システム制御部103は被写体の追尾処理を継続させる。これにより、処理はステップS203に戻る。ここで、次の画像データ(m+1枚目の画像データ)における追尾対象領域402の位置は、前の画像データ(m枚目の画像データ)における追尾対象の位置(tx,ty)となる。   In step S213, the system control unit 103 determines whether or not the release button has been pressed. When the release button is not pressed, the system control unit 103 ends the subject tracking process. On the other hand, when the release button is pressed halfway or fully, the system control unit 103 continues the subject tracking process. Thereby, the process returns to step S203. Here, the position of the tracking target area 402 in the next image data (m + 1th image data) is the position (tx, ty) of the tracking target in the previous image data (mth image data).

次に、図8に示すフローチャートを参照しながら、図2のステップS203における特徴色決定処理について詳細に説明する。ステップS801において、システム制御部103は、図3(a)に示すように、色相環で構成される色相空間301を12個に分割し、部分色相空間302を生成する。ステップS802において、システム制御部103は、テンプレート画像データの垂直画素数と同じ回数だけステップS803〜S806の処理を繰り返す。このとき、システム制御部103は、yを繰り返し回数のカウント値として定義し、yの値がテンプレート画像データの垂直画素数未満であるうちはステップS803〜S806の処理を繰り返す。ステップS803において、システム制御部103は、テンプレート画像データの水平画素数と同じ回数だけステップS804〜S806までの処理を繰り返す。このとき、システム制御部103は、xを繰り返し回数のカウント値として定義し、xの値がテンプレート画像データの水平画素数未満であるうちはステップS804〜S806の処理を繰り返す。   Next, the characteristic color determination process in step S203 of FIG. 2 will be described in detail with reference to the flowchart shown in FIG. In step S <b> 801, the system control unit 103 generates a partial hue space 302 by dividing a hue space 301 including a hue circle into 12 as illustrated in FIG. 3A. In step S802, the system control unit 103 repeats the processes in steps S803 to S806 as many times as the number of vertical pixels of the template image data. At this time, the system control unit 103 defines y as a count value of the number of repetitions, and repeats the processing of steps S803 to S806 as long as the value of y is less than the number of vertical pixels of the template image data. In step S803, the system control unit 103 repeats the processes in steps S804 to S806 as many times as the number of horizontal pixels of the template image data. At this time, the system control unit 103 defines x as a count value of the number of repetitions, and repeats the processes of steps S804 to S806 as long as the value of x is less than the number of horizontal pixels of the template image data.

ステップS804において、システム制御部103は、画素(x,y)からテンプレート画像データの中心点までの距離Dist(x,y)を計算する。ステップS805において、システム制御部103は、Dist(x,y)に基づいて、画素(x,y)に重要度を設定する。このとき、システム制御部103は、Dist(x,y)の値が小さければ小さいほど、重要度が大きくなるように設定する。ステップS806において、システム制御部103は、画素(x,y)のUV信号に基づいて、画素(x,y)が属する部分色相空間302を決定する。   In step S804, the system control unit 103 calculates a distance Dist (x, y) from the pixel (x, y) to the center point of the template image data. In step S805, the system control unit 103 sets the importance to the pixel (x, y) based on Dist (x, y). At this time, the system control unit 103 sets so that the importance becomes larger as the value of Dist (x, y) is smaller. In step S806, the system control unit 103 determines the partial hue space 302 to which the pixel (x, y) belongs based on the UV signal of the pixel (x, y).

図9は、図3(a)の部分色相空間302と画素(x,y)のUV信号との対応関係を示す図である。即ち、図9において、縦軸をVの値、横軸をUの値とする2次元座標領域が色相空間301に対応しており、UV信号によってどの部分色相空間302に属するかを表している。ここで、図9中の各領域内の文字はその領域の色を示すものであり、RはRed、RYはRed−Yellow、YはYellow、YGはYellow−Green、GはGreen、GCはGreen−Cyan、CはCyan、CBはCyan−Blue、BはBlue、BMはBlue−Magenta、MはMagenta、MRはMagenta−Redを表す。   FIG. 9 is a diagram illustrating a correspondence relationship between the partial hue space 302 in FIG. 3A and the UV signal of the pixel (x, y). That is, in FIG. 9, a two-dimensional coordinate area in which the vertical axis represents the value of V and the horizontal axis represents the value of U corresponds to the hue space 301, and represents which partial hue space 302 belongs to the UV signal. . Here, the characters in each area in FIG. 9 indicate the color of the area. R is Red, RY is Red-Yellow, Y is Yellow, YG is Yellow-Green, G is Green, and GC is Green. -Cyan, C is Cyan, CB is Cyan-Blue, B is Blue, BM is Blue-Magenta, M is Magenta, and MR is Magenta-Red.

ステップS807において、システム制御部103は、ステップS806で各画素を分類した各部分色相空間302において、それぞれに分類された各画素の重要度の総和を計算し、総和値を部分色相空間302の特徴度とする。図10は、図3(b)に示すヒストグラム303の作成において、各部分色相空間302に属する画素にかける補正値について示す図である。ここでは、この補正値を重要度と呼び、重要度はテンプレート画像データ405の中心に近い画素に高い数値が設定され、遠い画素に低い数値が設定されている。これにより、テンプレート画像データ405の中心により近く、またテンプレート画像データ405の中により多く存在する色相の特徴度が高くなる。画素の重要度を設定する利点としては、カメラ撮影時においては、多くの場合、追尾対象を追尾対象領域の中心に捉えるため、追尾対象領域の中心にある追尾対象の色の特徴度が高くなり、追尾対象の色が抽出されやすくなることが挙げられる。   In step S807, the system control unit 103 calculates the sum of the importance of each pixel classified in each partial hue space 302 in which each pixel is classified in step S806, and calculates the total value as a feature of the partial hue space 302. Degree. FIG. 10 is a diagram illustrating correction values to be applied to pixels belonging to each partial hue space 302 when the histogram 303 illustrated in FIG. 3B is created. Here, this correction value is referred to as importance, and the importance is set to a high numerical value for a pixel near the center of the template image data 405 and a low numerical value for a far pixel. As a result, the characteristic feature of the hue that is closer to the center of the template image data 405 and exists more in the template image data 405 is increased. The advantage of setting the importance of the pixel is that, when shooting with a camera, in many cases, the tracking target is caught at the center of the tracking target area, so the color feature of the tracking target at the center of the tracking target area is high. The tracking target color can be easily extracted.

ステップS808において、システム制御部103は、各部分色相空間302の特徴度に基づいてヒストグラム(図3(b)の303)を作成し、追尾情報記憶部106に対して出力する。この現在の画像データ(追尾開始からm枚目の画像データ)のヒストグラムをH(m)とする。なお、ステップS808は、ヒストグラム生成手段の処理例である。   In step S <b> 808, the system control unit 103 creates a histogram (303 in FIG. 3B) based on the feature level of each partial hue space 302 and outputs the histogram to the tracking information storage unit 106. The histogram of the current image data (mth image data from the start of tracking) is defined as H (m). Step S808 is a processing example of the histogram generation unit.

ステップS809において、システム制御部103は、過去の画像データにおける全てのヒストグラムを参照するため、追尾処理開始からの撮影枚数(m枚)分、ステップS810〜S814を繰り返す。このとき、システム制御部103は、iを繰り返し回数のカウント値として定義し、m−iの値が0以上であるうちはステップS810〜S814を繰り返し実行する。   In step S809, the system control unit 103 repeats steps S810 to S814 for the number of shots (m) from the start of the tracking process in order to refer to all histograms in the past image data. At this time, the system control unit 103 defines i as a count value of the number of repetitions, and repeatedly executes steps S810 to S814 as long as the value of mi is 0 or more.

ステップS810において、システム制御部103は、現在の画像データ(m枚目の画像データ)よりもi枚目前に生成されたヒストグラムH(m−i)を追尾情報記憶部106から読み出す。ステップS811において、システム制御部103は、ヒストグラムH(m−i)の各部分色相空間302の特徴度に対してiの数値に基づいた補正をかける。この補正は、iが大きければ大きいほど特徴度を小さくするような補正である。ステップS812において、システム制御部103は、i枚目前の追尾結果における相関量を追尾情報記憶部106から読み出す。ここで読み出した相関量をCOR(m−i)とする。   In step S <b> 810, the system control unit 103 reads from the tracking information storage unit 106 the histogram H (mi) generated before the i-th image from the current image data (the m-th image data). In step S811, the system control unit 103 applies correction based on the numerical value of i to the feature degree of each partial hue space 302 of the histogram H (m−i). This correction is such that the larger i is, the smaller the characteristic degree is. In step S812, the system control unit 103 reads the correlation amount in the i-th previous tracking result from the tracking information storage unit 106. The correlation amount read here is COR (m−i).

ステップS813において、システム制御部103は、ヒストグラムH(m−i)の各部分色相空間302の特徴度に対して、相関量COR(m−i)に基づいた補正値をかける。この補正は、相関量COR(m−i)が高ければ高いほど特徴度を大きくするような補正である。ステップS814において、システム制御部103は、現在の画像データのヒストグラムH(m)の各部分色相空間302の特徴度にヒストグラムH(m−i)の各部分色相空間302の特徴度を加算する。なお、このヒストグラムの各部分色相空間302の特徴度の加算処理は、合成手段の処理例である。   In step S813, the system control unit 103 applies a correction value based on the correlation amount COR (m−i) to the feature degree of each partial hue space 302 of the histogram H (m−i). This correction is such that the higher the correlation amount COR (m−i) is, the larger the characteristic degree is. In step S814, the system control unit 103 adds the feature of each partial hue space 302 of the histogram H (m−i) to the feature of each partial hue space 302 of the histogram H (m) of the current image data. Note that the feature degree addition processing of each partial hue space 302 of the histogram is a processing example of the synthesis unit.

図11は、図8のステップS814における処理について説明するための図である。本実施形態では、追尾対象の色の特徴度を高めるために、現在の画像データのヒストグラムに対し、過去の画像データで生成されたヒストグラムとの足し合わせを行う。追尾対象の色の特徴度を高めるためにヒストグラムの足し合わせを行う理由としては、撮像装置を用いて連続撮影を行う場合、時々刻々と移り変わりやすい背景色に対し、追尾対象は各画像データの追尾対象領域内に共通して存在する可能性が高いためである。つまり、ヒストグラムの足し合わせを行った場合、様々な色に変化することで特徴度が分散する背景色よりも、比較的変化の小さい追尾対象の色の方が特徴度が高くなり、追尾対象の抽出精度が向上することを期待できるのである。図11の例では、上段の画像データにおいて、(1)→(2)→(3)はフレーム番号を表しており、フレーム番号の順に時間が経過していることを示している。また、画像データ中の破線の枠はテンプレート画像データの領域を表している。中段のヒストグラムは、それぞれのテンプレート画像データから生成されるヒストグラムである。下段のヒストグラムは、(1)、(2)、(3)の各画像データにおいて、現在の画像データと過去の全ての画像データのヒストグラムとを足し合わせて生成されたヒストグラムを表している。図11より、過去の画像データとの足し合わせを行ったヒストグラムは、現在の画像データで生成されたヒストグラムと比較して追尾対象色であるRedの特徴度が高くなっていることが分かる。   FIG. 11 is a diagram for explaining the processing in step S814 of FIG. In the present embodiment, in order to increase the characteristic degree of the color to be tracked, the histogram of the current image data is added to the histogram generated from the past image data. The reason for adding histograms to increase the color feature of the tracking target is that when the continuous shooting is performed using an imaging device, the tracking target is used to track each image data against the background color, which tends to change from moment to moment. This is because there is a high possibility that they exist in common in the target area. In other words, when the histograms are added, the color of the tracking target with a relatively small change has a higher characteristic than the background color in which the characteristic varies by changing to various colors. The extraction accuracy can be expected to improve. In the example of FIG. 11, in the upper image data, (1) → (2) → (3) represent frame numbers, indicating that time has passed in the order of the frame numbers. A broken line frame in the image data represents an area of the template image data. The middle histogram is a histogram generated from each template image data. The lower histogram represents a histogram generated by adding the current image data and the histograms of all past image data in the image data of (1), (2), and (3). From FIG. 11, it can be seen that the histogram obtained by adding the past image data has a higher characteristic level of the tracking target color Red than the histogram generated with the current image data.

ステップS810〜S814の処理は、例えばある画像データにおいて追尾対象が小さく、背景の範囲が大きくなった場合の、追尾精度低下を軽減することに貢献する。現在の画像データで生成されるヒストグラムのみを用いて特徴色を決定する場合、テンプレート画像データにおいて背景が支配的となると背景色の特徴度が高くなってしまい、背景を対象として追尾してしまいやすくなる。この対策としては、追尾開始時の最初の画像データの特徴色を使用し続ける方法が考えられるが、この方法では追尾対象の色が変化した場合に追尾対象を見失ってしまう。そこで、過去の画像データとの加重平均により生成したヒストグラムを用いることにより、過去に追尾対象として認識され続けてきた色の特徴度が相対的に大きくなる。また、相対的に新しい画像データのヒストグラムの比重が重くなるため、色の変化にも柔軟に対応することができる。   The processing in steps S810 to S814 contributes to alleviating a decrease in tracking accuracy when, for example, the tracking target is small in some image data and the background range is large. When determining the feature color using only the histogram generated from the current image data, if the background becomes dominant in the template image data, the background color feature will increase, and the background will be easily tracked. Become. As a countermeasure, a method of continuing to use the characteristic color of the first image data at the start of tracking can be considered. However, in this method, when the color of the tracking target changes, the tracking target is lost. Therefore, by using a histogram generated by a weighted average with past image data, the color feature that has been recognized as a tracking target in the past becomes relatively large. In addition, since the specific gravity of the histogram of relatively new image data becomes heavy, it is possible to flexibly cope with color changes.

ステップS815において、システム制御部103は、ステップS809〜S814において生成されたヒストグラムH(m)の各部分色相空間302のうち、特徴度の高い上位3色を特徴色として決定する。なお、ステップS815は、特徴色決定手段の処理例である。   In step S815, the system control unit 103 determines the top three colors having a high feature level as the feature color among the partial hue spaces 302 of the histogram H (m) generated in steps S809 to S814. Step S815 is a processing example of the characteristic color determining unit.

次に、図12を参照しながら、図2のステップS210における追尾対象の位置の決定処理について詳細に説明する。ステップS1216において、システム制御部103は、ステップS207(第1の輝度画像データによる相関演算)及びステップS209(第2の輝度画像データによる相関演算)で計算された追尾対象の位置と相関量とを追尾情報記憶部106から読み出す。そして、システム制御部103は、第1の輝度画像データによる相関演算の相関量と閾値1とを比較し、閾値1より第1の輝度画像データによる相関演算の相関量の方が大きいか否かを判定する。閾値1より第1の輝度画像データによる相関演算の相関量の方が大きい場合、処理はステップS1217に移行する。一方、第1の輝度画像データによる相関演算の相関量が閾値1以下である場合、処理はステップS1218に移行する。   Next, the tracking target position determination process in step S210 of FIG. 2 will be described in detail with reference to FIG. In step S1216, the system control unit 103 calculates the tracking target position and the correlation amount calculated in step S207 (correlation calculation based on the first luminance image data) and step S209 (correlation calculation based on the second luminance image data). Read from the tracking information storage unit 106. Then, the system control unit 103 compares the correlation amount of the correlation calculation based on the first luminance image data with the threshold 1, and determines whether the correlation amount of the correlation calculation based on the first luminance image data is larger than the threshold 1. Determine. If the correlation amount of the correlation calculation using the first luminance image data is larger than the threshold 1, the process proceeds to step S1217. On the other hand, when the correlation amount of the correlation calculation using the first luminance image data is equal to or less than the threshold value 1, the process proceeds to step S1218.

ステップS1217において、システム制御部103は、第1の輝度画像データを用いた探索結果を追尾対象の位置として出力する。ステップS1218において、システム制御部103は、第2の輝度画像データによる相関演算の相関量と閾値2とを比較し、閾値2より第2の輝度画像データによる相関演算の相関量の方が大きいか否かを判定する。閾値2より第2の輝度画像データによる相関演算の相関量の方が大きい場合、処理はステップS1219に移行する。一方、第2の輝度画像データによる相関演算の相関量が閾値2以下である場合、処理はステップS1220に移行する。   In step S1217, the system control unit 103 outputs a search result using the first luminance image data as a tracking target position. In step S <b> 1218, the system control unit 103 compares the correlation amount of the correlation calculation based on the second luminance image data with the threshold value 2, and whether the correlation amount of the correlation calculation based on the second luminance image data is larger than the threshold value 2. Determine whether or not. When the correlation amount of the correlation calculation using the second luminance image data is larger than the threshold value 2, the process proceeds to step S1219. On the other hand, when the correlation amount of the correlation calculation using the second luminance image data is equal to or smaller than the threshold value 2, the process proceeds to step S1220.

ステップS1219において、システム制御部103は、第2の輝度画像データを用いた探索結果を追尾対象の位置として出力する。ステップS1220において、システム制御部103は、第1の輝度画像データ及び第2の輝度画像データを用いた探索では追尾対象を発見できなかったと判断し、追尾対象喪失を追尾結果として出力する。   In step S1219, the system control unit 103 outputs the search result using the second luminance image data as the tracking target position. In step S1220, the system control unit 103 determines that no tracking target has been found in the search using the first luminance image data and the second luminance image data, and outputs the tracking target loss as a tracking result.

なお、ステップS1216〜S1220は、状況によって適切な追尾結果を得るための選択処理である。このような選択処理を用いる利点を次に示す。先ず、第1の輝度画像データは、m枚目の画像データ及びm+1枚目の画像データの輝度信号をそのまま用いているため、第2の輝度画像データと比較して階調が細かくなっている。従って、比較的精度の細かい追尾が可能となるが、輝度の変化やノイズにより追尾精度が低下する。   Steps S1216 to S1220 are selection processing for obtaining an appropriate tracking result depending on the situation. The advantages of using such a selection process are as follows. First, since the first luminance image data uses the luminance signals of the mth image data and the m + 1th image data as they are, the gradation is finer than the second luminance image data. . Therefore, tracking with relatively fine accuracy is possible, but tracking accuracy is reduced due to changes in luminance and noise.

一方、第2の輝度画像データは、m枚目の画像データ及びm+1枚目の画像データの色差信号が特徴色と一致する場合に所定の輝度値を設定するものであるため、第1の輝度画像データと比較して階調は荒く、同じ色相に属する領域は全て均一の輝度を持つ。従って、例えば追尾対象が単一色のグラデーションで構成される場合等において追尾精度が荒くなることがあるが、輝度の変化やノイズによる追尾精度の低下は、第1の輝度画像データよりも抑えることができる。   On the other hand, the second luminance image data sets a predetermined luminance value when the color difference signals of the m-th image data and the (m + 1) -th image data match the characteristic color. The gradation is rough compared to the image data, and all the regions belonging to the same hue have uniform luminance. Therefore, for example, when the tracking target is composed of a single color gradation, the tracking accuracy may be rough, but a decrease in tracking accuracy due to a change in luminance or noise can be suppressed more than the first luminance image data. it can.

以上のように、本実施形態においては、マッチング用の相関演算部105を色と輝度とで兼用して、複数色で構成される被写体や、階調や色調の変化の小さいシーンにおいて、輝度と色とを適切に使い分け、被写体を精度よく追尾することが可能となる。即ち、本実施形態では、精度を重視するために輝度を用いた追尾と、ノイズや外乱に対するロバスト性を重視するために色を用いた追尾とを使い分けることによって、被写体の追尾精度を向上させている。   As described above, in this embodiment, the correlation calculation unit 105 for matching is used for both color and luminance, and luminance and luminance are reduced in a subject composed of a plurality of colors or in a scene with small changes in gradation and tone. It is possible to track the subject accurately by properly using colors. That is, in the present embodiment, the tracking accuracy of the subject is improved by properly using tracking using luminance to emphasize accuracy and tracking using color to emphasize robustness against noise and disturbance. Yes.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

100:被写体追尾部、101:画像取得部、102:画像記憶部、103:システム制御部、104:画像変換処理部、105:相関演算部、106:追尾情報記憶部、108:撮像素子、109:撮像光学系、110:操作部、111:表示部、112:撮像装置   100: Subject tracking unit, 101: Image acquisition unit, 102: Image storage unit, 103: System control unit, 104: Image conversion processing unit, 105: Correlation calculation unit, 106: Tracking information storage unit, 108: Image sensor, 109 : Imaging optical system, 110: operation unit, 111: display unit, 112: imaging device

Claims (13)

第1の画像データ内の追尾対象領域から得られる色情報に基づいて、色相を所定の分類単位で分類し、前記第1の画像データ内の追尾対象領域の中心から各画素までの距離と、前記分類単位のそれぞれに対応する画素の数と、に基づいて、前記分類単位で分類したヒストグラムを生成し、前記ヒストグラムに基づいて、複数の特徴色と複数の前記特徴色のそれぞれの特徴度とを決定する決定手段と、
前記第1の画像データの追尾対象領域から、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第3の画像データを生成し、前記第1の画像データとは別のフレームの第2の画像データから、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第4の画像データを生成する第1の生成手段と、
前記第4の画像データの領域ごとに前記第3の画像データとの相関量である第1の相関量を求め、前記第1の相関量に基づいて、前記第2の画像データにおける追尾対象領域を設定する設定手段と、
を有することを特徴とする被写体追尾装置。
Based on the color information obtained from the tracking target area in the first image data , the hue is classified in a predetermined classification unit, the distance from the center of the tracking target area in the first image data to each pixel, Generating a histogram classified by the classification unit based on the number of pixels corresponding to each of the classification units, and based on the histogram, a plurality of feature colors and respective feature degrees of the plurality of feature colors; A determination means for determining
From the tracking target area in the first image data , third image data having gradations corresponding to the respective characteristic degrees of the plurality of characteristic colors is generated, and a frame different from the first image data is generated. First generation means for generating, from the second image data, fourth image data having a gradation corresponding to the respective characteristic degrees of the plurality of characteristic colors;
A first correlation amount that is a correlation amount with the third image data is obtained for each region of the fourth image data, and a tracking target region in the second image data is obtained based on the first correlation amount. A setting means for setting
A subject tracking device characterized by comprising:
前記決定手段は、前記ヒストグラムの縦軸の数値に基づいて、複数の前記特徴色のそれぞれの特徴度を求めることを特徴とする請求項に記載の被写体追尾装置。 It said determining means, based on the numerical value of the ordinate of the histogram, the subject tracking apparatus according to claim 1, characterized in Rukoto seek each feature of the plurality of the characteristic color. 前記決定手段は、前記特徴度が所定の条件を満たす分類単位に対応する色相を前記特徴色として決定することを特徴とする請求項1又は2に記載の被写体追尾装置。 It said determining means, subject tracking apparatus according to claim 1 or 2, wherein the feature degree is characterized that you determine the hue corresponding to the predetermined condition is satisfied classification units as the characteristic color. 前記決定手段は、複数のフレームの画像データから生成された複数のヒストグラムを合成し、合成されたヒストグラムに基づいて前記特徴色を決定することを特徴とする請求項乃至の何れか1項に記載の被写体追尾装置。 It said determining means combines the plurality of histograms generated from the image data of a plurality of frames, any one of claims 1 to 3, wherein that you determine the characteristic color based on the combined histogram The subject tracking device according to the item. 前記決定手段は、相対的に新しく得られたフレームから得られたヒストグラムに対する比重が重くなるように、複数の前記ヒストグラムを合成することを特徴とする請求項に記載の被写体追尾装置。 The subject tracking device according to claim 4 , wherein the determination unit synthesizes the plurality of histograms so that a specific gravity with respect to the histogram obtained from a relatively newly obtained frame is increased . 第1の画像データ内の追尾対象領域における特徴色を決定する決定手段と、
前記第1の画像データ内の追尾対象領域から、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第3の画像データを生成し、前記第1の画像データとは別のフレームの第2の画像データから、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第4の画像データを生成する第1の生成手段と、
前記第1の画像データ内の追尾対象領域から、輝度に応じた階調を持つ第5の画像データを生成し、前記第2の画像データから、輝度に応じた階調を持つ第6の画像データを生成する第2の生成手段と、
前記第4の画像データの領域ごとに前記第3の画像データとの相関量である第1の相関量と、前記第6の画像データの領域ごとに求めた前記第5の画像データとの相関量である第2の相関量と、に基づいて、前記第2の画像データにおける追尾対象領域を設定する設定手段と、
を有することを特徴とする被写体追尾装置。
Determining means for determining a characteristic color in the tracking target area in the first image data;
From the tracking target area in the first image data, third image data having gradations corresponding to the respective characteristic degrees of the plurality of characteristic colors is generated, and a frame different from the first image data is generated. First generation means for generating, from the second image data, fourth image data having a gradation corresponding to the respective characteristic degrees of the plurality of characteristic colors;
Fifth image data having a gradation corresponding to the luminance is generated from the tracking target area in the first image data, and a sixth image having a gradation corresponding to the luminance is generated from the second image data. Second generating means for generating data;
Correlation between a first correlation amount that is a correlation amount with the third image data for each region of the fourth image data and the fifth image data obtained for each region of the sixth image data. Setting means for setting a tracking target area in the second image data based on a second correlation amount that is a quantity;
A subject tracking device characterized by comprising:
前記定手段は、前記第2の相関量に所定の閾値より大きい値が存在する場合、前記第2の相関量に基づいて抽出された領域を前記第2の画像データにおける追尾対象領域として設定し、前記第2の相関量に所定の閾値より大きい値が存在しない場合、前記第1の相関量に基づいて抽出された領域を前記第2の画像データにおける追尾対象領域として設定することを特徴とする請求項6に記載の被写体追尾装置。 It said setting means setting, when the second predetermined threshold value greater than the amount of correlation is present, the region extracted based on the second correlation amount as the tracking target region in the second image data When the second correlation amount does not have a value larger than a predetermined threshold, the region extracted based on the first correlation amount is set as a tracking target region in the second image data. The subject tracking device according to claim 6. 前記第1の生成手段は、前記複数の特徴色のうち、最も高い特徴度を有する特徴色を第1の特徴色とし、前記第1の特徴色とは異なる特徴色の特徴度と、前記第1の特徴色の特徴度と、を比較することで、前記第3の画像データの画素ごとの値、及び、前記第4の画像データの画素ごとの値を求めることを特徴とする請求項1乃至7の何れか1項に記載の被写体追尾装置。 The first generation means sets a feature color having the highest feature degree among the plurality of feature colors as a first feature color, and a feature degree of a feature color different from the first feature color; by comparing 1 and feature of the characteristic color of the said third values for each pixel of the image data, and, claims, characterized in Rukoto determined the value of each pixel of the fourth image data The subject tracking device according to any one of 1 to 7. 請求項1乃至8の何れか1項に記載の被写体追尾装置と、
前記第1の画像データ及び前記第2の画像データに変換する画像信号を取得するための
撮像素子と、
を有することを特徴とする撮像装置。
A subject tracking device according to any one of claims 1 to 8,
For obtaining an image signal to be converted into the first image data and the second image data;
An image sensor;
An imaging device comprising:
被写体追尾装置が実行する被写体追尾方法であって、A subject tracking method executed by the subject tracking device,
第1の画像データ内の追尾対象領域から得られる色情報に基づいて、色相を所定の分類単位で分類し、前記第1の画像データ内の追尾対象領域の中心から各画素までの距離と、前記分類単位のそれぞれに対応する画素の数と、に基づいて、前記分類単位で分類したヒストグラムを生成し、前記ヒストグラムに基づいて、複数の特徴色と複数の前記特徴色のそれぞれの特徴度とを決定する決定ステップと、Based on the color information obtained from the tracking target area in the first image data, the hue is classified in a predetermined classification unit, the distance from the center of the tracking target area in the first image data to each pixel, Generating a histogram classified by the classification unit based on the number of pixels corresponding to each of the classification units, and based on the histogram, a plurality of feature colors and respective feature degrees of the plurality of feature colors; A decision step to determine,
前記第1の画像データ内の追尾対象領域から、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第3の画像データを生成し、前記第1の画像データとは別のフレームの第2の画像データから、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第4の画像データを生成する第1の生成ステップと、From the tracking target area in the first image data, third image data having gradations corresponding to the respective characteristic degrees of the plurality of characteristic colors is generated, and a frame different from the first image data is generated. A first generation step of generating, from the second image data, fourth image data having a gradation corresponding to the respective characteristic degrees of the plurality of characteristic colors;
前記第4の画像データの領域ごとに前記第3の画像データとの相関量である第1の相関量を求め、前記第1の相関量に基づいて、前記第2の画像データにおける追尾対象領域を設定する設定ステップと、A first correlation amount that is a correlation amount with the third image data is obtained for each region of the fourth image data, and a tracking target region in the second image data is obtained based on the first correlation amount. A setting step to set
を含むことを特徴とする被写体追尾方法。A method for tracking an object, comprising:
被写体追尾装置が実行する被写体追尾方法であって、
第1の画像データ内の追尾対象領域における特徴色を決定する決定ステップと、
前記第1の画像データ内の追尾対象領域から、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第3の画像データを生成し、前記第1の画像データとは別のフレームの第2の画像データから、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第4の画像データを生成する第1の生成ステップと、
前記第1の画像データ内の追尾対象領域から、輝度に応じた階調を持つ第5の画像データを生成し、前記第2の画像データから、輝度に応じた階調を持つ第6の画像データを生成する第2の生成ステップと、
前記第4の画像データの領域ごとに前記第3の画像データとの相関量である第1の相関量と、前記第6の画像データの領域ごとに求めた前記第5の画像データとの相関量である第2の相関量と、に基づいて、前記第2の画像データにおける追尾対象領域を設定する設定ステップと、
を含むことを特徴とする被写体追尾方法。
A subject tracking method executed by the subject tracking device,
A determining step for determining a characteristic color in the tracking target area in the first image data;
From the tracking target area in the first image data, third image data having gradations corresponding to the respective characteristic degrees of the plurality of characteristic colors is generated, and a frame different from the first image data is generated. A first generation step of generating, from the second image data, fourth image data having a gradation corresponding to the respective characteristic degrees of the plurality of characteristic colors;
Fifth image data having a gradation corresponding to the luminance is generated from the tracking target area in the first image data, and a sixth image having a gradation corresponding to the luminance is generated from the second image data. A second generation step for generating data;
Correlation between a first correlation amount that is a correlation amount with the third image data for each region of the fourth image data and the fifth image data obtained for each region of the sixth image data. A setting step for setting a tracking target area in the second image data based on a second correlation amount that is a quantity ;
A method for tracking an object, comprising:
コンピュータに、
第1の画像データの追尾対象領域から得られる色情報に基づいて、色相を所定の分類単位で分類し、前記第1の画像データ内の追尾対象領域の中心から各画素までの距離と、前記分類単位のそれぞれに対応する画素の数と、に基づいて、前記分類単位で分類したヒストグラムを生成し、前記ヒストグラムに基づいて、複数の特徴色と複数の前記特徴色のそれぞれの特徴度とを決定する決定ステップと、
前記第1の画像データ内の追尾対象領域から、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第3の画像データを生成し、前記第1の画像データとは別のフレームの第2の画像データから、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第4の画像データを生成する第1の生成ステップと、
前記第4の画像データの領域ごとに前記第3の画像データとの相関量である第1の相関量を求め、前記第1の相関量に基づいて、前記第2の画像データにおける追尾対象領域を設定する設定ステップと、
を実行させるためのプログラム。
On the computer,
Based on the color information obtained from the tracking target area in the first image data , the hue is classified in a predetermined classification unit, the distance from the center of the tracking target area in the first image data to each pixel, Generating a histogram classified by the classification unit based on the number of pixels corresponding to each of the classification units, and based on the histogram, a plurality of feature colors and respective feature degrees of the plurality of feature colors; A decision step to determine,
From the tracking target area in the first image data, third image data having gradations corresponding to the respective characteristic degrees of the plurality of characteristic colors is generated, and a frame different from the first image data is generated. A first generation step of generating, from the second image data, fourth image data having a gradation corresponding to the respective characteristic degrees of the plurality of characteristic colors;
A first correlation amount that is a correlation amount with the third image data is obtained for each region of the fourth image data, and a tracking target region in the second image data is obtained based on the first correlation amount. A setting step to set
A program for running
コンピュータに、On the computer,
第1の画像データ内の追尾対象領域における特徴色を決定する決定ステップと、A determining step for determining a characteristic color in the tracking target area in the first image data;
前記第1の画像データ内の追尾対象領域から、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第3の画像データを生成し、前記第1の画像データとは別のフレームの第2の画像データから、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第4の画像データを生成する第1の生成ステップと、From the tracking target area in the first image data, third image data having gradations corresponding to the respective characteristic degrees of the plurality of characteristic colors is generated, and a frame different from the first image data is generated. A first generation step of generating, from the second image data, fourth image data having a gradation corresponding to the respective characteristic degrees of the plurality of characteristic colors;
前記第1の画像データ内の追尾対象領域から、輝度に応じた階調を持つ第5の画像データを生成し、前記第2の画像データから、輝度に応じた階調を持つ第6の画像データを生成する第2の生成ステップと、Fifth image data having a gradation corresponding to the luminance is generated from the tracking target area in the first image data, and a sixth image having a gradation corresponding to the luminance is generated from the second image data. A second generation step for generating data;
前記第4の画像データの領域ごとに前記第3の画像データとの相関量である第1の相関量と、前記第6の画像データの領域ごとに求めた前記第5の画像データとの相関量である第2の相関量と、に基づいて、前記第2の画像データにおける追尾対象領域を設定する設定ステップと、Correlation between a first correlation amount that is a correlation amount with the third image data for each region of the fourth image data and the fifth image data obtained for each region of the sixth image data. A setting step for setting a tracking target area in the second image data based on a second correlation amount that is a quantity;
を実行させるためのプログラム。A program for running
JP2011098567A 2011-04-26 2011-04-26 Subject tracking device, imaging device, subject tracking method and program Expired - Fee Related JP5800559B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011098567A JP5800559B2 (en) 2011-04-26 2011-04-26 Subject tracking device, imaging device, subject tracking method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011098567A JP5800559B2 (en) 2011-04-26 2011-04-26 Subject tracking device, imaging device, subject tracking method and program

Publications (3)

Publication Number Publication Date
JP2012231319A JP2012231319A (en) 2012-11-22
JP2012231319A5 JP2012231319A5 (en) 2014-06-19
JP5800559B2 true JP5800559B2 (en) 2015-10-28

Family

ID=47432514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011098567A Expired - Fee Related JP5800559B2 (en) 2011-04-26 2011-04-26 Subject tracking device, imaging device, subject tracking method and program

Country Status (1)

Country Link
JP (1) JP5800559B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6555940B2 (en) * 2015-06-12 2019-08-07 キヤノン株式会社 Subject tracking device, imaging device, and method for controlling subject tracking device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3836814B2 (en) * 2003-05-20 2006-10-25 株式会社東芝 Image processing method, image processing apparatus, and image processing program
JP2009246700A (en) * 2008-03-31 2009-10-22 Panasonic Corp Imaging apparatus
JP2009296029A (en) * 2008-06-02 2009-12-17 Panasonic Corp Image pickup apparatus

Also Published As

Publication number Publication date
JP2012231319A (en) 2012-11-22

Similar Documents

Publication Publication Date Title
CN103098076B (en) Gesture recognition system for TV control
CN102103754B (en) Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
JP6546611B2 (en) Image processing apparatus, image processing method and image processing program
US8948452B2 (en) Image processing apparatus and control method thereof
KR101279561B1 (en) A fast and accurate face detection and tracking method by using depth information
CN102760230B (en) Flame detection method based on multi-dimensional time domain characteristics
JP2018026115A (en) Flame detection method, flame detector, and electronic apparatus
JP6405124B2 (en) Inspection device, inspection method, and program
JP4625949B2 (en) Object tracking method, object tracking apparatus, and program
KR101018299B1 (en) Apparatus and method for detecting a plurality of objects in an image
KR101833943B1 (en) Method and system for extracting and searching highlight image
KR102059011B1 (en) Apparatus and method for generating fusion image based on deep-learning
KR101334794B1 (en) Flower recognition method and apparatus using feature extraction
KR101371647B1 (en) Apparatus for detecting fire flame based image data and method of the same
JP5800559B2 (en) Subject tracking device, imaging device, subject tracking method and program
JP2014007611A (en) Image processing apparatus and control method therefor
KR101247136B1 (en) Object recognition method of robot
KR102121534B1 (en) Method and device for determining similarity of sequences
JP2021111228A (en) Learning device, learning method, and program
KR101202215B1 (en) Weighted-based target decision system for strapdown dual mode imaging seeker using location weighted or region growing moment modeling
CN105323460B (en) Image processing equipment and its control method
JP2011134019A (en) Image processor and control method of the same
KR101403143B1 (en) Method for estimating response of audience group concerning content
KR101403244B1 (en) Method for estimating attention level of audience group concerning content
JP6717769B2 (en) Information processing device and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140425

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150825

R151 Written notification of patent or utility model registration

Ref document number: 5800559

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees