JP5800559B2 - Subject tracking device, imaging device, subject tracking method and program - Google Patents
Subject tracking device, imaging device, subject tracking method and program Download PDFInfo
- Publication number
- JP5800559B2 JP5800559B2 JP2011098567A JP2011098567A JP5800559B2 JP 5800559 B2 JP5800559 B2 JP 5800559B2 JP 2011098567 A JP2011098567 A JP 2011098567A JP 2011098567 A JP2011098567 A JP 2011098567A JP 5800559 B2 JP5800559 B2 JP 5800559B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- tracking target
- characteristic
- tracking
- target area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Studio Devices (AREA)
Description
本発明は、画像データ内の追尾対象領域において被写体を追尾する技術に関するものである。 The present invention relates to a technique for tracking a subject in a tracking target area in image data.
特許文献1には、画像データ中の任意の被写体を追尾する方法として、画像データ中の被写体の特徴色を抽出し、異なる画像データから特徴色を持つ領域を検出することにより追尾を行う技術が開示されている。特許文献1に開示される技術においては、追尾対象領域内の画像データと画像データ全体との特徴色を抽出する。そして、追尾対象領域内の画像データに特有で且つ安定して抽出することができる特徴色の領域を1、それ以外の領域を0とする2値画像データを用いて追尾することで追尾精度を向上させている。また、輝度の場合も同様に、追尾対象領域内の画像データと画像データ全体との特徴的な輝度を抽出する。そして、追尾対象領域内の画像データに特有で且つ安定して抽出することができる特徴的な輝度の領域を1、それ以外の領域を0とする2値画像データを用いて追尾することで追尾精度を向上させている。
Japanese Patent Application Laid-Open No. 2004-133867 discloses a technique for tracking an arbitrary subject in image data by extracting a feature color of the subject in the image data and detecting a region having the feature color from different image data. It is disclosed. In the technique disclosed in
特許文献1に開示される技術では、追尾に利用する特徴色を1色のみ抽出し、特徴色に基づいて画像データ中の探索領域を2値化して追尾を行っている。従って、主被写体が複数の色で構成されるシーンでは、特徴色として抽出できる部分が少なくなるため、ノイズや外乱の影響を受けやすくなる。また、2値化したデータを用いてマッチングを行っているため、精度が荒く、加えて階調や色調の変化が小さいシーンにおいて追尾精度を確保することができないといった問題がある。色ではなく輝度を用いる場合にも、特徴的な輝度を利用して2値化を行っているため、同様の問題が発生する。
In the technique disclosed in
そこで、本発明の目的は、被写体を精度よく追尾することにある。 Accordingly, an object of the present invention is to accurately track a subject.
本発明の被写体追尾装置は、第1の画像データ内の追尾対象領域から得られる色情報に基づいて、色相を所定の分類単位で分類し、前記第1の画像データ内の追尾対象領域の中心から各画素までの距離と、前記分類単位のそれぞれに対応する画素の数と、に基づいて、前記分類単位で分類したヒストグラムを生成し、前記ヒストグラムに基づいて、複数の特徴色と複数の前記特徴色のそれぞれの特徴度とを決定する決定手段と、前記第1の画像データ内の追尾対象領域から、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第3の画像データを生成し、前記第1の画像データとは別のフレームの第2の画像データから、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第4の画像データを生成する第1の生成手段と、前記第4の画像データの領域ごとに前記第3の画像データとの相関量である第1の相関量を求め、前記第1の相関量に基づいて、前記第2の画像データにおける追尾対象領域を設定する設定手段と、を有することを特徴とする。 The subject tracking device according to the present invention classifies hues in a predetermined classification unit based on color information obtained from a tracking target area in the first image data, and the center of the tracking target area in the first image data. A histogram classified by the classification unit is generated based on the distance from the pixel to each pixel and the number of pixels corresponding to each of the classification units, and a plurality of characteristic colors and a plurality of the plurality of the characteristic colors are generated based on the histogram. third image data having a determining means for determining a respective characteristic of the characteristic color, from the tracking target area in said first image data, the gradation corresponding to each feature of the plurality of the characteristic color First image data is generated from second image data in a frame different from the first image data to generate fourth image data having gradations corresponding to the respective characteristic degrees of the plurality of characteristic colors. Generating means, and A first correlation amount that is a correlation amount with the third image data is obtained for each region of the image data, and a tracking target region in the second image data is set based on the first correlation amount. And setting means.
本発明によれば、被写体を精度よく追尾することが可能となる。 According to the present invention, it is possible to accurately track a subject.
以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings.
図1は、本発明の実施形態に係る撮像装置の主要構成を示す図である。図1に示すように、撮像装置112は、被写体追尾部100、撮像素子108、撮像光学系操作部109、操作部110及び表示部111を備える。被写体追尾部100は、画像取得部101、画像記憶部102、システム制御部103、画像変換処理部104、相関演算部105及び追尾情報記憶部106を備える。なお、被写体追尾部100は、被写体追尾装置の適用例となる構成である。
FIG. 1 is a diagram illustrating a main configuration of an imaging apparatus according to an embodiment of the present invention. As illustrated in FIG. 1, the imaging device 112 includes a subject tracking unit 100, an
画像取得部101は、撮像素子108から画像信号を取得し、A/D変換を行った後にYUV形式の画像データに変換し、画像記憶部102に対して出力する。ここで、本実施形態で用いるYUV形式の画像データは、輝度信号であるY信号(0〜255の値をとる)と色差信号であるUV信号(−128〜127の値をとる)とを持つ。画像記憶部102は、画像取得部101から出力された画像データを記憶する。システム制御部103は、撮像装置112を統括制御する。画像変換処理部104は、画像記憶部102から画像データを読み出して画像処理を行うことにより2枚の輝度画像データを生成する。相関演算部105は、画像変換処理部104によって生成された2枚の輝度画像データのうち、一方の輝度画像データをテンプレート画像データとし、他方の輝度画像データ内において上記一方の輝度画像データと最も相関量が高い領域を探索する。追尾情報記憶部106は、被写体位置、相関量といった追尾処理用のデータを記憶する。なお、画像取得部101、システム制御部103、画像変換処理部104及び相関演算部105は、マイクロコンピュータがROMに記憶されるコンピュータプログラムを実行することにより実現される機能的な構成である。また、画像記憶部102及び追尾情報記憶部106は、RAMの一部記憶領域に対応する構成である。
The
撮像素子108は、受光面上に結像された像による光信号を、対応する位置の受光画素毎に電気信号に変換する光電変換素子である。撮像光学系操作部109は、絞りの開口径を変化させたり、フォーカスレンズの移動制御を行ったりする。操作部110は、レリーズボタンを有し、ユーザからの操作を受け付ける。表示部111は、撮像装置112の設定状況を表示したり、撮影後に生成されたサムネイル画像データを表示する。なお、本実施形態に係る撮像装置112は、静止画像データ及び動画像データの何れも撮像することができる。
The
以下では、上述した被写体追尾部100において任意の対象物を追尾する処理の一例について説明する。図2は、被写体追尾部100における対象物の追尾処理を示すフローチャートである。なお、図2に示す対象物の追尾処理は、操作部110におけるレリーズボタンが半押しされることにより開始される。
Hereinafter, an example of processing for tracking an arbitrary object in the subject tracking unit 100 described above will be described. FIG. 2 is a flowchart showing the object tracking processing in the subject tracking unit 100. 2 is started when the release button on the
対象物の追尾処理が開始されると、ステップS201において、画像取得部101は、撮像素子108から画像信号を取得し、A/D変換を行った後、YUV形式の画像データに変換して画像記憶部102に対して出力し、記憶させる。
When the tracking processing of the object is started, in step S201, the
ステップS202において、システム制御部103は、画像記憶部102からm枚目(m=1、2、・・・)の画像データを読み出す。そして、システム制御部103は、m枚目の画像データ(第1の画像データ)から追尾対象領域に該当する部分を抽出し、テンプレート画像データを生成する。ここで、追尾開始位置は画像データの中心とし、追尾対象領域の大きさは、追尾情報記憶部106に設定してある数値(LTx,LTy)とする。追尾対象領域に該当する画像データの抽出が完了すると、システム制御部103は、当該画像データをテンプレート画像データとして追尾情報記憶部106に対して出力し、記憶させる。
In step S <b> 202, the
ステップS203において、システム制御部103は、テンプレート画像データにおける特徴色を決定する。特徴色の決定には、図3に示す色相空間とヒストグラムとが用いられる。図3(a)に示す色相空間301は、色相環で構成される空間であり、部分色相空間302は、色相空間301を12等分した空間である。部分色相空間302はそれぞれ、Red、Red−Yellow、Yellow、Yellow−Green、Green、Green−Cyan、Cyan、Cyan−Blue、Blue、Blue−Magenta、Magenta、Magenta−Redの色相の領域を持ち、これらが特徴色の候補となる。本実施形態において、部分色相空間302は、色相空間301を12等分したものとしたが、各部分色相空間302の大きさは均等でなくてもよいし、部分色相空間302の数もテンプレート画像データ内の色の分布等によって数を変更してもよい。
In step S203, the
図3(b)に示すヒストグラム303は、テンプレート画像データの各画素を色差成分(色情報)に基づいて、分類単位である部分色相空間302に分類し、横軸を各部分色相空間302、縦軸をそれぞれの部分色相空間302に分類された画素の数に後述する補正値をかけて作成される。ここで、ヒストグラム303の縦軸の数値を、その部分色相空間302に対応する色の特徴度とする。但し、画素の色差成分が閾値以下であれば、無彩色空間(MT: Monotone)に分類し、部分色相空間302に属さない画素として扱う。なお、ヒストグラム生成処理については図8を用いて詳細に説明する。また、色差成分に基づいて各画素を部分色相空間302に分類する処理は、色相決定手段の処理例である。
The
システム制御部103は、特徴色とヒストグラムとを追尾情報記憶部106に対して出力し、記憶させる。ここで特徴色はヒストグラムの上位3色であり、特徴度の高い順に第1の特徴色〜第3の特徴色が決定される。ヒストグラムの上位何色を特徴色とするかについては、上記のような固定値を用いたり、ある所定値以上の特徴度を持つ色相は全て特徴色としたり、特徴度の合計値が所定値に達するまで特徴色を選択するようにしてもよい。このように特徴色を決定する条件は任意である。
The
ステップS204において、システム制御部103は、m+1枚目の画像データ(第2の画像データ)が画像記憶部102に記憶されるのを待ち、記憶されると、当該m+1枚目の画像データを読み出す。ステップS205において、システム制御部103は、m+1枚目の画像データから探索領域に該当する部分を抽出することにより探索領域画像データを生成する。探索領域画像データを生成すると、システム制御部103は、探索領域画像データを追尾情報記憶部106に対して出力し、記憶させる。
In step S204, the
図4は、図2のステップS202、S205の処理を具体的に示す図である。図4において、401はm枚目の画像データであり、403はm+1枚目の画像データである。ステップS202においては、m枚目の画像データ401から追尾対象領域402に該当する部分が抽出されることにより、テンプレート画像データ405が生成される。また、ステップS205においては、m+1枚目の画像データから探索領域404に該当する部分が抽出されることにより、探索領域画像データ406が生成される。m枚目の画像データ401及びm+1枚目の画像データ403はともにカラー画像データである。図4におけるRY、Y、R、G、C、MTの表記は、それぞれRedとYellowの中間色(Red−Yellow)、Yellow、Red、Green、Cyan、Monotoneを表しており、対応する模様の部分がその色であることを示している。
FIG. 4 is a diagram specifically showing the processing of steps S202 and S205 in FIG. In FIG. 4, 401 is m-th image data, and 403 is m + 1-th image data. In step S202,
図4の例では、m枚目の画像データ401の中央付近に位置する人物の胴体付近を追尾対象領域402としている。追尾対象領域402の指定方法は、ユーザがタッチパネル等の操作機器で任意の位置を指定してもよいし、被写体の追尾処理の開始直前にピントを合わせていた画像データ中の位置としてもよい。なお、探索領域404の位置は、m枚目の画像データ401における追尾対象領域402と同心となるように設定され、探索領域404の大きさは、追尾情報記憶部106において設定される数値(LSx,LSy)となる。
In the example of FIG. 4, the vicinity of the torso of the person located near the center of the m-th image data 401 is set as the tracking
ステップS206において、システム制御部103は、ステップS202又は後述するステップS212で生成したテンプレート画像データ405と、ステップS205で生成した探索領域画像データ406とを追尾情報記憶部106から読み出す。そしてシステム制御部103は、テンプレート画像データ405と探索領域画像データ406とを画像変換処理部104に対して出力する。なお、ステップS206は、第1の生成手段の処理例である。
In step S206, the
画像変換処理部104は、テンプレート画像データ405及び探索領域画像データ406のそれぞれから各画素の輝度信号(Y信号)を抽出する。そして画像変換処理部104は、テンプレート画像データ405及び探索領域画像データ406のそれぞれについて、抽出した輝度信号のみで構成される第1の輝度画像データを生成する。
The image
図5は、テンプレート画像データ405から第1の輝度画像データ501を生成する処理と、探索領域画像データ406から第1の輝度画像データ502を生成する処理とを示す図である。なお、テンプレート画像データ405及び探索領域画像データ406はYUV形式の画像データである。そのため、第1の輝度画像データ501及び502は、元となるカラー画像データ(テンプレート画像データ405、探索領域画像データ406)の色差信号をカットすることにより生成することができる。画像変換処理部104は、第1の輝度画像データ501及び502を生成すると、相関演算部105に対して出力する。
FIG. 5 is a diagram showing a process for generating the first luminance image data 501 from the
ステップS207において、相関演算部105は、第1の輝度画像データ501及び502に対して輝度値によるマッチングを行うことにより、探索領域画像データ406内においてテンプレート画像データ405と最も相関が高い領域を探索する。なお、ステップS207は、第1の演算手段の処理例である。
In step S207, the
図6は、図2のステップS207における探索処理を説明するための図である。図6においては、探索領域画像データ406の第1の輝度画像データ602を、左上を原点(0,0)とし、1画素右へ進むに従ってx軸値を1加算し、1画素下へ進むに従ってy軸値を1加算する2次元座標(x,y)に見立てている。相関演算部105は、第1の輝度画像データ602に対して、第1の輝度画像データ601を(0,0)から1画素ずつずらしながらマッチングを行い、それぞれの位置における相関量を計算する。相関量は、領域間の同じ位置にある画素の輝度差の総和を表すSAD値から算出するものとする。第1の輝度画像データ601が第1の輝度画像データ602中の任意の位置(i,j)にあるときの相関量は次の式1によって計算される。
相関量={1−((i,j)のSAD値/最大SAD値)}×100・・・式1
ここで、最大SAD値とはSAD値が取り得る最大の数値である。従って、式1により相関量は0〜100の数値をとる。
FIG. 6 is a diagram for explaining the search process in step S207 of FIG. In FIG. 6, the first
Correlation amount = {1- (SAD value of (i, j) / maximum SAD value)} × 100 (1)
Here, the maximum SAD value is the maximum value that the SAD value can take. Therefore, the amount of correlation takes a numerical value of 0 to 100 according to
相関演算部105は、全ての位置でマッチングが終了すると、最も相関が高かった位置(i,j)を次の画像データにおける追尾対象の位置とし、追尾対象の位置(i,j)の相関量とともにシステム制御部103に出力する。システム制御部103は、第1の輝度画像データに基づく追尾結果として、追尾対象の位置(i,j)と当該追尾対象の位置(i,j)の相関量とを追尾情報記憶部106に対して出力し、記憶させる。
When matching is completed at all positions, the
ステップS208において、システム制御部103は、特徴色とヒストグラムとを追尾情報記憶部106から読み出し、ヒストグラムによって示される特徴色の特徴度に基づいて、当該特徴色に対応する第2の輝度画像データの輝度値を計算する。その後、システム制御部103は、計算結果を画像変換処理部104に出力する。ここで、第kの特徴色(2≦k≦n)に対応する第2の輝度画像データの輝度値は次の式2によって求められる。
第kの特徴色に対応する第2の輝度画像データの輝度値=(第kの特徴色の特徴度/第1の特徴色の特徴度)×最大輝度値・・・式2
但し、特徴色として採用されなかった色相に対しては、システム制御部103は輝度値0を設定する。ここで、式2に示す最大輝度値は、本実施形態で扱うYUV形式の画像データが取り得る最大の輝度値であり、その値はY=255である。
In step S208, the
Luminance value of the second luminance image data corresponding to the kth feature color = (feature of the kth feature color / feature of the first feature color) × maximum luminance value.
However, the
また、システム制御部103は、ステップS202又はS212において生成したテンプレート画像データ405と、ステップS205において生成した探索領域画像データ406とを追尾情報記憶部106から読み出す。そしてシステム制御部103は、テンプレート画像データ405と探索領域画像データ406とを画像変換処理部104に対して出力する。画像変換処理部104は、テンプレート画像データ405及び探索領域画像データ406のそれぞれから各画素の色差信号(UV信号)を抽出する。
Further, the
そして画像変換処理部104は、抽出した色差信号に基づいて、特徴色と一致する色差信号を持つ領域に対して式2で求めた輝度値を設定し、テンプレート画像データ405及び探索領域画像データ406のそれぞれから第2の輝度画像データを生成する。その後、画像変換処理部104は、テンプレート画像データ405から生成した第2の輝度画像データと、探索領域画像データ406から生成した第2の輝度画像データとを相関演算部105に対して出力する。
Then, based on the extracted color difference signal, the image
図7は、テンプレート画像データ405から第2の輝度画像データ701を生成する処理と、探索領域画像データ406から第2の輝度画像データ702を生成する処理とを示す図である。図7において、第2の輝度画像データ701は、テンプレート画像データ405における特徴色と一致する色差信号を持つ領域を高輝度とし、それ以外の色差信号を持つ領域を輝度値0とすることにより生成されることを示している。また、第2の輝度画像データ702についても同様に、探索領域画像データ406における特徴色と一致する色差信号を持つ領域を高輝度とし、それ以外の色差信号を持つ領域を輝度値0とすることにより生成されることを示している。
FIG. 7 is a diagram showing a process for generating the second luminance image data 701 from the
ステップS209において、相関演算部105は、第2の輝度画像データ701、702に対して、ステップS207と同様にマッチングによる相関演算を行う。そして相関演算部105は、最も相関が高い位置(i’,j’)と当該位置(i’,j’)の相関量とをシステム制御部103に対して出力する。システム制御部103は、最も相関が高い位置(i’,j’)と当該位置(i’,j’)の相関量とを、追尾対象の位置(i’,j’)と当該追尾対象の位置(i’,j’)の相関量として追尾情報記憶部106に出力し、記憶させる。なお、上記の追尾対象の位置(i’,j’)及び当該追尾対象の位置(i’,j’)の相関量が、第2の輝度画像データに基づく追尾結果となる。なお、ステップS208は、第2の生成手段の処理例である。ステップS209は、第2の演算手段の処理例である。
In step S209, the
ステップS210において、システム制御部103は、ステップS207における第1の輝度画像データに基づく追尾結果と、ステップS209における第2の輝度画像データに基づく追尾結果とを追尾情報記憶部106から読み出す。そしてシステム制御部103は、第1の輝度画像データに基づく追尾結果における相関量と、第2の輝度画像データに基づく追尾結果における相関量とから何れかの追尾結果を選択する。次にシステム制御部103は、その追尾結果における追尾対象の位置(tx,ty)を採用し、追尾情報記憶部106に記憶させる。そしてシステム制御部103は、採用した追尾対象の位置(tx,ty)を撮像光学系操作部109に対して出力する。
In step S210, the
但し、第1の輝度画像データに基づく追尾結果における相関量と第2の輝度画像データの追尾結果における相関量との双方が所定値よりも小さい場合、システム制御部103は、追尾対象を見失ったと判断し、追尾対象喪失の信号を出力する。なお、ステップS210の詳細については、図8に示すフローチャートを用いて説明する。
However, when both the correlation amount in the tracking result based on the first luminance image data and the correlation amount in the tracking result of the second luminance image data are smaller than the predetermined value, the
ステップS211において、撮像光学系操作部109は、入力した追尾対象の位置(tx,ty)に基づいて、絞りの開口径を変化させたり、フォーカスレンズの移動制御を行ったりする。但し、撮像光学系操作部109は、追尾対象喪失の信号を受信した場合、絞りの開口径の変化及びフォーカスレンズの移動は行わない。ステップS212において、システム制御部103は、追尾情報記憶部106から追尾対象の位置(tx,ty)の相関量を読み出し、相関量が予め設定された閾値よりも高いか否かを判定する。相関量が閾値よりも高い場合、システム制御部103は、探索領域画像データ406と追尾対象領域402の大きさの設定値(LTx,LTy)とを追尾情報記憶部106から読み出す。そしてシステム制御部103は、探索領域画像データ406内の追尾対象の位置(tx,ty)に該当する大きさ(LTx,LTy)の領域を抽出し、次の画像データ(m+1枚目の画像データ)における追尾処理のためのテンプレート画像データ405として追尾情報記憶部106に対して出力し、記憶させる。一方、上記相関量が予め設定された閾値以下である場合、システム制御部103は、m枚目のテンプレート画像データ405に対応する領域を探索領域画像データ406から抽出し、次の画像データ(m+1枚目の画像データ)におけるテンプレート画像データ405として追尾情報記憶部106に対して出力し、記憶させる。なお、ステップS211は、第1の抽出手段、第2の抽出手段、選択手段の処理例である。
In step S211, the imaging optical
ステップS213において、システム制御部103は、レリーズボタンが押されたか否かを判定する。レリーズボタンが押されていない場合、システム制御部103は被写体の追尾処理を終了させる。一方、レリーズボタンが半押し又は全押しされた場合、システム制御部103は被写体の追尾処理を継続させる。これにより、処理はステップS203に戻る。ここで、次の画像データ(m+1枚目の画像データ)における追尾対象領域402の位置は、前の画像データ(m枚目の画像データ)における追尾対象の位置(tx,ty)となる。
In step S213, the
次に、図8に示すフローチャートを参照しながら、図2のステップS203における特徴色決定処理について詳細に説明する。ステップS801において、システム制御部103は、図3(a)に示すように、色相環で構成される色相空間301を12個に分割し、部分色相空間302を生成する。ステップS802において、システム制御部103は、テンプレート画像データの垂直画素数と同じ回数だけステップS803〜S806の処理を繰り返す。このとき、システム制御部103は、yを繰り返し回数のカウント値として定義し、yの値がテンプレート画像データの垂直画素数未満であるうちはステップS803〜S806の処理を繰り返す。ステップS803において、システム制御部103は、テンプレート画像データの水平画素数と同じ回数だけステップS804〜S806までの処理を繰り返す。このとき、システム制御部103は、xを繰り返し回数のカウント値として定義し、xの値がテンプレート画像データの水平画素数未満であるうちはステップS804〜S806の処理を繰り返す。
Next, the characteristic color determination process in step S203 of FIG. 2 will be described in detail with reference to the flowchart shown in FIG. In step S <b> 801, the
ステップS804において、システム制御部103は、画素(x,y)からテンプレート画像データの中心点までの距離Dist(x,y)を計算する。ステップS805において、システム制御部103は、Dist(x,y)に基づいて、画素(x,y)に重要度を設定する。このとき、システム制御部103は、Dist(x,y)の値が小さければ小さいほど、重要度が大きくなるように設定する。ステップS806において、システム制御部103は、画素(x,y)のUV信号に基づいて、画素(x,y)が属する部分色相空間302を決定する。
In step S804, the
図9は、図3(a)の部分色相空間302と画素(x,y)のUV信号との対応関係を示す図である。即ち、図9において、縦軸をVの値、横軸をUの値とする2次元座標領域が色相空間301に対応しており、UV信号によってどの部分色相空間302に属するかを表している。ここで、図9中の各領域内の文字はその領域の色を示すものであり、RはRed、RYはRed−Yellow、YはYellow、YGはYellow−Green、GはGreen、GCはGreen−Cyan、CはCyan、CBはCyan−Blue、BはBlue、BMはBlue−Magenta、MはMagenta、MRはMagenta−Redを表す。 FIG. 9 is a diagram illustrating a correspondence relationship between the partial hue space 302 in FIG. 3A and the UV signal of the pixel (x, y). That is, in FIG. 9, a two-dimensional coordinate area in which the vertical axis represents the value of V and the horizontal axis represents the value of U corresponds to the hue space 301, and represents which partial hue space 302 belongs to the UV signal. . Here, the characters in each area in FIG. 9 indicate the color of the area. R is Red, RY is Red-Yellow, Y is Yellow, YG is Yellow-Green, G is Green, and GC is Green. -Cyan, C is Cyan, CB is Cyan-Blue, B is Blue, BM is Blue-Magenta, M is Magenta, and MR is Magenta-Red.
ステップS807において、システム制御部103は、ステップS806で各画素を分類した各部分色相空間302において、それぞれに分類された各画素の重要度の総和を計算し、総和値を部分色相空間302の特徴度とする。図10は、図3(b)に示すヒストグラム303の作成において、各部分色相空間302に属する画素にかける補正値について示す図である。ここでは、この補正値を重要度と呼び、重要度はテンプレート画像データ405の中心に近い画素に高い数値が設定され、遠い画素に低い数値が設定されている。これにより、テンプレート画像データ405の中心により近く、またテンプレート画像データ405の中により多く存在する色相の特徴度が高くなる。画素の重要度を設定する利点としては、カメラ撮影時においては、多くの場合、追尾対象を追尾対象領域の中心に捉えるため、追尾対象領域の中心にある追尾対象の色の特徴度が高くなり、追尾対象の色が抽出されやすくなることが挙げられる。
In step S807, the
ステップS808において、システム制御部103は、各部分色相空間302の特徴度に基づいてヒストグラム(図3(b)の303)を作成し、追尾情報記憶部106に対して出力する。この現在の画像データ(追尾開始からm枚目の画像データ)のヒストグラムをH(m)とする。なお、ステップS808は、ヒストグラム生成手段の処理例である。
In step S <b> 808, the
ステップS809において、システム制御部103は、過去の画像データにおける全てのヒストグラムを参照するため、追尾処理開始からの撮影枚数(m枚)分、ステップS810〜S814を繰り返す。このとき、システム制御部103は、iを繰り返し回数のカウント値として定義し、m−iの値が0以上であるうちはステップS810〜S814を繰り返し実行する。
In step S809, the
ステップS810において、システム制御部103は、現在の画像データ(m枚目の画像データ)よりもi枚目前に生成されたヒストグラムH(m−i)を追尾情報記憶部106から読み出す。ステップS811において、システム制御部103は、ヒストグラムH(m−i)の各部分色相空間302の特徴度に対してiの数値に基づいた補正をかける。この補正は、iが大きければ大きいほど特徴度を小さくするような補正である。ステップS812において、システム制御部103は、i枚目前の追尾結果における相関量を追尾情報記憶部106から読み出す。ここで読み出した相関量をCOR(m−i)とする。
In step S <b> 810, the
ステップS813において、システム制御部103は、ヒストグラムH(m−i)の各部分色相空間302の特徴度に対して、相関量COR(m−i)に基づいた補正値をかける。この補正は、相関量COR(m−i)が高ければ高いほど特徴度を大きくするような補正である。ステップS814において、システム制御部103は、現在の画像データのヒストグラムH(m)の各部分色相空間302の特徴度にヒストグラムH(m−i)の各部分色相空間302の特徴度を加算する。なお、このヒストグラムの各部分色相空間302の特徴度の加算処理は、合成手段の処理例である。
In step S813, the
図11は、図8のステップS814における処理について説明するための図である。本実施形態では、追尾対象の色の特徴度を高めるために、現在の画像データのヒストグラムに対し、過去の画像データで生成されたヒストグラムとの足し合わせを行う。追尾対象の色の特徴度を高めるためにヒストグラムの足し合わせを行う理由としては、撮像装置を用いて連続撮影を行う場合、時々刻々と移り変わりやすい背景色に対し、追尾対象は各画像データの追尾対象領域内に共通して存在する可能性が高いためである。つまり、ヒストグラムの足し合わせを行った場合、様々な色に変化することで特徴度が分散する背景色よりも、比較的変化の小さい追尾対象の色の方が特徴度が高くなり、追尾対象の抽出精度が向上することを期待できるのである。図11の例では、上段の画像データにおいて、(1)→(2)→(3)はフレーム番号を表しており、フレーム番号の順に時間が経過していることを示している。また、画像データ中の破線の枠はテンプレート画像データの領域を表している。中段のヒストグラムは、それぞれのテンプレート画像データから生成されるヒストグラムである。下段のヒストグラムは、(1)、(2)、(3)の各画像データにおいて、現在の画像データと過去の全ての画像データのヒストグラムとを足し合わせて生成されたヒストグラムを表している。図11より、過去の画像データとの足し合わせを行ったヒストグラムは、現在の画像データで生成されたヒストグラムと比較して追尾対象色であるRedの特徴度が高くなっていることが分かる。 FIG. 11 is a diagram for explaining the processing in step S814 of FIG. In the present embodiment, in order to increase the characteristic degree of the color to be tracked, the histogram of the current image data is added to the histogram generated from the past image data. The reason for adding histograms to increase the color feature of the tracking target is that when the continuous shooting is performed using an imaging device, the tracking target is used to track each image data against the background color, which tends to change from moment to moment. This is because there is a high possibility that they exist in common in the target area. In other words, when the histograms are added, the color of the tracking target with a relatively small change has a higher characteristic than the background color in which the characteristic varies by changing to various colors. The extraction accuracy can be expected to improve. In the example of FIG. 11, in the upper image data, (1) → (2) → (3) represent frame numbers, indicating that time has passed in the order of the frame numbers. A broken line frame in the image data represents an area of the template image data. The middle histogram is a histogram generated from each template image data. The lower histogram represents a histogram generated by adding the current image data and the histograms of all past image data in the image data of (1), (2), and (3). From FIG. 11, it can be seen that the histogram obtained by adding the past image data has a higher characteristic level of the tracking target color Red than the histogram generated with the current image data.
ステップS810〜S814の処理は、例えばある画像データにおいて追尾対象が小さく、背景の範囲が大きくなった場合の、追尾精度低下を軽減することに貢献する。現在の画像データで生成されるヒストグラムのみを用いて特徴色を決定する場合、テンプレート画像データにおいて背景が支配的となると背景色の特徴度が高くなってしまい、背景を対象として追尾してしまいやすくなる。この対策としては、追尾開始時の最初の画像データの特徴色を使用し続ける方法が考えられるが、この方法では追尾対象の色が変化した場合に追尾対象を見失ってしまう。そこで、過去の画像データとの加重平均により生成したヒストグラムを用いることにより、過去に追尾対象として認識され続けてきた色の特徴度が相対的に大きくなる。また、相対的に新しい画像データのヒストグラムの比重が重くなるため、色の変化にも柔軟に対応することができる。 The processing in steps S810 to S814 contributes to alleviating a decrease in tracking accuracy when, for example, the tracking target is small in some image data and the background range is large. When determining the feature color using only the histogram generated from the current image data, if the background becomes dominant in the template image data, the background color feature will increase, and the background will be easily tracked. Become. As a countermeasure, a method of continuing to use the characteristic color of the first image data at the start of tracking can be considered. However, in this method, when the color of the tracking target changes, the tracking target is lost. Therefore, by using a histogram generated by a weighted average with past image data, the color feature that has been recognized as a tracking target in the past becomes relatively large. In addition, since the specific gravity of the histogram of relatively new image data becomes heavy, it is possible to flexibly cope with color changes.
ステップS815において、システム制御部103は、ステップS809〜S814において生成されたヒストグラムH(m)の各部分色相空間302のうち、特徴度の高い上位3色を特徴色として決定する。なお、ステップS815は、特徴色決定手段の処理例である。
In step S815, the
次に、図12を参照しながら、図2のステップS210における追尾対象の位置の決定処理について詳細に説明する。ステップS1216において、システム制御部103は、ステップS207(第1の輝度画像データによる相関演算)及びステップS209(第2の輝度画像データによる相関演算)で計算された追尾対象の位置と相関量とを追尾情報記憶部106から読み出す。そして、システム制御部103は、第1の輝度画像データによる相関演算の相関量と閾値1とを比較し、閾値1より第1の輝度画像データによる相関演算の相関量の方が大きいか否かを判定する。閾値1より第1の輝度画像データによる相関演算の相関量の方が大きい場合、処理はステップS1217に移行する。一方、第1の輝度画像データによる相関演算の相関量が閾値1以下である場合、処理はステップS1218に移行する。
Next, the tracking target position determination process in step S210 of FIG. 2 will be described in detail with reference to FIG. In step S1216, the
ステップS1217において、システム制御部103は、第1の輝度画像データを用いた探索結果を追尾対象の位置として出力する。ステップS1218において、システム制御部103は、第2の輝度画像データによる相関演算の相関量と閾値2とを比較し、閾値2より第2の輝度画像データによる相関演算の相関量の方が大きいか否かを判定する。閾値2より第2の輝度画像データによる相関演算の相関量の方が大きい場合、処理はステップS1219に移行する。一方、第2の輝度画像データによる相関演算の相関量が閾値2以下である場合、処理はステップS1220に移行する。
In step S1217, the
ステップS1219において、システム制御部103は、第2の輝度画像データを用いた探索結果を追尾対象の位置として出力する。ステップS1220において、システム制御部103は、第1の輝度画像データ及び第2の輝度画像データを用いた探索では追尾対象を発見できなかったと判断し、追尾対象喪失を追尾結果として出力する。
In step S1219, the
なお、ステップS1216〜S1220は、状況によって適切な追尾結果を得るための選択処理である。このような選択処理を用いる利点を次に示す。先ず、第1の輝度画像データは、m枚目の画像データ及びm+1枚目の画像データの輝度信号をそのまま用いているため、第2の輝度画像データと比較して階調が細かくなっている。従って、比較的精度の細かい追尾が可能となるが、輝度の変化やノイズにより追尾精度が低下する。 Steps S1216 to S1220 are selection processing for obtaining an appropriate tracking result depending on the situation. The advantages of using such a selection process are as follows. First, since the first luminance image data uses the luminance signals of the mth image data and the m + 1th image data as they are, the gradation is finer than the second luminance image data. . Therefore, tracking with relatively fine accuracy is possible, but tracking accuracy is reduced due to changes in luminance and noise.
一方、第2の輝度画像データは、m枚目の画像データ及びm+1枚目の画像データの色差信号が特徴色と一致する場合に所定の輝度値を設定するものであるため、第1の輝度画像データと比較して階調は荒く、同じ色相に属する領域は全て均一の輝度を持つ。従って、例えば追尾対象が単一色のグラデーションで構成される場合等において追尾精度が荒くなることがあるが、輝度の変化やノイズによる追尾精度の低下は、第1の輝度画像データよりも抑えることができる。 On the other hand, the second luminance image data sets a predetermined luminance value when the color difference signals of the m-th image data and the (m + 1) -th image data match the characteristic color. The gradation is rough compared to the image data, and all the regions belonging to the same hue have uniform luminance. Therefore, for example, when the tracking target is composed of a single color gradation, the tracking accuracy may be rough, but a decrease in tracking accuracy due to a change in luminance or noise can be suppressed more than the first luminance image data. it can.
以上のように、本実施形態においては、マッチング用の相関演算部105を色と輝度とで兼用して、複数色で構成される被写体や、階調や色調の変化の小さいシーンにおいて、輝度と色とを適切に使い分け、被写体を精度よく追尾することが可能となる。即ち、本実施形態では、精度を重視するために輝度を用いた追尾と、ノイズや外乱に対するロバスト性を重視するために色を用いた追尾とを使い分けることによって、被写体の追尾精度を向上させている。
As described above, in this embodiment, the
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
100:被写体追尾部、101:画像取得部、102:画像記憶部、103:システム制御部、104:画像変換処理部、105:相関演算部、106:追尾情報記憶部、108:撮像素子、109:撮像光学系、110:操作部、111:表示部、112:撮像装置 100: Subject tracking unit, 101: Image acquisition unit, 102: Image storage unit, 103: System control unit, 104: Image conversion processing unit, 105: Correlation calculation unit, 106: Tracking information storage unit, 108: Image sensor, 109 : Imaging optical system, 110: operation unit, 111: display unit, 112: imaging device
Claims (13)
前記第1の画像データ内の追尾対象領域から、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第3の画像データを生成し、前記第1の画像データとは別のフレームの第2の画像データから、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第4の画像データを生成する第1の生成手段と、
前記第4の画像データの領域ごとに前記第3の画像データとの相関量である第1の相関量を求め、前記第1の相関量に基づいて、前記第2の画像データにおける追尾対象領域を設定する設定手段と、
を有することを特徴とする被写体追尾装置。 Based on the color information obtained from the tracking target area in the first image data , the hue is classified in a predetermined classification unit, the distance from the center of the tracking target area in the first image data to each pixel, Generating a histogram classified by the classification unit based on the number of pixels corresponding to each of the classification units, and based on the histogram, a plurality of feature colors and respective feature degrees of the plurality of feature colors; A determination means for determining
From the tracking target area in the first image data , third image data having gradations corresponding to the respective characteristic degrees of the plurality of characteristic colors is generated, and a frame different from the first image data is generated. First generation means for generating, from the second image data, fourth image data having a gradation corresponding to the respective characteristic degrees of the plurality of characteristic colors;
A first correlation amount that is a correlation amount with the third image data is obtained for each region of the fourth image data, and a tracking target region in the second image data is obtained based on the first correlation amount. A setting means for setting
A subject tracking device characterized by comprising:
前記第1の画像データ内の追尾対象領域から、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第3の画像データを生成し、前記第1の画像データとは別のフレームの第2の画像データから、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第4の画像データを生成する第1の生成手段と、
前記第1の画像データ内の追尾対象領域から、輝度に応じた階調を持つ第5の画像データを生成し、前記第2の画像データから、輝度に応じた階調を持つ第6の画像データを生成する第2の生成手段と、
前記第4の画像データの領域ごとに前記第3の画像データとの相関量である第1の相関量と、前記第6の画像データの領域ごとに求めた前記第5の画像データとの相関量である第2の相関量と、に基づいて、前記第2の画像データにおける追尾対象領域を設定する設定手段と、
を有することを特徴とする被写体追尾装置。 Determining means for determining a characteristic color in the tracking target area in the first image data;
From the tracking target area in the first image data, third image data having gradations corresponding to the respective characteristic degrees of the plurality of characteristic colors is generated, and a frame different from the first image data is generated. First generation means for generating, from the second image data, fourth image data having a gradation corresponding to the respective characteristic degrees of the plurality of characteristic colors;
Fifth image data having a gradation corresponding to the luminance is generated from the tracking target area in the first image data, and a sixth image having a gradation corresponding to the luminance is generated from the second image data. Second generating means for generating data;
Correlation between a first correlation amount that is a correlation amount with the third image data for each region of the fourth image data and the fifth image data obtained for each region of the sixth image data. Setting means for setting a tracking target area in the second image data based on a second correlation amount that is a quantity;
A subject tracking device characterized by comprising:
前記第1の画像データ及び前記第2の画像データに変換する画像信号を取得するための
撮像素子と、
を有することを特徴とする撮像装置。 A subject tracking device according to any one of claims 1 to 8,
For obtaining an image signal to be converted into the first image data and the second image data;
An image sensor;
An imaging device comprising:
第1の画像データ内の追尾対象領域から得られる色情報に基づいて、色相を所定の分類単位で分類し、前記第1の画像データ内の追尾対象領域の中心から各画素までの距離と、前記分類単位のそれぞれに対応する画素の数と、に基づいて、前記分類単位で分類したヒストグラムを生成し、前記ヒストグラムに基づいて、複数の特徴色と複数の前記特徴色のそれぞれの特徴度とを決定する決定ステップと、Based on the color information obtained from the tracking target area in the first image data, the hue is classified in a predetermined classification unit, the distance from the center of the tracking target area in the first image data to each pixel, Generating a histogram classified by the classification unit based on the number of pixels corresponding to each of the classification units, and based on the histogram, a plurality of feature colors and respective feature degrees of the plurality of feature colors; A decision step to determine,
前記第1の画像データ内の追尾対象領域から、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第3の画像データを生成し、前記第1の画像データとは別のフレームの第2の画像データから、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第4の画像データを生成する第1の生成ステップと、From the tracking target area in the first image data, third image data having gradations corresponding to the respective characteristic degrees of the plurality of characteristic colors is generated, and a frame different from the first image data is generated. A first generation step of generating, from the second image data, fourth image data having a gradation corresponding to the respective characteristic degrees of the plurality of characteristic colors;
前記第4の画像データの領域ごとに前記第3の画像データとの相関量である第1の相関量を求め、前記第1の相関量に基づいて、前記第2の画像データにおける追尾対象領域を設定する設定ステップと、A first correlation amount that is a correlation amount with the third image data is obtained for each region of the fourth image data, and a tracking target region in the second image data is obtained based on the first correlation amount. A setting step to set
を含むことを特徴とする被写体追尾方法。A method for tracking an object, comprising:
第1の画像データ内の追尾対象領域における特徴色を決定する決定ステップと、
前記第1の画像データ内の追尾対象領域から、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第3の画像データを生成し、前記第1の画像データとは別のフレームの第2の画像データから、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第4の画像データを生成する第1の生成ステップと、
前記第1の画像データ内の追尾対象領域から、輝度に応じた階調を持つ第5の画像データを生成し、前記第2の画像データから、輝度に応じた階調を持つ第6の画像データを生成する第2の生成ステップと、
前記第4の画像データの領域ごとに前記第3の画像データとの相関量である第1の相関量と、前記第6の画像データの領域ごとに求めた前記第5の画像データとの相関量である第2の相関量と、に基づいて、前記第2の画像データにおける追尾対象領域を設定する設定ステップと、
を含むことを特徴とする被写体追尾方法。 A subject tracking method executed by the subject tracking device,
A determining step for determining a characteristic color in the tracking target area in the first image data;
From the tracking target area in the first image data, third image data having gradations corresponding to the respective characteristic degrees of the plurality of characteristic colors is generated, and a frame different from the first image data is generated. A first generation step of generating, from the second image data, fourth image data having a gradation corresponding to the respective characteristic degrees of the plurality of characteristic colors;
Fifth image data having a gradation corresponding to the luminance is generated from the tracking target area in the first image data, and a sixth image having a gradation corresponding to the luminance is generated from the second image data. A second generation step for generating data;
Correlation between a first correlation amount that is a correlation amount with the third image data for each region of the fourth image data and the fifth image data obtained for each region of the sixth image data. A setting step for setting a tracking target area in the second image data based on a second correlation amount that is a quantity ;
A method for tracking an object, comprising:
第1の画像データ内の追尾対象領域から得られる色情報に基づいて、色相を所定の分類単位で分類し、前記第1の画像データ内の追尾対象領域の中心から各画素までの距離と、前記分類単位のそれぞれに対応する画素の数と、に基づいて、前記分類単位で分類したヒストグラムを生成し、前記ヒストグラムに基づいて、複数の特徴色と複数の前記特徴色のそれぞれの特徴度とを決定する決定ステップと、
前記第1の画像データ内の追尾対象領域から、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第3の画像データを生成し、前記第1の画像データとは別のフレームの第2の画像データから、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第4の画像データを生成する第1の生成ステップと、
前記第4の画像データの領域ごとに前記第3の画像データとの相関量である第1の相関量を求め、前記第1の相関量に基づいて、前記第2の画像データにおける追尾対象領域を設定する設定ステップと、
を実行させるためのプログラム。 On the computer,
Based on the color information obtained from the tracking target area in the first image data , the hue is classified in a predetermined classification unit, the distance from the center of the tracking target area in the first image data to each pixel, Generating a histogram classified by the classification unit based on the number of pixels corresponding to each of the classification units, and based on the histogram, a plurality of feature colors and respective feature degrees of the plurality of feature colors; A decision step to determine,
From the tracking target area in the first image data, third image data having gradations corresponding to the respective characteristic degrees of the plurality of characteristic colors is generated, and a frame different from the first image data is generated. A first generation step of generating, from the second image data, fourth image data having a gradation corresponding to the respective characteristic degrees of the plurality of characteristic colors;
A first correlation amount that is a correlation amount with the third image data is obtained for each region of the fourth image data, and a tracking target region in the second image data is obtained based on the first correlation amount. A setting step to set
A program for running
第1の画像データ内の追尾対象領域における特徴色を決定する決定ステップと、A determining step for determining a characteristic color in the tracking target area in the first image data;
前記第1の画像データ内の追尾対象領域から、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第3の画像データを生成し、前記第1の画像データとは別のフレームの第2の画像データから、複数の前記特徴色のそれぞれの特徴度に応じた階調を持つ第4の画像データを生成する第1の生成ステップと、From the tracking target area in the first image data, third image data having gradations corresponding to the respective characteristic degrees of the plurality of characteristic colors is generated, and a frame different from the first image data is generated. A first generation step of generating, from the second image data, fourth image data having a gradation corresponding to the respective characteristic degrees of the plurality of characteristic colors;
前記第1の画像データ内の追尾対象領域から、輝度に応じた階調を持つ第5の画像データを生成し、前記第2の画像データから、輝度に応じた階調を持つ第6の画像データを生成する第2の生成ステップと、Fifth image data having a gradation corresponding to the luminance is generated from the tracking target area in the first image data, and a sixth image having a gradation corresponding to the luminance is generated from the second image data. A second generation step for generating data;
前記第4の画像データの領域ごとに前記第3の画像データとの相関量である第1の相関量と、前記第6の画像データの領域ごとに求めた前記第5の画像データとの相関量である第2の相関量と、に基づいて、前記第2の画像データにおける追尾対象領域を設定する設定ステップと、Correlation between a first correlation amount that is a correlation amount with the third image data for each region of the fourth image data and the fifth image data obtained for each region of the sixth image data. A setting step for setting a tracking target area in the second image data based on a second correlation amount that is a quantity;
を実行させるためのプログラム。A program for running
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011098567A JP5800559B2 (en) | 2011-04-26 | 2011-04-26 | Subject tracking device, imaging device, subject tracking method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011098567A JP5800559B2 (en) | 2011-04-26 | 2011-04-26 | Subject tracking device, imaging device, subject tracking method and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2012231319A JP2012231319A (en) | 2012-11-22 |
JP2012231319A5 JP2012231319A5 (en) | 2014-06-19 |
JP5800559B2 true JP5800559B2 (en) | 2015-10-28 |
Family
ID=47432514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011098567A Expired - Fee Related JP5800559B2 (en) | 2011-04-26 | 2011-04-26 | Subject tracking device, imaging device, subject tracking method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5800559B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6555940B2 (en) * | 2015-06-12 | 2019-08-07 | キヤノン株式会社 | Subject tracking device, imaging device, and method for controlling subject tracking device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3836814B2 (en) * | 2003-05-20 | 2006-10-25 | 株式会社東芝 | Image processing method, image processing apparatus, and image processing program |
JP2009246700A (en) * | 2008-03-31 | 2009-10-22 | Panasonic Corp | Imaging apparatus |
JP2009296029A (en) * | 2008-06-02 | 2009-12-17 | Panasonic Corp | Image pickup apparatus |
-
2011
- 2011-04-26 JP JP2011098567A patent/JP5800559B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012231319A (en) | 2012-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103098076B (en) | Gesture recognition system for TV control | |
CN102103754B (en) | Subject tracking apparatus, subject region extraction apparatus, and control methods therefor | |
JP6546611B2 (en) | Image processing apparatus, image processing method and image processing program | |
US8948452B2 (en) | Image processing apparatus and control method thereof | |
KR101279561B1 (en) | A fast and accurate face detection and tracking method by using depth information | |
CN102760230B (en) | Flame detection method based on multi-dimensional time domain characteristics | |
JP2018026115A (en) | Flame detection method, flame detector, and electronic apparatus | |
JP6405124B2 (en) | Inspection device, inspection method, and program | |
JP4625949B2 (en) | Object tracking method, object tracking apparatus, and program | |
KR101018299B1 (en) | Apparatus and method for detecting a plurality of objects in an image | |
KR101833943B1 (en) | Method and system for extracting and searching highlight image | |
KR102059011B1 (en) | Apparatus and method for generating fusion image based on deep-learning | |
KR101334794B1 (en) | Flower recognition method and apparatus using feature extraction | |
KR101371647B1 (en) | Apparatus for detecting fire flame based image data and method of the same | |
JP5800559B2 (en) | Subject tracking device, imaging device, subject tracking method and program | |
JP2014007611A (en) | Image processing apparatus and control method therefor | |
KR101247136B1 (en) | Object recognition method of robot | |
KR102121534B1 (en) | Method and device for determining similarity of sequences | |
JP2021111228A (en) | Learning device, learning method, and program | |
KR101202215B1 (en) | Weighted-based target decision system for strapdown dual mode imaging seeker using location weighted or region growing moment modeling | |
CN105323460B (en) | Image processing equipment and its control method | |
JP2011134019A (en) | Image processor and control method of the same | |
KR101403143B1 (en) | Method for estimating response of audience group concerning content | |
KR101403244B1 (en) | Method for estimating attention level of audience group concerning content | |
JP6717769B2 (en) | Information processing device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140425 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140425 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150416 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150728 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150825 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5800559 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |