JP5743501B2 - 物体追尾装置、物体追尾方法、及び物体追尾プログラム - Google Patents

物体追尾装置、物体追尾方法、及び物体追尾プログラム Download PDF

Info

Publication number
JP5743501B2
JP5743501B2 JP2010262514A JP2010262514A JP5743501B2 JP 5743501 B2 JP5743501 B2 JP 5743501B2 JP 2010262514 A JP2010262514 A JP 2010262514A JP 2010262514 A JP2010262514 A JP 2010262514A JP 5743501 B2 JP5743501 B2 JP 5743501B2
Authority
JP
Japan
Prior art keywords
component
area
motion vector
frame image
small area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010262514A
Other languages
English (en)
Other versions
JP2012114722A (ja
JP2012114722A5 (ja
Inventor
木村 直人
直人 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010262514A priority Critical patent/JP5743501B2/ja
Priority to US13/302,476 priority patent/US8929590B2/en
Publication of JP2012114722A publication Critical patent/JP2012114722A/ja
Publication of JP2012114722A5 publication Critical patent/JP2012114722A5/ja
Application granted granted Critical
Publication of JP5743501B2 publication Critical patent/JP5743501B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、カメラなどの撮像装置に用いられ、被写体などの物体を追尾する物体追尾装置、物体追尾方法、及び物体追尾プログラムに関し、特に、オートフォーカス及び露出補正などの自動化機能等において用いられる物体追尾装置、物体追尾方法、及び物体追尾プログラムに関する。
一般に、カメラなどの撮像装置においては、被写体などの物体(以下、単に被写体と呼ぶ)を追尾するための物体追尾装置(以下、被写体追尾装置とも呼ぶ)が用いられている。この被写体追尾装置では、動画像における被写体像を追尾する際、被写体像の特徴量に応じて被写体像を追尾している。
例えば、現フレームよりも時間的に前のフレーム(前フレーム)において被写体像が存在する(結像した)基準領域からその特徴量を算出する。そして、現フレーム上の所定の探索領域においてその任意の位置から算出した特徴量と最も近似する領域を探索する。続いて、この探索結果に基づいて現フレームにおける基準領域を求めるようにしている。
さらに、被写体の追尾を行うに当たって、基準領域をフレーム毎に移動させて被写体の追尾を行い、かつ被写体の変形及び回転などに対応するため、基準領域の位置及びサイズを補正することが行われている。
特許文献1においては、被写体の大きさが変化した際、基準領域を補正するようにしており、例えば、光学系のズーム倍率が変更されると、ズーム倍率の変化量に応じて、基準領域を拡大又は縮小して基準領域の特徴を検索して基準領域を補正するようにしている。
また、特許文献2においては、動きベクトルの誤検出に応じて基準領域を補正するようにしている。例えば、基準領域の外側に複数の補助領域を設定して、各領域において動きベクトルを検出して、基準領域で検出された動きベクトルに対して、ほぼ等しい動きベクトルが検出された補助領域を選択する。そして、選択された補助領域の方向に基準領域を相対的に移動して基準領域の補正を行う。
特開2009−225236号公報 特開平5−30406号公報
ところが、特許文献1においては、ズーム動作を行わない場合に、例えば、被写体がカメラ側に接近してその大きさが変化した場合には、基準領域を補正することができないという課題がある。その結果、精度よく追尾対象である被写体の追尾を行うことができない。
また、特許文献2では、動きベクトルの誤検出を防止するようにしているもの、被写体の回転又は大きさの変化などによって、被写体の形状が変化すると、所望の補正をおこなうことができないという課題がある。その結果、精度よく追尾対象である被写体の追尾を行うことができない。
従って、本発明の目的は、追尾対象である被写体などの物体の状態(形状)が変化した場合においても、精度よく被写体の追尾を行うことができる物体追尾装置、物体追尾方法、及び物体追尾プログラムを提供するにある。
上記の目的を達成するため、本発明による物体追尾装置は、複数フレーム画像を有する画像信号を受けて、当該画像信号において特定の物体を追尾する物体追尾装置において、現フレーム画像よりも前の前フレーム画像において前記物体が結像する領域を示す基準領域に予め設定された数の小領域を設定する小領域設定手段と、前記現フレーム画像と前記前フレーム画像とを用いて、前記小領域の各々に対応する複数の動きベクトルを検出する動きベクトル検出手段と、前記複数の動きベクトルのx成分およびy成分の少なくともいずれか一方の符号の組合せに応じて前記物体の回転の方向を判断し、当該回転の方向に応じて前記物体の変化を判断して形状変化情報を得る形状変化判断手段と、前記形状変化情報に応じて前記基準領域の位置及びサイズを補正して、現フレーム画像における基準領域を設定する領域補正手段とを備えることを特徴とする。
本発明による物体追尾方法は、複数フレーム画像を有する画像信号を受けて、当該画像信号において特定の物体を追尾する物体追尾装置において用いられる物体追尾方法において、現フレーム画像よりも前の前フレーム画像において前記物体が結像する領域を示す基準領域に予め設定された数の小領域を設定する小領域設定ステップと、前記現フレーム画像と前記前フレーム画像とを用いて、前記小領域の各々に対応する複数の動きベクトルを検出する動きベクトル検出ステップと、前記複数の動きベクトルのx成分およびy成分の少なくともいずれか一方の符号の組合せに応じて前記物体の回転の方向を判断し、当該回転の方向に応じて前記物体の変化を判断して形状変化情報を得る形状変化判断ステップと、前記形状変化情報に応じて前記基準領域の位置及びサイズを補正して、現フレーム画像における基準領域を設定する領域補正ステップとを備えることを特徴とする。
本発明による物体追尾プログラムは、複数フレーム画像を有する画像信号を受けて、当該画像信号において特定の物体を追尾する物体追尾装置において用いられる物体追尾プログラムにおいて、前記物体追尾装置が備えるコンピュータに、現フレーム画像よりも前の前フレーム画像において前記物体が結像する領域を示す基準領域に予め設定された数の小領域を設定する小領域設定ステップと、前記現フレーム画像と前記前フレーム画像とを用いて、前記小領域の各々に対応する複数の動きベクトルを検出する動きベクトル検出ステップと、前記複数の動きベクトルのx成分およびy成分の少なくともいずれか一方の符号の組合せに応じて前記物体の回転の方向を判断し、当該回転の方向に応じて前記物体の変化を判断して形状変化情報を得る形状変化判断ステップと、前記形状変化情報に応じて前記基準領域の位置及びサイズを補正して、現フレーム画像における基準領域を設定する領域補正ステップとを実行させることを特徴とする。
本発明によれば、追尾対象である被写体などの物体の状態が変化した場合においても、精度よく物体の追尾を行うことができるという効果がある。
本発明の実施の形態による物体追尾装置の一例を示すブロック図である。 図1に示す物体追尾装置の動作を説明するためのフローチャートである。 図1に示す追尾部における基準領域の設定を説明するための図である。 図1に示す追尾部において行われる第1の探索領域の設定を説明するための図である。 図1に示す追尾部においてNフレーム画像における近似領域の座標の取得を説明するための図であり、(a)は(N−1)フレーム画像を示す図、(b)はNフレーム画像を示す図である。 図2に示す形状変化検出・補正処理を説明するためフローチャートである。 図1に示す小領域設定部で行われる小領域分割を説明するための図であり、(a)は(N−1)フレーム画像において基準領域を縦分割した例を示す図、(b)は(a)に対応するNフレーム画像を示す図、(c)は(N−1)フレーム画像において基準領域を横分割した例を示す図、(d)は(c)に対応するNフレーム画像を示す図である。 図7において説明した小領域における動きベクトルの一例を示す図である。 被写体の回転方向の一例を示す図であり、(a)はヨー(Yaw)方向を示す図、(b)はピッチ(Pitch)方向を示す図、(c)はロール(Roll)方向を示す図である。 図1に示す形状変化判断部による形状変化の判断を説明するための図であり、(a)は縦方向に分割した小領域において被写体がPitch方向に回転している場合の動きベクトルを示す図、(b)は横方向に分割した小領域において被写体がPitch方向に回転している場合の動きベクトルを示す図、(c)は縦方向に分割した小領域において被写体がYaw方向に回転している場合の動きベクトルを示す図、(d)は横方向に分割した小領域において被写体がYaw方向に回転している場合の動きベクトルを示す図、(e)は縦方向に分割した小領域において被写体の大きさが変化している場合の動きベクトルを示す図、(f)は横方向に分割した小領域において被写体の大きさが変化している場合の動きベクトルを示す図、(g)は縦方向に分割した小領域の2つにおいて被写体がRoll方向に回転している場合の動きベクトルを示す図、(g)は横方向に分割した小領域の2つにおいて被写体がRoll方向に回転している場合の動きベクトルを示す図である。 図1に示す領域補正部で行われるPitch補正処理を説明するためのフローチャートである。 図6に示すPitch補正処理を行う際の動きベクトルを示す図であり、(a)は2つの動きベクトルの符合が同一(正)である場合を示す図、(b)は(a)に示す動きベクトルと異なる2つの動きベクトルの符号が同一(負)である場合を示す図、(c)は4つの動きベクトルの符合が同一(正)である場合を示す図、(d)は4つの動きベクトルの符合が同一(負)である場合を示す図、(e)は2つの動きベクトルの符合が同一(正)で、残りの動きベクトルが異なる符号(負)ある場合を示す図、(f)は(e)と逆の状態を示す図である。 図1に示す領域補正部で行われるYaw補正処理を説明するためのフローチャートである。 図1に示す領域補正部で行われるSize補正処理を説明するためのフローチャートである。 図1に示す領域補正部で行われるRoll補正処理を説明するためのフローチャートである。
以下、本発明の実施の形態による物体追尾装置の一例について図面を参照して説明する。
図1は、本発明の実施の形態による物体追尾装置の一例を示すブロック図である。
図1を参照して、図示の物体追尾装置(以下、被写体追尾装置と呼ぶ)は、例えば、デジタルカメラなどの撮像装置に用いられる。そして、被写体追尾装置は、動画像において追尾対象である被写体を追尾する。
被写体追尾装置は、画像入力部101、追尾部102、基準領域記憶部103、小領域設定部104、動きベクトル検出部105、形状変化判断部106、領域補正部107、及び領域更新部108を有している。画像入力部101は、例えば、デジタルカメラによる撮影の結果得られた動画像データを画像信号として入力するためのものである。
追尾部102、小領域設定部104、動きベクトル検出部105、形状変化判断部106、領域補正部107、及び領域更新部108は、例えば、デジタルカメラに備えられたマイクロプロセッサ(図示せず)が備える機能である。つまり、マイクロプロセッサ上で実行される物体追尾プログラム(被写体追尾プログラム)によって追尾部102、小領域設定部104、動きベクトル検出部105、形状変化判断部106、領域補正部107、及び領域更新部108が実現される。なお、基準領域記憶部103は、例えば、デジタルカメラに備えられたメモリである。
基準領域記憶部(基準領域記憶手段)103には、(N−1)フレーム(Nは1以上の整数)において(つまり、前フレーム画像において)、特定の被写体(物体)の追尾を行う際に基準となる基準領域を示す位置情報と画像データとが記憶される。追尾部(追尾手段)102には、画像入力部101から画像信号が与えられる。追尾部102は、基準領域記憶部103を参照して、(N−1)フレームにおいて基準領域に結像されている主要被写体について、続くNフレーム(つまり、現フレーム画像)で結像されている位置を探索して当該基準領域と最も近似する領域である近似領域を求める。
小領域設定部(小領域設定手段)104は、基準領域記憶部103を参照して、(N−1)フレーム上の基準領域(つまり、物体領域)に所定の(予め設定された)数の小領域を設定する。動きベクトル検出部105は複数の小領域の各々についてその動きベクトルを検出する。形状変化判断部(形状変化判断手段)106は動きベクトルに基づいて追尾対象となる主要被写体の形状の変化を判断して、形状変化情報を得る。
領域補正部(領域補正手段)107は形状変化判断部106の判断結果に基づいて、追尾部102によって求められた近似領域の位置及びサイズを補正して、補正被写体領域(つまり、補正基準領域、補正物体領域ともいう)を得る。そして、領域更新部(領域更新手段)108は、領域補正部107によって補正された近似領域(補正近似領域)を現フレーム上の基準領域として更新する。
図2は、図1に示す物体追尾装置の動作を説明するためのフローチャートである。
図1及び図2を参照して、いま、デジタルカメラにおいて、タッチパネルを有する表示部(図示せず)に表示された画面上において、ユーザが追尾したい被写体をタッチすると、被写体追尾装置は当該タッチされた被写体を追尾対象被写体として追尾を開始する。
追尾を開始すると、追尾部102はN=1として、画像入力部101から初期フレーム画像データを取得する(ステップS201)。続いて、追尾部102は初期フレーム画像において追尾対象となる被写体上に、追尾を行う際に基準となる領域を基準領域として設定する(ステップS202)。
この基準領域は予め設定された範囲でもよく、ユーザが選択した位置から、画像解析等によって追尾し易いようにその範囲を可変とするようにしてもよい。また、デジタルカメラに備えられた顔検出機能によって検出された顔領域に対して自動的に基準領域を設定するようにしてもよい。
図3は、図1に示す追尾部102における基準領域の設定を説明するための図である。
図3に示すように、初期フレーム400において、追尾対象である被写体像(単に被写体とも呼ぶ)401に対して、基準領域402の位置は左上座標403(X’s,Y’s)と右下座標404(X’e,Y’e)とによって表される。以下、基準領域の位置を表す際に必要な左上座標及び右下座標を座標データと呼ぶ。
再び、図1及び図2を参照して、追尾部102は、初期フレームにおける座標データに基づいて、基準領域の画像をNフレームの画像から切り出して、基準領域画像とする(ステップS203)。
続いて、追尾部102は、Nフレームにおける基準領域画像及び座標データを基準領域記憶部103(メモリ)に保存する(ステップS204)。これら基準領域画像及び座標データは、次のフレーム画像において追尾対象である被写体を探索するための基準として用いられる。そして、追尾部102は、N=N+1として次のフレーム画像に移る処理を行う(ステップS205)。
続いて、追尾部102は、画像入力部101から現フレーム画像となるNフレーム画像を取得する(ステップS206)。そして、追尾部102はメモリから基準領域画像及び座標データを読み込む(ステップS207)。そして、追尾部102は、現フレーム画像において追尾対象である被写体を探索する領域を探索領域として設定する(ステップS208)。ここでは、この探索領域を第1の探索領域と呼ぶ。
図4は、図1に示す追尾部102において行われる第1の探索領域の設定を説明するための図である。
図4に示すように、Nフレーム画像400aにおいて、第1の探索領域405の中心となる領域406の位置は、座標データと等しい左上座標407(X’s,Y’s)及び右下座標408(X’e,Y’e)によって表される。ここでは、Nフレーム画像400aにおいて第1の探索領域405の中心となる領域を中心領域と呼ぶ。
中心領域406の位置を基準として、Nフレーム画像の第1の探索領域405は、第1の探索基準値であるS_X及びS_Yに応じて左上座標409(X’s−S_X,Y’s−S_Y)及び右下座標410(X’e+S_X,Y’e+S_Y)によって設定される。
図1及び図2に戻って、追尾部102はNフレーム画像で設定された第1の探索領域405において、メモリに保存した基準領域に最も近似する特徴量を有する領域を探索して、当該領域を示す動きベクトルを検出する(ステップS209)。なお、特徴量として画素値又はヒストグラムなどを用いるようにしてもよい。
続いて、追尾部102は基準領域の座標データに、動きベクトルの成分を加算して、基準領域に最も近似する特徴量を有する領域の位置(座標)を取得する(ステップS210)。ここでは、基準領域に最も近似する特徴量を有する領域を近似領域と呼ぶ。
図5は、図1に示す追尾部102においてNフレーム画像における近似領域の座標の取得を説明するための図である。そして、図5(a)は(N−1)フレーム画像を示す図であり、図5(b)はNフレーム画像を示す図である。
図5(a)に示すように、(N−1)フレーム画像500における基準領域501の位置(座標)は左上座標502(X’s,Y’s)及び右下座標503(X’e,Y’e)によって表される。同様に、図5(b)に示すように、Nフレーム画像500aにおける中心領域504の位置(座標)も、左上座標505(X’s,Y’s)及び右下座標506(X’e,Y’e)によって表される。
中心領域504の位置を表す左上座標505(X’s,Y’s)及び右下座標506(X’e,Y’e)に対して、下記の式(1)によって検出された動きベクトル510の成分
Figure 0005743501
を加算する。これによって、Nフレーム画像500aにおける近似領域507の位置は、左上座標508(Xst,Yst)及び右下座標509(Xet,Yet)によって表される。
(Xst,Yst)=(X’s+vx,Y’s+vy)
(Xet,Yet)=(X’e+vx,Y’e+vy) (1)
続いて、被写体追尾装置では、後述するようにして、近似領域についてその形状変化を検出して補正処理を行い(ステップS211)、補正後の近似領域の位置を基準領域の新たな座標データとして取得する(ステップS212)。そして、被写体追尾装置は、Nフレーム画像において追尾を終了するか否かについて判定する(ステップS213)。追尾を終了しない場合(ステップS213において、NO)、被写体追尾装置は、ステップS201に戻って、次のフレームについて追尾処理を行う。なお、追尾を終了すると判定すると(ステップS213において、YES)、被写体追尾装置は被写体の追尾を終了する。
続いて、図2に示すステップS211における処理について詳細に説明する。
図6は図2に示す形状変化検出・補正処理を説明するためフローチャートである。
図1及び図6を参照して、小領域設定部104は基準領域記憶部(メモリ)103から基準領域を読み出して、この基準領域を複数の小領域に分割する(ステップS301)。ここでは、小領域設定部104は、例えば、基準領域を縦分割して2つの小領域とする。なお、小領域設定部104は基準領域を横分割して2つの小領域とするようにしてもよい。
続いて、動きベクトル検出部105は、小領域設定部104で設定された小領域において動きベクトル検出を行うために、近似領域を中心に探索する領域を設定する。以下、この探索領域を第2の探索領域と呼ぶ。
図7は、図1に示す小領域設定部104で行われる小領域分割を説明するための図である。そして、図7(a)は(N−1)フレーム画像において基準領域を縦分割した例を示す図であり、図7(b)は図7(a)に対応するNフレーム画像を示す図である。また、図7(c)は(N−1)フレーム画像において基準領域を横分割した例を示す図であり、図7(d)は図7(c)に対応するNフレーム画像を示す図である。
図7(a)に示すように、(N−1)フレーム画像700において、基準領域601の位置は、開始座標602(X’s,Y’s)及び終点座標603(X’e,Y’e)によって表される。基準領域601は縦方向に2分割されて、2つの小領域とされる(ここでは、小領域は符号”A”及び”B”で示されている)。各小領域”A”及び”B”の水平幅はW/2であり、その垂直幅はHである。つまり、2つの小領域”A”及び”B”の面積は互いに等しい。
図7(b)に示すように、Nフレーム画像701において、近似領域604の位置は、開始座標608(Xst,Yst)及び終点座標609(Xet,Yet)によって表される。そして、第2の探索領域605の位置は、近似領域604を中心として、第2の探索基準値であるS’_X、S’_Yに基づいて左上座標606(Xst−S’_X,Yst−S’_Y)及び右下座標607(Xet+S’_X,Yet+S’_Y)で設定される。
図示の例では、第2の探索基準値であるS’_X及びS’_Yとして、式(2)で示すように、それぞれ第1の探索基準値S_X及びS_Yが用いられる。
S’_X=S_X
S’_Y=S_Y (2)
同様にして、図7(c)に示すように、(N−1)フレーム画像700において、基準領域601は横方向に2分割されて、2つの小領域とされる(ここでは、小領域は符号”C”及び”D”で示されている)。各小領域”C”及び”D”の水平幅はWであり、その垂直幅はH/2である。つまり、2つの小領域”C”及び”D”の面積は互いに等しい。
図7(d)に示すように、Nフレーム画像701において、第2の探索領域605の位置は、近似領域604を中心として、第2の探索基準値であるS’_X、S’_Yに基づいて左上座標606(Xst−S’_X,Yst−S’_Y)及び右下座標607(Xet+S’_X,Yet+S’_Y)で設定される。
上述のようにして、動きベクトル検出部105は、第2の探索領域605に関して、基準領域601を縦分割して得られた小領域”A”及び”B”に最も近似する特徴量を有する位置を指し示す動きベクトルを検出する(ステップS303)。さらに、動きベクトル検出部105は、第2の探索領域605に関して、基準領域601横分割して得られた小領域”C”及び”D”に最も近似する特徴量を有する位置を指し示す動きベクトルを検出する。
ここで、小領域”A”〜”D”における動きベクトルの検出について説明する。
ここで、小領域”A”〜”D”で検出した動きベクトル
Figure 0005743501
のx成分及びy成分を式(3)に示す。
Figure 0005743501
図8は、図7において説明した小領域”A”〜”D”における動きベクトルの一例を示す図である。ここでは、動きベクトル
Figure 0005743501
の方向を示す場合、図8に示すように、小領域”A”〜”D”毎に検出した動きベクトル”A”〜”D”で示すものとする。
続いて、形状変化判断部106は、小領域”A”〜”D”で検出された動きベクトル”A”〜”D”の成分に応じて、被写体がいずれの方向に回転したか又はその大きさが変化しているかについて判断する。そして、当該判断結果に応じて、領域補正部107は近似領域を補正するための補正処理を行う。
図示の例では、形状変化判断部106は、式(4)に示す符号関数を用いて、上記の判断を実行する。
Figure 0005743501
図9は、被写体901の回転方向の一例を示す図である。そして、図9(a)はヨー(Yaw)方向を示す図であり、図9(b)はピッチ(Pitch)方向を示す図である。また、図9(c)はロール(Roll)方向を示す図である。
ここでは、図9(a)に示すように、被写体901の横方向の回転をYaw方向とする。また、図9(b)に示すように、被写体901の縦方向の回転をPitch方向とする。さらに、図9(c)に示すように、被写体901の斜め方向の回転をRoll方向とする。
図10は、図1に示す形状変化判断部106による形状変化の判断を説明するための図である。そして、図10(a)は縦方向に分割した小領域において被写体がPitch方向に回転している場合の動きベクトルを示す図であり、図10(b)は横方向に分割した小領域において被写体がPitch方向に回転している場合の動きベクトルを示す図である。また、図10(c)は縦方向に分割した小領域において被写体がYaw方向に回転している場合の動きベクトルを示す図であり、図10(d)は横方向に分割した小領域において被写体がYaw方向に回転している場合の動きベクトルを示す図である。図10(e)は縦方向に分割した小領域において被写体の大きさが変化している場合の動きベクトルを示す図であり、図10(f)は横方向に分割した小領域において被写体の大きさが変化している場合の動きベクトルを示す図である。図10(g)は縦方向に分割した小領域の2つにおいて被写体がRoll方向に回転している場合の動きベクトルを示す図であり、図10(g)は横方向に分割した小領域の2つにおいて被写体がRoll方向に回転している場合の動きベクトルを示す図である。
図10も参照して、形状変化判断部106は、小領域”A”及び”B”において2つの動きベクトル”A”及び”B”のy成分の符号が一致し、かつy成分の符号がゼロでないか否かについて判定する(ステップS304)。動きベクトル”A”及び”B”のy成分の符号が一致しないか、あるいはy成分の符号がゼロであると(ステップS304において、NO)、形状変化判断部106は小領域”C”及び”D”において2つの動きベクトル”C”及び”D”のy成分の符号が一致し、かつy成分の符号がゼロでないか否かについて判定する(ステップS305)。
図10(a)に示すように、動きベクトル”A”及び”B”のy成分の符号が一致し、かつy成分の符号がゼロでないと判定すると(ステップS304において、YES)、形状変化判断部106は被写体がPitch方向に回転していると仮判断する。これによって、領域補正部107は、被写体がPitch方向に回転していると仮判断された近似領域について、後述するように、Pitch補正処理を行う(ステップS306)。
同様に、図10(b)に示すように、動きベクトル”C”及び”D”のy成分の符号が一致し、かつy成分の符号がゼロでないと判定すると(ステップS305において、YES)、形状変化判断部106は被写体がPitch方向に回転していると仮判断する。これによって、領域補正部107がステップS306の処理を行う。
ステップS305において、動きベクトル”C”及び”D”のy成分の符号が一致しないか、あるいはy成分の符号がゼロであると(ステップS305において、NO)、形状変化判断部106は小領域”A”及び”B”において2つの動きベクトル”A”及び”B”のx成分の符号が一致し、かつx成分の符号がゼロでないか否かについて判定する(ステップS307)。なお、ステップS306の処理が終了すると、ステップS307に進む。
動きベクトル”A”及び”B”のx成分の符号が一致しないか、あるいはx成分の符号がゼロであると(ステップS307において、NO)、形状変化判断部106は小領域”C”及び”D”において2つの動きベクトル”C”及び”D”のx成分の符号が一致し、かつx成分の符号がゼロでないか否かについて判定する(ステップS308)。
図10(c)に示すように、動きベクトル”A”及び”B”のx成分の符号が一致し、かつx成分の符号がゼロでないと判定すると(ステップS307において、YES)、形状変化判断部106は被写体がYaw方向に回転していると仮判断する。これによって、領域補正部107は、被写体がYaw方向に回転していると仮判断された近似領域について、後述するように、Yaw補正処理を行う(ステップS309)。
同様に、図10(d)に示すように、動きベクトル”C”及び”D”のx成分の符号が一致し、かつx成分の符号がゼロでないと判定すると(ステップS308において、YES)、形状変化判断部106は被写体がYaw方向に回転していると仮判断する。これによって、領域補正部107がステップS309の処理を行う。
ステップS308において、動きベクトル”C”及び”D”のx成分の符号が一致しないか、あるいはx成分の符号がゼロであると(ステップS308において、NO)、形状変化判断部106は小領域”A”及び”B”において2つの動きベクトル”A”及び”B”のx成分の符号が不一致であり、かつx成分の符号がゼロでないかについて判定する(ステップS310)。なお、ステップS309の処理が終了すると、ステップS310に進む。
動きベクトル”A”及び”B”のx成分の符号が一致するか又はx成分の符号がゼロであると(ステップS310において、NO)、形状変化判断部106は小領域”C”及び”D”において2つの動きベクトル”C”及び”D”のy成分の符号が不一致であり、かつy成分の符号がゼロでないかについて判定する(ステップS311)。
図10(e)に示すように、動きベクトル”A”及び”B”のx成分の符号が不一致であり、かつx成分の符号がゼロでないと判定すると(ステップS310において、YES)、形状変化判断部106は、被写体の大きさが変化していると仮判断する。これによって、領域補正部107は、被写体の大きさが変化していると仮判断された近似領域について、後述するように、サイズ(Size)補正処理を行う(ステップS312)。
同様に、図10(f)に示すように、動きベクトル”C”及び”D”のy成分の符号が不一致であり、かつy成分の符号がゼロでないと判定すると(ステップS311において、YES)、形状変化判断部106は、被写体の大きさが変化していると仮判断する。これによって、領域補正部107がステップS312の処理を行う。
続いて、動きベクトル”C”及び”D”のy成分の符号が一致するか又はy成分の符号がゼロであると(ステップS311において、NO)、形状変化判断部106は小領域”A”及び”B”において2つの動きベクトル”A”及び”B”について、そのx成分がゼロであり、かつy成分の符号が不一致であるか、そして、y成分の符号がゼロでないかについて判定する(ステップS313)。なお、ステップS312の処理が終了すると、ステップS313に進む。
動きベクトル”A”及び”B”について、そのx成分がゼロでないか、y成分の符号が一致するか、又はy成分の符号がゼロであると判定すると(ステップS313において、NO)、形状変化判断部106は、形状変化判断部106は小領域”C”及び”D”において2つの動きベクトル”C”及び”D”について、そのy成分がゼロであり、かつx成分の符号が不一致であるか、そして、x成分の符号がゼロでないかについて判定する(ステップS314)。
図10(g)に示すように、動きベクトル”A”及び”B”について、そのx成分がゼロであり、かつy成分の符号が不一致であって、そして、y成分の符号がゼロでない判定すると(ステップS313において、YES)、形状変化判断部106は、被写体がRoll方向に回転していると仮判断する。これによって、領域補正部107は、被写体の大きさが変化していると仮判断された近似領域について、後述するように、Roll補正処理を行う(ステップS315)。
同様に、図10(h)に示すように、動きベクトル”C”及び”D”について、そのy成分がゼロであり、かつx成分の符号が不一致であって、そして、x成分の符号がゼロでないと判定すると(ステップS314において、YES)、形状変化判断部106は、被写体がRoll方向に回転していると仮判断する。これによって、領域補正部107は、ステップS315の処理を行う。
動きベクトル”C”及び”D”について、そのy成分がゼロでないか、x成分の符号が一致するか、又はx成分の符号がゼロであると判定すると(ステップS314において、NO)、形状変化検出及び補正処理が終了する。なお、ステップS315の処理が終了すると、形状変化検出及び補正処理は終了する。
なお、ステップS313では動きベクトル”A”及び”B”のx成分がゼロであるか否かを判定条件に含め、ステップS314では動きベクトル”C”及び”D”のy成分がゼロであるか否かを判定条件に含めていたが、これに限られるものではない。被写体のRoll方向の回転における中心位置が、基準領域の中心位置からずれていることも考えられるため、ゼロであるかを判定条件に含める代わりに、基準領域に比較して小さめに設定された閾値以下であるか否かを判定条件に含めるようにしても構わない。
図11は、図1に示す領域補正部107で行われるPitch補正処理を説明するためのフローチャートである。
図1及び図11を参照して、前述のように、このPitch補正処理は小領域”A”〜”D”において動きベクトル”A”〜”D”のy成分の符号に応じて行われる。
図12は、図6に示すPitch補正処理を行う際の動きベクトルを示す図である。そして、図12(a)は2つの動きベクトル”C”及び”D”の符合が同一(正)である場合を示す図であり、図12(b)は図12(a)に示す動きベクトルと異なる2つの動きベクトル”A”及び”B”の符号が同一(負)である場合を示す図である。また、図12(c)は4つの動きベクトル”A”〜”D”の符合が同一(正)である場合を示す図であり、図12(d)は4つの動きベクトル”A”〜”D”の符合が同一(負)である場合を示す図である。さらに、図12(e)は2つの動きベクトル”C”及び”D”の符合が同一(正)で、残りの動きベクトル”A”及び”B”が異なる符号(負)ある場合を示す図であり、図12(f)は図12(e)と逆の状態を示す図である。
図12も参照して、Pitch補正処理を開始すると、領域補正部107は、動きベクトル”A”及び”B”のy成分(Ay及びBy)の符号が同一でかつ動きベクトル”C”及び”D”のy成分(Cy及びDy)の符号が同一であり、かつこれらのy成分の符号がゼロでないか否かについて判定する(ステップS901)。
動きベクトル”A”及び”B”のy成分の符号が同一でかつ動きベクトル”C”及び”D”のy成分の符号が同一であり、かつこれらのy成分の符号がゼロでないと判定すると(ステップS901において、YES)、領域補正部107は、動きベクトル”A”及び”C”のy成分(Ay及びCy)の符号が同一であるか否かについて判定する(ステップS902)。図12(c)〜(f)に示す状態が”A”及び”B”のy成分の符号が同一でかつ動きベクトル”C”及び”D”のy成分の符号が同一であり、かつこれらのy成分の符号がゼロでない状態である。
動きベクトル”A”及び”C”のy成分の符号が同一でないと判定すると(ステップS902において、NO)、領域補正部107は、例えば、図12(e)又(f)に示す状態であるとして、被写体がPitch方向に回転していないと判断する。そして、領域補正部107はPitch補正処理を終了する。
一方、動きベクトル”A”及び”C”のy成分の符号が同一であると判定すると(ステップS902において、YES)、領域補正部107は、例えば、図12(c)又(d)に示す状態であるとして、被写体がPitch方向に回転していると判断する。
被写体がPitch方向に回転していると判断すると、領域補正部107は、動きベクトル”A”〜”D”のy成分(Ay〜Dy)を用いて近似領域の座標を補正するための補正量(第1の補正量)hyを決定する処理を行う。ここでは、領域補正部107はAy及びByの平均値とCy及びDyの平均値とを求めて、これら平均値の絶対値を比較して、絶対値が大きい方の値を選択する(ステップS903)。
続いて、領域補正部107は、動きベクトル”A”のy成分(Ay)が正方向であるか否かについて判定する(ステップS904)。つまり、領域補正部107は補正量の符号を決定することになる。
ステップS901において、動きベクトル”A”及び”B”のy成分の符号が同一でない、動きベクトル”C”及び”D”のy成分の符号が同一でない、あるいはいずれかのy成分の符号がゼロであると判定すると(ステップS901において、NO)、領域補正部107は、動きベクトル”A”及び”B”の符号が同一かつゼロでないか否かを判定する(ステップS905)。
動きベクトル”A”及び”B”のy成分(Ay及びBy)の符号が同一でない、あるいはy成分の符号がゼロであると判定すると(ステップS905において、NO)、つまり、動きベクトル”C”及び”D”のy成分(Cy及びDy)の符号のみが同一かつゼロでないと(図13(a)参照)、領域補正部107は、Pitch補正量HY=(Cy+Dy)/2とする(ステップS906)。
動きベクトル”A”及び”B”のy成分(Ay及びBy)の符号が同一であると判定すると(ステップS905において、YES)、つまり、動きベクトル”A”及び”B”のy成分(Ay及びBy)の符号のみが同一であると(図13(b)参照)、領域補正部107は、Pitch補正量HY=(Ay+By)/2とする(ステップS907)。
前述のステップS904において、動きベクトル”A”のy成分(Ay)が正方向であると判定する(ステップS904において、YES)、領域補正部107はPitch補正量HY=hyとする(ステップS908)。
一方、動きベクトル”A”のy成分(Ay)が正方向でないと判定する(ステップS904において、NO)、領域補正部107はPitch補正量HY=−hyとする(ステップS909)。
続いて、領域補正部107は、ステップS906〜S910のいずれかによって決定したPitch補正量HYによって近似領域の座標を補正する。
いま、補正後の近似領域の左上座標を(Xs,Ys)、右下座標を(Xe,Ye)とすると、Pitch補正量はHY、近似領域は左上座標(Xst,Yst)及び右下座標(Xet,Yet)で表されるので、補正後の近似領域の位置は式(5)で表される。
(Xs,Ys)=(Xst,Yst+HY)
(Xe,Ye)=(Xet,Yet+HY) (5)
このようにして、領域補正部107は式(5)によって近似領域の座標を補正して(ステップS910)、Pitch補正処理を終了する。
図13は、図1に示す領域補正部107で行われるYaw補正処理を説明するためのフローチャートである。
図1及び図13を参照して、Yaw補正処理は小領域”A”〜”D”において動きベクトル”A”〜”D”のx成分の符号に応じて行われる。Yaw補正処理を開始すると、領域補正部107は、動きベクトル”A”及び”B”のx成分(Ax及びBx)の符号が同一でかつ動きベクトル”C”及び”D”のx成分(Cx及びDx)の符号が同一であり、かつこれらのx成分の符号がゼロでないか否かについて判定する(ステップS1001)。
Ax及びBxの符号が同一でかつCx及びDxの符号が同一であり、かつこれらのx成分の符号がゼロでないと判定すると(ステップS1001において、YES)、領域補正部107は、Ax及びCxの符号が同一であるか否かについて判定する(ステップS1002)。Ax及びCxの符号が同一でないと判定すると(ステップS1002において、NO)、領域補正部107は、被写体がYaw方向に回転していないと判断する。そして、領域補正部107はYaw補正処理を終了する。
一方、Ax及びCxの符号が同一であると判定すると(ステップS1002において、YES)、領域補正部107は、被写体がYaw方向に回転していると判断する。被写体がYaw方向に回転していると判断すると、領域補正部107は、Ay〜Dyを用いて近似領域の座標を補正するための補正量(第2の補正量)hxを決定する処理を行う。ここでは、領域補正部107はAx及びBxの平均値とCx及びDxの平均値とを求めて、これら平均値の絶対値を比較して、絶対値が大きい方の値を選択する(ステップS1003)。そして、領域補正部107は、Axが正方向であるか否かについて判定する(ステップS1004)。
ステップS1001において、Ax及びBxの符号が同一でない、Cx及びDxの符号が同一でない、あるいはいずれかの符号がゼロであると判定すると(ステップS1001において、NO)、領域補正部107は、Ax及びBxの符号が同一かつゼロでないか否かを判定する(ステップS1005)。
Ax及びBxの符号が同一でない、あるいはゼロであると判定すると(ステップS1005において、NO)、領域補正部107は、Yaw補正量HX=(Cx+Dx)/2とする(ステップS1006)。Ax及びBxの符号が同一であると判定すると(ステップS1005において、YES)、領域補正部107は、Yaw補正量HX=(Ax+Bx)/2とする(ステップS1007)。
前述のステップS1004において、Axが正方向であると判定する(ステップS1004において、YES)、領域補正部107はYaw補正量HX=hxとする(ステップS1008)。一方、Axが正方向でないと判定する(ステップS1004において、NO)、領域補正部107はYaw補正量HY=−hxとする(ステップS1009)。
続いて、領域補正部107は、近似領域の座標を補正して、(Xs,Ys)=(Xst+HX)、(Xe,Ye)=(Xet+HX,Ye)とする(ステップS1010)。そして、領域補正部107はYaw補正処理を終了する。
図14は、図1に示す領域補正部107で行われるSize補正処理を説明するためのフローチャートである。
図1及び図14を参照して、Size補正処理を開始すると、領域補正部107は、Ax及びBxの符号が同一でなく、かつゼロでないか否かを判定する(ステップS1101)。Ax及びBxの符号が同一でなく、かつゼロでないと判定すると(ステップS1101において、YES)、領域補正部107は、近似領域のx座標を補正する際に必要な2つの補正量(第3の補正量)HXs及びHXeを決定する。ここでは、HXs=Ax、HXe=Bxとする(ステップS1102)。
Ax及びBxの符号が同一であるか又はいずれかがゼロであると判定すると(ステップS1101において、NO)、領域補正部107は、Cy及びDyの符号が同一でなく、かつゼロでないかについて判定する(ステップS1103)。なお、ステップS1102の処理が終了すると、ステップS1103に進む。
Cy及びDyの符号が同一でなく、かつゼロでないと判定すると(ステップS1103において、YES)、領域補正部107は近似領域のy座標を補正する際に必要な2つの補正量(第4の補正量)HYs及びHYeを決定する。ここでは、HYs=Cy、HYe=Dyとする(ステップS1104)。ステップS1104の処理が終了すると、後述するステップS1105に進む。
Cy及びDyの符号が同一であるか又はいずれかがゼロであると判定すると(ステップS1103において、NO)、補正量がHXs及びHXeとHYs及びHYe、近似領域が左上座標(Xst,Yst)及び右下座標(Xet,Yet)で表されるので、領域補正部107は補正後の近似領域の座標を式(6)で示すようにする(ステップS1105)。なお、ステップS1101及びS1103においてNOの場合には、HXs及びHXeとHYs及びHYeは全てゼロである。そして、領域補正部107はSize補正処理を終了する。
(Xs,Ys)=(Xst+HXs,Yst+HYs)
(Xe,Ye)=(Xet+HXe,Yet+HYe) (6)
図15は、図1に示す領域補正部107で行われるRoll補正処理を説明するためのフローチャートである。
図1及び図15を参照して、Roll補正処理を開始すると、領域補正部107は、Ay及びByの符号が同一でなく、かつゼロでないか否かを判定する(ステップS1201)。Ay及びByの符号が同一でなく、かつゼロでないと判定すると(ステップS1201において、YES)、領域補正部107は、近似領域のy座標を補正する際に必要な補正量(第5の補正量)HYを決定する。ここでは、HY=Ay+Byとする(ステップS1202)。
Ay及びByの符号が同一であるか又はいずれかがゼロであると判定すると(ステップS1201において、NO)、領域補正部107は、Cx及びDxの符号が同一でなく、かつゼロでないかについて判定する(ステップS1203)。なお、ステップS1202の処理が終了すると、ステップS1203に進む。
Cx及びDxの符号が同一でなく、かつゼロでないと判定すると(ステップS1203において、YES)、領域補正部107は、近似領域のx座標を補正する際に必要な補正量(第6の補正量)HXを決定する。ここでは、HX=Cx+Dxとする(ステップS1204)。ステップS1204の処理が終了すると、後述するステップS1205に進む。
Cx及びDxの符号が同一であるか又はいずれかがゼロであると判定すると(ステップS1203において、NO)、補正量がHX及びHY、近似領域が左上座標(Xst,Yst)及び右下座標(Xet,Yet)で表されるので、領域補正部107は補正後の近似領域の座標を式(7)で示すようにする(ステップS1205)。なお、ステップS1201及びS1203においてNOの場合には、HX及びHYは全てゼロである。そして、領域補正部107はRoll補正処理を終了する。
(Xs,Ys)=(Xst+HX,Yst+HY)
(Xe,Ye)=(Xet+HX,Yet+HY) (7)
このようにして、領域補正部107において、Pitch補正、Yaw補正、Size補正、及びRoll補正が行われた後、図1に示す領域更新部108は補正後の近似領域を追尾部102にフィードバックして、近似領域の更新を行う。
以上のように、本実施の形態によれば、追尾対象である被写体の形状が変化した場合においても、精度よく被写体の追尾を行うことができる。つまり、被写体の回転及び大きさの変化に対処することができる結果、精度よく被写体の追尾を行うことができる。
以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。
例えば、上記の実施の形態の機能を物体追尾方法として、この物体追尾方法を、物体追尾装置に実行させるようにすればよい。また、上述の実施の形態の機能を有する物体追尾プログラムを、物体追尾装置が備えるコンピュータに実行させるようにしてもよい。
この際、物体追尾方法及び物体追尾プログラムは、少なくとも小領域設定ステップ、動きベクトル検出ステップ、形状変化判断ステップ、領域補正ステップ、及び追尾ステップを有することになる。なお、物体追尾プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
101 画像入力部
102 追尾部
103 基準領域記憶部
104 小領域設定部
105 動きベクトル検出部
106 形状変化判断部
107 領域補正部
108 領域更新部

Claims (10)

  1. 複数フレーム画像を有する画像信号を受けて、当該画像信号において特定の物体を追尾する物体追尾装置において、
    現フレーム画像よりも前の前フレーム画像において前記物体が結像する領域を示す基準領域に予め設定された数の小領域を設定する小領域設定手段と、
    前記現フレーム画像と前記前フレーム画像とを用いて、前記小領域の各々に対応する複数の動きベクトルを検出する動きベクトル検出手段と、
    前記複数の動きベクトルのx成分およびy成分の少なくともいずれか一方の符号の組合せに応じて前記物体の回転の方向を判断し、当該回転の方向に応じて前記物体の変化を判断して形状変化情報を得る形状変化判断手段と、
    前記形状変化情報に応じて前記基準領域の位置及びサイズを補正して、現フレーム画像における基準領域を設定する領域補正手段とを備えることを特徴とする物体追尾装置。
  2. 前記前フレーム画像における前記基準領域の位置情報及びその画像データを記憶する基準領域記憶手段を有することを特徴とする請求項1記載の物体追尾装置。
  3. 前記領域補正手段は、前記動きベクトルのx成分及びy成分の値に応じて前記現フレーム画像における前記基準領域の位置及びサイズを補正することを特徴とする請求項1又は2記載の物体追尾装置。
  4. 前記小領域設定手段は、前記基準領域に対して、横方向に並ぶ第1の小領域と第2の小領域、および縦方向に並ぶ第3の小領域と第4の小領域を設定することを特徴とする請求項1乃至3のいずれか1項に記載の物体追尾装置。
  5. 前記形状変化判断手段が前記物体がPitch方向に回転すると判断する条件の一つとして、前記第1の小領域の動きベクトルのy成分の符号と前記第2の小領域の動きベクトルのy成分の符号が等しいか、又は前記第3の小領域の動きベクトルのy成分の符号と前記第4の小領域の動きベクトルのy成分の符号が等しいことを含むことを特徴とする請求項4に記載の物体追尾装置。
  6. 前記形状変化判断手段が前記物体がYaw方向に回転すると判断する条件の一つとして、前記第1の小領域の動きベクトルのx成分の符号と前記第2の小領域の動きベクトルのx成分の符号が等しいか、又は前記第3の小領域の動きベクトルのx成分の符号と前記第4の小領域の動きベクトルのx成分の符号が等しいことを含むことを特徴とする請求項4又は5に記載の物体追尾装置。
  7. 前記形状変化判断手段が前記物体がRoll方向に回転すると判断する条件の一つとして、前記第1の小領域の動きベクトルのy成分の符号と前記第2の小領域の動きベクトルのy成分の符号が等しくないか、又は前記第3の小領域の動きベクトルのx成分の符号と前記第4の小領域の動きベクトルのx成分の符号が等しくないことを含むことを特徴とする請求項4乃至6のいずれか1項に記載の物体追尾装置。
  8. 前記形状変化判断手段が前記物体のサイズが変化すると判断する条件の一つとして、前記第1の小領域の動きベクトルのx成分の符号と前記第2の小領域の動きベクトルのx成分の符号が等しくないか、又は前記第3の小領域の動きベクトルのy成分の符号と前記第4の小領域の動きベクトルのy成分の符号が等しくないことを含むことを特徴とする請求項4乃至7のいずれか1項に記載の物体追尾装置。
  9. 複数フレーム画像を有する画像信号を受けて、当該画像信号において特定の物体を追尾する物体追尾装置において用いられる物体追尾方法において、
    現フレーム画像よりも前の前フレーム画像において前記物体が結像する領域を示す基準領域に予め設定された数の小領域を設定する小領域設定ステップと、
    前記現フレーム画像と前記前フレーム画像とを用いて、前記小領域の各々に対応する複数の動きベクトルを検出する動きベクトル検出ステップと、
    前記複数の動きベクトルのx成分およびy成分の少なくともいずれか一方の符号の組合せに応じて前記物体の回転の方向を判断し、当該回転の方向に応じて前記物体の変化を判断して形状変化情報を得る形状変化判断ステップと、
    前記形状変化情報に応じて前記基準領域の位置及びサイズを補正して、現フレーム画像における基準領域を設定する領域補正ステップとを備えることを特徴とする物体追尾方法。
  10. 複数フレーム画像を有する画像信号を受けて、当該画像信号において特定の物体を追尾する物体追尾装置において用いられる物体追尾プログラムにおいて、
    前記物体追尾装置が備えるコンピュータに、
    現フレーム画像よりも前の前フレーム画像において前記物体が結像する領域を示す基準領域に予め設定された数の小領域を設定する小領域設定ステップと、
    前記現フレーム画像と前記前フレーム画像とを用いて、前記小領域の各々に対応する複数の動きベクトルを検出する動きベクトル検出ステップと、
    前記複数の動きベクトルのx成分およびy成分の少なくともいずれか一方の符号の組合せに応じて前記物体の回転の方向を判断し、当該回転の方向に応じて前記物体の変化を判断して形状変化情報を得る形状変化判断ステップと、
    前記形状変化情報に応じて前記基準領域の位置及びサイズを補正して、現フレーム画像における基準領域を設定する領域補正ステップとを実行させることを特徴とする物体追尾プログラム。
JP2010262514A 2010-11-25 2010-11-25 物体追尾装置、物体追尾方法、及び物体追尾プログラム Expired - Fee Related JP5743501B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010262514A JP5743501B2 (ja) 2010-11-25 2010-11-25 物体追尾装置、物体追尾方法、及び物体追尾プログラム
US13/302,476 US8929590B2 (en) 2010-11-25 2011-11-22 Object tracking device capable of tracking object accurately, object tracking method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010262514A JP5743501B2 (ja) 2010-11-25 2010-11-25 物体追尾装置、物体追尾方法、及び物体追尾プログラム

Publications (3)

Publication Number Publication Date
JP2012114722A JP2012114722A (ja) 2012-06-14
JP2012114722A5 JP2012114722A5 (ja) 2014-01-16
JP5743501B2 true JP5743501B2 (ja) 2015-07-01

Family

ID=46126680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010262514A Expired - Fee Related JP5743501B2 (ja) 2010-11-25 2010-11-25 物体追尾装置、物体追尾方法、及び物体追尾プログラム

Country Status (2)

Country Link
US (1) US8929590B2 (ja)
JP (1) JP5743501B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10089527B2 (en) * 2012-03-26 2018-10-02 Panasonic Intellectual Property Corporation Of America Image-processing device, image-capturing device, and image-processing method
JP5949319B2 (ja) * 2012-08-21 2016-07-06 富士通株式会社 視線検出装置及び視線検出方法
US9576183B2 (en) 2012-11-02 2017-02-21 Qualcomm Incorporated Fast initialization for monocular visual SLAM
US8948457B2 (en) 2013-04-03 2015-02-03 Pillar Vision, Inc. True space tracking of axisymmetric object flight using diameter measurement
CN106897742B (zh) * 2017-02-21 2020-10-27 北京市商汤科技开发有限公司 用于检测视频中物体的方法、装置和电子设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0530406A (ja) 1991-07-18 1993-02-05 Mitsubishi Electric Corp 被写体追尾装置
JP4824411B2 (ja) * 2005-01-20 2011-11-30 パナソニック株式会社 顔抽出装置、半導体集積回路
JP2006319578A (ja) * 2005-05-11 2006-11-24 Sharp Corp 奥行方向移動判定装置、その奥行方向移動判定装置を有する手ぶれ補正システム、およびその方法、プログラム、そのプログラムが記録された計算機に読み取り可能な記録媒体、および手ぶれ補正システムを備える電子機器。
JP4747003B2 (ja) * 2005-06-22 2011-08-10 富士フイルム株式会社 自動合焦制御装置およびその制御方法
KR100814424B1 (ko) * 2006-10-23 2008-03-18 삼성전자주식회사 폐색영역 검출장치 및 검출방법
WO2008103929A2 (en) * 2007-02-23 2008-08-28 Johnson Controls Technology Company Video processing systems and methods
JP2009069748A (ja) * 2007-09-18 2009-04-02 Fujifilm Corp 撮像装置およびその自動焦点調節方法
JP4983666B2 (ja) 2008-03-18 2012-07-25 パナソニック株式会社 撮像装置
JP5200816B2 (ja) * 2008-09-24 2013-06-05 カシオ計算機株式会社 撮像装置、撮像装置の画像処理方法及び画像処理プログラム
JP2010124120A (ja) * 2008-11-18 2010-06-03 Fujinon Corp オートフォーカスシステム
JP5736796B2 (ja) * 2011-01-24 2015-06-17 株式会社ニコン 電子カメラ、プログラム及び記録媒体

Also Published As

Publication number Publication date
US20120134538A1 (en) 2012-05-31
JP2012114722A (ja) 2012-06-14
US8929590B2 (en) 2015-01-06

Similar Documents

Publication Publication Date Title
JP3576987B2 (ja) 画像のテンプレートマッチング方法及び画像処理装置
US20120075433A1 (en) Efficient information presentation for augmented reality
JP5743501B2 (ja) 物体追尾装置、物体追尾方法、及び物体追尾プログラム
CN107241544A (zh) 视频稳像方法、装置及摄像终端
US8660305B2 (en) Method and apparatus for removing a visual object from a visual data stream
KR960035351A (ko) 3차원 표시 화상 생성 방법, 깊이 정보를 이용한 화상 처리 방법, 깊이 정보 생성 방법
CN108875931B (zh) 神经网络训练及图像处理方法、装置、系统
US10721431B2 (en) Method for estimating a timestamp in a video stream and method of augmenting a video stream with information
CN112911281B (zh) 一种视频质量评价方法及装置
JP5955491B2 (ja) 情報重畳画像表示装置および情報重畳画像表示プログラム
CN105635588A (zh) 一种稳像方法及装置
CN111612696A (zh) 图像拼接方法、装置、介质及电子设备
JP4339221B2 (ja) 画像構成方法、指紋画像構成装置およびプログラム
CN114390201A (zh) 对焦方法及其装置
JP2000099760A (ja) 3次元物体モデル生成方法及び3次元物体モデル生成プログラムを記録したコンピュータ読み取り可能な記録媒体
CN109885369B (zh) 图像联动方法及装置
CN107993247B (zh) 追踪定位方法、系统、介质和计算设备
JP2005062910A (ja) 画像認識装置
JP2018036901A (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN115619904A (zh) 图像处理方法、装置及设备
JP6996200B2 (ja) 画像処理方法、画像処理装置、および画像処理プログラム
JP2006215657A (ja) 動きベクトル検出方法、動きベクトル検出装置、動きベクトル検出プログラム及びプログラム記録媒体
CN111103967A (zh) 虚拟对象的控制方法和装置
CN113313646B (zh) 图像处理方法及装置、电子设备、计算机可读存储介质
JP5636966B2 (ja) 誤差検出装置及び誤差検出プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150428

R151 Written notification of patent or utility model registration

Ref document number: 5743501

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees