JP2004252748A - Image processing method and image processor - Google Patents
Image processing method and image processor Download PDFInfo
- Publication number
- JP2004252748A JP2004252748A JP2003043029A JP2003043029A JP2004252748A JP 2004252748 A JP2004252748 A JP 2004252748A JP 2003043029 A JP2003043029 A JP 2003043029A JP 2003043029 A JP2003043029 A JP 2003043029A JP 2004252748 A JP2004252748 A JP 2004252748A
- Authority
- JP
- Japan
- Prior art keywords
- histogram
- image
- color
- background color
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、動画像中の対象動物体を追跡するための画像処理方法及び画像処理装置に関する。
【0002】
【従来の技術】
動画像中の対象動物体を追跡する技術は、動画像中の自動車や不審者を追跡して検出する監視システムで利用されている。また、この技術は、動画像中のある物体に予め関連情報(名前,値段など)を付与しておき、画面に表示される動画像中のこの物体をユーザがマウス等を用いてポインティングすれば関連情報を画面に提示するような映像を制作するためのアンカー領域の指定などに利用される。これによって、テレビドラマを見ながら俳優が身に付けている時計をユーザがマウスでクリックしてインターネットショッピングによって購入したり、スポーツ観戦中に所望の選手のプロフィールを表示させたり、また、試合中の選手の動きを解析してチームの戦略分析等に応用することも可能になる。
【0003】
動画像中の対象動物体の追跡技術の具体的なアルゴリズムの一つとして、Affine変換推定を用いた物体追跡手法がある(例えば、特許文献1参照。)。これは、フレーム間での対象動物体の移動・変形が、Affine変換であると仮定して、このAffine変換を表すAffineパラメータを推定して物体を追跡する手法である。本手法について、図10を用いて説明する。
【0004】
参照画像に対してユーザの手入力によって参照物体領域を指定し、図10(A)に示すように、追跡に効果的な有限個の特徴点(追跡点)のみを選択する。特徴点選択は、例えば次のようにして行なう。まず、参照物体領域内に定められた間隔で特徴点候補を格子状に配置して、特徴点候補を中心に定められた大きさのブロック(例えば8×8画素)を決める。そして、特徴点候補を中心に、周囲領域においてブロックマッチングを行い、周囲領域とのブロックマッチングを行うことにより得られた類似度が低い、つまり、処理画像との追跡を行う際のブロックマッチング誤り(追跡誤り)の起こりにくいと判断される特徴点候補を選択する。
【0005】
続いて、図10(B)のように、参照画像に配置された特徴点を中心としたブロックと処理画像とでブロックマッチングを行い、移動ベクトルを推定する。一般に、これら移動ベクトルには外れ値が含まれている。よって、ロバスト推定により物体の変換を表すAffineパラメータを推定し、このAffineパラメータを用いて参照物体領域にAffine変換を施す。この結果、図10(C)に示すように、処理画像での対象動物体領域の位置及び形状を推定することができる。
【0006】
また、色ヒストグラムを用いて参照物体領域に対応する領域を処理画像中から推定するアルゴリズムもある(例えば、非特許文献1参照。)。これは、マッチングを取るための特徴量として、参照物体領域内の色ヒストグラムを用いるもので、処理画像の色ヒストグラムとの照合を取ることで物体位置を検出する方法である。
【0007】
まず、図11のように、画像中から参照ヒストグラムを作成するための参照物体領域48を設定する。この設定は、参照画像においてユーザがマニュアル操作によって矩形領域や楕円領域を設定してもよいし、また、背景差分法やフレーム間差分法といった画像処理を用いて参照物体領域を自動生成してもよい。続いて、この参照物体領域の色ヒストグラムを作成する。色ヒストグラムの計算では、色空間における各軸をQ分割した3次元色ヒストグラムを作成する。図12では、色空間をRGB空間、Q=4分割として図示してある。参照物体領域内での各画素値が色空間内のQ3=64個の立方体それぞれに何個含まれるかを数えて、参照物体領域での色ヒストグラムを以下の式(1)として算出する。ヒストグラムの性質上、参照物体領域内の総画素数は以下の(2)となる。
【0008】
【数1】
【0009】
次に、以下の式(3)に示す各色ヒストグラムの要素を総画素数で割った正規化ヒストグラムを作成する。
【0010】
【数2】
【0011】
つまり、参照物体領域内の総画素数は1.0に正規化されている。この式(3)を参照物体領域の色ヒストグラムを表す参照ヒストグラムとする。
【0012】
続いて、処理画像中の探索範囲内に候補物体領域を設定し、同様に候補ヒストグラムを作成する(以下に示す式(4))。ヒストグラム間のマッチング度合いを計る尺度としては、以下の式(5)に示すヒストグラムインターセクションSHMを用いる。
【0013】
【数3】
【0014】
ヒストグラムインターセクションSHMは、ヒストグラムが正規化されているため、0から1までの値を取り、この類似度が最大となる候補ヒストグラムを持つ候補物体領域を、処理画像中の探索範囲内で探して、参照物体領域の移動先として出力する。
【0015】
【特許文献1】
特開2001−132591公報
【0016】
【特許文献2】
Michael J. Swain, Dana H. Ballard著「Color Indexing」International Journal of Computer Vision, vol.7, no.1, pp.11−32,1991.
【0017】
【発明が解決しようとする課題】
しかしながら、Affine変換推定を用いた物体追跡手法では、推定されたAffineパラメータによって対象動物体の変形・追跡を行うために、参照画像における対象動物体から処理画像における対象動物体への変化がAffine変換で近似できない場合には正しい追跡を行うことができないという問題があった。また、複数のブロックマッチングを用いて物体を追跡するため、追跡領域がある程度の大きさを持つ必要もあった。
【0018】
一方、色ヒストグラムを用いた物体追跡手法では、対象領域内の色ヒストグラムを用いて追跡を行うため、対象動物体の持つ色成分に大きな変化が生じない限り、形状に大きな変化が生じても追跡することができ、追跡領域が小さな領域の場合でも追跡できる。しかし、一般に、参照物体領域を指定する際、矩形領域や楕円領域で指定するために、参照ヒストグラムとして、対象動物体以外の色成分が反映された色ヒストグラムが作成されてしまい、追跡精度の低下を招く問題があった。
【0019】
本発明は前記のような事情を考慮してなされたもので、画像間での変化をAffine変換で近似できず、追跡対象領域が小さな対象動物体を、精度良く動画像中から追跡することが可能な画像処理方法及び画像処理装置を提供することを目的とする。
【0020】
【課題を解決するための手段】
本発明は、動画像中の対象動物体を追跡する画像処理方法において、動画像の背景色を推定する背景色推定工程と、前記背景色推定工程によって推定された背景色を除いた対象動物体の参照領域の色ヒストグラムである参照ヒストグラムを作成する参照ヒストグラム作成工程と、前記参照ヒストグラム作成工程によって作成された参照ヒストグラムを用いて、色ヒストグラムマッチングによって対象動物体を追跡する追跡処理工程とを備える。
【0021】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について説明する。図1は本実施形態に係わる画像処理装置の機能構成を示すブロック図である。本実施形態における画像処理装置は、例えば半導体メモリ、CD−ROM、DVD、磁気ディスク等の記録媒体に記録された画像処理プログラムを読み込み、この画像処理プログラムによって動作が制御されるコンピュータによって実現される。本実施形態における画像処理装置では、動画像中の対象動物体を追跡するための画像処理を実行する。動画像中の対象動物体としては、例えばテレビドラマの動画像中の俳優、スポーツを撮影した動画像中の選手やボール、監視システムにおいて撮影された動画像中の自動車や不審者等がある。
【0022】
図1に示すように、本実施形態における画像処理装置は、画像処理部10、入力装置12、表示装置14、及び記憶装置16が設けられて構成されている。
【0023】
画像処理部10は、入力装置12あるいは記憶装置16から動画像データを入力し、動画像中の対象動物体を追跡するための画像処理をする機能を有している。
【0024】
画像処理部10には、背景色推定部20、参照ヒストグラム作成部21、探索領域設定部22、処理画像ヒストグラム生成部23、追跡処理部24、位置補正部25、追跡結果出力部26などが設けられる。
【0025】
背景色推定部20は、記憶装置16から入力される参照画像データから動画像の背景色を推定する。参照画像データは、例えば処理対象とする動画像データに含まれる先頭フレームの画像データとする。背景色推定部20は、背景色の推定方法として、動画像に含まれる参照画像に対する画素値の統計処理によって背景色を推定する方法、参照画像中の対象動物体に該当する参照領域を設定し、この参照領域の近傍領域である部分背景領域の色情報から背景色を推定する方法、参照画像に対する位置の指定を入力し、この入力した位置の画像値に基づいて背景色を推定する方法を用いることができる。
【0026】
参照ヒストグラム作成部21は、背景色推定部20によって推定された背景色を動画像中から除き、対象動物体に該当する参照領域の色ヒストグラムである参照ヒストグラムを作成する。
【0027】
探索領域設定部22は、処理対象とする動画像データに含まれる処理画像データから、追跡の対象とする対象動物体に該当する探索領域の候補を設定する。
【0028】
処理画像ヒストグラム生成部23は、探索領域設定部22によって設定された対象動物体に該当する探索領域の色ヒストグラムを作成する。
【0029】
追跡処理部24は、参照ヒストグラム作成部21よって作成された参照ヒストグラムと、処理画像ヒストグラム生成部23によって生成された色ヒストグラムとを用いた色ヒストグラムマッチングによって動画像中の対象動物体を追跡する。
【0030】
位置補正部25は、追跡処理部24により追跡される対象動物体の位置を、この対象動物体の物体領域の重心へ移動して位置補正する(第2実施形態)。
【0031】
追跡結果出力部26は、追跡処理部24による対象動物体についての追跡結果、あるいはさらに位置補正部25によって位置補正された対象動物体の追跡結果を、例えば表示装置14において表示される動画像中に出力する。
【0032】
入力装置12は、ユーザのマニュアル操作によって画像処理部10に対する制御指示などを入力するためのキーボードや、マウスなどのポインティングデバイスの他、画像処理の対象とする動画像データを入力するためのビデオカメラ等の撮影手段を含む。
【0033】
表示装置14は、画像処理部10による処理対象とする動画像の他、動画像中において画像処理によって追跡される対象動物体に該当する領域、参照画像における物体領域を明示する表示を行なう。
【0034】
記憶装置16は、画像処理の対象とする動画像データなどが記憶されるもので、動画像データには背景色推定工程において処理対象とする参照画像データ16a、対象動物体の追跡対象とする処理画像データ16bを含む。参照画像データ16aは、例えば動画像データの先頭フレームの画像を用いる。
【0035】
(第1実施形態)
第1実施形態では、参照画像をもとに背景色を考慮した対象動物体に該当する参照ヒストグラムを作成し、この参照ヒストグラムを用いて処理画像(動画像)中の対象動物体を追跡する。
【0036】
図2は、第1実施形態の画像処理方法の処理の流れを示すフローチャートである。
図2において、ステップA1は動画像(参照画像)の背景色を推定する背景色推定工程、ステップA2は推定された背景色を除いて対象動物体の参照領域の色ヒストグラムである参照ヒストグラムを作成する参照ヒストグラム作成工程、ステップA3は参照ヒストグラムを用いて色ヒストグラムマッチングによって対象動物体を追跡する追跡処理工程、ステップA4は動画像(処理画像)中の対象動物体に該当する領域の候補を設定する探索領域設定工程、ステップA5は対象動物体に該当する領域対象とした色ヒストグラムを生成する処理画像ヒストグラム生成工程である。
【0037】
まず、動画像中の対象動物体の追跡を開始する前に、背景色推定部20による背景色推定工程では、例えば動画像の先頭フレームの画像を参照画像として入力し、動画像中の背景色を推定する(ステップA1)。すなわち、後段の参照ヒストグラム作成工程において、参照ヒストグラムの作成対象とする参照領域から除く色を決定する。
【0038】
小さな対象動物体を追跡する技術は、主にスポーツ映像中の選手・ボールの追跡や、自動車・不審者等の監視に応用される。例えば、図3(A)に示すような、サッカーの様子を撮影して得られた動画像では、画像の多くの部分を占める領域がサッカーフィールドの芝生の色をしている。また、道路での自動車監視の場合でも、同様に、画像の多くの部分を路面の色が占める。このような場合、背景色推定部20は、参照画像データをもとにして、背景色を次の(1)〜(3)に示す方法による画素値の統計処理によって求める。
【0039】
(1)画面内の全画素の平均色、
(2)画面内の全画素の中間色(メディアン)、
(3)画面内の色ヒストグラムを取り、その最も度数が大きい色(最頻色)。
【0040】
なお、何れの方法を用いて背景色を推定するかは、何れかの方法が予め設定されていても良いし、ユーザのマニュアル操作によって入力装置12から入力された指示に応じて、何れかの方法が設定されるようにしても良い。
【0041】
また、サッカーフィールドのように画像中においてある単色が背景の多くの部分を占める場合には、前述した(1)〜(3)の方法を用いることができるが、単色が背景の多くの部分を占めない画像を対象とする場合には画像中の限られた部分背景領域を対象として、次のようにして背景色を推定することもできる。
【0042】
まず、参照画像中から例えば追跡対象とする対象動物体を含む参照物体領域を設定する。参照物体領域の設定は、例えば参照画像においてユーザが入力装置12(マウスなど)を用いたマニュアル操作によって矩形領域や楕円領域を設定してもよいし、また、背景差分法やフレーム間差分法といった画像処理を用いて参照物体領域を自動生成してもよい。
【0043】
図4には、サッカーの動画像において追跡する参照物体(ここではプレーヤの1人)の位置を表す参照物体領域30が楕円領域によって設定された例を示している。背景色推定部20は、参照物体領域30が設定されると、参照物体領域30からある一定の幅だけ広げた領域を図4に示すように部分背景領域32として設定する。そして、参照物体領域30より外側で部分背景領域32より内側の領域に含まれる画素について、上述した統計処理によって平均色、中間色、あるいは最頻色を算出することによって背景色を求める。
【0044】
また、ユーザが参照画像において入力装置12(マウスなど)を用いたマニュアル操作によって、背景色の推定に参照すべき位置の指定を入力し、この指定された位置をもとに背景色を推定することもできる。
【0045】
図5には、参照画像において、入力装置12(マウスなど)の操作でポインタ34を任意の位置に移動させ、例えば矩形を表す対角の2点を指定することで、背景色の推定に用いる背景指定領域36が設定された例を示している。
【0046】
背景色推定部20は、前述のようにして任意に設定された背景指定領域36に含まれる画素について、上述した統計処理によって平均色、中間色、あるいは最頻色を算出することによって背景色を求める。
【0047】
なお、図5に示すように、背景指定領域36を設定するだけでなく、ユーザによるマニュアル操作によって参照画像中の一点を指示させて背景色を決めることも可能である。この場合、背景色推定部20は、ポインタ34によって指定された位置の画素の色を背景色とする、あるいは指定された位置の周辺の数画素をもとにして背景色を算出するものとする。
【0048】
こうして、背景色の推定に有効な領域(あるいは位置)を設定することで、参照画像中の背景色が一様でない(ある単色が多くを占めていない)場合であっても、後段の参照ヒストグラムの作成の際に参照画像から削除すべき色を決定することができる。例えばサッカーの動画像中においてサッカーフィールドの芝がはがれている箇所が多いために芝と土の色が混在している、あるいは日向の部分と日陰の部分がある場合などであっても対応することができる。
【0049】
次に、参照ヒストグラム作成部21による参照ヒストグラム作成工程において、背景色推定工程によって推定された背景色を除いて、対象動物体の参照領域の色ヒストグラムである参照ヒストグラムを作成する(ステップA2)。
【0050】
例えば、参照ヒストグラム作成部21は、図6に示す参照画像中で設定される参照物体領域38の画像データをもとに、各画素値から色ヒストグラムを作成する。従来の色ヒストグラムの作成では、図7(a1)に示すような参照物体領域38内の全ての画素を用いて色ヒストグラムを求めていたので、図7(a2)に示すような、物体色(ここではサッカープレーヤ)でない背景色を含んだ色ヒストグラムが作成されてしまう。例えば、サッカープレーヤが身につけているシャツやパンツが赤系統の色であれば赤色付近(物体色)に画素数の頻度のピークが現れ、その他にサッカーフィールドの芝による緑色付近に画素数の頻度のピークが現れる。
【0051】
本実施形態の参照ヒストグラム作成部21は、図7(b1)に示す参照物体領域38(図7(a1)と同じ)から、背景色推定工程(ステップA1)で推定された背景色を除いた図7(b2)に示す参照物体画像を生成し、この画像をもとにして色ヒストグラムを生成する。図7(b3)には、背景色を除いた参照物体画像をもとに生成される色ヒストグラムを示している。図7(b3)に示すように、背景色が画像から除かれているので、色ヒストグラムでは物体色のみに画素数の頻度のピークが現れる。参照ヒストグラム作成部21は、こうして生成した色ヒストグラムを、動画像の対象動物体を追跡するための色ヒストグラムマッチングに用いる参照ヒストグラムとして保持する。
【0052】
これによって、参照ヒストグラムは追跡したい小物体の色成分のみを持つ色ヒストグラムとなり、対象動物体が異なる背景色を持つ領域に移動した際でも、精度良く追跡することが可能になる。
【0053】
なお、図7(a2)(b3)に示す色ヒストグラムは、説明を簡単にするために単純なヒストグラムを例にしているが、例えばサッカープレーヤが身につけているシャツ、パンツ、ソックスなどの色がそれぞれ異なれば、それぞれの部分に該当する色にピークが現れるヒストグラムとなる。
【0054】
次に、追跡結果出力部26による追跡処理工程において、参照ヒストグラム作成工程で作成された参照ヒストグラムを用いて、色ヒストグラムマッチングによって動画像(処理画像)中の対象動物体を追跡する(ステップA3)。
【0055】
そのために、まず探索領域設定部22による探索領域設定工程において、追跡する対象物体を探す処理画像データを入力し、処理画像中の探索範囲内に候補物体領域を設定する(ステップA4)。処理画像ヒストグラム生成部23による処理画像ヒストグラム生成工程では、探索領域設定部22により設定された候補物体領域について色ヒストグラム(候補ヒストグラム)を生成する。この際、処理画像ヒストグラム生成部23は、候補物体領域中における背景色の削除は行わない。
【0056】
追跡処理部24は、参照画像をもとに生成した参照ヒストグラムと、処理画像ヒストグラム生成部23により生成された候補ヒストグラムとの間で色ヒストグラムマッチングを実行する。
【0057】
ここで、参照ヒストグラムと候補ヒストグラムの間のマッチング度合いを計る尺度としては、ヒストグラムインターセクションSHMを用いる(従来の技術の説明参照)。
【0058】
追跡処理部24は、探索領域設定部22により複数の候補物体領域が設定される場合、各候補物体領域の候補ヒストグラムを対象として、参照ヒストグラムとのマッチングを実行する。そして、追跡処理部24は、この類似度が最大となる候補ヒストグラムを持つ候補物体領域を、処理画像中の探索範囲内で探して、参照物体領域の移動先として対象動物体位置を出力する。
【0059】
追跡結果出力部26は、表示装置14において動画像(処理画像)を表示する際に、追跡処理部24から出力される対象動物体位置に応じて、画像中の該当する対象動物体の位置を表す、例えば矩形枠を表示する。
【0060】
以上の処理を、処理画像について継続的に実行することで、動画像中の対象動物体を追跡することができる。
【0061】
このようにして、動画像の背景色を除いて作成された参照ヒストグラムを用いて色ヒストグラムマッチングを行うことによって、画像間での変化をAffine変換で近似できず、追跡対象領域が小さな対象動物体でも、精度良く動画像中から追跡することができる。
【0062】
(第2実施形態)
第2実施形態は、前述した第1実施形態における画像処理に、物体重心への移動による時間方向のブレ補正の処理を追加するものである。
【0063】
図8は、本発明の第2実施形態の画像処理方法の処理の流れを示すフローチャートである。
【0064】
図8において、ステップB1は動画像の背景色を推定する背景色推定工程、ステップB2は推定された背景色を除いて対象動物体の参照領域の色ヒストグラムである参照ヒストグラムを作成する参照ヒストグラム作成工程、ステップB3は参照ヒストグラムを用いて色ヒストグラムマッチングによって対象動物体位置を出力する追跡処理工程、ステップB4は出力された対象動物体位置を対象動物体の物体領域の重心へ移動して位置補正する位置補正工程、ステップB5は動画像(処理画像)中の対象動物体に該当する領域の候補を設定する探索領域設定工程、ステップB6は対象動物体に該当する領域対象とした色ヒストグラムを生成する処理画像ヒストグラム生成工程である。
【0065】
なお、背景色推定工程、参照ヒストグラム作成工程、追跡処理工程、探索領域設定工程、及び処理画像ヒストグラム生成工程は、前述した第1実施形態で説明したように処理を行い、処理画像内での対象動物体位置を出力するものとして詳細な説明を省略する。
【0066】
位置補正部25による位置補正工程では、追跡処理部24より出力された対象動物体位置を対象動物体の物体領域の重心へ移動して位置補正を行う(ステップB4)。
【0067】
第1実施形態で説明した色ヒストグラムを用いた小物体の追跡は、対象物体の見え方やパターンの情報は用いず、色成分の割合、つまり色ヒストグラムのみを用いて追跡を行うために、物体領域の形状が大きく変化する場合でも追跡することが可能である。しかし、追跡処理に物体領域の形状情報を全く用いていないために、追跡結果を時間方向で見ると微小にブレが生じる場合がある。
【0068】
例えば、矩形の物体領域を用いて色ヒストグラムによって追跡を行うと、図9(A)に示す対象動物体領域40が推定される。この場合に出力される対象動物体位置は矩形領域の中心42として出力される。これは、対象としている追跡動物体からややずれた位置を指し示している。この問題に対応するために、色ヒストグラムによる追跡処理によって算出した対象動物体位置を、対象動物体の物体領域の重心位置へ移動することによって位置補正を行う。
【0069】
対象動物体の物体領域は、次の(1)〜(3)として求めることができる。
(1)対象動物体位置に設定された追跡領域(矩形や楕円)から背景色を除いた領域、
(2)追跡領域内のヒストグラムを取り、その最頻色を持つ画素の集まり、
(3)参照ヒストグラム内に、ある頻度以上で含まれる色を持つ領域。
【0070】
なお、(1)〜(3)の何れを物体領域とするかは、予め設定されていても良いし、ユーザのマニュアル操作によって入力装置12から入力された指示に応じて設定されるようにしても良い。
【0071】
例えば、対象動物体領域として背景色を除いて求めると(前述した(1)の領域)、図9(B)に示すように領域44のようになる。この領域44の重心位置は46になる。位置補正部25は、この重心位置46を、補正した対象動物体位置として出力する。
【0072】
追跡結果出力部26は、表示装置14において動画像(処理画像)を表示する際に、追跡処理部24から出力された補正された対象動物体位置に応じて、画像中の該当する対象動物体の位置を表す表示をする。
【0073】
以上のように、対象動物体位置を対象動物体の物体領域の重心へ移動して位置補正を行うことによって、色ヒストグラムによる追跡によって生じる時間方向への微小なブレを軽減して追跡の精度を高めることが可能になる。
【0074】
なお、前述した説明では、動画像中から1つの対象動物体について追跡を行なうものとして説明しているが、複数の対象動物体の追跡を並行して実行するようにしても良い。この場合、各対象動物体について同様の処理を実行すれば良い。
【0075】
また、前述した説明では、処理画像データ(対象動物体を含む動画像データ)は、記憶装置16に記憶されているものとしているが、入力装置12(ビデオカメラ)によって撮影された動画像データを対象とすることも可能である。この場合、入力装置12から入力される動画像データと関連する画像、例えば予め同じ範囲で撮影された画像を参照画像として、背景色を削除した参照ヒストグラムの作成を行っておくものとする。
【0076】
また、上述した実施形態において記載した手法は、コンピュータに実行させることのできるプログラムとして、例えば磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリなどの記録媒体に書き込んで各種装置に提供することができる。また、通信媒体により伝送して各種装置に提供することも可能である。本装置を実現するコンピュータは、記録媒体に記録されたプログラムを読み込み、または通信媒体を介してプログラムを受信し、このプログラムによって動作が制御されることにより、上述した処理を実行する。
【0077】
また、本願発明は、前述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。更に、前記実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件から幾つかの構成要件が削除されても効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
【0078】
【発明の効果】
以上詳述したように本発明によれば、動画像の背景色を推定し、推定された背景色を除いて対象動物体の参照領域の色ヒストグラムである参照ヒストグラムを作成し、参照ヒストグラムを用いて色ヒストグラムマッチングによって対象動物体を追跡することによって、画像間での変化をAffine変換で近似できず、追跡対象領域が小さな対象動物体でも、精度良く動画像中から追跡できる。
【図面の簡単な説明】
【図1】本実施形態に係わる画像処理装置の機能構成を示すブロック図。
【図2】本発明の第1実施形態における画像処理方法の処理の流れを示すフローチャート。
【図3】背景色の推定方法を説明するための図。
【図4】部分背景領域より背景色を推定する方法を説明するための図。
【図5】マニュアル操作により背景色を指定する方法を説明するための図。
【図6】参照物体領域が設定された参照画像の一例を示す図。
【図7】背景色を除いた参照ヒストグラムの作成方法を示す図。
【図8】第2実施形態の画像処理方法の処理の流れを示すフローチャート。
【図9】物体領域重心への位置補正方法を説明するための図。
【図10】Affine変換推定を用いた物体追跡手法を示す図。
【図11】色ヒストグラムを用いた物体追跡手法の処理対象とする参照画像の一例を示す図。
【図12】RGB色空間を表す図。
【符号の説明】
10…画像処理部、12…入力装置、14…表示装置、16…記憶装置、20…背景色推定部、21…参照ヒストグラム作成部、22…探索領域設定部、23…処理画像ヒストグラム生成部、24…追跡処理部、25…位置補正部、26…追跡結果出力部、30…参照物体領域、32…部分背景領域、34…ポインタ、36…背景指定領域、38…参照物体領域、40…矩形の対象動物体領域、42…対象動物体位置、44…物体領域、46…物体領域の重心位置。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing method and an image processing apparatus for tracking a target moving object in a moving image.
[0002]
[Prior art]
The technology for tracking a target moving object in a moving image is used in a monitoring system that tracks and detects a car or a suspicious person in the moving image. In addition, this technique is to add related information (name, price, etc.) to a certain object in a moving image in advance, and point the user to this object in the moving image displayed on the screen using a mouse or the like. It is used for specifying an anchor area for producing a video in which related information is presented on a screen. This allows the user to click on the clock worn by the actor with a mouse while watching a TV drama to purchase by Internet shopping, to display the profile of a desired player during a sports game, It is also possible to analyze the movement of players and apply it to team strategy analysis and the like.
[0003]
As one of the specific algorithms of the tracking technology of the target moving object in the moving image, there is an object tracking method using Affine transform estimation (for example, see Patent Document 1). This is a method of estimating an Affine parameter representing the Affine transformation and tracking the object, assuming that the movement / deformation of the target moving object between frames is an Affine transformation. This method will be described with reference to FIG.
[0004]
A reference object region is specified for the reference image by a user's manual input, and only a finite number of feature points (tracking points) effective for tracking are selected as shown in FIG. The feature point selection is performed, for example, as follows. First, feature point candidates are arranged in a grid at intervals determined in the reference object region, and a block (for example, 8 × 8 pixels) of a predetermined size is determined centering on the feature point candidates. Then, block matching is performed in the surrounding region around the feature point candidate, and the similarity obtained by performing block matching with the surrounding region is low, that is, a block matching error ( A feature point candidate that is determined to be unlikely to cause tracking error) is selected.
[0005]
Subsequently, as shown in FIG. 10B, block matching is performed between the block centered on the feature points arranged in the reference image and the processed image, and a motion vector is estimated. Generally, these movement vectors include outliers. Therefore, the Affine parameter representing the transformation of the object is estimated by the robust estimation, and the Affine transformation is performed on the reference object region using the Affine parameter. As a result, as shown in FIG. 10C, the position and shape of the target moving object region in the processed image can be estimated.
[0006]
There is also an algorithm for estimating a region corresponding to a reference object region from a processed image using a color histogram (for example, see Non-Patent Document 1). In this method, a color histogram in a reference object region is used as a feature amount for matching, and an object position is detected by comparing the color histogram with a color histogram of a processed image.
[0007]
First, as shown in FIG. 11, a
[0008]
(Equation 1)
[0009]
Next, a normalized histogram is created by dividing each color histogram element shown in the following equation (3) by the total number of pixels.
[0010]
(Equation 2)
[0011]
That is, the total number of pixels in the reference object area is normalized to 1.0. This equation (3) is used as a reference histogram representing the color histogram of the reference object area.
[0012]
Subsequently, a candidate object area is set within the search range in the processed image, and a candidate histogram is created in the same manner (formula (4) shown below). As a measure for measuring the degree of matching between histograms, a histogram intersection S represented by the following equation (5) is used. HM Is used.
[0013]
[Equation 3]
[0014]
Histogram intersection S HM Takes a value from 0 to 1 because the histogram is normalized, searches for a candidate object region having a candidate histogram with the maximum similarity in the search range in the processed image, and Output as the destination of
[0015]
[Patent Document 1]
JP 2001-132591 A
[0016]
[Patent Document 2]
Michael J. et al. Swain, Dana H .; Ballard, "Color Indexing," International Journal of Computer Vision, vol. 7, no. 1, pp. 11-32, 1991.
[0017]
[Problems to be solved by the invention]
However, in the object tracking method using the Affine transform estimation, since the deformation and tracking of the target moving object are performed using the estimated Affine parameters, the change from the target moving object in the reference image to the target moving object in the processed image is an Affine transform. If the approximation cannot be performed, correct tracking cannot be performed. In addition, since the object is tracked using a plurality of block matchings, the tracking area has to have a certain size.
[0018]
On the other hand, in the object tracking method using the color histogram, tracking is performed using the color histogram in the target area, so tracking is performed even if a large change occurs in the shape unless there is a large change in the color component of the target moving object Can be tracked even if the tracking area is a small area. However, in general, when specifying a reference object area, a color histogram reflecting color components other than the target moving object is created as a reference histogram because a rectangular area or an elliptical area is specified, and tracking accuracy is reduced. Had a problem.
[0019]
The present invention has been made in view of the above-described circumstances, and it is possible to accurately track a target moving object in which a change between images cannot be approximated by the Affine transform and a tracking target area is small from a moving image with high accuracy. An object of the present invention is to provide a possible image processing method and image processing apparatus.
[0020]
[Means for Solving the Problems]
The present invention relates to an image processing method for tracking a target moving object in a moving image, wherein a background color estimating step of estimating a background color of the moving image; and a target moving object excluding the background color estimated in the background color estimating step. A reference histogram creating step of creating a reference histogram, which is a color histogram of the reference region, and a tracking processing step of tracking the target moving object by color histogram matching using the reference histogram created by the reference histogram creating step. .
[0021]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a functional configuration of the image processing apparatus according to the present embodiment. The image processing apparatus according to the present embodiment is realized by a computer that reads an image processing program recorded on a recording medium such as a semiconductor memory, a CD-ROM, a DVD, and a magnetic disk, and whose operation is controlled by the image processing program. . The image processing apparatus according to the present embodiment executes image processing for tracking a target moving object in a moving image. The target moving object in the moving image includes, for example, an actor in a moving image of a TV drama, a player or a ball in a moving image of a sport, a car or a suspicious person in a moving image shot in a monitoring system, and the like.
[0022]
As shown in FIG. 1, the image processing apparatus according to the present embodiment includes an
[0023]
The
[0024]
The
[0025]
The background
[0026]
The reference
[0027]
The search
[0028]
The processed image
[0029]
The
[0030]
The
[0031]
The tracking
[0032]
The
[0033]
The
[0034]
The
[0035]
(1st Embodiment)
In the first embodiment, a reference histogram corresponding to a target moving object in consideration of a background color is created based on a reference image, and the target moving object in a processed image (moving image) is tracked using the reference histogram.
[0036]
FIG. 2 is a flowchart illustrating a flow of processing of the image processing method according to the first embodiment.
In FIG. 2, a step A1 is a background color estimation step of estimating a background color of a moving image (reference image), and a step A2 creates a reference histogram which is a color histogram of a reference region of a target moving object excluding the estimated background color. Step A3 is a tracking processing step of tracking a target moving object by color histogram matching using the reference histogram, and Step A4 is setting a candidate of a region corresponding to the target moving object in a moving image (processed image). Step A5 is a processing image histogram generation step of generating a color histogram for an area corresponding to the target moving object.
[0037]
First, before starting the tracking of the target moving object in the moving image, in the background color estimating step by the background
[0038]
The technology for tracking a small target moving object is mainly applied to tracking of a player or a ball in a sports image and monitoring of a car, a suspicious person, and the like. For example, in a moving image obtained by photographing a state of soccer as shown in FIG. 3A, an area occupying a large part of the image has a soccer field lawn color. Similarly, in the case of monitoring a vehicle on a road, the color of the road surface occupies a large part of the image. In such a case, the background
[0039]
(1) average color of all pixels in the screen,
(2) intermediate color (median) of all pixels in the screen,
(3) A color histogram within the screen is obtained, and the color having the highest frequency (the most frequent color) is obtained.
[0040]
Note that which method is used to estimate the background color may be set in advance by any method, or may be set in accordance with an instruction input from the
[0041]
When a single color occupies a large portion of the background in an image such as a soccer field, the above-described methods (1) to (3) can be used. When an image that does not occupy is targeted, a background color can also be estimated for a limited partial background region in the image as follows.
[0042]
First, a reference object area including a target moving object to be tracked is set from the reference image. The reference object area may be set by, for example, setting a rectangular area or an elliptical area by a user's manual operation using the input device 12 (mouse or the like) in the reference image, or by a background difference method or an inter-frame difference method. The reference object region may be automatically generated using image processing.
[0043]
FIG. 4 shows an example in which a
[0044]
Further, the user inputs a designation of a position to be referred to in estimating the background color by a manual operation using the input device 12 (mouse or the like) in the reference image, and estimates the background color based on the designated position. You can also.
[0045]
In FIG. 5, the reference image is used for estimating the background color by moving the
[0046]
The background
[0047]
As shown in FIG. 5, in addition to setting the background designation area 36, it is also possible to specify a point in the reference image by a manual operation by the user to determine the background color. In this case, the background
[0048]
In this way, by setting an area (or position) effective for estimating the background color, even if the background color in the reference image is not uniform (a certain single color does not occupy much), the reference histogram in the subsequent stage is used. Can be determined from the reference image at the time of creation. For example, if there are many places in the soccer video where the turf of the soccer field has peeled off, the colors of the turf and the soil are mixed, or there is a case where there is a sunlit part and a shaded part Can be.
[0049]
Next, in the reference histogram creation step by the reference
[0050]
For example, the reference
[0051]
The reference
[0052]
As a result, the reference histogram becomes a color histogram having only the color component of the small object to be tracked, so that even when the target moving object moves to a region having a different background color, it is possible to track with high accuracy.
[0053]
The color histograms shown in FIGS. 7 (a2) and 7 (b3) are simple histograms for the sake of simplicity. For example, the colors of shirts, pants, socks, etc. worn by a soccer player may be changed. If they are different, a histogram is obtained in which peaks appear in colors corresponding to the respective portions.
[0054]
Next, in the tracking processing step by the tracking
[0055]
For this purpose, first, in a search area setting step by the search
[0056]
The
[0057]
Here, as a scale for measuring the degree of matching between the reference histogram and the candidate histogram, the histogram intersection S HM (See the description of the prior art).
[0058]
When a plurality of candidate object regions are set by the search
[0059]
When displaying a moving image (processed image) on the
[0060]
By continuously performing the above processing on the processed image, the target moving object in the moving image can be tracked.
[0061]
In this manner, by performing color histogram matching using the reference histogram created by removing the background color of the moving image, the change between images cannot be approximated by the Affine transform, and the target moving object having a small tracking target area However, it is possible to track a moving image with high accuracy.
[0062]
(2nd Embodiment)
In the second embodiment, a process of blur correction in the time direction due to the movement to the physical center of gravity is added to the image processing in the above-described first embodiment.
[0063]
FIG. 8 is a flowchart showing the flow of processing of the image processing method according to the second embodiment of the present invention.
[0064]
In FIG. 8, step B1 is a background color estimation step of estimating the background color of the moving image, and step B2 is a reference histogram creation for creating a reference histogram which is a color histogram of the reference area of the target moving object excluding the estimated background color. Step B3 is a tracking processing step of outputting the target moving object position by color histogram matching using the reference histogram, and Step B4 is moving the output target moving object position to the center of gravity of the object area of the target moving object to correct the position. Step B5 is a search area setting step of setting a candidate for an area corresponding to a target moving object in a moving image (processed image), and Step B6 is a step of generating a color histogram for an area corresponding to the target moving object. This is a process of generating a processed image histogram.
[0065]
The background color estimation step, the reference histogram creation step, the tracking processing step, the search area setting step, and the processed image histogram generation step perform the processing as described in the above-described first embodiment. Detailed description will be omitted as the object position is output.
[0066]
In the position correcting step by the
[0067]
The tracking of a small object using the color histogram described in the first embodiment does not use the appearance or pattern information of the target object, but uses the ratio of the color components, that is, the tracking using only the color histogram. It is possible to track even when the shape of the region changes greatly. However, since the shape information of the object area is not used at all in the tracking process, there is a case where the tracking result is slightly blurred when viewed in the time direction.
[0068]
For example, when tracking is performed by a color histogram using a rectangular object region, the target moving
[0069]
The object region of the target moving object can be obtained as the following (1) to (3).
(1) An area obtained by removing the background color from the tracking area (rectangle or ellipse) set at the target moving object position,
(2) A histogram within the tracking area is taken, and a set of pixels having the most frequent colors is obtained.
(3) An area having a color included in the reference histogram at a certain frequency or higher.
[0070]
Note that which of (1) to (3) is set as the object area may be set in advance, or may be set according to an instruction input from the
[0071]
For example, when the target moving object region is obtained by removing the background color (the above-described region (1)), the region becomes a
[0072]
When displaying a moving image (processed image) on the
[0073]
As described above, by moving the target moving object position to the center of gravity of the object area of the target moving object and performing position correction, minute blurring in the time direction caused by tracking by the color histogram is reduced, and tracking accuracy is improved. It is possible to increase.
[0074]
In the above description, tracking is performed for one target moving object in a moving image. However, tracking of a plurality of target moving objects may be performed in parallel. In this case, the same processing may be performed for each target moving object.
[0075]
In the above description, the processing image data (moving image data including the target moving object) is stored in the
[0076]
In addition, the method described in the above-described embodiment can be executed on a recording medium such as a magnetic disk (flexible disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), a semiconductor memory, etc. It can be written and provided to various devices. Further, it is also possible to transmit the data via a communication medium and provide the data to various devices. A computer that realizes the present apparatus reads the program recorded on the recording medium or receives the program via the communication medium, and executes the above-described processing by controlling the operation of the program.
[0077]
Further, the present invention is not limited to the above-described embodiment, and can be variously modified in an implementation stage without departing from the gist of the invention. Furthermore, the embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, in a case where an effect can be obtained even if some components are deleted from all the components shown in the embodiment, a configuration in which the components are deleted can be extracted as an invention.
[0078]
【The invention's effect】
As described in detail above, according to the present invention, a background color of a moving image is estimated, a reference histogram which is a color histogram of a reference region of the target moving object is created by removing the estimated background color, and the reference histogram is used. By tracking the target moving object by color histogram matching, changes between images cannot be approximated by the Affine transform, and even a target moving object with a small tracking target area can be accurately tracked from within a moving image.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a functional configuration of an image processing apparatus according to an embodiment.
FIG. 2 is a flowchart illustrating a flow of processing of an image processing method according to the first embodiment of the present invention.
FIG. 3 is a diagram for explaining a method of estimating a background color.
FIG. 4 is a view for explaining a method of estimating a background color from a partial background area.
FIG. 5 is a view for explaining a method of designating a background color by a manual operation.
FIG. 6 is a diagram illustrating an example of a reference image in which a reference object area is set.
FIG. 7 is a diagram showing a method of creating a reference histogram excluding a background color.
FIG. 8 is a flowchart illustrating a flow of processing of an image processing method according to a second embodiment.
FIG. 9 is a diagram for explaining a method for correcting a position to the center of gravity of an object region.
FIG. 10 is a diagram showing an object tracking method using Affine transform estimation.
FIG. 11 is a diagram showing an example of a reference image to be processed by an object tracking method using a color histogram.
FIG. 12 is a diagram illustrating an RGB color space.
[Explanation of symbols]
DESCRIPTION OF
Claims (6)
動画像の背景色を推定する背景色推定工程と、
前記背景色推定工程によって推定された背景色を除いた対象動物体の参照領域の色ヒストグラムである参照ヒストグラムを作成する参照ヒストグラム作成工程と、
前記参照ヒストグラム作成工程によって作成された参照ヒストグラムを用いて、色ヒストグラムマッチングによって対象動物体を追跡する追跡処理工程とを備えることを特徴とする画像処理方法。In an image processing method for tracking a target moving object in a moving image,
A background color estimation step of estimating the background color of the moving image;
A reference histogram creation step of creating a reference histogram that is a color histogram of a reference area of the target moving object excluding the background color estimated by the background color estimation step,
A tracking processing step of tracking a target moving object by color histogram matching using the reference histogram created in the reference histogram creating step.
前記動画像に含まれる参照画像中の対象動物体に該当する参照領域を設定する工程と、
前記参照領域の近傍領域である部分背景領域の色情報から背景色を推定する工程とを有する特徴とする請求項1記載の画像処理方法。In the background color estimation step,
A step of setting a reference region corresponding to the target moving object in the reference image included in the moving image,
2. The method according to claim 1, further comprising estimating a background color from color information of a partial background area that is a neighborhood area of the reference area.
前記動画像に含まれる参照画像に対する位置の指定を入力する工程と、
この工程により入力した位置の画像値に基づいて背景色を推定する工程とを有することを特徴とする請求項1記載の画像処理方法。In the background color estimation step,
Inputting designation of a position with respect to a reference image included in the moving image,
A step of estimating a background color based on the image value at the position input in this step.
動画像の背景色を推定する背景色推定手段と、
前記背景色推定手段によって推定された背景色を除いた対象動物体の参照領域の色ヒストグラムである参照ヒストグラムを作成する参照ヒストグラム作成手段と、
前記参照ヒストグラム作成手段によって作成された参照ヒストグラムを用いて、色ヒストグラムマッチングによって対象動物体を追跡する追跡処理手段と
を備えることを特徴とする画像処理装置。In an image processing device that tracks a target moving object in a moving image,
Background color estimation means for estimating the background color of the moving image;
Reference histogram creating means for creating a reference histogram which is a color histogram of the reference area of the target moving object excluding the background color estimated by the background color estimating means,
An image processing apparatus comprising: a tracking processing unit that tracks a target moving object by color histogram matching using the reference histogram created by the reference histogram creating unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003043029A JP2004252748A (en) | 2003-02-20 | 2003-02-20 | Image processing method and image processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003043029A JP2004252748A (en) | 2003-02-20 | 2003-02-20 | Image processing method and image processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004252748A true JP2004252748A (en) | 2004-09-09 |
Family
ID=33026148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003043029A Pending JP2004252748A (en) | 2003-02-20 | 2003-02-20 | Image processing method and image processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004252748A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006154164A (en) * | 2004-11-29 | 2006-06-15 | Casio Hitachi Mobile Communications Co Ltd | Portable terminal and method for reproducing moving image |
JP2006185109A (en) * | 2004-12-27 | 2006-07-13 | Hitachi Ltd | Image measurement device and image measurement method |
JP2008191906A (en) * | 2007-02-05 | 2008-08-21 | Fujitsu Ltd | Telop character extraction program, storage medium, method and device |
WO2009125596A1 (en) | 2008-04-11 | 2009-10-15 | パナソニック株式会社 | Image processing apparatus, method, and storage medium |
JP2010501440A (en) * | 2006-08-25 | 2010-01-21 | オーチス エレベータ カンパニー | Passenger indexing system that anonymously tracks security protection in destination-registered vehicle dispatch |
WO2011043060A1 (en) | 2009-10-07 | 2011-04-14 | パナソニック株式会社 | Device, method, program, and circuit for selecting subject to be tracked |
JP2015075920A (en) * | 2013-10-09 | 2015-04-20 | カシオ計算機株式会社 | Image processing apparatus, image processing method, and program |
CN105444888A (en) * | 2015-11-16 | 2016-03-30 | 青岛市光电工程技术研究院 | Chromatic aberration compensation method of hyperspectral imaging system |
CN106303195A (en) * | 2015-05-28 | 2017-01-04 | 中兴通讯股份有限公司 | Capture apparatus and track up method and system |
-
2003
- 2003-02-20 JP JP2003043029A patent/JP2004252748A/en active Pending
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006154164A (en) * | 2004-11-29 | 2006-06-15 | Casio Hitachi Mobile Communications Co Ltd | Portable terminal and method for reproducing moving image |
JP2006185109A (en) * | 2004-12-27 | 2006-07-13 | Hitachi Ltd | Image measurement device and image measurement method |
JP2010501440A (en) * | 2006-08-25 | 2010-01-21 | オーチス エレベータ カンパニー | Passenger indexing system that anonymously tracks security protection in destination-registered vehicle dispatch |
JP2008191906A (en) * | 2007-02-05 | 2008-08-21 | Fujitsu Ltd | Telop character extraction program, storage medium, method and device |
JP5210318B2 (en) * | 2008-04-11 | 2013-06-12 | パナソニック株式会社 | Image processing apparatus, method, and storage medium |
EP2151801A1 (en) * | 2008-04-11 | 2010-02-10 | Panasonic Corporation | Image processing apparatus, method, and storage medium |
US8089548B2 (en) | 2008-04-11 | 2012-01-03 | Panasonic Corporation | Image processing device, method, and storage medium |
WO2009125596A1 (en) | 2008-04-11 | 2009-10-15 | パナソニック株式会社 | Image processing apparatus, method, and storage medium |
EP2151801A4 (en) * | 2008-04-11 | 2014-08-20 | Panasonic Ip Corp America | Image processing apparatus, method, and storage medium |
WO2011043060A1 (en) | 2009-10-07 | 2011-04-14 | パナソニック株式会社 | Device, method, program, and circuit for selecting subject to be tracked |
US8432357B2 (en) | 2009-10-07 | 2013-04-30 | Panasonic Corporation | Tracking object selection apparatus, method, program and circuit |
JP2015075920A (en) * | 2013-10-09 | 2015-04-20 | カシオ計算機株式会社 | Image processing apparatus, image processing method, and program |
US9679386B2 (en) | 2013-10-09 | 2017-06-13 | Casio Computer Co., Ltd. | Image processing device capable of segmenting an image into plural areas |
CN106303195A (en) * | 2015-05-28 | 2017-01-04 | 中兴通讯股份有限公司 | Capture apparatus and track up method and system |
CN105444888A (en) * | 2015-11-16 | 2016-03-30 | 青岛市光电工程技术研究院 | Chromatic aberration compensation method of hyperspectral imaging system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11594029B2 (en) | Methods and systems for determining ball shot attempt location on ball court | |
US9437012B2 (en) | Multiple-object tracking and team identification for game strategy analysis | |
EP2320379B1 (en) | Image processing device, object tracking device, and image processing method | |
EP2685425B1 (en) | Object tracking device, object tracking method, and control program | |
EP3668093B1 (en) | Method, system and apparatus for capture of image data for free viewpoint video | |
US10957068B2 (en) | Information processing apparatus and method of controlling the same | |
US20130335635A1 (en) | Video Analysis Based on Sparse Registration and Multiple Domain Tracking | |
Ghanem et al. | Robust video registration applied to field-sports video analysis | |
JP6924932B2 (en) | Mobile tracking methods, mobile tracking devices, and programs | |
US20090290753A1 (en) | Method and system for gaze estimation | |
JP2009064445A (en) | Image processor and method | |
JP2009077394A (en) | Communication system and communication method | |
JP2009505553A (en) | System and method for managing the insertion of visual effects into a video stream | |
US20190172184A1 (en) | Method of video stabilization using background subtraction | |
JP3836814B2 (en) | Image processing method, image processing apparatus, and image processing program | |
KR101341871B1 (en) | Method for deblurring video and apparatus thereof | |
JP2004252748A (en) | Image processing method and image processor | |
Rozumnyi et al. | Sub-frame appearance and 6d pose estimation of fast moving objects | |
Hasegawa et al. | Synthesis of a stroboscopic image from a hand-held camera sequence for a sports analysis | |
JP2003006654A (en) | Method and device for extracting feature amount of moving object in moving image and method and device for automatically tracking moving object in moving image, program for executing the method and recording medium with the program recorded thereon | |
JP2020107071A (en) | Object tracking device and program thereof | |
JP6456244B2 (en) | Camera calibration method and apparatus | |
Liang et al. | Video2Cartoon: A system for converting broadcast soccer video into 3D cartoon animation | |
JP2020181268A (en) | Body homologizing device, body homologizing system, body homologizing method, and computer program | |
Zhang et al. | Representation of the player action in sport videos |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050905 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051018 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051116 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060110 |