JP4849464B2 - フレームシーケンス中のオブジェクトを追跡するコンピュータ化された方法 - Google Patents

フレームシーケンス中のオブジェクトを追跡するコンピュータ化された方法 Download PDF

Info

Publication number
JP4849464B2
JP4849464B2 JP2006347180A JP2006347180A JP4849464B2 JP 4849464 B2 JP4849464 B2 JP 4849464B2 JP 2006347180 A JP2006347180 A JP 2006347180A JP 2006347180 A JP2006347180 A JP 2006347180A JP 4849464 B2 JP4849464 B2 JP 4849464B2
Authority
JP
Japan
Prior art keywords
covariance matrix
model
distance
feature
covariance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006347180A
Other languages
English (en)
Other versions
JP2007213560A (ja
Inventor
ファティー・エム・ポリクリ
オンセル・チュゼル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2007213560A publication Critical patent/JP2007213560A/ja
Application granted granted Critical
Publication of JP4849464B2 publication Critical patent/JP4849464B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本発明は、包括的にはコンピュータビジョンに関し、特にビデオのオブジェクト追跡に関する。
フレームシーケンス又はビデオでは、フレーム毎にオブジェクト特徴の対応性を突き止めることによってオブジェクトを追跡することができる。しかし、非剛直であり変形し、高速で移動するオブジェクトを正確に追跡することは依然として課題である。
追跡は、平均値シフト演算子を使用して行うことができる(D. Comaniciu、V. Ramesh、及びP. Meer著「Real-time tracking of non-rigid objects using mean shift」(Proc. IEEE Conf. on Computer Vision and Pattern Recognition, vol. 1, pages 142-149, 2000))。非パラメトリック密度勾配推定量を使用して、所与のカラーヒストグラムに最も類似するオブジェクトを追跡する。この方法は、正確な位置特定を提供する。しかし、この方法では、連続フレーム中のオブジェクトの位置がいくらか重複している必要があり、これは、高速で移動するオブジェクトの場合に当てはまらない。
追跡は、その瞬間までのすべての測定が与えられた上でのオブジェクトの状態の推定と見なすこともできる。これは、オブジェクト位置の確率密度関数(pdf)を構築することに等しい。最適解は、連続した予測ステップ及び更新ステップで問題を解く再帰ベイジアンフィルタによって提供される。
測定ノイズが正規分布すると仮定すると、多くの場合に剛直オブジェクトの追跡に使用されるカルマンフィルタによって、1つの解が提供される(Y. Boykov及びD. Huttenlocher著「Adaptive Bayesian recognition in tracking rigid objects」(Proc. IEEE Conf. on Computer Vision and Pattern Recognition, vol. 2, pages 697-704, 2000)並びにR. Rosales及びS. Sclarroff著「A framework for heading-guided recognition of human activity」(Computer Vision and Image Understanding, vol. 91, pages 335-367, 2003))。カルマンフィルタは、動き特性の「粘性(viscosity)」を制御する予め規定された状態遷移パラメータに制限される。
状態空間が離散型であり、有限数の状態からなる場合には、マルコフフィルタをオブジェクト追跡のために適用することができる。フィルタの最も一般的な種類は、モンテカルロ積分法に基づいた粒子フィルタによって表される。特定の状態の現密度が、関連する重みを有する無作為標本セットによって表される。次いで、新たな密度が重み付き標本に基づく。
粒子フィルタは、視覚追跡及び認証のために条件付き密度伝搬の復元に使用することができる。一般に、粒子フィルタ法は、無作為抽出に基づき、これは、標本の退化及び疲弊により、特に高次元問題の場合に問題である。カーネルベースのベイジアンフィルタを使用して、状態空間をより効率的に標本抽出することができる。多重仮説フィルタが、移動中のオブジェクトが特定の測定シーケンスを生じさせる確率を求める。
問題として、上述したフィルタベースの方法は、すべて、局所最適で行き詰まり易い可能性がある。別の懸案事項として、大半の従来技術による方法は、統計的特性及び空間的特性の両方を表す適当な類似性基準を欠く。大半の従来技術による方法は、色分布のみ又は構造モデルのみのいずれか一方に依存する。
集合統計からアピアランスモデルまで、多くの異なる表現法が、オブジェクト追跡に使用されてきた。ヒストグラムが、正規化されたヒストグラムがモデリングされるデータの確率密度関数によく似ているため普及している。しかし、ヒストグラムは、特徴値の空間配置を考慮しない。たとえば、観測窓のピクセルの配置を無作為に変えても、同じヒストグラムがもたらされる。さらに、少数のピクセルを使用して、より高次元のヒストグラムを構築することが大きな問題である。
アピアランスモデルは、形状及びテクスチャ等の画像の特徴を均等サイズのテンソル窓に写像する。指数的な複雑さにより、比較的少数の特徴しか使用することができない。このため、各特徴は、高度に差別的でなければならない。特徴の信頼性は、厳密にオブジェクトタイプに依存する。アピアランスモデルは、スケールのばらつきに非常に敏感である傾向を有し、ポーズにも依存する。
したがって、ビデオ中のオブジェクトを追跡する、よりよい方法を提供することが望まれる。
本発明の1つの実施の形態は、ビデオのフレームシーケンス中の非剛直オブジェクトを追跡する方法を提供する。オブジェクトの特徴がビデオから抽出される。特徴は、ピクセル位置及びピクセル特性を含む。特徴を使用して、共分散行列を構築する。追跡のために、共分散行列をオブジェクトの記述子として使用する。
共分散行列は、オブジェクトの空間的特性及び統計的特性の両方を表すとともに、同じ表現内の相関も表す。共分散行列は、異なるタイプの特徴及び様式を効率的に融合できるようにする。共分散行列の次元は、従来技術のヒストグラムと比べて比較的低い。
従来技術による方法と異なり、追跡対象オブジェクトの動き又は位置についての仮定は行われない。さらに、この方法は、事後確率関数の推定に制限されない。それに代えて、この方法は、大域最適解を提供するとともに、対応性問題を大幅に単純化する。
オブジェクトの変形及び外観変化は、リー代数平均化に基づく更新メカニズムを使用して管理される。
共分散に基づく追跡は、平均して、高速移動オブジェクトの場合であってさえも略完全な検出率を実現しながら、非静止カメラシーケンス中の非剛直の移動オブジェクトを正確に検出することが可能である。
共分散ベースのオブジェクト追跡
図1は、本発明の1つの実施の形態による、カメラ103によって得られたフレームシーケンス102又はビデオの移動オブジェクト101を追跡する方法100のステップを示す。図示するステップは、フレーム102毎に繰り返される。オブジェクト101のモデル104を有するものと想定する。モデルは、本明細書において述べるように構築される共分散行列の形である。初期モデルは、たとえば、手動又は自動のオブジェクト位置特定手段を使用して、最初のフレームにおいてオブジェクトを位置特定することによって得ることができる。その後、本明細書において述べるように、モデルをフレーム102毎に更新する(160)。
ビデオシーケンス中のフレーム102毎に、特徴画像111を構築する(110)。特徴画像111中の各種領域又は窓W112毎に、特徴ベクトルセット121を構築する(120)。特徴ベクトルセット121に対して、対応する共分散行列131が求められる(130)。共分散行列131を現モデル104の共分散行列と比較して(140)、距離141を求める。現フレームにおいて、モデル104の共分散行列から最小共分散距離201を有する領域(窓)が位置特定され、対応する領域を移動オブジェクト101の位置151として選択する(150)。移動オブジェクトの位置及び外観の変動に動的に適合するために、前の共分散行列セット161を保持し、リー代数を使用して固有の「平均」共分散行列を更新後モデルとして抽出する。後続フレームに、オブジェクトの前の位置151を使用して候補領域(窓)セットを求め(180)、特徴ベクトルを構築する。
これより、本発明の実施の形態について詳細に説明する。
特徴抽出
Iを2次元ピクセル画像又はフレーム102として示す。各ピクセルは、位置(x,y)及び強度を有する。カラー画像の場合、各ピクセルは、3つの強度(RGB)を有する。本発明の1つの実施の形態による方法は、他のタイプの画像、たとえば、マルチスペクトル画像に向けて一般化することができる。
画像I(102)から、
F(x,y)=Φ(I,x,y)
に従ってM×N×d次元特徴画像111を抽出する(110)。但し、M及びNは、入力画像次元であり、関数Φは、色、画像勾配、エッジの大きさ、エッジの向き、フィルタ応答等の任意の特徴写像であってよい。特徴は、より高次の導関数、テクスチャスコア、及び時間フレーム差、たとえば、動きベクトルを含むように拡張することが可能である。
次に、特徴画像111中の窓セット112を調べる。窓セットは、前のフレームから求められるオブジェクトの外観、サイズ、向き、位置、速度、及び方向を考慮して、オブジェクトの現位置の最良推定に従って選択することができる。
セット中のk個の窓W112又は領域毎に、d次元特徴ベクトル{f}121(k=1,…,n)を構築する(120)。2つのタイプの属性写像、すなわち、空間写像及び外観写像を使用して、特徴ベクトル{f}121を構築する(120)。空間的属性は、ピクセル座標(x,y)から得られ、外観属性は、色、勾配、エッジ、フィルタ応答等を含むことができる。特徴121を下式のピクセル座標に直接関連付けることができる。
Figure 0004849464
別法として、特徴は、下式で表される軸に対して鏡像対称であると考えることができる。
Figure 0004849464
上式において、(x’,y’)=(x−x,y−y)は相対座標であり、(x,y)は窓112の中心の座標である。下式で表される対称半径方向関係の観点から特徴ベクトルを指定することも可能である。
Figure 0004849464
上式において、‖(x’,y’)‖は、下式で表される。
Figure 0004849464
空間的属性と外観属性との間の異なる関連付けにより、異なるブレンド規則を付与することが可能になる。たとえば、特徴ベクトルfは、窓の原点(x’,y’)を基準としたオブジェクト回転の影響を受けやすいアピアランスモデルとして普及している一方で、半径方向特徴ベクトルf は、特徴のポーズ及び回転に対して不変の空間フォーメーションを提供する。
共分散行列の構築
各窓112の特徴ベクトル121毎に、対応する共分散行列C131を求める(130)。共分散行列は、2つの変数がどれくらい共に変わるかについての測度である。共分散は、それぞれの平均から同じ方向に異なる各対の値については、より正になり、それぞれの平均から逆方向に異なる各対の値については、より負になる。
したがって、特徴の各窓W112をピクセル特徴のd×d共分散行列C131として下式のように表す。
Figure 0004849464
式中、mμは、領域又は窓W112内のピクセルの対応する特徴の平均のベクトルであり、M及びNは入力画像次元であり、Tは転置演算子である。
上記定義によれば、共分散行列は、対称行列である。行列の対角成分は、各特徴の分散を表し、非対角成分は、特徴の各相関を表す。行列C131は、単一の窓又は領域内の複数の特徴の共分散を表す。
共分散行列をオブジェクトモデルとして使用することには、いくつかの利点がある。共分散行列は、特徴を正規化することなく、又はブレンド重みを使用することなく複数の特徴を融合させる自然な方法を提供する。共分散行列は、従来技術によるヒストグラム内に埋めこまれる情報と同じ情報及びアピアランスモデルから導出することができる情報を具現する。
単一の共分散行列が、通常、オブジェクト102の異なるビュー及びポーズでの他の窓121の共分散行列セット131と比較する(140)のに十分である。個々のピクセル標本を損なうノイズは、大方、共分散行列セットが求められる(130)ときに平均化によってフィルタリングされる。すべての共分散行列は、同じサイズ(d×d)を有する。
したがって、異なるサイズの異なる領域の行列を、一定サイズの領域に限定することなく、直接比較することができる。実際に、共分散行列は、画像勾配及び向き等の特徴が異なるスケールで抽出される場合、異なる画像内の諸領域にわたって、固有のスケールに対して不変の特性を有する。上述したように、共分散行列は、回転に対して不変であることができる。それにも関わらず、ピクセルの向きに関する情報が特徴ベクトル121内に埋め込まれている場合には、回転差異を検出することが可能である。
したがって、共分散行列を移動オブジェクトの優れたモデルとして考える。
共分散行列構築についての完全な説明が、Porikli他により2005年12月14日に出願された米国特許出願第11/305,427号「Method for Constructing Covariance Matrices from Data Features」に与えられている。
共分散行列の他に、(d×1)特徴平均ベクトルμ175も計算する。図3を参照願いたい。このベクトルμの各要素は、窓内の対応する特徴の平均値である。
領域の比較
フレーム102中の移動オブジェクト101を追跡するために、各フレーム102中の様々な窓112の共分散行列セット131をオブジェクト102の本発明の「現」モデル104の共分散行列と比較して(140)、距離141を得る。最小距離をオブジェクト101の現位置151として選択する(150)。モデルの共分散行列104は、後述するようにオブジェクトが追跡される際にフレーム毎に更新する(160)ことができる。
移動オブジェクト101の、現フレーム中で最も類似する領域を得るために、現フレームからの共分散行列セット131とオブジェクトモデル共分散行列104との間の「距離」141を測定する(140)。
しかし、共分散行列は、ユークリッド空間にない。たとえば、空間は、負のスカラーとの乗算下で閉じない。すなわち、2つの共分散行列の単純な算術減算では、対応する領域の差異は測定されない。
共分散行列は、正定値又は半正値のいずれかである。特徴ベクトルの特徴がまったく同一である、すなわち、共分散行列が対称正定値である場合、Forstner他著「A metric for covariance matrices」(Technical report, Dept. of Geodesy and Geoinformatics, Stuttgart University, 1999)に説明されている距離測定を適用することが可能であり、これを参照して本明細書に援用する。その行列は、固有値の対数平方和を使用して、下式として共分散行列間の差異すなわち「距離」141を求める。
Figure 0004849464
式中、{λ(C,C)}は、行列C及びCの一般化された固有値であり、下式から求められる。
Figure 0004849464
式中、xは、一般化された固有ベクトルである。対数により、偏差が因子として測定されることが保証され、平方により、偏差因子が等しく評価されることが保証される。
距離測定値D141は、正定値対称行列C及びCの距離公理を満たす。さらに、共分散は、色値の同一スケーリング等、平均変化に対して不変である。これは、照明条件が変化する中で、オブジェクトが追跡される場合に有利な特性になる。照明の到達距離による外観変化は、共分散距離の他に平均距離を含めることによって検出することができる。
図2は、本発明の1つの実施の形態による、共分散行列を比較して(140)距離測定値Dを求めるステップを示す。共分散行列の比較の他に、モデルと候補領域との特徴平均ベクトル間の距離を計算する(176)。この距離は、モデル104と現窓との間の平均特徴ベクトル差のノルム‖μ−μ‖として定義される。
モデルと現窓との間の共分散距離177及び平均距離176は、両方とも、融合重みでスケーリングされて、用途固有の制約を距離関数に課す。これら重み171及び172は、共分散にどれくらいの重要度を与えるべきか、また距離関数が色変化及び照明変化等の平均差に向けてどれくらい敏感であるべきかを調整する。共分散距離177を共分散融合重み172で乗算し、特徴平均距離176を平均融合重み171で乗算した後、それぞれの和をモデルと現窓との間の距離174として割り当てる。この距離スコアは、オブジェクト173の前の位置からの現窓の空間距離も考慮する。空間距離173に関して、モデル−現窓距離スコア174は、比例して増大する。これにより、動き固有の制約を推定位置に課すことが可能になる。オブジェクトの動きを制限すべきではないような用途では、空間距離は、距離項174に含まれない。
さらなる動きベースの制約が、図3に示すように候補窓選択180に統合される。オブジェクトの動き履歴181、すなわち、オブジェクトセットの前の位置及びオブジェクト182のサイズを使用して、探索範囲が限定される。オブジェクトの動きが、線形又は非線形動きモデルに合うように制約される特定用途の場合、カルマンフィルタベースの方法を用いて現フレーム中のオブジェクトの位置を予測する(183)。オブジェクトのサイズに従って、この予測位置周囲の探索領域を定義する(184)。たとえば、探索領域は、オブジェクトの2倍の大きさの窓であってよい。次いで、特徴抽出、共分散比較、及び距離計算が、探索領域内のみの候補窓112に適用される。
動きが制約されない用途の場合、探索領域は、画像全体である。
モデル更新戦略
非剛直の移動オブジェクトは、形状、サイズ、及び外観の経時変形を受けるため、これらの変動に動的に適合する(160)ことが可能である。しかし、オブジェクト、たとえば、ボール又は車両の外観が比較的安定したままである場合、更新160ステップは、常に必要なわけではないことを理解されたい。
最近推定されたオブジェクト領域W,…,Wに対応する共分散行列161のサブセットを構築して更新する。T個の前の共分散行列のサブセット[C,…,C]を保持する。但し、Cは、現共分散行列を示す。このサブセットから、標本平均共分散行列を求める。標本平均共分散行列は、前のすべての行列を「ブレンド」してオブジェクト101の特性に類似させる。
前に検出されたすべての領域及び対応する特徴測定値が利用可能な場合、総計共分散行列104を、下式によって得ることができる。
Figure 0004849464
式中、相互共分散は、下式及びf ∈Wとして定義される。
Figure 0004849464
平均mμがすべての領域W,…,Wにわたって求められる。この式は、すべての窓が同一のサイズを有し、その影響力が等しいものと想定する。
しかし、一定の窓サイズに制限されることなく、また、すべての前の測定値を保持する必要なく、総計共分散行列を得ることが望ましい。
平均共分散行列、すなわち固有平均を求めたい。しかし、共分散行列は、ユークリッド幾何学に従わず、その結果、行列の平均をとることは、不正確であり得る。それでもなお、正定値共分散行列は、リー群構造を有するため、リーマン幾何学を使用して複数の共分散行列の平均を求めることができる。
リー群及びリー代数についての手短な概観を提供する。群とは、以下の特性を有する群演算を有する非空集合Gのことであり、A,B,C(すべて)∈Gである。
閉包: AB∈G
結合: (AB)C=A(BC)
単位元: Ae=eA=Aのようなe∈G
逆元: AA−1=A−1A=eのようなA−1∈G
リー群とは、下式に示されるような群演算の乗算、且つ逆元が微分可能写像であるような、これもまた群である解析的多様体である。
Figure 0004849464
リー群は、ベクトル空間Rと位相同形として局所的に見ることができる。したがって、任意の群要素Gの局所近傍は、その接ベクトル空間によって適宜記述することができる。群eの単位元要素での接ベクトル空間がリー代数gを形成する。リー代数gとは、リーの括弧式の下で閉じた下式で表されるベクトル空間である。
Figure 0004849464
これは以下の恒等式:
逆対称:[a,b]=−[b,a]且つ
ヤコビの恒等式:[a,[b,c]]+[b,[c,a]]+[c,[a,b]]=0
を満たす双線形演算である。
下式の指数写像は、リー代数のベクトルをリー群に写像する。
Figure 0004849464
本発明では、行列リー群に焦点を合わせる。行列の指数写像及びその逆元は、下式により定義される。
Figure 0004849464
可換群の場合、指数写像は、恒等式exp(a)exp(b)=exp(a+b)を満たす。この恒等式は、共分散行列等の非可換リー群の場合には当てはまらない。等価写像は、下式によって定義される。
Figure 0004849464
写像μ(…,…)は、下式としてベイカー・キャンベル・ハウスドルフ(Baker-Campbell-Hausdorff)の公式によって定義される。
Figure 0004849464
リー代数を使用して、共分散行列セット161の固有平均を得る。cをリー代数での要素とし、C=exp(c)をリー群、すなわち、対応する共分散行列への要素の写像とする。多様体上の距離は、多様体上の点間の最小長曲線で定義される。最小長を有する曲線は、測地線と呼ばれ、曲線の長さは、固有距離である。
群eの単位元への点Cの固有距離は、‖log(C)‖によって与えられる。群要素の逆数C−1による左乗算は、点Cをeに、またCでの接ベクトル空間をリー代数に写像する。この写像は、同形写像である。この写像を用いて、任意の2つの群要素間の固有距離を下式としてとして測定することができる。
Figure 0004849464
共分散行列161{Ct=1,…,Tが群上のデータ点として与えられると、下式の写像はデータ点をリー代数に、またCをゼロに変換する。
Figure 0004849464
リー代数は、ベクトル空間であるため、この空間での真、すなわち、固有の平均への一次近似を求める。初期行列C1から始め、固有平均への一次近似を繰り返し求めることで、群の固定点に収束する。プロセスは、下式である。
Figure 0004849464
繰り返しの終わりに、固有平均C(^)を見つける。ここで、(^)は、かっこの前の記号の上部に^が付くことを意味している。また、固有平均共分散行列C(^)を現モデル104として使用する。
後続フレーム中のオブジェクト位置を推定する場合、様々な領域の共分散行列131をモデル104の共分散行列と比較する。
上記式中、前の行列のサブセットC,…,Cを、結果が正確であるか否かにかかわらず、結果に対して等しい影響を有するものと考えた。
リー代数データ点を、前モデルへのリー群行列類似度に従って比例して重み付けることが可能である。次いで、上記プロセスの第2の「計算」ステップは、下式になる。
Figure 0004849464
式中、ρは、下式である。
Figure 0004849464
そして、Cは、前フレームに求められたモデルである。
換言すれば、最小距離C201に対応する所与の共分散行列を使用してオブジェクトモデルC104を更新する。図4を参照して、まず、行列C201を前の共分散行列の行列データセット[C,…,C]161に加える(300)。次いで、データベースの最初の行列を、一時的な固有平均共分散行列C(^)として割り当てる(301)。その逆行列を計算する(302)。上記プロセスに示したように、逆行列で乗算された対応する共分散行列の対数による写像c(但し、t=1,…,T)を計算する(303)。重み係数400を使用して、これら写像の加重和を計算する(305)。誤差項を計算し(306)、これを誤差しきい値eと比較する(307)。誤差項がしきい値よりも大きい場合、一時的な固有平均からの逆行列を割り当てることによって302に続く。誤差が小さい場合、一時的な固有平均共分散行列C(^)を更新された新しいモデルC104として割り当てる。
図5に示すように、上記重み400を割り当てるために、固有距離関数を定義し(401)、個々の距離項を計算し(402)、総距離を計算する(403)。次いで、404に示す式に従って重み400を割り当てる。
図6に示すように、最小距離に対応する現行列を前の共分散行列のデータセットに加える(300)異なる方法がある。新しい行列である現行列をデータセットに直接加えて(311)、行列数を増分する(312)。別法として、データセットに加えられた最も古い行列を除去する(321)。インデックスを更新する(322)。これらインデックスは、行列がデータセットに加えられた時間を示す。次いで、最新の構成要素として、現行列を加える(323)。
発明の効果
本発明の実施の形態によるビデオにおいてオブジェクトを追跡する方法は、オブジェクトの空間的属性及び外観属性を両方とも利用し、複数のオブジェクト特徴を融合させる簡潔な解決策を提供する。
方法は、オブジェクトの外観及び動きについて何ら仮定を行わない。方法は、最大速度に限定されない。これは、オブジェクトの動きが不規則であり、高速である場合であっても、方法がオブジェクトを追跡できることを意味する。方法は、従来技術による平均値シフト法とは対照的に、連続フレーム間でのオブジェクト領域の重複を想定しない。
方法は、粒子フィルタリング等の従来技術による局所標本抽出法と異なり、大域最適解を見つける。方法は、時間的なモデル変更に効率的に適合することができ、(d+d)/2という非常に低い次元を有する。方法は、また、様々なサイズのオブジェクト領域を比較することができ、これは、オブジェクトの認識されるサイズが、カメラから見て変化する場合に有用である。
本発明の1つの実施の形態によるビデオの移動オブジェクトを追跡する方法のブロック図である。 本発明の1つの実施の形態による距離判定のブロック図である。 本発明の1つの実施の形態による候補窓選択のブロック図である。 本発明の1つの実施の形態によるオブジェクトモデル更新のブロック図である。 本発明の1つの実施の形態によるオブジェクトモデル更新の重み割り当てのブロック図である。 本発明の実施の形態による、最小距離に対応する行列を前の共分散行列のデータセットに追加する2つの方法のブロック図である。

Claims (25)

  1. フレームシーケンス中のオブジェクトを追跡するコンピュータ化された方法であって、
    オブジェクトの、取得されたフレームシーケンスの各フレームから特徴画像を抽出するステップと、
    前記特徴画像中の特徴の異なる窓に対応する特徴ベクトルセットを各特徴画像に構築するステップと、
    前記特徴ベクトルセットから対応する共分散行列セットを求めるステップと、
    前記オブジェクトを表すモデルとしてモデル共分散行列を使用し、前記共分散行列セット中の各共分散行列と、前記モデル共分散行列との間の距離を測定するステップと、
    前記モデル共分散行列からの最小距離を備えた対応する共分散行列を有する特定の窓を、前記フレーム中の前記オブジェクトの位置として選択するステップと
    を含み、
    前記測定するステップにおいて、2つの共分散行列C とC との間の距離は、
    Figure 0004849464
    であり、式中、{λ (C ,C )}は、d個の特徴に対応するd個の固有値について
    Figure 0004849464
    から求められる前記共分散行列C 及びC の一般化された固有値である
    フレームシーケンス中のオブジェクトを追跡するコンピュータ化された方法。
  2. フレーム毎に、前記モデル共分散行列を更新するステップをさらに含む請求項1に記載の方法。
  3. 前記フレームは、マルチスペクトル画像である請求項1に記載の方法。
  4. 前記異なる窓は、前記フレーム中の前記オブジェクトの前記位置の推定に従って選択される請求項1に記載の方法。
  5. 各特徴ベクトルは、前記オブジェクトの空間的属性及び外観属性を含む請求項1に記載の方法。
  6. 前記空間的属性は、前記特徴画像のピクセル座標から得られ、前記外観属性は、ピクセル強度を含む請求項5に記載の方法。
  7. 特定の窓Wの共分散行列Cは、
    Figure 0004849464
    であり、式中、mμは対応する特徴ベクトルfの平均のベクトルであり、M及びNは窓サイズであり、Tは転置演算子である請求項1に記載の方法。
  8. 前記異なる窓は、前記特徴画像において異なるサイズ及び位置を有する請求項1に記載の方法。
  9. 前記更新するステップは、前記共分散行列セットのサブセットを使用して、固有平均共分散行列を前記モデル共分散行列として求める請求項2に記載の方法。
  10. 前記平均共分散行列は、リー代数を使用して求められる請求項に記載の方法。
  11. 各共分散行列距離を、前記モデル共分散行列からのそれぞれの距離に従って前記サブセット中の重みで乗算するステップをさらに含む請求項に記載の方法。
  12. 一定の重み値を前記サブセット中の各共分散行列に割り当てるステップをさらに含む請求項に記載の方法。
  13. 前記サブセット中の最も新しい共分散行列に対して、より高い重み値を割り当てるステップをさらに含む請求項に記載の方法。
  14. 現モデル共分散行列を前記サブセットに含めるステップと、
    前記サブセット中の共分散行列の数を増分するステップと
    をさらに含む請求項に記載の方法。
  15. 前記サブセットから最も古い共分散行列を除去するステップと、
    行列総数を一定に保つために、現モデル共分散行列を前記サブセットに含めるステップと
    をさらに含む請求項に記載の方法。
  16. 前記窓内の前のオブジェクト位置及び対応する特徴のサブセットを保持するステップと、
    前記特徴から直接、前記モデル共分散行列を計算するステップと
    をさらに含む請求項に記載の方法。
  17. フレーム毎に、モデル特徴平均ベクトルを更新するステップをさらに含む請求項1に記載の方法。
  18. 特徴平均距離を計算するために、前記モデル特徴平均ベクトルと窓特徴平均ベクトルとの間の距離を測定するステップと、
    前記共分散距離を共分散融合重みで乗算するステップと、
    前記平均距離を共分散融合重みで乗算するステップと、
    前記共分散及び前記特徴平均距離の加重和を計算するステップと、
    前記加重和を、モデルと現窓との間の距離として割り当てるステップと、
    最小の加重和を有する特定の窓を、探索領域中の前記オブジェクトの位置として選択するステップと
    をさらに含む請求項17に記載の方法。
  19. 前記空間的属性は、ピクセルの空間座標値である請求項6に記載の方法。
  20. 前記空間的属性は、前記窓の原点からの前記ピクセルの距離である請求項6に記載の方法。
  21. 前記空間的属性は、前記窓の原点を基準にしたピクセルの空間座標値の絶対値である請求項6に記載の方法。
  22. 前記オブジェクト位置の前の位置から現画像での探索領域を予測するステップと、
    前記探索領域中の特徴ベクトルセットを構築するステップと、
    前記探索領域中の前記特徴ベクトルセットから対応する共分散行列セットを求めるステップと、
    前記セット中の各共分散行列と前記探索領域中の前記オブジェクトを表すモデル共分散行列との間の距離を測定するステップと、
    前記モデル共分散行列からの最小距離を備えた対応する共分散行列を有する特定の窓を、前記探索領域中の前記オブジェクトの位置として選択するステップと
    をさらに含む請求項1に記載の方法。
  23. 各窓を、その共分散行列の固有値セットで表すステップをさらに含む請求項1に記載の方法。
  24. 前記特徴ベクトルセットから対応する固有値セットを求めるステップと、
    前記セット中の各固有値セットと前記オブジェクトを表すモデル固有値セットとの間の距離を測定するステップと、
    前記モデル固有値セットから最小距離を備えた対応する固有値セットを有する特定の窓を、前記フレーム中の前記オブジェクトの位置として選択するステップと
    をさらに含む請求項23に記載の方法。
  25. フレーム毎に、モデル固有値セットを更新するステップをさらに含む請求項24に記載の方法。
JP2006347180A 2006-02-09 2006-12-25 フレームシーケンス中のオブジェクトを追跡するコンピュータ化された方法 Active JP4849464B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/352,145 2006-02-09
US11/352,145 US7620204B2 (en) 2006-02-09 2006-02-09 Method for tracking objects in videos using covariance matrices

Publications (2)

Publication Number Publication Date
JP2007213560A JP2007213560A (ja) 2007-08-23
JP4849464B2 true JP4849464B2 (ja) 2012-01-11

Family

ID=37964511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006347180A Active JP4849464B2 (ja) 2006-02-09 2006-12-25 フレームシーケンス中のオブジェクトを追跡するコンピュータ化された方法

Country Status (5)

Country Link
US (1) US7620204B2 (ja)
EP (1) EP1818870B1 (ja)
JP (1) JP4849464B2 (ja)
CN (1) CN101017572B (ja)
DE (1) DE602007011677D1 (ja)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7724961B2 (en) * 2006-09-08 2010-05-25 Mitsubishi Electric Research Laboratories, Inc. Method for classifying data using an analytic manifold
US7899253B2 (en) 2006-09-08 2011-03-01 Mitsubishi Electric Research Laboratories, Inc. Detecting moving objects in video by classifying on riemannian manifolds
US20080086555A1 (en) * 2006-10-09 2008-04-10 David Alexander Feinleib System and Method for Search and Web Spam Filtering
JP5096776B2 (ja) * 2007-04-04 2012-12-12 キヤノン株式会社 画像処理装置及び画像検索方法
US7961952B2 (en) * 2007-09-27 2011-06-14 Mitsubishi Electric Research Laboratories, Inc. Method and system for detecting and tracking objects in images
JP5004743B2 (ja) * 2007-10-10 2012-08-22 東芝情報システム株式会社 データ処理装置
US8442278B2 (en) * 2008-02-28 2013-05-14 Honeywell International Inc. Covariance based face association
JP5365065B2 (ja) * 2008-05-13 2013-12-11 富士通株式会社 辞書作成装置
CN102282587B (zh) * 2008-10-02 2015-11-25 西安大略大学 用于处理图像的系统和方法
US8649555B1 (en) * 2009-02-18 2014-02-11 Lucasfilm Entertainment Company Ltd. Visual tracking framework
US8321422B1 (en) * 2009-04-23 2012-11-27 Google Inc. Fast covariance matrix generation
US8396325B1 (en) * 2009-04-27 2013-03-12 Google Inc. Image enhancement through discrete patch optimization
US8611695B1 (en) 2009-04-27 2013-12-17 Google Inc. Large scale patch search
US8391634B1 (en) 2009-04-28 2013-03-05 Google Inc. Illumination estimation for images
US8385662B1 (en) 2009-04-30 2013-02-26 Google Inc. Principal component analysis based seed generation for clustering analysis
KR101619076B1 (ko) * 2009-08-25 2016-05-10 삼성전자 주식회사 모바일 플랫폼의 동적 물체 검출 및 추적 방법
US8873798B2 (en) 2010-02-05 2014-10-28 Rochester Institue Of Technology Methods for tracking objects using random projections, distance learning and a hybrid template library and apparatuses thereof
CN102087745B (zh) * 2010-06-03 2012-06-13 无锡安则通科技有限公司 Dsp系统中视频图像序列柔性目标比对和特征提取算法
WO2012016374A1 (en) * 2010-08-03 2012-02-09 Empire Technology Development Llc Method for identifying objects in video
US8798393B2 (en) 2010-12-01 2014-08-05 Google Inc. Removing illumination variation from images
CN102184554B (zh) * 2011-05-28 2012-12-26 西安电子科技大学 基于激活区域背景感知的红外目标跟踪方法
JP2013020527A (ja) * 2011-07-13 2013-01-31 Sony Corp 画像処理装置および方法、並びにプログラム
US8666119B1 (en) 2011-11-29 2014-03-04 Lucasfilm Entertainment Company Ltd. Geometry tracking
US8938119B1 (en) 2012-05-01 2015-01-20 Google Inc. Facade illumination removal
US9373051B2 (en) * 2012-06-14 2016-06-21 Insitu, Inc. Statistical approach to identifying and tracking targets within captured image data
CN102855637A (zh) * 2012-07-17 2013-01-02 沈阳大学 一种用于视频图像的融合双边滤波的协方差跟踪方法
US8891875B2 (en) * 2012-08-17 2014-11-18 Ge Aviation Systems Llc Method of evaluating the confidence of matching signatures of a hyperspectral image
KR101791604B1 (ko) * 2012-09-11 2017-10-30 삼성전자주식회사 헤드 포지션 추정 방법 및 장치, 컴퓨터 판독가능 저장 매체
CN102982556B (zh) * 2012-11-01 2016-06-15 江苏科技大学 基于流形上粒子滤波算法的视频目标跟踪方法
CN102970517B (zh) * 2012-11-28 2015-08-19 四川长虹电器股份有限公司 基于异常情景识别的云台镜头自主控制方法
US9165220B2 (en) * 2012-12-18 2015-10-20 Hewlett-Packard Development Company, L.P. Image object recognition based on a feature vector with context information
CN103093480B (zh) * 2013-01-15 2016-04-20 沈阳大学 基于双重模型的粒子滤波视频图像跟踪方法
US9380275B2 (en) 2013-01-30 2016-06-28 Insitu, Inc. Augmented video system providing enhanced situational awareness
JP5889820B2 (ja) 2013-03-22 2016-03-22 株式会社東芝 特徴量抽出装置、特徴量抽出方法、および画像識別装置
US9269162B1 (en) 2014-08-25 2016-02-23 Raytheon Company Rapid anomaly detection (RAND)
CN104616317B (zh) * 2014-12-12 2017-05-24 宁波中国科学院信息技术应用研究院 一种视频车辆跟踪有效性验证方法
US10104345B2 (en) 2014-12-16 2018-10-16 Sighthound, Inc. Data-enhanced video viewing system and methods for computer vision processing
US9710716B2 (en) * 2014-12-16 2017-07-18 Sighthound, Inc. Computer vision pipeline and methods for detection of specified moving objects
US9870620B2 (en) 2015-06-18 2018-01-16 The Johns Hopkins University Non-linear associator and motion discriminator
CN106487570B (zh) * 2015-09-02 2019-06-25 中国移动通信集团公司 一种评估网络性能指标变化趋势的方法及设备
US9633274B2 (en) * 2015-09-15 2017-04-25 Mitsubishi Electric Research Laboratories, Inc. Method and system for denoising images using deep Gaussian conditional random field network
US10740907B2 (en) * 2015-11-13 2020-08-11 Panasonic Intellectual Property Management Co., Ltd. Moving body tracking method, moving body tracking device, and program
US10002313B2 (en) 2015-12-15 2018-06-19 Sighthound, Inc. Deeply learned convolutional neural networks (CNNS) for object localization and classification
CN105654069B (zh) * 2016-02-03 2019-05-10 江南大学 基于Lp范数正则化的增量子空间目标跟踪方法
WO2017197452A1 (en) 2016-05-16 2017-11-23 Sensen Networks Pty Ltd System and method for automated table game activity recognition
CN106447695A (zh) * 2016-09-23 2017-02-22 广州视源电子科技股份有限公司 一种多物体追踪中判断同一物体的方法和装置
CN106530331A (zh) * 2016-11-23 2017-03-22 北京锐安科技有限公司 视频监控系统及方法
US20180275265A1 (en) * 2017-03-23 2018-09-27 GM Global Technology Operations LLC Target tracking using region covariance
CN107392937B (zh) * 2017-07-14 2023-03-14 腾讯科技(深圳)有限公司 目标跟踪方法、装置及电子设备
CN110517293A (zh) * 2019-08-29 2019-11-29 京东方科技集团股份有限公司 目标跟踪方法、装置、系统和计算机可读存储介质
US20210397198A1 (en) * 2020-06-18 2021-12-23 Ford Global Technologies, Llc Enhanced vehicle operation
CN111967616B (zh) * 2020-08-18 2024-04-23 深延科技(北京)有限公司 自动时间序列回归方法和装置
US11532099B2 (en) 2021-02-03 2022-12-20 BetMIX, LLC Method and system for compiling performance metrics for racing competitors
CN113158938B (zh) * 2021-04-29 2023-08-22 西安外事学院 基于协方差矩阵最小特征值的快速抗旋转景象匹配方法
CN113205280B (zh) * 2021-05-28 2023-06-23 广西大学 一种李群引导注意推理网络的电动汽车充电站选址方法
CN116184141B (zh) * 2023-04-25 2023-08-29 南昌工程学院 一种气体绝缘设备故障诊断方法及系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091807A (ja) * 1996-09-13 1998-04-10 Oki Electric Ind Co Ltd 動画像生成方法
JP4787424B2 (ja) * 2001-06-01 2011-10-05 財団法人エヌエイチケイエンジニアリングサービス 映像オブジェクト検出・追跡装置
US7130446B2 (en) * 2001-12-03 2006-10-31 Microsoft Corporation Automatic detection and tracking of multiple individuals using multiple cues
JP3894782B2 (ja) * 2001-12-10 2007-03-22 株式会社国際電気通信基礎技術研究所 物体認識装置
US20060013454A1 (en) * 2003-04-18 2006-01-19 Medispectra, Inc. Systems for identifying, displaying, marking, and treating suspect regions of tissue
US20070092110A1 (en) * 2004-11-08 2007-04-26 Li-Qun Xu Object tracking within video images

Also Published As

Publication number Publication date
EP1818870A3 (en) 2009-07-22
EP1818870A2 (en) 2007-08-15
EP1818870B1 (en) 2011-01-05
CN101017572B (zh) 2010-07-21
DE602007011677D1 (de) 2011-02-17
US20070183629A1 (en) 2007-08-09
CN101017572A (zh) 2007-08-15
JP2007213560A (ja) 2007-08-23
US7620204B2 (en) 2009-11-17

Similar Documents

Publication Publication Date Title
JP4849464B2 (ja) フレームシーケンス中のオブジェクトを追跡するコンピュータ化された方法
CN113012203B (zh) 一种复杂背景下高精度多目标跟踪方法
CN107563313B (zh) 基于深度学习的多目标行人检测与跟踪方法
CN105405151B (zh) 基于粒子滤波和加权Surf的抗遮挡目标跟踪方法
Barron et al. Tutorial: Computing 2D and 3D optical flow
CN107680120B (zh) 基于稀疏表示和转移受限粒子滤波的红外小目标跟踪方法
CN105335986B (zh) 基于特征匹配和MeanShift算法的目标跟踪方法
Nguyen et al. Fast occluded object tracking by a robust appearance filter
JP4974975B2 (ja) 画像において物体の位置を特定する方法及びシステム
US20070237359A1 (en) Method and apparatus for adaptive mean shift tracking
Ozyildiz et al. Adaptive texture and color segmentation for tracking moving objects
US8401239B2 (en) Object tracking with regressing particles
Li et al. Adaptive pyramid mean shift for global real-time visual tracking
JP2007523429A (ja) ロバストな情報融合を利用するオブジェクトのマルチモーダルコンポーネントベースドトラッキングのための方法及びシステム
CN106228544A (zh) 一种基于稀疏表示和标签传播的显著性检测方法
CN110147768B (zh) 一种目标跟踪方法及装置
CN110390685B (zh) 一种基于事件相机的特征点跟踪方法
Hanek et al. The contracting curve density algorithm: Fitting parametric curve models to images using local self-adapting separation criteria
CN111582062A (zh) 一种基于YOLOv3的目标跟踪中的重检测方法
CN113379789B (zh) 一种复杂环境下运动目标跟踪方法
CN111322993A (zh) 一种视觉定位方法和装置
Bouaynaya et al. A complete system for head tracking using motion-based particle filter and randomly perturbed active contour
JP4879257B2 (ja) 移動対象追跡装置、移動対象追跡方法及び移動対象追跡プログラム
Ginhoux et al. Model-based object tracking using stereo vision
Vela et al. Estimation theory and tracking of deformable objects

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091211

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111011

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111012

R150 Certificate of patent or registration of utility model

Ref document number: 4849464

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141028

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250