JP4964159B2 - ビデオのフレームのシーケンスにおいてオブジェクトを追跡するコンピュータに実装される方法 - Google Patents

ビデオのフレームのシーケンスにおいてオブジェクトを追跡するコンピュータに実装される方法 Download PDF

Info

Publication number
JP4964159B2
JP4964159B2 JP2008016540A JP2008016540A JP4964159B2 JP 4964159 B2 JP4964159 B2 JP 4964159B2 JP 2008016540 A JP2008016540 A JP 2008016540A JP 2008016540 A JP2008016540 A JP 2008016540A JP 4964159 B2 JP4964159 B2 JP 4964159B2
Authority
JP
Japan
Prior art keywords
tracking
tracker
complexity
error
buffer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008016540A
Other languages
English (en)
Other versions
JP2008243187A (ja
Inventor
ファティー・エム・ポリクリ
シュー・メイ
ダーク・ブリンクマン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2008243187A publication Critical patent/JP2008243187A/ja
Application granted granted Critical
Publication of JP4964159B2 publication Critical patent/JP4964159B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、包括的にはコンピュータビジョンアプリケーションに関し、特に、ビデオのフレームのシーケンスにおいてオブジェクトを追跡することに関する。
フレームのシーケンス、すなわち、ビデオにおいては、オブジェクトを、フレーム毎にオブジェクトの特徴の対応を求めることによって追跡することができる。しかしながら、変形する、非剛直のかつ高速に移動するオブジェクトを正確に追跡することは、依然として困難なコンピュータビジョン問題である。
追跡を、平均値シフト演算子を用いて実行することができる。これについては、Comaniciu他著、「Real-time tracking of non-rigid objects using mean-shift」(Proc. IEEE Conf. on Computer Vision and Pattern Recognition, volume 1, pages 142-149, 2000)と、2003年7月8日発行のComaniciu他に対する米国特許第6,590,999号、「Real-time tracking of non-rigid objects using mean-shift」とを参照願いたい。ノンパラメトリック密度勾配推定量を使用して、所与のカラーヒストグラムにもっとも類似するオブジェクトを追跡する。この方法は、正確な位置特定を提供する。しかしながら、この方法には、連続フレームにおいて、オブジェクトの位置が幾分かオーバラップしている必要があり、それは、2つの連続したフレームにおけるオブジェクトが完全に異なる位置に現れる可能性のある、高速に移動するオブジェクトには当てはまらない。また、尤度を求めるためにヒストグラムが使用されるため、オブジェクトおよび背景の色分布が類似する場合には、勾配推定および収束が不正確になる。
この問題を解決するために、マルチカーネル平均値シフト法を使用することができる。これについては、Porikli他著、「Object tracking in low-frame-rate video」(Proc. of PIE/EI - Image and Video Communication and Processing, San Jose, CA, 2005)と、2006年11月23日に出願されたTuzel他による米国特許出願第20060262959号、「Modeling low frame rate videos with Bayesian estimation」とを参照願いたい。追加のカーネルは、背景減算によって得られる。上記収束問題を解決するために、オブジェクトを背景領域から「押し」のける別のカーネルを適合させることができる。
追跡を、その瞬間までのすべての測定値を鑑みた上での状態の推定、または等価的にオブジェクトの位置の確率密度関数を構築することとみなすことができる。単純な追跡法は、予測フィルタリングである。この方法は、オブジェクトモデルを一定の重みによって更新する一方で、オブジェクトの色および位置の統計を使用する。これについては、Wren他著、「Pfinder: Real-time tracking of the human body」(IEEE Trans. Pattern Anal. Machine Intell., vol. 19, pp. 780-785, 1997)と、2005年6月28日発行のIvanov他による米国特許第6,911,995号、「Computer vision depth segmentation using virtual surface」を参照願いたい。最適解は、連続した予測ステップおよび更新ステップにおける問題を解決する再帰ベイズフィルタによって提供される。
測定雑音がガウス分布するものと想定される場合には、1つの解は、剛直オブジェクトを追跡するために使用されることが多いカルマンフィルタによって提供される。これについては、Boykov他著、「Adaptive Bayesian recognition in tracking rigid objects」(Proc. IEEE Conf. on Computer Vision and Pattern Recognition, volume 2, pages 697-704, 2000)と、Rosales他著、「A framework for heading-guided recognition of human activity」(Computer Vision and Image Understanding, volume 91, pages 335-367, 2003)とを参照願いたい。カルマンフィルタは、オブジェクトの動き特性の「粘性」を制御する事前に定義された状態遷移パラメータに制限される。
状態空間が離散的であり、かつ有限数の状態から構成される場合には、オブジェクト追跡にマルコフ型フィルタを適用することができる。フィルタの最も一般的な種類は、モンテカルロ積分法に基づく粒子フィルタによって表される。特定の状態の現密度が、関連する重みを含む一組のランダムサンプルによって表される。そして、新たな密度は、重み付きサンプルに基づく。
粒子フィルタを、視覚的追跡および検証のために条件付き密度伝播を回復するために使用することができる。一般に、粒子フィルタリングは、ランダムサンプリングに基づき、それは、特に、高次元問題の場合、サンプルの縮退および貧困化による未解決問題である。状態空間をより有効にサンプリングするために、カーネルベースのベイズフィルタを使用することができる。多重仮説フィルタが、移動するオブジェクトがある測定シーケンスを引き起こす確率を求める。
1つの問題として、上記フィルタベース方法のすべてが、局所最適において容易に「行き詰る」可能性がある。別の問題として、大部分の従来技術による方法には、統計的特性および空間的特性の両方を表す十分な類似性基準がない。大部分の従来技術による方法は、色分布または構造的モデルのいずれかにのみ依存する。
オブジェクトを追跡するために、集合統計からアピアランスモデルまで多くの異なる表現が使用されてきた。ヒストグラムが普及しており、それは、正規化ヒストグラムが、モデル化データの確率密度関数に非常に類似するためである。しかしながら、ヒストグラムは、特徴値の空間配置を考慮しない。たとえば、観測窓においてピクセルをランダムに再配置しても、同じヒストグラムがもたらされる。さらに、小数のピクセルを用いて、より高次のヒストグラムを構築することが主な問題である。
アピアランスモデルは、形状およびテクスチャ等の画像特徴を、テンソルの均一サイズの窓にマップする。指数関数的に複雑になるため、比較的少数の特徴しか使用することができない。このため、各特徴は、非常に際立っていなければならない。特徴の信頼性は、厳密にオブジェクトタイプによって決まる。アピアランスモデルは、スケールのばらつきに対して非常に影響を受け易い傾向にあり、かつ姿勢にも依存する。
追跡、すなわち、フレームのシーケンスにおけるオブジェクトに対応する領域を見つけることは、同様の難題に直面する。オブジェクトは、頻繁にその外観および姿勢を変化させる。オブジェクトは、部分的にまたは完全に遮られる可能性があり、または併合および分離する可能性がある。アプリケーションによっては、オブジェクトは、不規則な動きパターンを呈し、急に曲がる可能性もある。
追跡を分類問題として考慮することも可能であり、分類器を、背景からオブジェクトを識別するように訓練することができる。これについては、Avidan著、「Ensemble tracking」(Proc. IEEE Conf. on Computer Vision and Pattern Recognition, San Diego, CA, 2005)と、2006年7月27日に出願されたAvidanによる米国特許出願第20060165258号「Tracking objects in videos with adaptive classifiers」とを参照願いたい。これは、基準画像のすべてにピクセルに対し特徴ベクトルを構築し、背景に属するピクセルからオブジェクトに属するピクセルを分離するように分類器を訓練することによって行われる。所定期間分類器を統合することにより、照明が変化する場合のトラッカの安定性が向上する。平均値シフトと同様に、オブジェクトの動きが小さい場合にのみ、オブジェクトを追跡することができる。この方法は、オクルージョンの場合にオブジェクトを混乱させる可能性がある。
色、動き、形状および他の特性を、特徴ベクトル等の小型かつ特定可能な形態にいかに変換するかであるオブジェクト表現は、追跡において重要な役割を果たす。従来のトラッカは、ピクセルの構造的配置を軽視するカラーヒストグラムか、または、統計的特性を無視するアピアランスモデルのいずれかにのみ依存する。これらの表現には、いくつかの欠点がある。小数のピクセルによって、より高次のヒストグラムを埋めることにより、不完全な表現になる。さらに、ヒストグラムは、雑音によって容易に歪む。アピアランスモデルは、スケール変化および位置特定誤りの影響を受け易い。
共分散行列表現は、オブジェクトの空間的特性および統計的特性の両方を具現化し、複数の特徴の融合に対しエレガントな解を提供する。これについては、O. Tuzel、F. PorikliおよびP. Meer著、「Region covariance: A fast descriptor for detection and classification」(Proc. 9th European Conf. on Computer Vision, Graz, Austria, 2006)を参照願いたい。共分散は、2つ以上の変数またはプロセスの偏差がどれくらい一致するかの測度である。追跡において、これらの変数は、座標、色、勾配、向きおよびフィルタ応答等の特徴点に対応する。この表現は、ヒストグラムよりはるかに低い次元を有する。この表現は、雑音および光の変化に対して頑強である。共分散記述子を使用してオブジェクトを追跡するために、固有ベクトルベースの距離メトリックが、オブジェクトおよび候補領域の行列を比較するようになっている。共分散トラッカは、動きに対していかなる想定も行わない。これは、トラッカが、オブジェクトの動きが不規則かつ高速である場合であっても、オブジェクトを追跡することができることを意味する。それは、一定の窓サイズに制限されることなく、任意の領域を比較することができる。これらの利点にも関わらず、すべての候補領域に対する共分散行列距離の計算は、低速であり、指数関数的な時間を必要とする。
一定時間を必要とする積分画像ベースの方法は、速度を向上させることができる。これについては、Porikli著、「Integral histogram: A fast way to extract histograms in Cartesian spaces」(Proc. IEEE Conf. on Computer Vision and Pattern Recognition, San Diego, CA, vol.1, pp.829-836, 2005)と、2006年8月10日出願のPorikliによる米国特許出願第20060177131号、「Method of extracting and searching integral histograms of data samples」とを参照願いたい。この技法は、点の空間配置を利用することにより、共分散行列抽出プロセスを大幅に加速する。
多くのビジョンタスクと同様に、オブジェクト検出および追跡もまた、特定のハードウェアの実装から利益を得る。このような実装には、従来のデジタル信号プロセッサ(DSP)、グラフィックプロセッサユニット(GPU)、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)および他のリコンフィギュラブルコア等、種々のサブシステムのさまざまな組合せが含まれる。DSPは、費用効率のよいソフトウェアプログラム能力を提供する。プログラム可能DSPアーキテクチャにより、基本的な低レベルアルゴリズムの速度を上昇させることが可能である。一方、ASICは、方法を実装するための高性能、低電力および低コストオプションを提供するが、種々の追跡方法をサポートするには、必要なASICの数が拡大し、それによってデバイスがより大きくなり、電力消費がより大きくなり、コストが高くなる。GPUは、また、経済的かつ並列のアーキテクチャの構築も可能にする。コントラスト強調、色変換、エッジ検出および特徴点追跡を含むいくつかの計算集約的プロセスを、GPUに委ねることができる。FPGAにより、データフローの大規模並列処理およびパイプライン処理が可能にある。FPGAは、かなりのオンチップRAMを提供し、高クロック速度をサポートする。しかしながら、現在のオンチップRAMは、オブジェクト検出および追跡において有用なレベルの内部RAMフレームバッファリングをサポートするには十分でない。したがって、画像データの処理中に記憶域を提供するために、追加の外部メモリが必要である。FPGAの高I/O能力は、複数のRAMバンクへの同時アクセスをサポートし、有効かつ効率的なパイプライン処理を可能にする。
追跡モデルには、克服すべき多くの問題がある。オブジェクトと候補領域との間の尤度スコア計算がボトルネックである。ヒストグラムを採用する追跡方法は、ヒストグラムサイズが増大するに従って、より要求が厳しくなる。いくつかのヒストグラム距離メトリック、たとえば、BhattacharyaメトリックおよびKLメトリックは、本質的に複雑である。共分散追跡の場合、尤度計算には、固有ベクトルの抽出が必要であり、それは低速である。高速尤度計算方法が、計算速度を大幅に向上させることができる。
複雑性は、候補領域の数または探索領域サイズに比例する。追跡プロセスを加速するために、階層探索方法を適用することができる。平均値シフトおよびアンサンブル追跡等の局所探索方法は、オブジェクトサイズが大きくなるに従って低速になる。際立った情報を破壊しないカーネルおよび画像の適応スケーリングが、リアルタイム性能を達成するようになっているものとすることができる。カーネルベースの追跡方法は、オブジェクトの数が増大するに従って、より要求が厳しくなる。複数のオブジェクトの追跡が必要なアプリケーションに対し、グローバル探索法を適用することができる。したがって、制御不可能な状態を有するオブジェクトを追跡する必要がある。
方法は、ビデオのフレームのシーケンスにおいてオブジェクトを追跡する。本方法には、一組の追跡モジュールが提供される。
ビデオのフレームを、メモリバッファにバッファリングする。第1に、オブジェクトを、バッファリングされたフレームにおいて、複数の追跡モジュールのうちの選択された1つを使用して時間的に順方向に追跡する。第2に、そのオブジェクトを、バッファリングされたフレームにおいて、選択された追跡モジュールを使用して時間的に逆方向に追跡する。
そして、第1の追跡と第2の追跡とから、追跡誤差を求める。追跡誤差が所定閾値未満である場合には、追加のフレームをメモリバッファにバッファリングし、第1の追跡するステップ、第2の追跡するステップおよび求めるステップを繰り返す。
一方、誤差が所定閾値を上回る場合には、異なる追跡モジュールを選択し、第1の追跡するステップ、第2の追跡するステップおよび求めるステップを繰り返す。
図1は、本発明の1つの実施の形態によるビデオ101のフレームのシーケンスにおけるオブジェクトを追跡する方法を示す。追跡モジュール410を選択する。追跡モジュールの選択については、後述する。ビデオ101からの新たなフレーム、たとえば、5つのフレームをメモリにバッファリングする(110)。オブジェクトを、バッファリングされたフレームにおいて、追跡モジュールを使用して時間的に順方向に追跡する(210)。そして、オブジェクトを時間的に逆方向に追跡する(220)。順方向追跡および逆方向追跡の後、追跡誤差701を求める(700)。誤差701が所定閾値401未満である場合には、メモリバッファを空にし、ビデオのすべてのフレームが処理されるまで追加のフレームをバッファリングする(110)。
一方、誤差701が所定閾値を上回る場合には、異なる追跡モジュールを選択し(400)、バッファにおける現フレームに対する順方向追跡および逆方向追跡を繰り返す。
本発明では、以前に割り当てられたトラッカが満足のいく結果をもたらしたか否かを評価する試行統計を使用して、バッファサイズ809を確定することができる(図8を参照)。追跡誤差に応じて、次に新たなフレームをバッファリングする時のために、バッファにおけるフレームの数を変更する。
誤差が所定閾値810未満であり、かつバッファにおけるフレームの数が最大フレームカウントより小さい場合には、次にフレームをバッファリングする時のために、バッファのサイズを増大させる(820)。追跡誤差が閾値を上回る場合には、バッファのサイズを低減させる(830)。バッファにおけるフレームの最小数は、1に設定されている。
別法として、図9に示すように、バッファサイズ809を、バッファ制御ユニットにおけるフレーム間差分(FD)誤差910の量を使用して設定する(図9および図10を参照)。パラメータ化された動きを推定することにより、2つの連続フレーム間のグローバル動きを求めて(910)、フレーム間差分911を取得する。動きパラメータを推定するために、画像全体を使用してもよく、または画像の一部を使用してもよい。そして、動きパラメータを使用して、1つの画像ピクセル座標から他の画像へのマッピングを適用することにより、対応するピクセル対を見つける。この動作を、動き補償と呼ぶことができる。静止カメラの場合には、カメラの動きがないため、動き補償は、省略する。2つのフレームにおける対応するピクセルの強度差を集約することにより、フレーム間差分誤差を求める。バッファのサイズを変更するために、フレーム間差分誤差に閾値を適用する(920)。
2つめの実施の形態(図10を参照)は、フレーム間差分誤差と、非線形マッピングであるバッファサイズ関数1000とを使用して、バッファサイズを確定する。バッファサイズを、最大サイズ(最大バッファ)1010と1つのフレームのサイズとの間で定義してもよい。
図2は、追跡誤差が比較的小さい場合の5つのフレームに対する順方向追跡および逆方向追跡を示し、図3は、追跡誤差が比較的大きい場合を示す。図2および図3では、オブジェクトを楕円形201で表し、オブジェクトの追跡位置を十字線または網線(+)202で表す。図3に示すように、時間203の経過により、実際のオブジェクト位置201と追跡位置202との間に相当な「ずれ」がある。
図4は、追跡モジュールを選択すること(400)の詳細を示す。本方法は、複数の追跡モジュール410にアクセスすることができる。追跡モジュールのセットには、平均値シフトトラッカ、粒子フィルタトラッカ、共分散トラッカ、カルマンフィルタトラッカ、アンサンブルトラッカ、全数検索トラッカおよびオンライン分類器トラッカまたは他の同様の既知のトラッカが含まれ得る。トラッカを、高い複雑性から低い複雑性の順序402で配置することができる。したがって、セレクタ400は、それ以上モジュールが存在するか否かを判断し(420)、ある場合には、適当なモジュールを選択する(430)。一方、存在しない場合には、閾値401を増大させる(440)。粒子フィルタトラッカに対する複雑性は、粒子の数であり、平均値シフトフィルタトラッカの場合、複雑性は、カーネルのサイズであり、カルマンフィルタトラッカおよび全数検索トラッカの場合、複雑性は、探索領域のサイズであり、共分散トラッカの場合、複雑性は、特徴の数であり、オンライン分類器トラッカおよびアンサンブルトラッカの場合、複雑性は、分類器の数である。したがって、追跡誤差に基づき、トラッカモジュールの複雑性、たとえば、粒子の数、カーネルのサイズ、特徴の数、探索領域のサイズ、または分類器の数を変更することも可能である。
選択は、複数の制約に基づく。追跡誤差が大きい場合、より複雑なトラッカを選択し、追跡誤差が小さい場合、複雑性の低いトラッカを選択する。多数の複雑性基準を利用することができる。種々のタイプの追跡方法の間で、複雑性は、計算複雑性を示す。追跡方法によっては、他より雑音等に対して頑強であり、そのため、複雑性は、頑強性の度合いも指す。
同じトラッカタイプの場合、複雑性は、追跡パラメータの計算負荷および範囲を意味する。局所探索ベースのトラッカ、たとえば、勾配シフト、カルマン等の場合、より複雑であることは、探索窓またはカーネル窓がより広いことを示す。サンプリングベースのトラッカ、たとえば、粒子フィルタ等の場合、複雑性は、粒子の数と、粒子状態の量子化ステップ(精度)とに対応する。
図5は、いくつかの追跡モジュール例、たとえば、平均値シフト、粒子、共分散およびアンサンブルトラッカ410を示す。複雑性の低いトラッカほど高速であり、複雑性の高いトラッカより、使用する資源が少ない。しかしながら、複雑性の低いトラッカは、不規則で高速に動いているかまたは外観が激しく変化しているオブジェクトを追跡することができない可能性がある。したがって、本発明による追跡は、トラッカ410を追跡プロセスの複雑性に適合させる。
図6は、特定のトラッカの複雑性をいかに変更することができるかを示す。たとえば、選択されたトラッカが粒子トラッカである場合である。この場合、粒子の数が最大数未満であるか否かを判断し(620)、そうでない場合、閾値を増大させる(630)。一方、最大数未満である場合、オブジェクトを追跡するために使用する粒子の数を増加させる(640)。
図7は、追跡誤差710を求めること(700)の詳細を示す。トラッカ410は、第1のフレームにおけるオブジェクトの位置711と、逆方向追跡の後の第1のフレームにおける位置712とを有する。一般に、オブジェクトの位置は、オブジェクトモデルに従って求められる。そして、オブジェクトの位置を、追跡が開始する前に、順方向追跡の後に、かつ逆方向追跡の後に求めることができる。位置の間の距離は、正しい位置および追跡位置の空間的差異を求める(710)。第1のフレームに対するオブジェクトモデル713および最後のフレームに対するモデル714は、オブジェクトモデル距離を求める(720)。差異およびオブジェクトモデル距離を、重み付き合計730において結合して、追跡誤差を取得することができる。
本発明の1つの実施の形態によるオブジェクトを追跡する方法のブロック図である。 誤差が小さい場合の追跡のブロック図である。 誤差が大きい場合の追跡のブロック図である。 本発明の1つの実施の形態による追跡モジュールを選択するブロック図である。 本発明の1つの実施の形態による追跡モジュールを選択するブロック図である。 本発明の1つの実施の形態による追跡モジュールを選択するブロック図である。 本発明の1つの実施の形態による追跡誤差を求めるブロック図である。 本発明の1つの実施の形態による試行統計を更新するブロック図である。 本発明の1つの実施の形態によるバッファ制御ユニットのブロック図である。 本発明の1つの実施の形態によるバッファ制御ユニットのブロック図である。

Claims (16)

  1. ビデオのフレームのシーケンスにおいてオブジェクトを追跡するコンピュータに実装される方法であって、
    一組の追跡モジュールを提供するステップと、
    ビデオのフレームをメモリバッファにバッファリングするステップと、
    バッファリングされた前記フレームにおけるオブジェクトを、前記複数の追跡モジュールのうちの選択される1つを使用して時間的に順方向に追跡する第1の追跡するステップと、
    バッファリングされた前記フレームにおける前記オブジェクトを、前記選択された追跡モジュールを使用して時間的に逆方向に追跡する第2の追跡するステップと、
    前記第1の追跡するステップおよび前記第2の追跡するステップからの追跡誤差を求めるステップとともに、該追跡誤差が所定閾値未満である場合には、前記メモリバッファに追加のフレームをバッファリングし、前記第1の追跡するステップ、前記第2の追跡するステップおよび前記求めるステップを繰返し、一方、前記誤差が前記所定閾値を上回る場合には、異なる追跡モジュールを選択し、前記第1の追跡するステップ、前記第2の追跡するステップおよび前記求めるステップを繰り返すステップと
    を含むビデオのフレームのシーケンスにおいてオブジェクトを追跡するコンピュータに実装される方法。
  2. フレーム間差分誤差が所定閾値を上回る場合には、前記バッファのサイズを低減させ、一方、前記フレーム間差分誤差が前記所定閾値未満である場合には、前記バッファの前記サイズを増大させるステップ
    をさらに含む請求項1に記載の方法。
  3. 前記フレーム間差分誤差は、前記バッファにおける連続フレーム間のフレーム間差分に基づくグローバル動きである請求項1に記載の方法。
  4. 前記バッファサイズは、非線形関数である請求項2に記載の方法。
  5. 前記複数の追跡モジュールのそれぞれは、関連する複雑性を有し、前記方法は、
    前記複数の追跡モジュールを高い複雑性から低い複雑性の順序で配置するステップ
    をさらに含む請求項1に記載の方法。
  6. 前記異なる追跡モジュールは、前記追跡誤差に基づいて選択される請求項1に記載の方法。
  7. 前記複数の追跡モジュールのそれぞれは、関連する複雑性を有し、前記一組の追跡モジュールは、平均値シフトトラッカ、粒子フィルタトラッカ、共分散トラッカ、カルマンフィルタトラッカ、アンサンブルトラッカ、全数検索トラッカ、およびオンライン分類器トラッカを含むグループから選択される請求項1に記載の方法。
  8. 前記追跡誤差は、追跡するステップの前と、前記第1の順方向に追跡するステップおよび該第1の順方向に追跡するステップに続く前記第2の逆方向に追跡するステップの後との前記オブジェクトの位置に基づく請求項1に記載の方法。
  9. 前記追跡誤差は、追跡するステップの前、前記第1の追跡するステップの後、および前記第2の追跡するステップの後の前記オブジェクトの位置において求められるオブジェクトモデルに基づく請求項1に記載の方法。
  10. 前記複雑性は、前記追跡モジュールの計算負荷である請求項7に記載の方法。
  11. 前記粒子フィルタトラッカの場合の前記複雑性は、粒子の数である請求項7に記載の方法。
  12. 前記平均値シフトフィルタトラッカの場合の前記複雑性は、カーネルのサイズである請求項7に記載の方法。
  13. 前記カルマンフィルタトラッカおよび前記全数検索トラッカの場合の前記複雑性は、探索領域のサイズである請求項7に記載の方法。
  14. 前記共分散トラッカの場合の前記複雑性は、特徴の数である請求項7に記載の方法。
  15. 前記オンライン分類器トラッカおよび前記アンサンブルトラッカの場合の前記複雑性は、分類器の数である請求項7に記載の方法。
  16. 前記追跡誤差に基づいて選択された前記トラッカモジュールの前記複雑性を変更するステップをさらに含む請求項7に記載の方法。
JP2008016540A 2007-03-27 2008-01-28 ビデオのフレームのシーケンスにおいてオブジェクトを追跡するコンピュータに実装される方法 Active JP4964159B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/691,886 2007-03-27
US11/691,886 US7756296B2 (en) 2007-03-27 2007-03-27 Method for tracking objects in videos using forward and backward tracking

Publications (2)

Publication Number Publication Date
JP2008243187A JP2008243187A (ja) 2008-10-09
JP4964159B2 true JP4964159B2 (ja) 2012-06-27

Family

ID=39580403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008016540A Active JP4964159B2 (ja) 2007-03-27 2008-01-28 ビデオのフレームのシーケンスにおいてオブジェクトを追跡するコンピュータに実装される方法

Country Status (4)

Country Link
US (1) US7756296B2 (ja)
EP (1) EP1975879B1 (ja)
JP (1) JP4964159B2 (ja)
CN (1) CN101276468B (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8209121B1 (en) * 2007-10-10 2012-06-26 Google Inc. Registration of location data to street maps using hidden markov models, and application thereof
US8325976B1 (en) * 2008-03-14 2012-12-04 Verint Systems Ltd. Systems and methods for adaptive bi-directional people counting
WO2009124151A2 (en) * 2008-04-01 2009-10-08 University Of Southern California Video feed target tracking
JP4507129B2 (ja) * 2008-06-06 2010-07-21 ソニー株式会社 追尾点検出装置および方法、プログラム、並びに記録媒体
US8855360B2 (en) * 2008-07-23 2014-10-07 Qualcomm Technologies, Inc. System and method for face tracking
EP2391831A4 (en) 2009-01-30 2017-05-10 Chevron U.S.A., Inc. System and method for predicting fluid flow in subterranean reservoirs
US8180107B2 (en) * 2009-02-13 2012-05-15 Sri International Active coordinated tracking for multi-camera systems
WO2011088624A1 (en) * 2010-01-25 2011-07-28 Hewlett-Packard Development Company,L.P. Data processing system and method
JP5455682B2 (ja) * 2010-01-28 2014-03-26 東芝情報システム株式会社 画像処理装置、画像処理方法及び画像処理用プログラム
US9519837B2 (en) * 2014-07-03 2016-12-13 Toyota Motor Engineering & Manufacturing North America, Inc. Tracking using multilevel representations
US10187617B2 (en) * 2010-06-30 2019-01-22 Tata Consultancy Services Limited Automatic detection of moving object by using stereo vision technique
US8870751B2 (en) * 2010-09-28 2014-10-28 Fujifilm Corporation Endoscope system, endoscope image recording apparatus, endoscope image acquisition assisting method and computer readable medium
TWI514324B (zh) * 2010-11-30 2015-12-21 Ind Tech Res Inst 影像目標區域追蹤系統與方法及電腦程式產品
US8972232B2 (en) 2011-02-17 2015-03-03 Chevron U.S.A. Inc. System and method for modeling a subterranean reservoir
JP5674550B2 (ja) * 2011-05-09 2015-02-25 日本電信電話株式会社 状態追跡装置、方法、及びプログラム
US9437009B2 (en) 2011-06-20 2016-09-06 University Of Southern California Visual tracking in video images in unconstrained environments by exploiting on-the-fly context using supporters and distracters
TWI452541B (zh) * 2011-08-19 2014-09-11 Vatics Inc 粒子濾波器
CN104025117B (zh) * 2011-10-31 2018-09-28 惠普发展公司,有限责任合伙企业 时间面部序列
US9349066B2 (en) * 2012-01-06 2016-05-24 Qualcomm Incorporated Object tracking and processing
US8965046B2 (en) 2012-03-16 2015-02-24 Qualcomm Technologies, Inc. Method, apparatus, and manufacture for smiling face detection
US9141196B2 (en) 2012-04-16 2015-09-22 Qualcomm Incorporated Robust and efficient learning object tracker
US9031822B2 (en) 2012-06-15 2015-05-12 Chevron U.S.A. Inc. System and method for use in simulating a subterranean reservoir
US10757369B1 (en) * 2012-10-08 2020-08-25 Supratik Mukhopadhyay Computer implemented system and method for high performance visual tracking
US8867789B2 (en) 2013-01-14 2014-10-21 Cyberlink Corp. Systems and methods for tracking an object in a video
US9852511B2 (en) * 2013-01-22 2017-12-26 Qualcomm Incoporated Systems and methods for tracking and detecting a target object
CN103345258B (zh) * 2013-06-16 2016-05-18 西安科技大学 一种足球机器人目标追踪方法及系统
US9854168B2 (en) 2014-03-07 2017-12-26 Futurewei Technologies, Inc. One-pass video stabilization
JP6344953B2 (ja) * 2014-04-07 2018-06-20 パナソニック株式会社 軌跡解析装置および軌跡解析方法
US9514364B2 (en) 2014-05-29 2016-12-06 Qualcomm Incorporated Efficient forest sensing based eye tracking
CN104200226B (zh) * 2014-09-01 2017-08-25 西安电子科技大学 基于机器学习的粒子滤波目标跟踪方法
US9355320B2 (en) * 2014-10-30 2016-05-31 Toyota Motor Engineering & Manufacturing North America, Inc. Blur object tracker using group lasso method and apparatus
CN104506820A (zh) * 2015-01-06 2015-04-08 成都新舟锐视科技有限公司 一种多目标智能跟踪系统
US20160239736A1 (en) * 2015-02-17 2016-08-18 Qualcomm Incorporated Method for dynamically updating classifier complexity
US9639777B1 (en) 2015-12-17 2017-05-02 Linear Algebra Technologies Limited Systems and methods for providing an image classifier
CN105787963B (zh) * 2016-02-26 2019-04-16 浪潮软件股份有限公司 一种视频目标跟踪方法及装置
CN106228571B (zh) * 2016-07-15 2019-04-19 北京光年无限科技有限公司 面向机器人的目标物追踪检测方法及装置
US10636152B2 (en) * 2016-11-15 2020-04-28 Gvbb Holdings S.A.R.L. System and method of hybrid tracking for match moving
JP6866210B2 (ja) * 2017-03-31 2021-04-28 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
CN107240118B (zh) * 2017-05-19 2020-10-09 成都信息工程大学 一种基于rgb颜色直方图的判别式跟踪方法
US10902615B2 (en) 2017-11-13 2021-01-26 Qualcomm Incorporated Hybrid and self-aware long-term object tracking
CN109272533B (zh) * 2018-10-12 2021-08-17 山东大学 一种基于紧致表达的物体鲁棒跟踪装置及跟踪方法
CN110110787A (zh) * 2019-05-06 2019-08-09 腾讯科技(深圳)有限公司 目标的位置获取方法、装置、计算机设备及存储介质
CN111310744B (zh) * 2020-05-11 2020-08-11 腾讯科技(深圳)有限公司 图像识别方法、视频播放方法、相关设备及介质
WO2022096353A1 (en) * 2020-11-03 2022-05-12 Topgolf Sweden Ab Three-dimensional object tracking using unverified detections registered by one or more sensors
KR102593676B1 (ko) * 2023-06-30 2023-10-25 (주)하늘소프트 역방향 추적을 이용한 객체 검출 성능 향상 방법 및이를 위한 객체 추적 장치

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5602760A (en) * 1994-02-02 1997-02-11 Hughes Electronics Image-based detection and tracking system and processing method employing clutter measurements and signal-to-clutter ratios
JP3943623B2 (ja) * 1996-05-21 2007-07-11 キヤノン株式会社 画像編集装置及びその制御方法
US6711278B1 (en) * 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
US6590999B1 (en) * 2000-02-14 2003-07-08 Siemens Corporate Research, Inc. Real-time tracking of non-rigid objects using mean shift
US6901110B1 (en) * 2000-03-10 2005-05-31 Obvious Technology Systems and methods for tracking objects in video sequences
US6911995B2 (en) * 2001-08-17 2005-06-28 Mitsubishi Electric Research Labs, Inc. Computer vision depth segmentation using virtual surface
GB2414614A (en) * 2004-05-28 2005-11-30 Sony Uk Ltd Image processing to determine most dissimilar images
GB2414615A (en) * 2004-05-28 2005-11-30 Sony Uk Ltd Object detection, scanning and labelling
US7466842B2 (en) * 2005-05-20 2008-12-16 Mitsubishi Electric Research Laboratories, Inc. Modeling low frame rate videos with bayesian estimation
JP2009539175A (ja) * 2006-05-31 2009-11-12 トムソン ライセンシング 映像対象の複数追跡

Also Published As

Publication number Publication date
EP1975879B1 (en) 2012-07-04
CN101276468B (zh) 2010-11-17
EP1975879A3 (en) 2011-06-08
JP2008243187A (ja) 2008-10-09
EP1975879A8 (en) 2008-12-10
EP1975879A2 (en) 2008-10-01
CN101276468A (zh) 2008-10-01
US7756296B2 (en) 2010-07-13
US20080240497A1 (en) 2008-10-02

Similar Documents

Publication Publication Date Title
JP4964159B2 (ja) ビデオのフレームのシーケンスにおいてオブジェクトを追跡するコンピュータに実装される方法
WO2020238560A1 (zh) 视频目标跟踪方法、装置、计算机设备及存储介质
WO2022002039A1 (zh) 一种基于视觉地图的视觉定位方法、装置
CN109753975B (zh) 一种训练样本获得方法、装置、电子设备和存储介质
EP2164041B1 (en) Tracking method and device adopting a series of observation models with different lifespans
JP4699564B2 (ja) 視覚背景抽出器
CN113286194A (zh) 视频处理方法、装置、电子设备及可读存储介质
CN101120382A (zh) 跟踪用相机获得的场景视频中的移动物体的方法
Ali et al. Hardware/software co-design of a real-time kernel based tracking system
CN111861925A (zh) 一种基于注意力机制与门控循环单元的图像去雨方法
CN110827320B (zh) 基于时序预测的目标跟踪方法和装置
CN113379789B (zh) 一种复杂环境下运动目标跟踪方法
El‐Shafie et al. Survey on hardware implementations of visual object trackers
CN108765463B (zh) 一种结合区域提取与改进纹理特征的运动目标检测方法
Meus et al. Embedded vision system for pedestrian detection based on HOG+ SVM and use of motion information implemented in Zynq heterogeneous device
CN112489088A (zh) 一种基于记忆单元的孪生网络视觉跟踪方法
CN116740126A (zh) 目标跟踪方法、高速相机及存储介质
Yang et al. An improved algorithm for the detection of fastening targets based on machine vision
Firouznia et al. Adaptive chaotic sampling particle filter to handle occlusion and fast motion in visual object tracking
CN113112479A (zh) 基于关键区块提取的渐进式目标检测方法和装置
Chen et al. A generalized mean shift tracking algorithm
Czuni et al. Motion segmentation and tracking with edge relaxation and optimization using fully parallel methods in the cellular nonlinear network architecture
CN115115698A (zh) 设备的位姿估计方法及相关设备
Wang et al. Research on traditional and deep learning strategies based on optical flow estimation-a review
Xu et al. Real-time human tracking by detection based on HOG and particle filter

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120327

R150 Certificate of patent or registration of utility model

Ref document number: 4964159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250