JP2008535038A - カメラによりシーンに関して取得された映像中の移動物体を追跡する方法 - Google Patents

カメラによりシーンに関して取得された映像中の移動物体を追跡する方法 Download PDF

Info

Publication number
JP2008535038A
JP2008535038A JP2007525087A JP2007525087A JP2008535038A JP 2008535038 A JP2008535038 A JP 2008535038A JP 2007525087 A JP2007525087 A JP 2007525087A JP 2007525087 A JP2007525087 A JP 2007525087A JP 2008535038 A JP2008535038 A JP 2008535038A
Authority
JP
Japan
Prior art keywords
kernel
moving object
model
likelihood
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007525087A
Other languages
English (en)
Other versions
JP4782123B2 (ja
JP2008535038A5 (ja
Inventor
ポリクリ、ファティー、エム
チュゼル、オンセル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2008535038A publication Critical patent/JP2008535038A/ja
Publication of JP2008535038A5 publication Critical patent/JP2008535038A5/ja
Application granted granted Critical
Publication of JP4782123B2 publication Critical patent/JP4782123B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

方法は、カメラによりシーンに関して取得された映像中の移動物体を追跡する。背景モデルがフレーム毎に保持され、背景モデルにおける変化により移動物体が検出される。物体モデルが移動物体に関して保持され、その移動物体のカーネルが生成される。映像中の移動物体を追跡するために、平均値シフト法が各フレーム中の各カーネルに適用されて、背景モデル、物体モデル、及び平均値シフトカーネルにより各フレーム中の移動物体の推定位置の尤度が求められる。

Description

本発明は、包括的には映像中の物体の追跡に関し、特に、低フレームレートで取得された映像中の物体の追跡に関する。
多くのコンピュータビジョンアプリケーション及び映像監視アプリケーションが、様々な環境における移動物体、例えば歩行者又は車両を識別しようとしている。一般に、シーン中の何かは、カメラにより取得された静止シーンの背景モデルと大幅に異なるときに関心の対象となる。最も単純な背景モデルは、背景シーンが経時的に全く静的であり、シーン中の物体はそれに見合った速度で移動するものと仮定する。
経時的に、静的な背景における個々の画素の強度値は通常、正規分布をとる。したがって、シーン中の関心対象でない変動は、単峰性でゼロ平均の「白色」ガウスノイズ法により適切にモデル化することができる。よって、そのような統計分布を表す合理的なモデルは単一ガウスモデルである(C.R. Wren、A. Azarbayejani、T.J. Darrel、及びA.P. Pentland著「Pfinder:人体のリアルタイム追跡(Pfinder: Real-time tracking of the human body)」(PAMI, 19(7), pp. 780-785, July 1997))。
多くの場合、単一ガウスモデルは、照明条件の変化により影が変化する背景のような動的な背景における画素強度値の時間的変化を正確にモデル化するには不適である。したがって、より複雑なシステムは、影により生じる変動のような照明の変化を関心対象でないものとして排除する機構を含む(Ismail Haritaoglu、David Harwood、及びLarry S. Davis著「W4:誰が?いつ?どこで?何を?(W4: Who? When? Where? What?)」(Proceedings of FG'98, IEEE, April 1998))。
動的な背景を画素レベルで記述するために複数のモデルを使用することは、背景のモデル化における飛躍的な進歩であった。具体的に言えば、ガウス分布の混合を使用する方法が、近年の多数の関連アプリケーションの一般的な基礎となった。
3つのガウス成分の混合を、各画素の視覚的特性をモデル化するために使用することができる(N. Friedman及びS. Russell著「映像シーケンスにおける画像の分割:確率論的アプローチ(Image segmentation in video sequences: A probabilistic approach)」(Thirteenth Conference on Uncertainty in Artificial Intelligence, August 1997))。このモデルは、経時的なガウス混合モデル(GMM)を学習するために期待値最大化(EM)法も用いる。交通監視アプリケーションにおいて、各画素の強度値は3つの仮説、すなわち、道路、影、及び車両に制限される。残念ながら、この単純な仮定は、GMMが個々の画素の任意の分布をモデル化する能力を大幅に低下させる。さらに、この方法は高い計算コストがかかる。
別の方法はシーンが非静的であることを許容する(Chris Stauffer及びW.E.L. Grimson著「リアルタイム追跡のための適応的な背景混合モデル(Adaptive background mixture models for real-time tracking)」(Computer Vision and Pattern Recognition, volume 2, June 1999))。各画素は、可変数のガウス成分を有するガウス分布の混合としてモデル化される。この方法は背景を、各モードが静的モデルにゼロ平均の白色ガウスノイズ法を加えたものである多峰性の方法として表す。これらのモデルは、近似を用いてリアルタイムで更新することができる。この映像監視システムは、昼夜サイクル及び長期にわたるシーンの変化に対してロバストであることが証明されている。しかし、水面の波紋、海の波、又は動く草木のような非常に速い変化を示す背景の場合、このモデルは、長い映像シーケンスにわたって分散の大きい分布を生じる可能性がある。したがって、前景物体の検出感度は大きく低下する。
同様に競争力のある多峰性の背景の方法がF. Porikli及びO. Tuzel著「適応的な背景モデル及び平均値シフト解析による人体の追跡(Human body tracking by adaptive background models and mean-shift analysis)」(Conference on Computer Vision Systems, Workshop on PETS, IEEE, April 2003)(参照により本明細書中に援用される)に記載されている。
このような困難な状況に対処するために、ノンパラメトリック技法が開発された。これらの技法は、複数の最近取得されたサンプルに基づいて、画素値の統計を用いて各画素の背景特性を推定する。これらの技法は、速い背景変化に適応させることができる(Elgammal、D. Harwood、L. S. Davis著「背景差分のためのノンパラメトリックモデル(Non-parametric model for background subtraction)」(ECCV 2000, June 2000))。この方法は、密度推定にガウス関数を用いる。このモデルは、長い映像シーケンスにわたって最近のサンプル値の履歴を表す。
他の同様の技法は、適応的な密度推定の目的で可変サイズのカーネルを強調する。カーネルはデータ空間の探索領域に対応する。もう1つの特徴として、オプティカルフローを用いることができる(Anurag Mittal、Nikos Paragios著「適応的なカーネル密度推定を用いた動きベースの背景差分(Motion-based background subtraction using adaptive kernel density estimation)」(CVPR 2004, Volume 2, pp. 302-309, June, 2004))。
効果的な背景のモデル化を扱う他の技法は予測法として分類することができる。予測法は、画素強度の変化を時系列として扱い、過去の観測値に基づいて時間モデルを用いて新たな画素値を予測する。予測値と実際の観測値との間の偏差を用いて、予測モデルのパラメータを調節することができる。
他の方法はフィルタを用いる。例えば、カルマンフィルタは、各画素の動的特性をモデル化することができる(Dieter Koller、Joseph Weber、及びJitendra Malik著「遮蔽の理由付けを用いたロバストな複数車両の追跡(Robust multiple car tracking with occlusion reasoning)」(ECCV'94, May 1994))。カルマンフィルタを単純にしたもの、例えばウィーナーフィルタは、画素強度値の最近の履歴に基づいて確率的予測を行うことができる。
自己回帰モデルは、同様のテキスチャをシミュレートするために動的シーンの特性を取り込む(G. Doretto、A. Chiuso、S. Soatto、Y.N. Wu著「動的テクスチャ(Dynamic textures)」(IJCV 51(2), pp. 91-109, 2003))。この方法は、動的背景のモデル化に対処するため、及び映像監視において前景検出を行うために改良された(Antoine Monnet、Anurag Mittal、Nikos Paragios、Visvanathan Ramesh著「動的シーンの背景のモデル化及び差分(Background modeling and subtraction of dynamic scenes)」(ICCV'03, p. 1305, October, 2003)、並びにJing Zhong及びStan Sclaroff著「ロバストなカルマンフィルタによる動的なテクスチャ付き背景からの前景物体の分割(Segmenting foreground objects from a dynamic textured background via a robust Kalman Filter)」(ICCV'03, pp. 44-50, 2003))。或る種の難しいサンプル映像に関して良い結果が得られているが、このような自己回帰モデルを用いる計算コストは高い。
概して、従来の背景のモデル化には2つの主な欠点がある。これらのモデルの計算量は本質的に多い。これは、多数の映像が同時に取得され、映像中の物体をリアルタイムで追跡することが望ましい大規模な映像監視システムでは特に問題となる。従来のシステムは、費用のかかるネットワーク資源、記憶資源、及び処理資源を必要とする。
したがって、より少ないネットワーク資源、記憶資源、及び処理資源を用いて多数の映像の中の複数の物体を同時に追跡するシステム及び方法を提供することが望ましい。
また、従来の方法は、物体がそれに見合った速度で移動し、追跡すべき物体は連続フレームにおいて大きな重なりを有するものと仮定する。したがって、従来の方法は、1つのフレーム中の物体の位置が次フレーム中の物体と実質的に同じ位置にあるものと期待する。
したがって、それに見合わない速度で移動する物体を追跡することが望ましい。
本発明は、低フレームレート、例えば1フレーム毎秒(1fps)以下で取得された映像中の物体を追跡するシステム及び方法を提供する。映像を低フレームレートで取得することにより、ネットワーク帯域幅及び記憶媒体等の必要な資源が削減される。しかし、低レートの映像では、物体は予想よりも速い速度で移動し、物体の位置が連続フレームにおいて重なることはほとんどない。よって、従来の物体追跡方法は用いることができない。
したがって、本発明は、フレームシーケンスの中の大きな動きのある領域を中心とする複数のカーネルを用いる平均値シフト法を用いる。平均値シフト法の収束は、物体モデルを用いて2つの尤度項を統合することによって改善される。
本発明は、低フレームレートで取得された映像中の物体を追跡する方法を提供する。複数の平均値シフト法を、変化検出により得られる高い動きのエリアを中心とする複数のカーネルにわたって反復する。
従来の方法と異なり、本発明による方法は、ロバスト性及び精度を犠牲にすることなく低い時間分解能、例えば1fpsで移動物体を追跡することができる。
マルチカーネル法はまた、複数の物体を同時に追跡することができる。本方法は、遮蔽が存在していても、例えば物体が一時的に木又は駐車車両の背後に「消える」場合にも良好に機能する。
マルチカーネル法はまた、映像がフルの時間分解能で処理される場合に従来の方法よりも良好な性能を有する。
システム構造
図1に示すように、本発明は、大規模な監視システムにおけるような多数のカメラ110のうちの1つによりシーン102に関して取得された映像101中の物体171を追跡するシステム及び方法100を提供する。従来のカメラは、固定された比較的高いフレームレート、例えば30又は60フレーム毎秒(fps)で映像を取得するように設計されている。
必要な資源の数を削減し、処理効率を高めるために、本発明は、映像のフレームをサブサンプリングする(120)。したがって、通信、処理及び記憶された映像が低フレームレート(LFR)、例えば1フレーム毎秒(1fps)以下で取得される。LFR制御ユニット130がフレームレートを決定する。LFRフレーム121は多重化されて(140)監視プロセッサ150へ送られる。
LFRトラッカ160が軌跡161を求める。LFRトラッカはまた、LFR制御ユニット130へのフィードバックを提供する。軌跡はマルチカメラマネージャ170に供給され、物体171が検出される。物体は、有意な事象181を検出する(180)ために用いられ、これらの事象181は監視プロセッサ150に供給される。
映像はそのような低フレームで取得されるため、物体が予想よりも遥かに速く移動しているように見え、また、通常のフレームレート、例えば30fps以上で取得された映像のように移動物体が連続フレームにおいて重なることはほとんどないので、従来の物体トラッカは機能しない。
方法の動作
図2に示すように、本発明は、多峰性の背景のモデル化方法200を用いる。本発明の方法では、サブサンプリングされたフレーム121のシーケンスにおける観測される照明の変化に従う背景モデル211を保持する(210)。
各フレーム中の各画素を評価して、その画素が背景モデルに「適合」するかどうかを判定する。画素が背景モデルから大きく逸脱する場合、その画素は、おそらく移動物体に関連する前景画素に割り当てられる。
移動物体に関連する領域を検出するために、先ず、おそらくはノイズに起因する各フレーム中の非連結画素の小さな領域すなわち「スペックル」を除去する。連結画素の領域は残りの画素から判定する。各連結領域を別個の物体に関連付ける。
スペックルノイズをモルフォロジーにより除去する。フィルタリング工程を加速するために、収縮−膨張(erosion-dilation)フィルタを提供する。本発明では2値の前景−背景マップがあるため、32個の画素値を4バイトの整数に変換することができる。左右にシフトし、上位及び下位のビット列に論理包含演算を適用することによって、モルフォロジカルな膨張を適用する。2回目のパスでは、同様に包含ではなく論理排他を適用してフレームを「収縮」させる。したがって、本発明のフィルタリングは32倍速い。
連結成分解析を適用して、フィルタリング後の前景画素の連結領域を求める。グラフベースのシングルパス法を用いる。連結成分解析中に、連結領域、すなわちフレーム中の移動物体に関連する可能性が高い画素を抽出する。連結領域毎に、画素の総数、重心、連結成分の全ての画素を包囲する物体カーネルの座標と、連結成分の画素の90%を含む内部カーネルの座標とを求める。
これら2つのカーネルを用いて、凸領域を細長い領域と区別することができる。凸領域は物体のエリアと内部カーネルとの比が小さいのに対し、細長い領域は比がより大きい。物体カーネル及び内部カーネルは必ずしも同心でないことに留意すべきである。
LFRトラッカ160は、2組の物体171、すなわち潜在的な物体と追跡物体とを物体データベース220に保持する。所定数よりも少ないフレームにわたって追跡される連結画素の移動領域は、潜在的な物体としてマーキングされる。これらの画素は、シーン102中のノイズ又は追跡すべき潜在的な物体に対応する可能性がある。
潜在的な物体が所定数のフレームにわたって追跡される場合、その物体は潜在的な物体の組から除去され、追跡物体の組へ入れられる。
連結領域の特性を用いて、物体に関連する領域を判定する。これらの特性は、後述のようなカーネル231の形態である。カーネルは、物体カーネル、内部カーネル、及び外部カーネルを含む。2つの連結領域の内部カーネルが重なる場合、それらの領域は同一物体に関連する。物体カーネルが重なり、重なるエリアが領域のエリアに合致する場合、外部カーネルもまた同一物体に関連付けられる。
マルチカーネル平均値シフト
サブサンプリングされたフレーム121のシーケンスにおいて、マルチカーネル平均値シフト法を用いて物体171を追跡する(160)。物体毎に、カーネル231を最初に初期化する(230)。
カーネルは、移動物体に関連する可能性のある画素領域である。カーネルは、フレーム中の2D空間エリアに対応する。カーネルは、矩形、円形、楕円形、画素組、物体のシルエット、又は任意の他の所望の形状であり得る。本発明では矩形カーネルを選ぶ。空間領域に加えて、カーネルはまた、色空間における3D容積に関連付けることができる。
従来の平均値シフト法はクラスタリングを用いる。この平均値シフト法は、クラスタ数の事前知識を必要とせず、クラスタの形状を制約しない(D. Comaniciu及びP. Meer著「平均値シフト:特徴量空間解析へのロバストなアプローチ(Mean-shift: A robust approach toward feature space analysis)」(IEEE Trans. Pattern Anal. Machine Intell., vol. 24, pp. 603-619, 2002)(参照により本明細書中に援用される)を参照のこと)。
この平均値シフト法は、或るデータ点から開始し、反復毎に、画素強度の勾配の方向へ移動する。この反復は、その点が分布の局所モードに収束すると終了する。分布の局所モードへの収束は、平均値シフトの反復がそのデータ点において開始されるときに保証される。しかし、従来の平均値シフトによる追跡は、物体のカーネルが連続フレームにおいて大きく重なることを必要とする。
本発明によるLFR映像121では、物体の移動が異常に大きく予測不可能である。したがって、物体の前の位置を中心とする従来の単一の平均値シフトカーネルでは機能しない。この問題を克服するために、物体の前の位置に加えて、各フレームにおけるシーン中の大きな動きに対応するエリアにおいて物体171毎に複数のカーネル231を初期化する(230)。これらの複数のカーネルは、さらに詳細に後述するように、移動物体の経路の推定尤度に基づいて割り当てられる。複数のカーネルの尤度281スコアを収束点において求め、最大スコアを獲得した位置を新たな位置として選択する。
前フレームにおける物体領域である単一カーネルに依存する代わりに、本発明では、変化検出モジュール240により求められるような大きな動きに対応するエリアを中心とする複数のカーネルにおいて平均値シフトを反復する。
平均値シフト法280を各カーネル231に適用して、推定経路の位置にあるカーネルが本当に移動物体に関連するものであるという尤度281を求める。
各物体の位置を推定した後、連結成分を照合する。この照合は、連結成分の画素とのカーネルの重なりに基づいて行う。
複数のカーネルの割り当て
ガウスモデル又はカルマンフィルタリングといった任意の利用可能な方法を用いて背景モデルを推定すると共に、現フレームを推定した参照背景モデルと比較して、現フレームにおいて異なる領域を見付ける。
画素毎に、現フレームにおける画素と、背景モデルにおける対応画素との間の色の距離を求めて距離マップを得る。次に、この距離マップに空間クラスタリングを適用する。このクラスタリングは、距離マップのピークを求めるための別の空間平均値シフトクラスタリングにより行われる。本発明の方法はまた、他のクラスタリングアルゴリズム、例えばk平均クラスタリング及び階層クラスタリングを用いることができる。
画素毎に、距離マップ値の値を、その画素と、前フレームにおける対応する物体カーネルの位置との間の距離に対して重み付けする。この変換は、物体の前の位置に近い位置ほど高い尤度を割り当てる。
次に、距離マップ内のピークを求める。前フレームにおける物体の領域の重心を付加的なピークとして割り当てる。考え得る物体サイズのパラメータを用いて互いに近いピークをマージする。各ピークの大きさが所定の閾値よりも高い場合、そのピークにカーネルを割り当てる。したがって、少なくとも1つのピークが存在し、シーン中で観測される動きの量により、各移動物体につき複数のピークが存在する場合がある。
代替的に、以前に追跡された物体の履歴を保持する経路尤度マップに基づいて考え得るカーネル位置の初期の組を選択する。物体カーネルが経路尤度マップにおける画素に対応する場合に、その画素の値を増大させる。映像のフレーム毎に経路尤度マップを更新し続ける。したがって、多数のフレームにおいて物体を追跡すれば、経路尤度マップは物体の可能性の高い位置を示す。
例えば、交通監視映像の場合、尤度経路マップは、物体(例えば車両)が移動している車線に対応する画素の値が高くなる。
経路尤度マップを用いて、経路尤度スコアに基づいて一組の画素を選択する。この画素組に関して、物体モデルと、これらの画素を中心とするカーネルとの間の類似度スコアを求める。これらの類似度スコアを元のカーネル位置からの距離によりスケーリングし、中心から離れた画素ほど類似度スコアが小さくなるようにする。次に、最大スコアを有する画素から開始することによって、最大カーネル数に達するか、又は考え得るカーネル位置が残らなくなるまで、反復毎に物体サイズに比例する領域を除去することによって画素を繰り返し選択する。これらの画素は、複数カーネルの位置として割り当てられる。
物体モデルの管理
物体管理(250)は以下のように行われる。物体モデルが以後のフレームにおけるどの連結成分とも一致しないとき、その物体モデルを物体データベースから削除する。以前に追跡したどの物体とも一致しない連結成分に関して、新たな物体モデルを初期化する。
現在追跡中の物体が別の物体とマージされない場合、後述のように、式(12)を用いて物体のスケールを適応させる(260)。
本発明の物体はノンパラメトリックモデルにより表される。この物体モデルは、(W×H)×Dの要素行列である。行列の要素は物体の3Dの色サンプル、例えばRGB画素強度であり、ここで、W及びHはそれぞれ物体モデルの幅及び高さであり、Dは、連続フレーム数で測定される奥行き又は時間サイズである。なお、このモデルは背景画素を含まない。
現フレーム中の移動物体の位置の尤度はzである。本明細書中では推定物体カーネル内の画素を(x,u i=1とし、ここで、xはフレーム座標系の2D座標であり、uは3Dの色ベクトルである。
物体モデルにおける対応するサンプル点は(y,vjk j=1として表され、ここで、yは物体モデル座標系の2D座標であり、vjkは3Dの色ベクトル{vjkk=1,...,Dである。
推定物体カーネル内のインデックスiは物体モデルのインデックスjにマッピングする。このマッピングは1対1ではない。通常、物体カーネルのサイズは物体モデルのサイズよりも遥かに大きいため、物体モデルの1画素は物体カーネル内の数画素にマッピングする。
追跡中、物体モデルの各画素の「最も古い」サンプルを現フレームからの1つの対応画素で更新することによって各物体モデルを保持する(270)。本発明では、ブレを防ぐために、対応画素の平均値は用いない。前景分割を用いて、現フレーム中の背景画素に対応する物体モデルの画素は更新しない。
背景情報を用いる平均値シフト
カラーヒストグラムに基づく平均値シフト法は、非剛性の物体追跡に効率的且つロバストであり得る。しかし、追跡物体の色情報が背景の色に似ている場合、平均値シフト追跡の性能は低下する。
したがって、本発明では、画素の背景モデル211も用いて、本発明の平均値シフト物体トラッカ160の性能を高める。
物体の重み付きカラーヒストグラムは{qs=1,...,mである。このヒストグラムは、ノンパラメトリック物体モデル
Figure 2008535038
を用いて構築され、ここで、サイズhは物体モデルの横及び縦のサイズの半分であり、kは、d次元空間の多変量ガウス(正規)関数
Figure 2008535038
に従って重み付けされた物体カーネルである。本発明では、2に等しいdを空間情報に、3に等しいdを色情報に用いる。定数項Qは、Σ s=1=1であることを保証する。関数(^)mは色値を、量子化された色空間の対応するヒストグラムビンにマッピングする。なお、(^)mは、mの上に^が有ることを表す。
物体モデルは履歴情報を含む。この履歴情報は、物体が遮蔽されている間、ヒストグラムをより正確にする。
位置zを中心とするカーネルのカラーヒストグラムはp(z)である。同位置の背景のカラーヒストグラムはb(z)である。カーネルの中心から離れた画素ほど小さな重みを割り当てるために2Dのガウス形重み関数が用いられる。
Bhattacharya係数
Figure 2008535038
は、物体ヒストグラムと、現フレーム中の物体の推定位置zにおけるヒストグラムとの間の類似度221を測定する。
背景情報を統合し、類似度関数を次のように定義する。
Figure 2008535038
ここで、α及びαは前景成分及び背景成分の混合係数である。
上記の類似度関数を最大化することに加えて、現ヒストグラムと背景ヒストグラムとの間の類似度にペナルティーを科す。物体は背景と異なる外観を有するものと仮定する。
本発明ではα=1及びα=1/2を用いる。類似度関数は次のように書き換えることができる。
Figure 2008535038
本発明において現フレーム中の物体位置の探索を開始する初期位置はzである。カーネルヒストグラムp(z)及び背景ヒストグラムb(z)の値を中心としてテイラー展開を用いると、
Figure 2008535038
となる。定数項をQに入れると、次式が得られる。
Figure 2008535038
カーネルヒストグラムp(z)及び背景ヒストグラムb(z)の定義を用いて、類似度関数は次のように書き換えられる。
Figure 2008535038
ここで、(^)m(x)及び(^)m(x)は現フレーム及び背景モデルの画素を量子化された色空間の対応するカラービンにマッピングする。
サイズhは各寸法に沿ってカーネルの半分のサイズに等しい。式(7)の第2項は、データがwで重み付けされたカーネル密度推定値に等しい。この重みwは負であってもよい。式(3)の類似度関数によれば、この分布のモードは平均値シフト法により求められる。
位置zにおける平均値シフトベクトルは
Figure 2008535038
となり、ここで、g(x)=−k´(x)である。
物体モデルの尤度
zを中心とするカーネル内の単一の画素(x,u)が物体に属するものであるという尤度281は、パーゼン窓推定器
Figure 2008535038
を用いて推定することができる。上記において、色情報を表すカーネルのサイズはh=16として選択される。位置zにある物体の尤度281は次のように測定される。
Figure 2008535038
物体カーネルkの重み関数は、中心から離れたサンプルほど小さな重みを割り当てて推定性能を高める。
本発明による平均値シフト追跡法の擬似コードを付録Aに示す。
スケール適応
物体モデルのスケール適応(260)は前景画素のみを用いて行われる。これは、物体がカメラに向かう方向又はカメラから離れる方向へ移動している可能性があり、それによりフレーム中の物体のサイズが変わるために行われる。推定位置zを中心とする物体の物体カーネルはBである。物体カーネルは外部カーネルOの中心でもある。この外部カーネルは物体カーネルBの2倍のエリアを有する。適合スコア
Figure 2008535038
を最大化する。ここで、(^)c(x)は、xが前景画素である場合に1であり、そうでない場合に0である。各フレームにおいて、外部カーネルOを固定したまま、境界線の位置を変えることによって物体カーネルBを全ての寸法で或る限界内で変更すると共に、最大の適合スコアを生じるスケールを選択する。
矩形の物体カーネルBの寸法は(xL,xR,yU,yD)であり、ここで、xLは左端の境界線のx座標であり、xRは右端の境界線であり、yUは上側の境界線であり、yDは下側の境界線である。フレームレートfrに比例する或る限界内で
Figure 2008535038
のように寸法を変え、その度に適合スコアを求める。
通常、低フレームレートのために、物体カーネルは2つの連続フレームにおいて重ならず、従来の平均値シフト法を用いて物体を追跡することを不可能にする。本発明の物体モデル尤度関数は、シーン中の複数の物体により生じる曖昧さを解消する上で非常に効果的である。さらに、ヒストグラムに基づく平均値シフトトラッカは、背景モデル211を含めることによって大幅に改善することができる。
カーネル推定値の融合
物体の複数のカーネルを初期化して各カーネルに平均値シフト推定を適用した後、推定カーネル位置(x,y)を得る。ここで、k=1,...,Kであり、Kは複数のカーネルの数である。次に、これらの位置推定値を融合して、物体の新たな位置(x,y)を以下のように求める。
これらの推定位置の各々に割り当てることのできる尤度スコアはいくつかある。本発明では、カーネルの推定位置と物体の前の位置(x,y)t−1との間の距離を測定することによって距離尤度スコアを測定する。この距離尤度スコアは距離が大きいほど小さくなる。この距離は、2Dの画像平面距離又はシーンの地表面が利用可能であれば3Dの地表面距離を用いることによって測定することができる。
カルマンフィルタを用いて以前のフレーム中の物体の以前の速度及び方向に基づいて動き尤度スコアを求め割り当てることによって物体の動き履歴を統合する。平均値シフト法によるカーネルの推定位置がカルマンフィルタによる推定位置から離れるほど、動き尤度スコアの値は低くなる。
本発明では、物体モデルが既にあるので、物体モデルを、現フレームの物体の推定位置を中心とするカーネルと比較することによってモデル尤度スコアも求める。モデル尤度距離は、色、勾配、向き、及びテクスチャの距離を含む。比較のために、物体モデルと、現フレームの色、勾配、及びテクスチャの特徴との間の類似度を求める。物体モデルが高い値を有する場合に高いモデル尤度スコアを割り当てる。上記の尤度は、複数のカーネルの推定位置の各々に関して求められる。
各カーネルの融合スコアを求めて、これらのスコアを全て結合する。重み付きの距離、動き、及びモデル尤度スコアを合計する。
物体の新たな位置を求めるためには、2つの方法が可能である。第1の方法は、スコアの最も高い位置を現フレーム中の物体の推定位置として選択する。
第2の方法はベクトル加算に基づく。本発明では、物体の前の位置(x,y)t−1を原点(0,0)とし、推定カーネル位置(x,y)から前の位置(x,y)t−1を引くことによって、この原点に対して差ベクトルを求める。すなわち、(x,y)kd=(x−xt−1,y−yt−1)である。差ベクトルの各々にそれらの融合スコアを掛ける。次に、ベクトル和を求め、このベクトル和を融合重みの合計に対して標準化する。その結果、物体の前の位置と新たな位置との間の差が得られる。
本発明を好ましい実施形態の例として説明してきたが、本発明の精神及び範囲内で様々な他の適応及び変更を行ってもよいことが理解される。したがって、添付の特許請求の範囲の目的は、本発明の真の精神及び範囲に入るそのような変形及び変更をすべて網羅することである。
付録
アルゴリズム マルチカーネル平均値シフト
入力:前フレームで位置zにあるターゲット及び{ci=1..lを中心とする連結成分
Figure 2008535038
本発明による、低フレームレートで取得された映像中の物体を追跡するシステムのブロック図である。 本発明による、低フレームレートで取得された映像中の物体を追跡する方法の流れ図である。

Claims (29)

  1. シーンの映像を取得するステップを含み、
    前記映像はフレームシーケンスを含み、各フレームは複数の画素を含み、
    フレーム毎に、
    背景モデルを保持するステップと、
    前記背景モデルにより移動物体を検出するステップと、
    前記移動物体の物体モデルを保持するステップと、
    前記移動物体に対し、前記移動物体の経路の尤度及び前記物体モデルの尤度により複数のカーネルを割り当てるステップと、
    各カーネルに平均値シフト法を適用して前記カーネルの位置を推定するステップと、
    前記複数のカーネルの推定位置を結合するステップと、
    前記複数のシフトカーネルの結合された推定位置により前記移動物体の推定位置を求めて前記映像中の前記移動物体を追跡するステップとをさらに含む、
    カメラによりシーンに関して取得された映像中の移動物体を追跡する方法。
  2. 複数のカメラにより複数の映像を取得するステップと、
    前記複数の映像中の複数の移動物体を同時に検出するステップと、
    前記複数の映像中の前記複数の移動物体を同時に追跡するステップとをさらに含む
    請求項1記載の方法。
  3. 前記複数のフレームをサブサンプリングするステップをさらに含む
    請求項1記載の方法。
  4. 前記映像は、低フレームレートで取得される
    請求項1記載の方法。
  5. 前記フレームは、2フレーム毎秒未満のレートで取得される
    請求項1記載の方法。
  6. 非連結画素を除去して前記移動物体を検出するステップをさらに含む
    請求項1記載の方法。
  7. 前記複数のカーネルは、前記移動物体に関連する全ての画素を包囲する物体カーネルと、前記移動物体の画素の90%を含む内部カーネルと、前記物体カーネルの2倍のエリアサイズである外部カーネルとを含む
    請求項1記載の方法。
  8. 各カーネルは、矩形である
    請求項7記載の方法。
  9. 各カーネルは、円形エリアである
    請求項7記載の方法。
  10. 各カーネルは、前フレームにおける前記移動物体の形状である
    請求項7記載の方法。
  11. 前記複数のカーネルは、画素強度の勾配の方向に移動される
    請求項1記載の方法。
  12. 前記物体モデルは(W×H)×Dの要素行列であり、各要素は色サンプルを含み、ここで、W及びHはそれぞれ前記物体モデルの幅及び高さであり、Dは連続フレーム数で測定される奥行きである
    請求項1記載の方法。
  13. 現フレーム中の前記移動物体の前記推定位置はzであり、前記物体カーネル内の画素は(x,u i=1であり、ここで、xはフレーム座標系の2D座標であり、uは、画素の色及び垂直勾配の大きさを含む特徴ベクトルであり、前記物体モデルにおけるサンプル点は(y,vjk j=1として表され、ここで、yは物体モデル座標系の2D座標であり、vjkは2Dの色及び勾配の大きさの特徴ベクトル{vjkk=1,...,D+2である 請求項12記載の方法。
  14. 各カーネルは、ガウス関数により重み付けされる
    請求項1記載の方法。
  15. 各カーネルは、カラーヒストグラムにより表される
    請求項1記載の方法。
  16. 前記尤度は、パーゼン窓推定器を用いて求められる
    請求項1記載の方法。
  17. 前記移動物体のサイズをスケーリングするステップをさらに含む
    請求項1記載の方法。
  18. 前記カーネルの以前の位置を集約するステップと、
    前記集約した位置を標準化して前記移動物体の前記経路の尤度を得るステップとをさらに含む
    請求項1記載の方法。
  19. 前記背景モデルと前記フレームとの間の距離マップを求めるステップと、
    前記フレーム中の各画素に前記距離マップ中の値を、前記画素と前記カーネルの前の位置との間の距離により重み付けするステップと、
    前記距離マップ中の複数のピークを求めるステップと、
    前記移動物体の前の位置を前記ピークのうちの1つとして割り当てるステップと、
    互いに近いピークをマージするステップと、
    前記マージされたピークを前記ピークの大きさに関して閾値処理するステップと、
    各ピークを中心とする前記複数のカーネルのうちの1つを中心に位置決めするステップとをさらに含む
    請求項1記載の方法。
  20. 前記距離マップに関して前記画素をクラスタリングするステップをさらに含む
    請求項19記載の方法。
  21. 前記移動物体のサイズを用いて空間平均値シフト分割を適用することをさらに含む
    請求項20記載の方法。
  22. 考え得るカーネル位置の初期の組を選択するステップと、
    物体モデルと、前記初期の組内の前記位置を中心とする前記カーネルとの間の類似度スコアを求めるステップと、
    前記初期のカーネル位置からの距離に反比例する重みを各位置に割り当てるステップと、
    前記類似度スコアに前記重みを掛けてピーク尤度を求めるステップと、
    最大のピーク尤度スコアを有する考え得る位置から開始することによって、最大カーネル数に達するか、又は考え得るカーネル位置が残らなくなるまで、反復毎に前記物体サイズに比例する領域を除去することによって前記複数のカーネル位置を繰り返し選択するステップとをさらに含む
    請求項1記載の方法。
  23. 経路尤度マップに基づいて前記考え得るカーネル位置の初期の組を選択するステップをさらに含む
    請求項22記載の方法。
  24. 前記映像が取得されたフレームレートに従って前記複数のカーネルの数を求めるステップをさらに含む
    請求項1記載の方法。
  25. 前記映像が取得されたフレームレートに比例する値の範囲内で前記物体カーネルの寸法を変更するステップをさらに含む
    請求項7記載の方法。
  26. 前記背景モデルは、前記画素の勾配の大きさ、向き、及びテクスチャの特徴に基づく
    請求項1記載の方法。
  27. カーネル毎に、
    前記カーネルの推定位置と前記カーネルの前の位置との間の距離を測定することによって距離尤度スコアを求めるステップと、
    以前のフレーム中の前記移動物体の以前の速度及び方向に基づいて動き尤度スコアを求めるステップと、
    前記物体モデルを前記カーネルの前記推定位置における色、勾配、向き及びテクスチャと比較することによってモデル尤度スコアを求めるステップと、
    前記距離尤度、前記動き尤度、及び前記モデル尤度の加重和を集約することによって融合スコアを求めるステップと、
    前記融合スコアを用いて前記現フレーム中の前記移動物体の新たな位置を割り当てるステップとをさらに含む
    請求項1記載の方法。
  28. 前記複数のカーネルの最大融合スコアを求めるステップと、
    前記最大融合スコアにより前記移動物体の前記新たな位置を割り当てるステップと
    をさらに含む
    請求項27記載の方法。
  29. カーネル毎に、前記カーネルの前記推定位置と前記移動物体の前記前の位置との間の差ベクトルを構築するステップと、
    前記差ベクトルに前記融合スコアを掛けるステップと、
    前記掛けられた差ベクトルの和である和ベクトルを求めるステップと、
    前記和ベクトルを標準化するステップと、
    前記標準化されたベクトルを前記移動物体の前記新たな位置と前記前の位置との間の差として割り当てるステップとをさらに含む
    請求項27記載の方法。
JP2007525087A 2005-04-01 2006-03-29 カメラによりシーンに関して取得された映像中の移動物体を追跡する方法 Expired - Fee Related JP4782123B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/097,400 2005-04-01
US11/097,400 US7418113B2 (en) 2005-04-01 2005-04-01 Tracking objects in low frame rate videos
PCT/JP2006/307157 WO2006107055A2 (en) 2005-04-01 2006-03-29 Method for tracking moving object in video acquired of scene with camera

Publications (3)

Publication Number Publication Date
JP2008535038A true JP2008535038A (ja) 2008-08-28
JP2008535038A5 JP2008535038A5 (ja) 2009-04-02
JP4782123B2 JP4782123B2 (ja) 2011-09-28

Family

ID=36950084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007525087A Expired - Fee Related JP4782123B2 (ja) 2005-04-01 2006-03-29 カメラによりシーンに関して取得された映像中の移動物体を追跡する方法

Country Status (6)

Country Link
US (1) US7418113B2 (ja)
EP (1) EP1836683B1 (ja)
JP (1) JP4782123B2 (ja)
CN (1) CN101120382B (ja)
DE (1) DE602006017651D1 (ja)
WO (1) WO2006107055A2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010517139A (ja) * 2007-01-18 2010-05-20 シーメンス コーポレイト リサーチ インコーポレイテツド 車両を検出および追跡するためのシステムおよび方法
JP2011014133A (ja) * 2009-06-30 2011-01-20 Mitsubishi Electric Research Laboratories Inc 平均値シフト手順を用いてサンプルをクラスタリングするための方法
JP2013537661A (ja) * 2010-06-30 2013-10-03 タタ コンサルタンシー サービシズ リミテッド ステレオビジョン技術を使用することによる移動物体の自動検出
JP6412998B1 (ja) * 2017-09-29 2018-10-24 株式会社Qoncept 動体追跡装置、動体追跡方法、動体追跡プログラム
JPWO2022091620A1 (ja) * 2020-10-28 2022-05-05

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7450735B1 (en) * 2003-10-16 2008-11-11 University Of Central Florida Research Foundation, Inc. Tracking across multiple cameras with disjoint views
US20060224318A1 (en) * 2005-03-30 2006-10-05 Wilson Robert C Jr Trajectory prediction
US7720257B2 (en) * 2005-06-16 2010-05-18 Honeywell International Inc. Object tracking system
US7853042B2 (en) * 2006-01-11 2010-12-14 Siemens Corporation Tunable kernels for tracking
US20070171281A1 (en) * 2006-01-23 2007-07-26 Honeywell International Inc. Object initialization in video tracking
US7576639B2 (en) * 2006-03-14 2009-08-18 Mobileye Technologies, Ltd. Systems and methods for detecting pedestrians in the vicinity of a powered industrial vehicle
JP4631806B2 (ja) * 2006-06-05 2011-02-16 日本電気株式会社 物体検出装置、物体検出方法および物体検出プログラム
CN101512528A (zh) * 2006-09-29 2009-08-19 汤姆森特许公司 动态状态估计
CN101325691B (zh) * 2007-06-14 2010-08-18 清华大学 融合不同生存期的多个观测模型的跟踪方法和跟踪装置
EP2015252B1 (en) * 2007-07-08 2010-02-17 Université de Liège Visual background extractor
US8538171B2 (en) * 2008-03-28 2013-09-17 Honeywell International Inc. Method and system for object detection in images utilizing adaptive scanning
CN101290681B (zh) * 2008-05-26 2010-06-02 华为技术有限公司 视频目标跟踪方法、装置及自动视频跟踪系统
US8243987B2 (en) * 2008-06-06 2012-08-14 International Business Machines Corporation Object tracking using color histogram and object size
AU2008264232B2 (en) * 2008-12-30 2012-05-17 Canon Kabushiki Kaisha Multi-modal object signature
US8948513B2 (en) * 2009-01-27 2015-02-03 Apple Inc. Blurring based content recognizer
US20100208063A1 (en) * 2009-02-19 2010-08-19 Panasonic Corporation System and methods for improving accuracy and robustness of abnormal behavior detection
TWI376648B (en) * 2009-02-25 2012-11-11 Micro Star Int Co Ltd Method and device for keeping image background by multiple gauss models
DE102009038364A1 (de) * 2009-08-23 2011-02-24 Friedrich-Alexander-Universität Erlangen-Nürnberg Verfahren und System zur automatischen Objekterkennung und anschließenden Objektverfolgung nach Maßgabe der Objektform
EP2548174B1 (en) * 2010-03-15 2015-05-27 Panasonic Corporation Method and apparatus for trajectory estimation, and method for segmentation
WO2012016374A1 (en) * 2010-08-03 2012-02-09 Empire Technology Development Llc Method for identifying objects in video
US8905314B2 (en) 2010-09-30 2014-12-09 Apple Inc. Barcode recognition using data-driven classifier
MY162243A (en) * 2010-12-02 2017-05-31 Mimos Berhad Method and system for tracking object using adaptive attention regions
CN102087747B (zh) * 2011-01-05 2012-09-19 西南交通大学 基于单纯形法的对象跟踪方法
US8406470B2 (en) * 2011-04-19 2013-03-26 Mitsubishi Electric Research Laboratories, Inc. Object detection in depth images
US8553943B2 (en) * 2011-06-14 2013-10-08 Qualcomm Incorporated Content-adaptive systems, methods and apparatus for determining optical flow
AU2011203219B2 (en) * 2011-06-30 2013-08-29 Canon Kabushiki Kaisha Mode removal for improved multi-modal background subtraction
US8799201B2 (en) * 2011-07-25 2014-08-05 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for tracking objects
EP2600611A1 (de) * 2011-11-29 2013-06-05 Xovis AG Verfahren und Vorrichtung zur überwachung eines Überwachungsbereichs
US8855427B2 (en) * 2011-12-16 2014-10-07 Harris Corporation Systems and methods for efficiently and accurately detecting changes in spatial feature data
US8755606B2 (en) 2011-12-16 2014-06-17 Harris Corporation Systems and methods for efficient feature extraction accuracy using imperfect extractors
JP2013191163A (ja) * 2012-03-15 2013-09-26 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
US9584806B2 (en) * 2012-04-19 2017-02-28 Futurewei Technologies, Inc. Using depth information to assist motion compensation-based video coding
CN102903119B (zh) * 2012-05-22 2016-01-20 通号通信信息集团有限公司 一种目标跟踪方法和装置
CN102881023B (zh) * 2012-08-08 2015-10-14 大唐移动通信设备有限公司 一种缩短背景建模时间的方法及装置
US9589190B2 (en) * 2012-12-21 2017-03-07 Robert Bosch Gmbh System and method for detection of high-interest events in video data
KR101970577B1 (ko) * 2013-04-09 2019-04-19 엘지디스플레이 주식회사 입체 영상 표시 장치 및 그의 아이-트랙킹 방법
US9659033B2 (en) 2013-08-19 2017-05-23 Nant Holdings Ip, Llc Metric based recognition, systems and methods
CN104408739A (zh) * 2014-04-02 2015-03-11 武汉科技大学 一种运动目标的检测方法及其监控系统
KR102356448B1 (ko) * 2014-05-05 2022-01-27 삼성전자주식회사 이미지 합성 방법 및 그 전자 장치
CN106373143A (zh) * 2015-07-22 2017-02-01 中兴通讯股份有限公司 一种自适应跨摄像机多目标跟踪方法及系统
US10019637B2 (en) * 2015-11-13 2018-07-10 Honda Motor Co., Ltd. Method and system for moving object detection with single camera
JP6631360B2 (ja) * 2016-03-29 2020-01-15 ブラザー工業株式会社 画像処理装置および画像処理方法
US10026193B2 (en) * 2016-05-24 2018-07-17 Qualcomm Incorporated Methods and systems of determining costs for object tracking in video analytics
US10380756B2 (en) * 2016-09-08 2019-08-13 Sony Corporation Video processing system and method for object detection in a sequence of image frames
US10198621B2 (en) 2016-11-28 2019-02-05 Sony Corporation Image-Processing device and method for foreground mask correction for object segmentation
US10210398B2 (en) * 2017-01-12 2019-02-19 Mitsubishi Electric Research Laboratories, Inc. Methods and systems for predicting flow of crowds from limited observations
US10755419B2 (en) * 2017-01-30 2020-08-25 Nec Corporation Moving object detection apparatus, moving object detection method and program
CN107122751B (zh) * 2017-05-03 2020-12-29 电子科技大学 一种基于人脸对齐的人脸跟踪和人脸图像捕获方法
DE102017219402A1 (de) * 2017-10-27 2019-05-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zum erkennen und verfolgen von objekten in einer videosequenz
TWM560035U (zh) * 2017-11-13 2018-05-11 鄭宇傑 影像追蹤裝置
CN109272528A (zh) * 2018-09-18 2019-01-25 图普科技(广州)有限公司 一种行人轨迹获取方法及装置
US11783707B2 (en) 2018-10-09 2023-10-10 Ford Global Technologies, Llc Vehicle path planning
EP3680858A1 (en) * 2019-01-11 2020-07-15 Tata Consultancy Services Limited Dynamic multi-camera tracking of moving objects in motion streams
US11460851B2 (en) 2019-05-24 2022-10-04 Ford Global Technologies, Llc Eccentricity image fusion
US11521494B2 (en) 2019-06-11 2022-12-06 Ford Global Technologies, Llc Vehicle eccentricity mapping
US11662741B2 (en) 2019-06-28 2023-05-30 Ford Global Technologies, Llc Vehicle visual odometry
RU2725708C1 (ru) * 2019-10-11 2020-07-03 Акционерное общество "Федеральный центр науки и высоких технологий "Специальное научно-производственное объединение "Элерон" (АО "ФЦНИВТ "СНПО "Элерон") Малокадровая мобильная система видеонаблюдения и охранной сигнализации
US20240161313A1 (en) * 2022-11-11 2024-05-16 Nec Laboratories America, Inc. Machine learning model for multi-camera multi-person tracking

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3552456B2 (ja) * 1997-05-01 2004-08-11 セイコーエプソン株式会社 動物体追跡方法
JP3401512B2 (ja) * 1999-03-26 2003-04-28 株式会社国際電気通信基礎技術研究所 移動物体追跡装置
JP2002007432A (ja) * 2000-06-23 2002-01-11 Ntt Docomo Inc 情報検索システム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010517139A (ja) * 2007-01-18 2010-05-20 シーメンス コーポレイト リサーチ インコーポレイテツド 車両を検出および追跡するためのシステムおよび方法
JP2011014133A (ja) * 2009-06-30 2011-01-20 Mitsubishi Electric Research Laboratories Inc 平均値シフト手順を用いてサンプルをクラスタリングするための方法
JP2013537661A (ja) * 2010-06-30 2013-10-03 タタ コンサルタンシー サービシズ リミテッド ステレオビジョン技術を使用することによる移動物体の自動検出
JP6412998B1 (ja) * 2017-09-29 2018-10-24 株式会社Qoncept 動体追跡装置、動体追跡方法、動体追跡プログラム
CN109584268A (zh) * 2017-09-29 2019-04-05 广赛布托有限公司 移动体跟踪装置、移动体跟踪方法及计算机可读记录介质
KR20190038409A (ko) * 2017-09-29 2019-04-08 컨셉 주식회사 동체 추적 장치, 동체 추적 방법, 동체 추적 프로그램
JP2019066974A (ja) * 2017-09-29 2019-04-25 株式会社Qoncept 動体追跡装置、動体追跡方法、動体追跡プログラム
KR102078473B1 (ko) 2017-09-29 2020-02-17 컨셉 주식회사 동체 추적 장치, 동체 추적 방법, 동체 추적 프로그램
CN109584268B (zh) * 2017-09-29 2023-05-23 广赛布托有限公司 移动体跟踪装置、移动体跟踪方法及计算机可读记录介质
JPWO2022091620A1 (ja) * 2020-10-28 2022-05-05
WO2022091620A1 (ja) * 2020-10-28 2022-05-05 京セラ株式会社 物体追跡装置及び物体追跡方法
JP7425223B2 (ja) 2020-10-28 2024-01-30 京セラ株式会社 物体追跡装置及び物体追跡方法

Also Published As

Publication number Publication date
US20060222205A1 (en) 2006-10-05
EP1836683A2 (en) 2007-09-26
WO2006107055A2 (en) 2006-10-12
DE602006017651D1 (de) 2010-12-02
WO2006107055A3 (en) 2007-08-23
CN101120382B (zh) 2011-09-07
US7418113B2 (en) 2008-08-26
JP4782123B2 (ja) 2011-09-28
CN101120382A (zh) 2008-02-06
EP1836683B1 (en) 2010-10-20

Similar Documents

Publication Publication Date Title
JP4782123B2 (ja) カメラによりシーンに関して取得された映像中の移動物体を追跡する方法
Deori et al. A survey on moving object tracking in video
US8045783B2 (en) Method for moving cell detection from temporal image sequence model estimation
Liu et al. Nonparametric background generation
JP2006216046A (ja) ビデオのフレームのシーケンスにおける背景をモデル化するコンピュータが実施する方法
Porikli et al. Object tracking in low-frame-rate video
Porikli et al. Multi-kernel object tracking
Tavakkoli et al. A novelty detection approach for foreground region detection in videos with quasi-stationary backgrounds
Angelo A novel approach on object detection and tracking using adaptive background subtraction method
Roy et al. A comprehensive survey on computer vision based approaches for moving object detection
Giveki et al. Atanassov's intuitionistic fuzzy histon for robust moving object detection
Sunkara et al. Object tracking techniques and performance measures—A conceptual survey
Mohanty et al. A survey on moving object detection using background subtraction methods in video
Xie et al. A multi-object tracking system for surveillance video analysis
Mangal et al. Real time moving object detection for video surveillance based on improved GMM
Dadgostar et al. Gesture-based human–machine interfaces: a novel approach for robust hand and face tracking
CN110322474B (zh) 一种基于无人机平台的图像动目标实时检测方法
Tank et al. A fast moving object detection technique in video surveillance system
Bhuvaneswari et al. TRACKING MANUALLY SELECTED OBJECT IN VIDEOS USING COLOR HISTOGRAM MATCHING.
Jalal et al. Robust object tracking under appearance change conditions based on Daubechies complex wavelet transform
Zhong et al. Local spatial co-occurrence for background subtraction via adaptive binned kernel estimation
Antić et al. Robust detection and tracking of moving objects in traffic video surveillance
Wang et al. Vehicle detection based on spatial-temporal connection background subtraction
Mahajan et al. Detection of Change in Body Motion With Background Construction and Silhouette Orientation: Background Subtraction With GMM
Ghedia et al. Moving Objects Detection Using Machine Learning

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110506

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110706

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140715

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4782123

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees