JP4886678B2 - 検出および追跡のためのグラフオブジェクトモデル - Google Patents

検出および追跡のためのグラフオブジェクトモデル Download PDF

Info

Publication number
JP4886678B2
JP4886678B2 JP2007515302A JP2007515302A JP4886678B2 JP 4886678 B2 JP4886678 B2 JP 4886678B2 JP 2007515302 A JP2007515302 A JP 2007515302A JP 2007515302 A JP2007515302 A JP 2007515302A JP 4886678 B2 JP4886678 B2 JP 4886678B2
Authority
JP
Japan
Prior art keywords
image
probability
component
frame
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007515302A
Other languages
English (en)
Other versions
JP2008500640A (ja
JP2008500640A5 (ja
Inventor
シーガル レオニード
ツゥ イン
コマニチ ドリン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Corp
Original Assignee
Siemens Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=34971753&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP4886678(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Siemens Corp filed Critical Siemens Corp
Publication of JP2008500640A publication Critical patent/JP2008500640A/ja
Publication of JP2008500640A5 publication Critical patent/JP2008500640A5/ja
Application granted granted Critical
Publication of JP4886678B2 publication Critical patent/JP4886678B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Description

本出願は2004年5月27日に出願されたアメリカ合衆国暫定特許出願通し番号60/574,799の優先権を主張するものであり、該アメリカ合衆国暫定特許出願の全体が参照として本願に取り込まれている。
発明の背景
1.技術分野:
本発明は画像処理に、より詳細には、画像内のオブジェクトの自動検出および追跡に関する。
2.関連技術の検討:
複数のカテゴリのオブジェクト(例えば、顔、群衆、車)を記述および認識する問題はコンピュータビジョンの使用において重要である。オブジェクトを特有の外観と空間的広がりと位置とをもつ特徴のコレクションとして表現することは、一般的である。しかしながら、必要とされる特徴が幾つであるか、またこれらの特徴をどのように検出し表現するかに関しては、大きなばらつきがある。
したがって、コンポーネント検出を実現し、空間および時間にわたる推論を行う、オブジェクト検出および追跡のシステムと方法とに対するニーズが存在している。
発明の概要
本開示の1つの実施形態によれば、コンピュータを利用したオブジェクト検出の方法は、検出すべきオブジェクトの時空間モデルを提供するステップと、前記オブジェクトを含んだ複数の画像から成るビデオを提供するステップと、前記オブジェクトを各画像内のコンポーネントのコレクションとして測定するステップを有する。この方法はさらに、前記オブジェクトが各画像内にある確率を求めるステップと、各画像についての前記確率とオブジェクト検出の閾値との比較に基づいて、前記画像のいずれかにおいて前記オブジェクトを検出するステップを有する。
検出すべきオブジェクトの時空間モデルを提供するステップは、コンポーネントのコレクションの各々に対して検出器を提供するステップを含んでいる。
前記時空間モデルは、コンポーネントのコレクションの各々とオブジェクトとに対応するノードを含んだグラフモデルである。
オブジェクトが各画像内にある確率を求めるステップは、現在画像に関連する先行画像と後続画像とから求めたコンポーネントのコレクションとしてのオブジェクトの測定値に従って、現在画像内のオブジェクトを検出するステップを含んでいる。
検出すべきオブジェクトの時空間モデルを提供するステップはさらに、複数の画像を画定する時間窓を提供するステップを含んでおり、該時間窓内で検出されたコンポーネントの測定値は現在画像内で検出されたコンポーネントに渡される。
オブジェクトが各画像内にある確率を求めるステップは、各画像内のオブジェクトの位置と大きさとに関する確率を求めるステップを含んでいる。
前記閾値は検出すべきオブジェクトに対して設けられるものであり、経験的に求められる。
N個のコンポーネントをもつ前記時空間モデルの同時確率分布は、
Figure 0004886678
である。
本開示の1つの実施形態によれば、オブジェクト検出のための方法ステップを実行する機械実行可能な命令プログラムを実体的に実現した機械可読プログラムストレージデバイスが提供される。前記方法ステップは、検出すべきオブジェクトの時空間モデルを提供するステップと、前記オブジェクトを含んだ複数の画像から成るビデオを提供するステップと、前記オブジェクトを各画像内のコンポーネントのコレクションとして測定するステップを含んでいる。この方法はさらに、前記オブジェクトが各画像内にある確率を求めるステップと、各画像についての前記確率とオブジェクト検出の閾値との比較に基づいて、前記画像のいずれかにおいて前記オブジェクトを検出するステップを有する。
図面の簡単な説明
以下では、添付の図面を参照して、本発明の好ましい実施形態をより詳細に説明する。
図1は、本開示の1つの実施形態によるシステムを示しており、
図2Aおよび2Bは、それぞれ本開示の1つの実施形態による歩行者と車両に関するグラフモデルを示しており、
図3は、歩行者と本開示の1つの実施形態に従って識別されたこの歩行者のコンポーネントとを示しており、
図4は、本開示の1つの実施形態によるグラフモデルにおけるメッセージの受け渡し方法のフローチャートを示しており、
図5は、本開示の1つの実施形態による方法のフローチャートを示している。
好ましい実施形態の詳細な説明
本開示の1つの実施形態によれば、画像内またはビデオ内のオブジェクトのコンポーネントに基づいた自動検出および追跡の確率論的フレームワークは、オブジェクト検出と追跡を1つの統一されたフレームワークへと結合する。追跡はオクルージョンが一時的に衰退している間の初期化および再初期化のためにオブジェクト検出を利用する。オブジェクト検出は検出の経時的な整合性を考慮する。画像ベースの、恐らくはオーバーラップしたコンポーネント配列によるオブジェクトのモデリングは、複雑に分節化したオブジェクトの検出を容易にするとともに、オブジェクトの部分的なオクルージョンや照明の局所的な変化の処理にも役立つ。
図2Aおよび2Bを参照すると、オブジェクトの検出および追跡は二層グラフモデルにおける推論として定式化されている。この二層グラフモデルでは、粗い層のノードがオブジェクト全体を表し、細かい層のノードがオブジェクトの複数のコンポーネントを表している。ノード間の有向辺は、学習した確率的な時間的および空間的制約条件を表している。グラフモデル内の各ノードは、ある時点における画像内のコンポーネントまたはオブジェクト全体の位置およびスケールに対応している。また、各ノードは、局所的な画像尤度を確定するために使用される対応する適応ブースティング(Adaboost)検出器と提案プロセスも有している。一般に、尤度と依存度はガウシアンではない。各ノードにおいて2Dの位置およびスケールを推論するために、ノンパラメトリック信念伝播法(BP)が実施される。ノンパラメトリック信念伝播法(BP)は、一種のパーティクルフィルタリングを使用しており、ループをもつグラフに適用することができる。
本発明はハードウェア、ソフトウェア、ファームウェア、専用プロセッサ、またはこれらの組合せといった様々な形態で実施できることが理解されなければならない。1つの実施形態では、本発明はプログラムストレージデバイス上に実体的に実現されたアプリケーションプログラムとしてソフトウェア内で実施される。このアプリケーションプログラムは、任意の適切なアーキテクチャをもつマシンにダウンロードされ、このマシンによって実行される。
図1を参照すると、オブジェクトの検出および追跡方法を実施するコンピュータシステム101は、本開示の1つの実施形態に従って、とりわけ、中央処理ユニット(CPU)102、メモリ103、および入力/出力(I/O)インタフェース104から成ることができる。コンピュータシステム101は一般にI/Oインタフェース104を介してディスプレイ105とマウスやキーボードのような様々な入力デバイス106に接続されている。補助回路は、キャッシュ、電源、クロック回路、および通信バスのような回路を含んでいてよい。メモリ103は、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、ディスクドライブ、テープドライブなど、またはこれらの組合せを含んでいてよい。本発明はルーチン107として実施される。このルーチン107は、メモリ103に格納されており、信号源108からの信号を処理するためにCPU102により実行される。コンピュータシステム101はそれ自体としては汎用コンピュータシステムであり、本発明のルーチン107を実行するときに専用コンピュータシステムとなる。
コンピュータプラットフォーム101はまたオペレーティングシステムとマイクロ命令コードを有している。本明細書に記載されている様々なプロセスと機能は、マイクロ命令コードの一部であるか、またはオペレーティングシステムを介して実行されるアプリケーションプログラムの一部(またはこれらの組合せ)であってよい。さらに、付加的なデータストレージデバイスや印刷装置のような他の様々な周辺機器をこのコンピュータプラットフォームに接続してもよい。
添付図面に描かれたシステム構成要素と方法ステップのうちのいくつかはソフトウェアで実施されうるものであるから、システム構成要素(またはプロセスステップ)間の実際の接続は、本発明がプログラムされる仕方に応じて異なっていてよいことが理解されなければならない。本明細書で提供される本発明の教唆があれば、当業者は本発明のこれらの実施形態または構成ならびに類似の実施形態または構成を考案することができる。
グラフオブジェクトモデル;自動車(図2参照)のようなオブジェクトは、有向時空間モデルとしてモデリングされる。グラフ内の各ノードは時点tにおけるオブジェクトまたはオブジェクトのコンポーネントのいずれかを表している。ノードは、画像内でのコンポーネントの実数値での位置とスケールとを定める対応する状態ベクトルXT=(x,y,s)を有している(ここで、x,y,s∈R)。N個のコンポーネントをもつこの時空間グラフオブジェクトモデルの同時確率分布は次のように書ける:
Figure 0004886678
ここで、XO tとXCn tはそれぞれ時点tにおけるオブジェクトOの状態とオブジェクトの第nコンポーネントCnの状態であり(n∈(1,N)、t∈(1,T))、Ψik(XO i,XO j)はフレームiとjの間のオブジェクト状態の空間的両立性であり、Ψik(XO i,XCk i)はフレームiにおけるオブジェクトとそのコンポーネントの空間的両立性であり、Ψkl(XCk i,XCi i)はフレームiにおけるオブジェクトコンポーネント間の空間的両立性であり、φi(XO i)とφi(XCk i)はそれぞれオブジェクト状態とコンポーネント状態の局所的証拠を指示している。
本開示の1つの実施形態によれば、システムは以下のモジュールから成る:グラフモデルモジュール、グラフ内の各ノードの状態を推論する能力を提供する推論モジュール、局所的証拠分布(または画像尤度)モジュール、グラフモデル内のいつくかのノードまたはすべてのノードに関する提案プロセスモジュール、および、グラフの辺に対応する空間的および/または時間的制約条件の集合から成るモジュール。
グラフモデルの構築;単一フレームの場合には、オブジェクトは、例えば図2Aおよび2Bに示されているように、二層空間グラフモデルを用いて表現される。細かいコンポーネント層201は一連の疎結合した部分、例えば202、を含んでいる。粗いオブジェクト層203はオブジェクトの外観モデルの全体に対応しており、すべてのコンポーネント、例えば202、と結合している。歩行者と車両の検出の場合におけるこのようなモデルの例はそれぞれ2Aと2Bに示されている。両方の場合とも、オブジェクトはオーバーラップする4つの画像コンポーネントを用いてモデリングされる。車両の場合、コンポーネントは左上(TL)204、右上(TR)205、右下(BR)206、および左下(BL)207の四隅である。歩行者の画像301の場合、コンポーネントは頭(HD)208、左腕(LA)209、右腕(RA)210、および脚(LG)202である(図3参照)。
時間的制約条件を取り込むために、空間グラフモデルは時間の経過に従って任意の長さの時間窓にまで拡張される。結果として得られる時空間モデルは図2Aおよび2Bに示されている。二層グラフモデルを有することにより、推論プロセスはオブジェクト全体、例えば203、に関して明確に推論をすることが可能になり、また、オブジェクトの全体的な外観を所与として、コンポーネントの、例えば202および208−210の、条件的独立性の仮定を認めることにより、時間の経過とともにグラフモデルの複雑性を減少させることができる。択一的に、双方向の時間的制約条件を付けて単一オブジェクト層モデルを構築してもよい。
図2Aおよび2Bに見られるように、現時点のオブジェクトはOtで表されており、現時点より前のモデルではOt-(w-1)/2で表されており、後のモデルではOt+(w-1)/2で表されている。
空間的および時間的制約条件の学習;コンポーネントiとjの間のそれぞれの有向辺は、ノード状態の対の間の両立性を符号化する対応するポテンシャル関数Ψij(Xi,Xj)を有している。このポテンシャル関数Ψij(Xi,Xj)はMij個のガウシアンの混合によってモデリングされる:
Figure 0004886678
ここで、λ0は固定の外れ値確率であり、μijとΛijは外れ値のガウス過程の平均と共分散であり、Fijm(・)とGijm(・)はそれぞれm番目のガウシアン混合のコンポーネントの平均、共分散である。δijmは個々のコンポーネントの相対的な重みであり、
Figure 0004886678
である。ここに記した実験では、Mij=2の混合コンポーネントを使用した。
各コンポーネントが単一の基準点に対応付けられている一連のラベル付けされた画像が与えられると、以下の形式のFijm(・)を学習するために、K平均初期化を伴った反復期待最大化(EM)法が実施される:
Figure 0004886678
ここで、μx ijm、μy ijm、μs ijmはiに対するコンポーネントまたはオブジェクトjの平均位置およびスケールである。Gijm(・)は、相対的な位置とスケールを表す対角行列であると仮定する。
AdaBoost画像尤度;尤度φi(Xi)は、ノードiの状態Xiに依存する、画像の観察確率をモデリングする。本開示の1つの実施形態による尤度モデルはブースト分類子を使用しており、部分的なオクルージョンと、異なる多数の入力間での画像統計量の変動性とに対してロバストである。
ブースト検出器は各コンポーネントに関して訓練される。簡潔さのために、AdaBoostをカスケードにせずに使用してもよい。カスケードを用いて訓練すれば、システムの計算効率は改善されるだろう。検出器が出す偽陽性の数を減らすために、ブートスラップ法により、訓練された強分類子を一連の背景画像(例えば、所望のオブジェクトを含まない画像)の上で走らせることにより集められた偽陽性を繰り返し加え、古い陽性の集合と新しい拡張された陰性の集合を用いて検出器を再訓練する。
ラベル付けされたパターンの集合が与えられると、AdaBoostプロシージャは基底弱分類子の加重結合
Figure 0004886678
を学習する。ここで、Iは画像パターンであり、hk(I)はk回目のブースティングのために選ばれた弱分類子であり、αkは対応する重みである。hk(I)=pk([fk(I))βk1/βk<θk)として弱分類子法が実施される。ここで、fk(I)は空間テンプレートの広がりの上でパターンIをδ関数で畳み込むことによって計算されたパターンIの特徴であり、θkは閾値であり、pkは不等号の向きを表す極性であり、βk∈{1,2}は対称的な両側パルス分類を可能にする。
AdaBoost分類子の出力は、所与のパターンIが所望のクラスものである信頼度hk(I)である。
Figure 0004886678
ならば、オブジェクトは存在すると見なされる。この信頼度は、h(I)∈[0,1]、かつ、指数関数が
Figure 0004886678
となるように、αkたちを正規化することにより、尤度関数に変換される。ここで、Tは尤度関数の滑らかさを制御する温度パラメータであり、Tの値が小さくなれば、分布のピークはより険しくなる。したがって、尤度はTの変化のスケジュールを導出することにより焼き鈍すことができる。実用において良く機能するように、指数関数的焼き鈍しスケジュールT=T0υκが求められている。ここで、T0は初期温度であり、υはυ∈(0,1)となる小数であり、κは焼き鈍しの繰り返し回数である。
オブジェクトによっては、オブジェクト層ノードに対して尤度または提案プロセスが得られる場合もあれば、得られない場合もある。例えば、オブジェクトの全体的な外観が複雑すぎて全体(例えば、任意の大きさの車両)としてモデリングできず、コンポーネントでしかモデリングできない場合、オブジェクト状態空間上に一様尤度を仮定してもよい。このような場合、オブジェクト層ノードは単純にコンポーネント情報を融合して、経時的に整合するオブジェクト状態の推定値を出す。
ノンパラメトリックBP;あるフレームワークにおいてオブジェクトとそのコンポーネントの状態を推論することは、グラフモデルにおいて信念を推定することとして定義される。このタスクを処理するために、ノンパラメトリック信念伝播法の1つの形態であるPAMPAS(Proceedings of IEEE International Conference on Computer Vision and Pattern Recognition, vol.1, pp.421-428, 2004に所収の"PAMPAS: Real-valued graphical models for computer vision"においてM.Isardにより提案されている)が実施される。この手法はパーティクルフィルタリングの一般化であり、単純なチェーンの上での推論はなく任意のグラフの上での推論を可能にする。この一般化では、信念伝播法において使用されるメッセージは、ガウス密度の混合を通してパーティクル集合を伝播させることにより形成されるカーネル密度で近似され、標準的なパーティクルフィルタリングで使用される条件付き分布は入来するメッセージの積で置き換えられる。計算の複雑さのほとんどは、メッセージの受け渡しと信念推定に必要とされるカーネル密度の積からのサンプリングにある。この問題に対処するために、我々は効率的な逐次マルチスケール・ギブズ・サンプリングとε正確な(epsilon-exact)サンプリングを使用する。
個々のメッセージは十分にノードを制約しないこともあるが、ノードに入来するすべてのメッセージにわたる積は状態空間内に非常に密な分布を生じさせる傾向がある。例えば、車両のいずれか1つのコンポーネントでは車両の高さを信頼性をもって推定することは不可能であるが、すべてのコンポーネントからの情報がオブジェクト層ノードに取り込まれれば、オブジェクトの全体的な大きさの推定値を計算することができる。
より形式的には、メッセージmij
Figure 0004886678
と書かれる。ここで、Aiはノードiの近隣ノードの集合であり、{Ai\j}はノードjを除くノードiの近隣ノードの集合であり、φi(Xi)はノードiに関連した局所的証拠(または尤度)であり、Ψij(Xi,Xj)はノードiとjの状態の間の両立性を示すポテンシャルである。信念および提案関数からの階層的サンプリングによってどのようにメッセージの更新を実行することができるかについての詳細は、図4に示されている。
図4を参照すると、グラフモデルのノード間でメッセージを受け渡しする方法は、ノードiに関連した尤度を求めるステップ401と、ノードiの状態に依存して画像を観察するステップ402と、ノードiとj、ノードiとk、ノードiとlの状態の間の両立性を表すポテンシャルを求めるステップ403を含んでいる。メッセージ405は近隣ノードがどのような状態となるかに関する情報404を伝播させるためにノード間で受け渡しされる。
画像シーケンス全体に対して定義された時空間モデル上で推論を行うことは可能であるが、多くのアプリケーションでは、長たらしいオフライン処理が必要とされるため、これは選択肢とならない。wフレーム窓付き平滑化アルゴリズムは、wが奇数≧1である場合に使用される。窓付き平滑化を行うには、オブジェクト検出を中心とした方法または追跡を中心とした方法の2つの方法がある。前者では、窓をシフトする度にすべてのノードを再初期化する。したがって、時間的統一性はサイズwの窓の中でしか成立しない。追跡を中心とした方法では、新しいフレームに関連するノードしか初期化されないので、t−(w−1)/2より前からの時間的整合性を強化する傾向がある。追跡を中心とした方法はより速く収束し、経時的により整合的な結果を出す一方で、シーンに出入りするオブジェクトに対する感度もより低い。w=1の場合には、このアルゴリズムは単一フレームのコンポーネントに基づいた融合に類似する。
提案プロセス;信頼性を以てオブジェクトを検出および追跡するために、ノンパラメトリックBPはボトムアップ提案プロセスを利用する。このボトムアップ提案プロセスは、絶えずオブジェクトとコンポーネントの状態に関する代替的仮説を探し、提案する。提案分布は重み付けされたパーティクル集合を用いてモデリングされる。コンポーネントの提案パーティクル集合を形成するために、対応するAdaBoost検出器は閾値
Figure 0004886678
より上のスコアを有する検出結果を出すために複数のスケールで画像上を走る。この集合は外観モデル全体にとっては処理可能であるが、専用でないコンポーネント検出器にとっては大きい(例えば、数千のロケーションは容易に見付けることができる)。大きさを減少させるために、上位P位のスコアを有する検出のみが保存される。なお、Pは100〜200のオーダーである。広範な探索を達成するため、一様分布を用いて提案からのサンプルパーティクルをインポートした。
図5を参照すると、コンピュータを利用したオブジェクト検出の方法は、オブジェクトの時空間モデル、例えば、図2Aおよび2B参照、を提供するステップ501、前記オブジェクトを含んだ複数の画像から成るビデオを提供するステップ502、および、前記オブジェクトをビデオの各画像内のコンポーネントのコレクションとして測定するステップ503を含んでいる。この方法さらに、時空間モデルのノードとして表されたコンポーネントの間でのメッセージの受け渡しを利用して、前記オブジェクトが各画像内にある確率を求めるステップ504と、各画像についての前記確率とオブジェクト検出の閾値との比較に基づいて、前記画像のいずれかにおいてオブジェクトを検出するステップ505を含んでいる。
実験;単一の車載グレースケールカメラで収集した一連の画像を用いてテストを行った。55個の連続フレームから成るシーケンスにわたる車両検出および追跡の結果を評価した。3フレーム時空間オブジェクトモデルを使用し、追跡を中心とした方法により、時間の経過とともにこのモデルをシフトさせた。BPは各フレームにおいて10回の繰り返しにわたって30のパーティクルを用いて実行された。比較のために、単純な融合スキームも実施した。この単純な融合スキームは、各フレームにおいて車両位置とスケールの推定値を独立して求めるために、4つのコンポーネントの各々からの最良の検出結果を平均するものである。単純な融合スキームのパフォーマンスは悪く、雑音のあるコンポーネント検出器は正しい位置およびスケールにおいて大域的な最大値を有さないことがよくあることを示唆している。対照的に、時空間オブジェクトモデルはシーケンス全体を通して正確な推定値の証拠を整合的に結合する。
2つの異なるシーンにおいて、2人の歩行者に関して、単一の時間インスタンスに3フレーム時空間オブジェクトモデルを走らせた。車両検出と同様に、10回の繰り返しにわたって30のパーティクルを用いてBPを実行した。両方の実験において、尤度の温度はT0=0.2に設定される。
本開示の1つの実施形態によれば、オブジェクト検出追跡フレームはブースト分類子とノンパラメトリック信念伝播法を利用している。この手法はコンポーネントをベースにした検出を提供し、任意のサイズの時間窓にわたって時間的情報を統合する。このフレームワークのパフォーマンスは、車両と歩行者という2つのオブジェクトのクラスを用いて説明されている。両方のケースにおいて、オブジェクトとそのコンポーネントの位置およびスケールは信頼性をもって推論される。
オブジェクト検出および追跡のためのシステムと方法の実施形態を説明してきたが、当業者には上記の教唆に照らして改良および変更が可能であることを指摘しておきたい。それゆえ、開示された本発明の個々の実施形態に対して、添付した請求項により規定されるものとしての本発明の範囲および趣旨の内で、変更を為しうることが理解されなければならない。以上、特許法により要求される詳細および特定性を以て本発明を説明したが、請求および特許証による保護を求めるものは添付した請求項に示されている。
本開示の1つの実施形態によるシステムを示す。 本開示の1つの実施形態による歩行者に関するグラフモデルを示す。 本開示の1つの実施形態による車両に関するグラフモデルを示す。 歩行者と本開示の1つの実施形態に従って識別されたこの歩行者のコンポーネントとを示す。 本開示の1つの実施形態によるグラフモデルにおけるメッセージの受け渡し方法のフローチャートを示す。 本開示の1つの実施形態による方法のフローチャートを示す。

Claims (14)

  1. コンピュータを利用したオブジェクト検出の方法において、
    検出すべきオブジェクトの時空間モデルを、前記オブジェクトを構成要素の集まりの各々と前記オブジェクトとに対応するノードを含んだグラフとして提供するステップと、
    前記オブジェクトを含んだ複数の画像から成るビデオを提供するステップと、
    前記オブジェクトが各画像内にある確率を前記グラフからの推論により求めるステップと、ただし、前記グラフの各ノードは対応する検出器を有しており、前記確率の算出は前記オブジェクトの構成要素の各集まりに対応する前記検出器によって前記構成要素を検出することを含んでおり、
    各画像についての前記確率とオブジェクト検出の閾値との比較に基づいて、前記画像のいずれかにおいて前記オブジェクトを検出するステップを有することを特徴とする、コンピュータを利用したオブジェクト検出の方法。
  2. 前記時空間モデルのノードに対応する検出器、適応ブースティング(Adaboost)検出器である、請求項1記載の方法。
  3. オブジェクトが各画像内にある確率を求める前記ステップは、前記ビデオの現在画像に時間的に先行する先行画像と時間的に後続する後続画像とから求めたオブジェクトの画像尤度に従って現在画像内のオブジェクトを検出するステップを含んでいる、請求項1記載の方法。
  4. 検出すべきオブジェクトの時空間モデルを提供する前記ステップはさらに、複数の画像を画定する時間窓を提供するステップを含んでおり、該時間窓内で検出されたオブジェクトの構成要素の画像尤度は現在画像内で検出された前記オブジェクトの構成要素に対応するノードに渡される、請求項1記載の方法。
  5. オブジェクトが各画像内にある確率を求める前記ステップは、各画像内のオブジェクトの位置と大きさとに関する確率を求めるステップを含んでいる、請求項1記載の方法。
  6. 前記閾値は検出すべきオブジェクトに対して設けられるものであり、実験により求められる、請求項1記載の方法。
  7. N個の構成要素を持つ前記時空間モデルの同時確率分布は、
    Figure 0004886678
    であり、ここで、Xi OとXi Ck前記ビデオの第iフレームにおけるオブジェクトOの状態とオブジェクトの第構成要素Ck(k∈(1...N)の状態であり、Ψij(Xi O,Xj O)は前記ビデオの第iフレームとフレームの間でのオブジェクトの状態の空間的両立性であり、Ψik(Xi O,Xi Ck)は第iフレームにおけるオブジェクトとその構成要素の空間的両立性であり、Ψkl(Xi Ck,Xi Cl)は第iフレームにおける構成要素間の空間的両立性であり、φi(Xi O)とφi(Xi Ck)はそれぞれオブジェクトの状態と構成要素の状態の局所的証拠である、請求項1記載の方法。
  8. オブジェクト検出のための方法ステップを実行する機械実行可能な命令プログラムを実体的に実現した機械可読プログラムストレージデバイスであって、前記方法ステップが、
    検出すべきオブジェクトの時空間モデルを、前記オブジェクトを構成している要素の集まりの各々と前記オブジェクトとに対応するノードを含んだグラフとして提供するステップと、
    前記オブジェクトを含んだ複数の画像から成るビデオを提供するステップと、
    前記オブジェクトが各画像内にある確率を前記グラフからの推論により求めるステップと、ただし、前記グラフの各ノードは対応する検出器を有しており、前記確率の算出は前記オブジェクトの構成要素の各集まりに対応する前記検出器による前記構成要素の検出を含んでおり、
    各画像についての前記確率とオブジェクト検出の閾値との比較に基づいて、前記画像のいずれかにおいて前記オブジェクトを検出するステップを含んでいることを特徴とする、機械可読プログラムストレージデバイス。
  9. 前記時空間モデルのノードに対応する検出器、適応ブースティング(Adaboost)検出器である、請求項8記載の機械可読プログラムストレージデバイス。
  10. オブジェクトが各画像内にある確率を求める前記ステップは、前記ビデオの現在画像に時間的に先行する先行画像と時間的に後続する後続画像とから求めたオブジェクトの画像尤度に従って現在画像内のオブジェクトを検出するステップを含んでいる、請求項8記載の機械可読プログラムストレージデバイス。
  11. 検出すべきオブジェクトの時空間モデルを提供する前記ステップはさらに、複数の画像を画定する時間窓を提供するステップを含んでおり、該時間窓内で検出されたオブジェクトの構成要素の画像尤度は現在画像内で検出された前記オブジェクトの構成要素に対応するノードに渡される、請求項8記載の機械可読プログラムストレージデバイス。
  12. オブジェクトが各画像内にある確率を求める前記ステップは、各画像内のオブジェクトの位置と大きさとに関する確率を求めるステップを含んでいる、請求項8記載の機械可読プログラムストレージデバイス。
  13. 前記閾値は検出すべきオブジェクトに対して設けられるものであり、実験により求められる、請求項8記載の機械可読プログラムストレージデバイス。
  14. N個の構成要素を持つ前記時空間モデルの同時確率分布は、
    Figure 0004886678
    であり、ここで、Xi OとXi Ck前記ビデオの第iフレームにおけるオブジェクトOの状態とオブジェクトの第構成要素Ck(k∈(1...N)の状態であり、Ψij(Xi O,Xj O)は前記ビデオの第iフレームとフレームの間でのオブジェクトの状態の空間的両立性であり、Ψik(Xi O,Xi Ck)は第iフレームにおけるオブジェクトとその構成要素の空間的両立性であり、Ψkl(Xi Ck,Xi Cl)は第iフレームにおける構成要素間の空間的両立性であり、φi(Xi O)とφi(Xi Ck)はそれぞれオブジェクトの状態と構成要素の状態の局所的証拠である、請求項8記載の機械可読プログラムストレージデバイス。
JP2007515302A 2004-05-27 2005-05-25 検出および追跡のためのグラフオブジェクトモデル Active JP4886678B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US57479904P 2004-05-27 2004-05-27
US60/574,799 2004-05-27
US11/135,210 US7436980B2 (en) 2004-05-27 2005-05-23 Graphical object models for detection and tracking
US11/135,210 2005-05-23
PCT/US2005/018373 WO2005119596A1 (en) 2004-05-27 2005-05-25 Graphical object models for detection and tracking

Publications (3)

Publication Number Publication Date
JP2008500640A JP2008500640A (ja) 2008-01-10
JP2008500640A5 JP2008500640A5 (ja) 2008-05-22
JP4886678B2 true JP4886678B2 (ja) 2012-02-29

Family

ID=34971753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007515302A Active JP4886678B2 (ja) 2004-05-27 2005-05-25 検出および追跡のためのグラフオブジェクトモデル

Country Status (5)

Country Link
US (1) US7436980B2 (ja)
EP (1) EP1751717B1 (ja)
JP (1) JP4886678B2 (ja)
DE (1) DE602005016546D1 (ja)
WO (1) WO2005119596A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9105306B2 (en) * 2006-12-27 2015-08-11 Nec Corporation Identifying objects in images using object identity probabilities based on interframe distances
TWI348659B (en) * 2007-10-29 2011-09-11 Ind Tech Res Inst Method and system for object detection and tracking
GB2473370A (en) * 2008-05-06 2011-03-09 Hewlett Packard Development Co Spatiotemporal media objects layouts
US9019381B2 (en) 2008-05-09 2015-04-28 Intuvision Inc. Video tracking systems and methods employing cognitive vision
FR2944629B1 (fr) * 2009-04-17 2017-01-20 Univ De Tech De Troyes Systeme et procede de localisation de cible par un reseau de cameras
US8635171B1 (en) * 2009-08-17 2014-01-21 Symantec Corporation Systems and methods for reducing false positives produced by heuristics
US8358808B2 (en) * 2010-01-08 2013-01-22 University Of Washington Video-based vehicle detection and tracking using spatio-temporal maps
EP2395456A1 (en) * 2010-06-12 2011-12-14 Toyota Motor Europe NV/SA Methods and systems for semantic label propagation
DE102010033773A1 (de) 2010-08-09 2012-02-09 Daimler Ag Verfahren zum Detektieren eines Objekts für ein Fahrerassistenzsystem
US9260122B2 (en) * 2012-06-06 2016-02-16 International Business Machines Corporation Multisensor evidence integration and optimization in object inspection
US9846845B2 (en) * 2012-11-21 2017-12-19 Disney Enterprises, Inc. Hierarchical model for human activity recognition
EP2992405A1 (en) * 2013-04-29 2016-03-09 Mirametrix Inc. System and method for probabilistic object tracking over time
JP6923789B2 (ja) * 2017-07-05 2021-08-25 富士通株式会社 情報処理プログラム、情報処理装置、情報処理方法、及び情報処理システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04259075A (ja) * 1991-02-14 1992-09-14 Fujitsu Ltd 時系列画像からのモデル作成装置
JPH1115945A (ja) * 1997-06-19 1999-01-22 N T T Data:Kk 画像処理装置及び方法、及び、危険物検出システム及び方法
JP2001167282A (ja) * 1999-12-10 2001-06-22 Toshiba Corp 移動物体抽出装置及びその方法
JP2002203239A (ja) * 2000-12-14 2002-07-19 Eastman Kodak Co ディジタル画像中で人間の姿を検出する画像処理方法
JP2005165923A (ja) * 2003-12-05 2005-06-23 Konica Minolta Holdings Inc 検出装置および検出方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3022330B2 (ja) * 1996-07-09 2000-03-21 日本電気株式会社 動画像認識装置および動画像認識方法
US6597801B1 (en) * 1999-09-16 2003-07-22 Hewlett-Packard Development Company L.P. Method for object registration via selection of models with dynamically ordered features
US6920237B2 (en) 2000-12-19 2005-07-19 Eastman Kodak Company Digital image processing method and computer program product for detecting human irises in an image
US7200266B2 (en) * 2002-08-27 2007-04-03 Princeton University Method and apparatus for automated video activity analysis

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04259075A (ja) * 1991-02-14 1992-09-14 Fujitsu Ltd 時系列画像からのモデル作成装置
JPH1115945A (ja) * 1997-06-19 1999-01-22 N T T Data:Kk 画像処理装置及び方法、及び、危険物検出システム及び方法
JP2001167282A (ja) * 1999-12-10 2001-06-22 Toshiba Corp 移動物体抽出装置及びその方法
JP2002203239A (ja) * 2000-12-14 2002-07-19 Eastman Kodak Co ディジタル画像中で人間の姿を検出する画像処理方法
JP2005165923A (ja) * 2003-12-05 2005-06-23 Konica Minolta Holdings Inc 検出装置および検出方法

Also Published As

Publication number Publication date
JP2008500640A (ja) 2008-01-10
DE602005016546D1 (de) 2009-10-22
EP1751717A1 (en) 2007-02-14
US20050286738A1 (en) 2005-12-29
WO2005119596A1 (en) 2005-12-15
EP1751717B1 (en) 2009-09-09
US7436980B2 (en) 2008-10-14

Similar Documents

Publication Publication Date Title
JP4886678B2 (ja) 検出および追跡のためのグラフオブジェクトモデル
US10248860B2 (en) System and method for object re-identification
Sivaraman et al. A general active-learning framework for on-road vehicle recognition and tracking
Oliver et al. A bayesian computer vision system for modeling human interaction
Blake et al. A sparse probabilistic learning algorithm for real-time tracking
Zhang et al. Mining semantic context information for intelligent video surveillance of traffic scenes
US20090296989A1 (en) Method for Automatic Detection and Tracking of Multiple Objects
Hao et al. Spatio-temporal traffic scene modeling for object motion detection
Lin et al. Learning a scene background model via classification
JP2015167017A (ja) マルチタスク学習を使用したラベル付けされていないビデオのための自己学習オブジェクト検出器
Bose et al. Improving object classification in far-field video
Biradar et al. Challenges in time-stamp aware anomaly detection in traffic videos
Eng et al. A Bayesian framework for robust human detection and occlusion handling human shape model
Hirschorn et al. Normalizing flows for human pose anomaly detection
Mei et al. Integrated detection, tracking and recognition for ir video-based vehicle classification
Sigal et al. Tracking complex objects using graphical object models
Maurya et al. Pedestrian detection and vulnerability decision in videos
Tian et al. Tracking vulnerable road users with severe occlusion by adaptive part filter modeling
Ratre et al. Deep imbalanced data learning approach for video anomaly detection
Huang et al. Real-time face detection in color video
Patras et al. Regression tracking with data relevance determination
Jawalkar et al. Object Detection and Multi-class Classification from Videos: An Application of AI-enabled Surveillance Camera
Smith et al. Pedestrian friendly traffic signal control: final research report.
Kim et al. A framework for automatically constructing a dataset for training a vehicle detector
ul ain Ali et al. Role of Spatio-Temporal Feature Position in Recognition of Human Vehicle Interaction

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100129

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100426

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100728

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20101028

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20101105

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110602

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110902

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110909

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110930

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111209

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4886678

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250