JP4741650B2 - ビデオシーケンスにおけるオブジェクト追跡の方法 - Google Patents
ビデオシーケンスにおけるオブジェクト追跡の方法 Download PDFInfo
- Publication number
- JP4741650B2 JP4741650B2 JP2008501391A JP2008501391A JP4741650B2 JP 4741650 B2 JP4741650 B2 JP 4741650B2 JP 2008501391 A JP2008501391 A JP 2008501391A JP 2008501391 A JP2008501391 A JP 2008501391A JP 4741650 B2 JP4741650 B2 JP 4741650B2
- Authority
- JP
- Japan
- Prior art keywords
- objects
- foreground
- frame
- appearance
- blob
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 76
- 238000012545 processing Methods 0.000 claims abstract description 25
- 230000008859 change Effects 0.000 claims description 8
- 238000009826 distribution Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 4
- 238000003708 edge detection Methods 0.000 claims description 3
- 230000001419 dependent effect Effects 0.000 claims 1
- 230000011218 segmentation Effects 0.000 description 35
- 230000008569 process Effects 0.000 description 18
- 230000006870 function Effects 0.000 description 17
- 238000013459 approach Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 239000013598 vector Substances 0.000 description 7
- 230000003068 static effect Effects 0.000 description 6
- 239000003086 colorant Substances 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000010339 dilation Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Description
ビデオ処理ソフトウェアは、最初に、背景学習段7を実行する。この段7の目的は、ビデオデータの初期セグメントから背景モデルを確立することである。このビデオセグメントは、通常、100フレームを備えるが、これは、関係する監視場面とビデオサンプリング速度に応じて変えられる。如何なる画像の背景場面も、前景オブジェクトと比べると、比較的静止したままである可能性が高いため、この段では、理想的には、前景オブジェクトが全く見えない背景モデルを確立する。
この場合、フレーム内の該ブロブまたは各ブロブは、ブロブベースの空間トラッカ45によって処理される。ブロブベースの追跡は、いわゆる時間テンプレートを使って、フレームごとに、ブロブの動きを時間的に追跡することを含む。次に、ブロブベースの追跡を詳細に説明する。
前述のように、「アテンションレベル2」状況は、まさに遮蔽を生じようとしている2つ以上のブロブに指定される。この場合、関連するブロブは、(図3の参照番号47で示す)ブロブベースの追跡段を使って引き続き追跡される。しかしながら、この場合には、マッチ決定段53に続き、マッチが生じるか否かに応じて、関連するブロブの外観モデルが作成され、または更新される。個々のブロブの外観モデルは、このブロブ内で生じる各色レベルの頻度(すなわち、画素数)を示す色ヒストグラムを備える。ヒストグラムを増補するために、各ブロブごとにエッジ密度マップも作成され得る。外観モデルについて以下で詳細に定義する。
2つ以上のブロブが重なり合い、またはマージする場合には、以下の4つのタスクが行われる。
グループオブジェクトが分離した場合には、個々のオブジェクトの識別情報が、外観ベースの追跡によって回復される。図3に戻ると、関連するオブジェクトそれぞれの色外観モデルに動作する外観ベースのトラッカ48が用いられることが分かる。
前述のように、グループセグメント化は、アテンションレベル3のグループ化ブロブに対して行われる。知られているグループセグメント化を行う方法が、Huangらによる、「空間色指標付けおよび適用例(Spatial colour indexing and applications)」、インターナショナルジャーナルオブコンピュータビジョン(International Journal of Computer Vision)、35(3)、1999年、の記載に基づくものである。以下は、本実施形態で使用するセグメント化方法の説明である。この方法を要約すると、グループブロブの各画素ごとに、画素が、グループブロブの一部を形成する個々のブロブに属する尤度を計算する。この尤度計算は、このアテンションレベル2の個々のブロブについて生成される外観モデルに基づくものである。このプロセスは、グループブロブの一部を形成するブロブのそれぞれについて繰り返される。これに続き、画素は、最高の尤度値を返す個々のブロブに分類される。グループセグメント化段69の目的を図7(a)から7(c)に示す。図7(a)から7(c)には、それぞれ、(a)元のビデオフレーム、(b)結果として生じるグループブロブ、および(c)理想的なセグメント化結果が示されている。グループブロブをセグメント化すると、遮蔽時の2つの構成オブジェクトの識別情報を、これらのオブジェクトが分離したときに、これら2つのオブジェクトの識別情報を再学習する余分の処理を必要としないように維持することが可能である。
自動的に奥行き順序を推定するいくつかの手法が提案されている。McKennaらは、「人のグループの追跡(Tracking groups of people)」、コンピュータビジョンアンドイメージアンダースタンディング(Computer Vision and Image Understanding)、2000年10月、において、遮蔽時の各オブジェクトを表す可視画素数と、このオブジェクトの分離時の期待される画素数の間の比である「可視性指標」を定義している。この可視性指標を使って深度が測定される。高い可視性指標は、最上層にある、すなわち、カメラに最も近いオブジェクト(この場合には人)を示す。この方法は、奥行き順序を推定するのに使用され得るが、2つを上回るオブジェクトがマージする場合には、実施するのが難しい。Elgammalらは、「視覚監視のためのノンパラメトリックKernal密度推定を使った背景および前景のモデル化(Background and foreground modelling using nonparametric Kernal density estimation for visual surveillance)」、IEEE予稿集、90(7)、2002年7月に、セグメント化結果に基づいてグループ内の各人に相対的深度を指定することによって遮蔽をモデル化する方法を開示している。この場合、この方法を、Nオブジェクトの場合に一般化することができる。セグメント化結果を使用すれば、オブジェクトの配置に関する異なる仮説の評価がもたらされる。
2つ以上のオブジェクト間のマージが検出されるときには、1次モデルを使って、各オブジェクトの重心位置が推測され得る。各オブジェクトの表面的外観が、最良適合を見出すために、重心位置においてマージ画像と相関される。最良適合の場所が与えられると、次いで、形状確率マスクを使って、「問題の画素」、すなわち、オブジェクトの確率マスクの複数において非ゼロの値を有する画素が突き止められ得る。この画素グループを、「オーバーラップゾーン」と呼ぶ。オーバーラップゾーンの図が、図9に概略的に示されている。一旦オーバーラップゾーンが決定されると、オブジェクトは、割り当てられている「問題の」画素がより少ないオブジェクトに、より大きな深度が与えられるように順序付けされる。この方法自体は知られており、Seniorらの「遮蔽処理のための外観モデル(Appearance models for occlusion handling)」、PETS’01予稿集、米国ハワイ州、2001年12月に開示されている。
オブジェクトの奥行き順序を推定するこの好ましい方法では、いわゆる「トップダウン式」と「ボトムアップ式」の手法が、場面の幾何学的配置に基づいてなされる。具体的には、まず、トップダウン式手法を使って、オブジェクトの奥行き順序の推定値が提供され、この後、ボトムアップ式手法を使って検証が行われる。これらのステップに基づいて、式(7)の尤度関数において各画素にβのどの値を割り当てるか決定する際に使用される最終的な奥行き順序を獲得する。
Claims (13)
- 複数のフレームを備えるビデオシーケンスにおいてオブジェクトを追跡する方法であって、各オブジェクトが複数の画素によって定義されており、
前記方法は、
(a)第1のフレームにおいて、第1と第2のオブジェクトを識別するステップと、
(b)前記第1のオブジェクトを表す第1の外観モデルであって、前記第1のオブジェクトに関連する外観特徴の分布を含む前記第1の外観モデルと、
前記第2のオブジェクトを表す第2の外観モデルであって、前記第2のオブジェクトに関連する外観特徴の分布を含む前記第2の外観モデルと、をそれぞれ提供するステップと、
(c)第2の後続のフレームにおいて、前記第1と第2のオブジェクトが重なり合う結果として生じるグループオブジェクトを識別するステップと、
(d)前記グループオブジェクトの各画素を、前記第1または第2のオブジェクトのどちらかを表すものとして分類するステップであって、
前記分類は、
(1)それぞれ、前記グループオブジェクトの前記各画素の外観と、前記第1と第2の外観モデルとの間の対応関係を示す、第1と第2の尤度パラメータを計算するステップと、
(2)前記第1と第2の尤度パラメータに、それぞれ、前記第1と第2のオブジェクトの奥行き順序を示す、第1と第2の重み係数を適用するステップと、
(3)前記重み付きの第1と第2の尤度パラメータに基づいて、前記グループオブジェクトの前記各画素が、前記第1と第2のオブジェクトのどちらを表すかを識別するステップとを備える、前記分類するステップと、
(e)前記第1と第2の外観モデルを更新するステップと、
を備えており、
前記第1と第2の重み係数は複数の所定の値から選択され、
前記選択は、前記第1のフレームにおいて、前記第1と第2のオブジェクトのどちらが上層を占め、どちらが下層を占めるかに依存し、
前記奥行き順序は、前記第1と第2のオブジェクトのどちらが前記第1のフレーム内の基準位置により近いかに従って決定され、
前記基準位置に最も近い前記オブジェクトが前記上層に指定され、他方の前記オブジェクトが前記下層に指定される、方法。 - 前記奥行き順序は、前記第1と第2のオブジェクトのどちらが、前記第1のフレームを横切って延在する基準線により近いかに従って決定され、
前記基準線に最も近い前記オブジェクトが前記上層に指定され、他方の前記オブジェクトが前記下層に指定される、請求項1に記載の方法。 - 前記奥行き順序は、前記第2の後続のフレームの前に生成される複数のフレームにわたる、前記それぞれの第1と第2のオブジェクトを定義する画素数の変化に従って決定され、
画素数が最も大きく変化する前記オブジェクトが前記下層に指定され、他方の前記オブジェクトが前記上層に指定される、請求項1に記載の方法。 - 前記奥行き順序は、前記第2の後続のフレームの前に生成される複数のフレームにわたる、前記それぞれの第1と第2のオブジェクトを定義する画素数の変化を解析することによって検証され、
前記上層に指定された前記オブジェクトを定義する前記画素数が画素数において最も大きく変化する場合には、前記上層に指定された前記オブジェクトは、前記下層に再指定される、請求項1に記載の方法。 - 前記第1と第2の外観モデルは、前記第1と第2のオブジェクトのそれぞれの色分布を表す、請求項1乃至請求項4のいずれか1項に記載の方法。
- 前記第1と第2の外観モデルは、前記第1と第2のオブジェクトの、それぞれの
(a)色分布と、
(b)エッジ密度情報と
の組み合わせを表す、請求項1乃至請求項4のいずれか1項に記載の方法。 - 前記第1のオブジェクトに対する前記エッジ密度情報は、前記第1のオブジェクトに対して行われるソーベルエッジ検出演算から導出され、
前記第2のオブジェクトに対する前記エッジ密度情報は、前記第2のオブジェクトに対して行われるソーベルエッジ検出演算から導出される、請求項6に記載の方法。 - 前記ステップ(c)は、
前記ステップ(a)で識別される前記第1と第2のオブジェクトのそれぞれのフレーム位置とフレーム位置が部分的に重なり合う新規のオブジェクトを識別するステップを備える、請求項1乃至請求項7のいずれか1項に記載の方法。 - 前記ステップ(c)は、
前記第2のフレーム内のオブジェクトの数が、前記第1のフレーム内のオブジェクトの数より小さいことを識別するステップと、
前記ステップ(a)で識別される前記第1と第2のオブジェクトのそれぞれのフレーム位置とフレーム位置が部分的に重なり合う新規のオブジェクトを識別するステップと、
を備える、請求項1乃至請求項7のいずれか1項に記載の方法。 - ビデオシーケンスのフレーム内の前景オブジェクトをセグメント化する方法であって、該前景オブジェクトは複数の前景画素によって定義されており、
前記方法は、
(a)第1のフレームにおいて、第1と第2の前景オブジェクトを識別するステップと、
(b)後続のフレームにおいて、前記第1と第2の前景オブジェクトが重なり合う結果として生じる第3の前景オブジェクトを識別するステップと、
(c)前記第3の前景オブジェクトの各画素が、前記第1または第2の前景オブジェクトのどちらに対応する可能性が最も高いかを示す対応関係メトリックに基づき、前記第1または第2の前景オブジェクトのどちらかを表すものとして、前記画素を分類するステップと、
を備えており、
前記対応関係メトリックは、前記第1と第2の前景オブジェクトの外観特徴と、前記第1と第2の前景オブジェクトに対応する第1と第2の重み係数とに依存し、
前記第1と第2の重み係数は、少なくとも、前記第1と第2の前景オブジェクトの奥行き順序をそれぞれ示しており、
前記第1と第2の重み係数は複数の所定の値から選択され、
前記選択は、前記第1のフレームにおいて、前記第1と第2の前景オブジェクトのどちらが上層を占め、どちらが下層を占めるかに依存し、
前記奥行き順序は、前記第1と第2の前景オブジェクトのどちらが前記第1のフレーム内の基準位置により近いかに従って決定され、
前記基準位置に最も近い前記前景オブジェクトが前記上層に指定され、他方の前記オブジェクトが前記下層に指定される、方法。 - コンピュータ可読媒体上に格納されたコンピュータプログラムであって、
プロセッサ上で実行されると、請求項1乃至請求項10のいずれか1項に記載のステップを実行するように構成された命令を備える、コンピュータプログラム。 - 画像処理システムであって、
ビデオソースからフレームシーケンスを受け取るように構成された手段と、
処理手段と、
を備えており、
前記処理手段は、
(1)第1のフレームにおいて、第1と第2の前景オブジェクトを識別し、
(2)後続のフレームにおいて、前記第1と第2のオブジェクトが重なり合う結果として生じる第3の前景オブジェクトを識別し、
(3)前記第3の前景オブジェクトの各画素が、前記第1または第2の前景オブジェクトのどちらに対応する可能性が最も高いかを示す対応関係メトリックに基づき、前記第1または第2の前景オブジェクトのどちらかを表すものとして、前記画素を分類するように構成されており、
前記対応関係メトリックは、前記第1と第2の前景オブジェクトの外観特徴と、前記第1と第2の前景オブジェクトと関連付けられるそれぞれの重み係数に依存し、
前記重み係数は、少なくとも、該重み係数が関連付けられている前記前景オブジェクトの奥行き順序を示しており、
前記第1と第2の重み係数は複数の所定の値から選択され、
前記選択は、前記第1のフレームにおいて、前記第1と第2の前景オブジェクトのどちらが上層を占め、どちらが下層を占めるかに依存し、
前記奥行き順序は、前記第1と第2の前景オブジェクトのどちらが前記第1のフレーム内の基準位置により近いかに従って決定され、
前記基準位置に最も近い前記前景オブジェクトが前記上層に指定され、他方の前記オブジェクトが前記下層に指定される、画像処理システム。 - ビデオシーケンスのフレームを生成するビデオソースと、
請求項12に記載の画像処理システムと、
を備える、ビデオ監視システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP05251638 | 2005-03-17 | ||
EP05251638.2 | 2005-03-17 | ||
PCT/GB2006/000731 WO2006097680A1 (en) | 2005-03-17 | 2006-03-01 | Method of tracking objects in a video sequence |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008533892A JP2008533892A (ja) | 2008-08-21 |
JP4741650B2 true JP4741650B2 (ja) | 2011-08-03 |
Family
ID=34940594
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008501391A Active JP4741650B2 (ja) | 2005-03-17 | 2006-03-01 | ビデオシーケンスにおけるオブジェクト追跡の方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US8073197B2 (ja) |
EP (1) | EP1859410B1 (ja) |
JP (1) | JP4741650B2 (ja) |
CN (1) | CN101142593B (ja) |
AT (1) | ATE486332T1 (ja) |
DE (1) | DE602006017812D1 (ja) |
WO (1) | WO2006097680A1 (ja) |
Families Citing this family (108)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
PL2023812T3 (pl) | 2006-05-19 | 2017-07-31 | The Queen's Medical Center | Układ śledzenia ruchu dla adaptacyjnego obrazowania w czasie rzeczywistym i spektroskopii |
JP4631806B2 (ja) * | 2006-06-05 | 2011-02-16 | 日本電気株式会社 | 物体検出装置、物体検出方法および物体検出プログラム |
MX2009008376A (es) | 2007-02-08 | 2009-12-14 | Behavioral Recognition Systems | Sistema de reconocimiento conductual. |
US7898576B2 (en) | 2007-02-28 | 2011-03-01 | Honeywell International Inc. | Method and system for indexing and searching objects of interest across a plurality of video streams |
US7925112B2 (en) | 2007-02-28 | 2011-04-12 | Honeywell International Inc. | Video data matching using clustering on covariance appearance |
US8456528B2 (en) * | 2007-03-20 | 2013-06-04 | International Business Machines Corporation | System and method for managing the interaction of object detection and tracking systems in video surveillance |
JP2008281385A (ja) * | 2007-05-09 | 2008-11-20 | Olympus Corp | 画像処理装置 |
US20090002489A1 (en) * | 2007-06-29 | 2009-01-01 | Fuji Xerox Co., Ltd. | Efficient tracking multiple objects through occlusion |
US8200011B2 (en) * | 2007-09-27 | 2012-06-12 | Behavioral Recognition Systems, Inc. | Context processor for video analysis system |
KR101023946B1 (ko) | 2007-11-02 | 2011-03-28 | 주식회사 코아로직 | 객체 추적을 이용한 디지털 영상의 손떨림 보정 장치 및방법 |
KR101041366B1 (ko) * | 2007-11-02 | 2011-06-14 | 주식회사 코아로직 | 객체 추적을 이용한 디지털 영상의 손떨림 보정 장치 및방법 |
US8170280B2 (en) * | 2007-12-03 | 2012-05-01 | Digital Smiths, Inc. | Integrated systems and methods for video-based object modeling, recognition, and tracking |
CN101212658B (zh) * | 2007-12-21 | 2010-06-02 | 北京中星微电子有限公司 | 一种目标跟踪方法及装置 |
WO2009085233A2 (en) * | 2007-12-21 | 2009-07-09 | 21Ct, Inc. | System and method for visually tracking with occlusions |
FR2927443B1 (fr) * | 2008-02-12 | 2013-06-14 | Cliris | Procede de suivi d'individus dans un champ de vision d'une camera |
FR2927442B1 (fr) * | 2008-02-12 | 2013-06-14 | Cliris | Procede pour determiner un taux de transformation local d'un objet d'interet. |
FR2927444B1 (fr) | 2008-02-12 | 2013-06-14 | Cliris | Procede pour generer une image de densite d'une zone d'observation |
CN101527838B (zh) * | 2008-03-04 | 2010-12-08 | 华为技术有限公司 | 对视频对象的反馈式对象检测与跟踪的方法和系统 |
US8855360B2 (en) * | 2008-07-23 | 2014-10-07 | Qualcomm Technologies, Inc. | System and method for face tracking |
CN101764923B (zh) * | 2008-12-23 | 2013-03-27 | 北京中星微电子有限公司 | 消除运动检测中的噪声的方法及装置 |
US8812226B2 (en) * | 2009-01-26 | 2014-08-19 | GM Global Technology Operations LLC | Multiobject fusion module for collision preparation system |
GB2467932A (en) * | 2009-02-19 | 2010-08-25 | Sony Corp | Image processing device and method |
FR2944629B1 (fr) * | 2009-04-17 | 2017-01-20 | Univ De Tech De Troyes | Systeme et procede de localisation de cible par un reseau de cameras |
TWI416068B (zh) | 2009-12-10 | 2013-11-21 | Ind Tech Res Inst | 跨感測器間之物體追蹤方法與系統 |
US8941726B2 (en) * | 2009-12-10 | 2015-01-27 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for segmenting moving objects from images using foreground extraction |
US20110150271A1 (en) | 2009-12-18 | 2011-06-23 | Microsoft Corporation | Motion detection using depth images |
US8379921B1 (en) * | 2010-01-26 | 2013-02-19 | Verint Systems Ltd. | Method and apparatus to determine a region of interest in a video sequence based on floor detection |
US9082278B2 (en) * | 2010-03-19 | 2015-07-14 | University-Industry Cooperation Group Of Kyung Hee University | Surveillance system |
MY158147A (en) * | 2010-03-26 | 2016-09-15 | Mimos Berhad | Method for tracking and characterising motion blobs |
CN101800890B (zh) * | 2010-04-08 | 2013-04-24 | 北京航空航天大学 | 一种高速公路监控场景下多车辆视频跟踪方法 |
US9413477B2 (en) * | 2010-05-10 | 2016-08-09 | Microsoft Technology Licensing, Llc | Screen detector |
US9508011B2 (en) | 2010-05-10 | 2016-11-29 | Videosurf, Inc. | Video visual and audio query |
US9311708B2 (en) | 2014-04-23 | 2016-04-12 | Microsoft Technology Licensing, Llc | Collaborative alignment of images |
CN101819164B (zh) * | 2010-05-14 | 2011-06-01 | 山东大学 | 一种饮料灌装后杂质检测装置及方法 |
CN101867699B (zh) * | 2010-05-25 | 2012-05-30 | 中国科学技术大学 | 基于分块的非特定目标实时跟踪方法 |
US8427483B1 (en) * | 2010-08-30 | 2013-04-23 | Disney Enterprises. Inc. | Drawing figures in computer-based drawing applications |
US8487932B1 (en) | 2010-08-30 | 2013-07-16 | Disney Enterprises, Inc. | Drawing figures in computer-based drawing applications |
US8983121B2 (en) * | 2010-10-27 | 2015-03-17 | Samsung Techwin Co., Ltd. | Image processing apparatus and method thereof |
JP5649425B2 (ja) * | 2010-12-06 | 2015-01-07 | 株式会社東芝 | 映像検索装置 |
MY152782A (en) * | 2010-12-13 | 2014-11-28 | Mimos Berhad | A system and method to detect intrusion event |
CN102074020B (zh) * | 2010-12-31 | 2012-08-15 | 浙江大学 | 对视频进行多体深度恢复和分割的方法 |
DE102011011931A1 (de) * | 2011-02-18 | 2012-08-23 | Hella Kgaa Hueck & Co. | Verfahren zum Auswerten einer Mehrzahl zeitlich versetzter Bilder, Vorrichtung zur Auswertung von Bildern, Überwachungssystem |
EP2549754A1 (en) * | 2011-07-19 | 2013-01-23 | Thomson Licensing | Method and apparatus for reframing and encoding an original video signal |
US9606209B2 (en) | 2011-08-26 | 2017-03-28 | Kineticor, Inc. | Methods, systems, and devices for intra-scan motion correction |
US20130063556A1 (en) * | 2011-09-08 | 2013-03-14 | Prism Skylabs, Inc. | Extracting depth information from video from a single camera |
US9218782B2 (en) | 2011-11-16 | 2015-12-22 | Stmicroelectronics International N.V. | Video window detection |
US20130120588A1 (en) * | 2011-11-16 | 2013-05-16 | Stmicroelectronics, Inc. | Video window detection |
KR101299237B1 (ko) * | 2011-11-23 | 2013-08-22 | 서울대학교산학협력단 | 팬틸트줌 카메라를 이용한 물체 탐지 장치 및 방법 |
SE537206C2 (sv) * | 2012-04-11 | 2015-03-03 | Vidispine Ab | Metod och system för sökningar i digitalt innehåll |
KR102026651B1 (ko) * | 2012-04-25 | 2019-09-30 | 삼성전자주식회사 | 입자 필터 프레임 워크를 이용한 강건한 객체 추적 방법 및 시스템 |
JP2015525381A (ja) * | 2012-05-04 | 2015-09-03 | オブロング・インダストリーズ・インコーポレーテッド | 相互ユーザ手追跡および形状認識ユーザ・インターフェース |
IL219795A0 (en) * | 2012-05-15 | 2012-08-30 | D V P Technologies Ltd | Detection of foreign objects in maritime environments |
CN103679742B (zh) * | 2012-09-06 | 2016-08-03 | 株式会社理光 | 对象跟踪方法和装置 |
CN102999921B (zh) * | 2012-11-09 | 2015-01-21 | 山东大学 | 基于方向性跟踪窗口的像素标号传播方法 |
US10009579B2 (en) * | 2012-11-21 | 2018-06-26 | Pelco, Inc. | Method and system for counting people using depth sensor |
US9367733B2 (en) | 2012-11-21 | 2016-06-14 | Pelco, Inc. | Method and apparatus for detecting people by a surveillance system |
US9305365B2 (en) | 2013-01-24 | 2016-04-05 | Kineticor, Inc. | Systems, devices, and methods for tracking moving targets |
US9717461B2 (en) | 2013-01-24 | 2017-08-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US10327708B2 (en) | 2013-01-24 | 2019-06-25 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
CN109008972A (zh) | 2013-02-01 | 2018-12-18 | 凯内蒂科尔股份有限公司 | 生物医学成像中的实时适应性运动补偿的运动追踪系统 |
US9639747B2 (en) | 2013-03-15 | 2017-05-02 | Pelco, Inc. | Online learning method for people detection and counting for retail stores |
CN103237155B (zh) * | 2013-04-01 | 2016-12-28 | 北京工业大学 | 一种单视角被遮挡的目标的跟踪和定位方法 |
AU2013242830B2 (en) * | 2013-10-10 | 2016-11-24 | Canon Kabushiki Kaisha | A method for improving tracking in crowded situations using rival compensation |
US20150189191A1 (en) * | 2013-12-27 | 2015-07-02 | Telemetrio LLC | Process and system for video production and tracking of objects |
WO2015148391A1 (en) | 2014-03-24 | 2015-10-01 | Thomas Michael Ernst | Systems, methods, and devices for removing prospective motion correction from medical imaging scans |
JP6340228B2 (ja) * | 2014-03-27 | 2018-06-06 | 株式会社メガチップス | 物体検出装置 |
CN105225217B (zh) * | 2014-06-23 | 2018-04-10 | 株式会社理光 | 基于深度的背景模型更新方法和系统 |
US9836655B2 (en) * | 2014-06-24 | 2017-12-05 | Nec Corporation | Information processing apparatus, information processing method, and computer-readable medium |
US9734589B2 (en) | 2014-07-23 | 2017-08-15 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9652675B2 (en) | 2014-07-23 | 2017-05-16 | Microsoft Technology Licensing, Llc | Identifying presentation styles of educational videos |
US9836635B2 (en) * | 2014-10-09 | 2017-12-05 | Cognex Corporation | Systems and methods for tracking optical codes |
US9349054B1 (en) * | 2014-10-29 | 2016-05-24 | Behavioral Recognition Systems, Inc. | Foreground detector for video analytics system |
CN104574444B (zh) * | 2015-01-19 | 2017-06-09 | 天津工业大学 | 一种基于目标分解的Camshift跟踪方法 |
US9943247B2 (en) | 2015-07-28 | 2018-04-17 | The University Of Hawai'i | Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan |
US20170083790A1 (en) * | 2015-09-23 | 2017-03-23 | Behavioral Recognition Systems, Inc. | Detected object tracker for a video analytics system |
US10445885B1 (en) | 2015-10-01 | 2019-10-15 | Intellivision Technologies Corp | Methods and systems for tracking objects in videos and images using a cost matrix |
US11354819B2 (en) | 2015-10-01 | 2022-06-07 | Nortek Security & Control | Methods for context-aware object tracking |
US10019631B2 (en) | 2015-11-05 | 2018-07-10 | Qualcomm Incorporated | Adapting to appearance variations when tracking a target object in video sequence |
US10716515B2 (en) | 2015-11-23 | 2020-07-21 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
CN105719288A (zh) * | 2016-01-19 | 2016-06-29 | 无锡北邮感知技术产业研究院有限公司 | 基于二叉树的单目图像中物体深度次序估计方法 |
JP6755713B2 (ja) | 2016-05-25 | 2020-09-16 | キヤノン株式会社 | 追尾装置、追尾方法及びプログラム |
US10185877B2 (en) * | 2016-07-08 | 2019-01-22 | Huawei Technologies Co., Ltd. | Systems, processes and devices for occlusion detection for video-based object tracking |
JP6942464B2 (ja) * | 2016-12-09 | 2021-09-29 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US10755419B2 (en) * | 2017-01-30 | 2020-08-25 | Nec Corporation | Moving object detection apparatus, moving object detection method and program |
US20180254065A1 (en) * | 2017-03-03 | 2018-09-06 | Qualcomm Incorporated | Methods and systems for splitting non-rigid objects for video analytics |
US10229503B2 (en) | 2017-03-03 | 2019-03-12 | Qualcomm Incorporated | Methods and systems for splitting merged objects in detected blobs for video analytics |
CN106991684B (zh) * | 2017-03-15 | 2019-09-17 | 上海信昊信息科技有限公司 | 前景提取方法及装置 |
US10304207B2 (en) * | 2017-07-07 | 2019-05-28 | Samsung Electronics Co., Ltd. | System and method for optical tracking |
CN108229290B (zh) * | 2017-07-26 | 2021-03-02 | 北京市商汤科技开发有限公司 | 视频物体分割方法和装置、电子设备、存储介质 |
CN107292916B (zh) * | 2017-08-08 | 2020-10-27 | 阔地教育科技有限公司 | 目标关联方法、存储设备、直录播互动终端 |
US20190130191A1 (en) * | 2017-10-30 | 2019-05-02 | Qualcomm Incorporated | Bounding box smoothing for object tracking in a video analytics system |
US20190130586A1 (en) * | 2017-10-30 | 2019-05-02 | Qualcomm Incorporated | Robust sleeping object detection in video analytics |
CN108229456B (zh) * | 2017-11-22 | 2021-05-18 | 深圳市商汤科技有限公司 | 目标跟踪方法和装置、电子设备、计算机存储介质 |
JP7003628B2 (ja) * | 2017-12-19 | 2022-01-20 | 富士通株式会社 | 物体追跡プログラム、物体追跡装置、及び物体追跡方法 |
US11669724B2 (en) | 2018-05-17 | 2023-06-06 | Raytheon Company | Machine learning using informed pseudolabels |
EP3844672A1 (en) * | 2018-09-26 | 2021-07-07 | Five AI Limited | Structure annotation |
US11176597B2 (en) * | 2018-10-30 | 2021-11-16 | Ncr Corporation | Associating shoppers together |
US10872424B2 (en) | 2018-11-19 | 2020-12-22 | Accenture Global Solutions Limited | Object tracking using object attributes |
EP3667557B1 (en) * | 2018-12-13 | 2021-06-16 | Axis AB | Method and device for tracking an object |
CN112016353B (zh) * | 2019-05-30 | 2024-05-21 | 普天信息技术有限公司 | 一种基于视频的人脸图像进行身份识别方法及装置 |
US11068747B2 (en) * | 2019-09-27 | 2021-07-20 | Raytheon Company | Computer architecture for object detection using point-wise labels |
US11004212B1 (en) * | 2020-01-02 | 2021-05-11 | Hong Kong Applied Science and Technology Research Institute Company Limited | Object tracking method and system using iterative template matching |
US11676391B2 (en) | 2020-04-16 | 2023-06-13 | Raytheon Company | Robust correlation of vehicle extents and locations when given noisy detections and limited field-of-view image frames |
CN112183365A (zh) * | 2020-09-29 | 2021-01-05 | 京东方科技集团股份有限公司 | 一种对象识别跟踪方法和装置 |
US11775615B2 (en) * | 2020-12-04 | 2023-10-03 | Toyota Research Institute, Inc. | System and method for tracking detected objects |
US11562184B2 (en) | 2021-02-22 | 2023-01-24 | Raytheon Company | Image-based vehicle classification |
EP4285322A1 (en) * | 2021-08-04 | 2023-12-06 | Samsung Electronics Co., Ltd. | Method and electronic device for frame stabilization of a video sequence |
FR3131047A1 (fr) * | 2021-12-21 | 2023-06-23 | Orange | Procédé de détection du mouvement d’au moins un objet, dispositif électronique, système, produit programme d’ordinateur et support de stockage correspondants |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001143054A (ja) * | 1999-11-16 | 2001-05-25 | Hitachi Ltd | 衛星画像処理方法 |
JP2004220292A (ja) * | 2003-01-15 | 2004-08-05 | Nippon Telegr & Teleph Corp <Ntt> | 物体追跡方法、物体追跡装置、物体追跡方法のプログラム並びにそのプログラムを記録した記録媒体 |
JP2004288180A (ja) * | 2003-03-19 | 2004-10-14 | Mitsubishi Electric Research Laboratories Inc | 較正された画像の組からシーンの3次元モデルを構築する方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4020982B2 (ja) * | 1995-03-10 | 2007-12-12 | 松下電器産業株式会社 | 動画像処理装置 |
EP0815538A1 (en) * | 1995-03-22 | 1998-01-07 | IDT INTERNATIONAL DIGITAL TECHNOLOGIES DEUTSCHLAND GmbH | Method and apparatus for depth modelling and providing depth information of moving objects |
US6526161B1 (en) * | 1999-08-30 | 2003-02-25 | Koninklijke Philips Electronics N.V. | System and method for biometrics-based facial feature extraction |
US6973201B1 (en) * | 2000-11-01 | 2005-12-06 | Koninklijke Philips Electronics N.V. | Person tagging in an image processing system utilizing a statistical model based on both appearance and geometric features |
US7058205B2 (en) * | 2001-12-07 | 2006-06-06 | Xerox Corporation | Robust, on-line, view-based appearance models for visual motion analysis and visual tracking |
US6954544B2 (en) * | 2002-05-23 | 2005-10-11 | Xerox Corporation | Visual motion analysis method for detecting arbitrary numbers of moving objects in image sequences |
US20050012817A1 (en) * | 2003-07-15 | 2005-01-20 | International Business Machines Corporation | Selective surveillance system with active sensor management policies |
US7330593B2 (en) * | 2004-06-25 | 2008-02-12 | Stmicroelectronics, Inc. | Segment based image matching method and system |
WO2009047681A1 (en) * | 2007-10-11 | 2009-04-16 | Koninklijke Philips Electronics N.V. | Method and device for processing a depth-map |
-
2006
- 2006-03-01 WO PCT/GB2006/000731 patent/WO2006097680A1/en not_active Application Discontinuation
- 2006-03-01 US US11/885,751 patent/US8073197B2/en active Active
- 2006-03-01 DE DE602006017812T patent/DE602006017812D1/de active Active
- 2006-03-01 EP EP06709955A patent/EP1859410B1/en active Active
- 2006-03-01 AT AT06709955T patent/ATE486332T1/de not_active IP Right Cessation
- 2006-03-01 CN CN2006800083900A patent/CN101142593B/zh active Active
- 2006-03-01 JP JP2008501391A patent/JP4741650B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001143054A (ja) * | 1999-11-16 | 2001-05-25 | Hitachi Ltd | 衛星画像処理方法 |
JP2004220292A (ja) * | 2003-01-15 | 2004-08-05 | Nippon Telegr & Teleph Corp <Ntt> | 物体追跡方法、物体追跡装置、物体追跡方法のプログラム並びにそのプログラムを記録した記録媒体 |
JP2004288180A (ja) * | 2003-03-19 | 2004-10-14 | Mitsubishi Electric Research Laboratories Inc | 較正された画像の組からシーンの3次元モデルを構築する方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2006097680A1 (en) | 2006-09-21 |
US20080166045A1 (en) | 2008-07-10 |
US8073197B2 (en) | 2011-12-06 |
EP1859410A1 (en) | 2007-11-28 |
JP2008533892A (ja) | 2008-08-21 |
CN101142593A (zh) | 2008-03-12 |
CN101142593B (zh) | 2010-12-15 |
DE602006017812D1 (de) | 2010-12-09 |
ATE486332T1 (de) | 2010-11-15 |
EP1859410B1 (en) | 2010-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4741650B2 (ja) | ビデオシーケンスにおけるオブジェクト追跡の方法 | |
EP1859411B1 (en) | Tracking objects in a video sequence | |
JP4971191B2 (ja) | 映像フレーム内におけるスプリアス領域の識別 | |
US8134596B2 (en) | Classifying an object in a video frame | |
US8837781B2 (en) | Video object fragmentation detection and management | |
US7783118B2 (en) | Method and apparatus for determining motion in images | |
US9213896B2 (en) | Method for detecting and tracking objects in image sequences of scenes acquired by a stationary camera | |
JP4668921B2 (ja) | 画像中のオブジェクト検出 | |
CN112184759A (zh) | 一种基于视频的运动目标检测与跟踪方法及系统 | |
KR101868103B1 (ko) | 다중 이동 물체의 식별 및 추적을 위한 영상 감시 장치 및 방법 | |
JP2020119250A (ja) | オブジェクト抽出方法および装置 | |
Almomani et al. | Segtrack: A novel tracking system with improved object segmentation | |
Colombari et al. | Background initialization in cluttered sequences | |
Ma et al. | Depth assisted occlusion handling in video object tracking | |
Tsai et al. | Multiple human objects tracking in crowded scenes | |
Corvee et al. | Occlusion tolerent tracking using hybrid prediction schemes | |
Humphreys et al. | Multiple object tracking using a neural cost function | |
US20230410467A1 (en) | Image processing device and image processing method | |
Teixeira et al. | Cascaded change detection for foreground segmentation | |
AU2008261195B2 (en) | Video object fragmentation detection and management | |
Zhang et al. | A Real-time Tracking System for Tailgating Behavior Detection. | |
Hunter | Multiple object tracking using a neural cost function | |
AU2008261196A1 (en) | Backdating object splitting | |
Sundaraj | Real-time background subtraction using adaptive thresholding and dynamic updating for biometric face detection | |
Jones | Occlusion Tolerent Tracking Using Hybrid Prediction Schemes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100714 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101019 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110506 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4741650 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140513 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |