JP2005165688A - Multiple objects tracking method and system - Google Patents
Multiple objects tracking method and system Download PDFInfo
- Publication number
- JP2005165688A JP2005165688A JP2003403820A JP2003403820A JP2005165688A JP 2005165688 A JP2005165688 A JP 2005165688A JP 2003403820 A JP2003403820 A JP 2003403820A JP 2003403820 A JP2003403820 A JP 2003403820A JP 2005165688 A JP2005165688 A JP 2005165688A
- Authority
- JP
- Japan
- Prior art keywords
- objects
- tracking
- occlusion
- observation
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、映像中の対象物を追跡する方法及びシステムに係わり、特に、複数の対象物を同時に追跡する方法及びシステムに関する。 The present invention relates to a method and system for tracking an object in a video, and more particularly to a method and system for simultaneously tracking a plurality of objects.
視覚追跡は、ビデオ監視、人と機械の相互作用、及び、テレビ会議において広範囲に亘って研究され、コンピュータビジョンの分野における重要な研究テーマである。近年になって、単一対象物追跡に関して様々な成功事例が報告されているが、複数対象物追跡は、特に、複数の対象物が同一であるとき、或いは、複数の対象物が複雑な動きをするときの複数対象物追跡は、依然として興味深い研究テーマである。 Visual tracking has been studied extensively in video surveillance, human-machine interaction, and video conferencing and is an important research theme in the field of computer vision. In recent years, various success cases have been reported for single object tracking, but multiple object tracking is particularly useful when multiple objects are the same, or when multiple objects are complex. Multi-object tracking is still an interesting research topic.
頑健(ロバスト)な追跡アルゴリズムの設計は難しい。なぜならば、頑健な追跡アルゴリズムは、識別性の乏しい画像特徴、背景クラッター、不安定かつ不連続な動き、複数の遮蔽対象物、及び、その他の問題のような懸案事項を取り扱うメカニズムを要求するからである。推定技術は追跡の際に重要な役目を果たす。しかし、実世界の環境では、推定技術の性能は、素早い動き、邪魔、及び、オクルージョンのような視覚現象によって屡々妨害される。このため、対象物の画像投影を正確に識別することが困難になる。なお、素早い動きとは、トラッカー(追跡装置)の動的予測能力を超えた継続した対象物移動を意味する。素早い動きが発生すると推定処理が損なわれる。なぜならば、素早い動きは、画像投影の推定位置を不確定にさせ、効率的なセグメンテーションを複雑にするからである。明確なセグメンテーションの更なる妨げは、乱れや、追跡中の対象物と画像の見え方が類似しているその他のシーン要素である。最後に、別のシーン要素がカメラと追跡中の対象物の間に介在し、対象物の画像投影の一部を遮ると、オクルージョンが発生する。オクルージョンは、推定アルゴリズムへ供給されるデータを不完全にさせ、又は、推定アルゴリズムへデータが供給されないような結果を生ずる。 It is difficult to design a robust tracking algorithm. Because robust tracking algorithms require mechanisms to handle issues such as poorly discriminating image features, background clutter, unstable and discontinuous motion, multiple occlusion objects, and other issues It is. Estimation techniques play an important role in tracking. However, in real-world environments, the performance of estimation techniques is often hampered by visual phenomena such as fast movement, obstruction, and occlusion. This makes it difficult to accurately identify the image projection of the object. Note that quick movement means continuous object movement that exceeds the dynamic prediction capability of the tracker (tracking device). If a quick movement occurs, the estimation process is impaired. This is because fast movement makes the estimated position of the image projection uncertain and complicates efficient segmentation. Further hindrances to clear segmentation are turbulence and other scene elements that look similar to the object being tracked. Finally, occlusion occurs when another scene element is interposed between the camera and the object being tracked and obstructs part of the image projection of the object. Occlusion results in incomplete data supplied to the estimation algorithm or results in no data being supplied to the estimation algorithm.
近年の複数対象物追跡システムは二つの基本的なタイプに大別することができる。第1のタイプは、複数台の単一対象物追跡装置を、ブートストラップ機構のインジェクションと組み合わせて使用する。このタイプのシステムの殆どは、動き対応付け問題が解決されているか、又は、動き対応付け問題は些細な問題であり、最近傍戦略が有効であることを想定している。ある種のケースでは、最近傍戦略が本当に適切である。例えば、このようなアプローチを使用して非常に多数のフレームに亘ってコーナー特徴を追跡することが提案されている(例えば、非特許文献9を参照。)。最近傍戦略は、通常、フレーム間の画像の動きが非常に小さいということを前提としている。しかし、フレーム間に著しい動きが現れた場合、曖昧さが急激に増加し得る。これらの曖昧さは、次のフレーム内で追跡特徴を検出するため、重み付き相関窓を使用することによって最小限に抑えられる(非特許文献10を参照。)。相関技術は動き対応付けの曖昧さを著しく低減し得るが、部分的なオクルージョンや背景の著しい変化がこのような相関技術の場合に問題になり得る。その上、このような相関技術は、既存のトラッキングから測定量を検出するためには適切であるが、新しいトラックの検出のためには適切ではない。 Recent multi-object tracking systems can be broadly divided into two basic types. The first type uses multiple single object tracking devices in combination with bootstrap mechanism injection. Most of this type of system assumes that the motion mapping problem has been solved, or that the motion mapping problem is a trivial problem and that the nearest neighbor strategy is effective. In some cases, the nearest neighbor strategy is really appropriate. For example, it has been proposed to use such an approach to track corner features across a very large number of frames (see, for example, Non-Patent Document 9). Nearest neighbor strategies usually assume that the motion of the image between frames is very small. However, if significant motion appears between frames, the ambiguity can increase rapidly. These ambiguities are minimized by using a weighted correlation window to detect tracking features in the next frame (see Non-Patent Document 10). Although correlation techniques can significantly reduce motion mapping ambiguity, partial occlusion and significant background changes can be a problem with such correlation techniques. Moreover, such a correlation technique is suitable for detecting a measured quantity from existing tracking, but not for detecting a new track.
動き対応付けに関するもう一つの種類のアプローチは、例えば、同時確率データ連想(JPDA)フィルタ(非特許文献11)やトラッキング・スプリッティング・フィルタ(非特許文献12)のような統計的データ連想技術であり、これらのアルゴリズムは、現在、特に、コンピュータビジョンの分野において幅広く注目されている。しかし、JPDAは、トラックの個数が事前に既知であり、動きシーケンスの全体を通じて一定に保たれる場合に限り適切である。トラッキング・スプリッティング・フィルタは、より多くの証拠が利用可能になるまで対応付けの決定を先延ばしにするため追跡ツリーで使用される多重仮説追跡と類似している。しかし、トラッキング・スプリッティング・フィルタは、トラック間で測定結果を共有することが可能である。これは、物理的に現実的ではなく、追跡装置を一つの最も可能性の高い対象物に集中させる場合がある(例えば、非特許文献2を参照。)。また、幾何学的特徴は、ある時間フレーム内に唯一の測定ベクトルしか生じないことを仮定してもよい。この非同時性は、人の視覚における一般的な制約であり、ステレオ対応付けの場合には、一意性と呼ばれ(非特許文献13)、動き対応付けの場合には、要素完全性原理と呼ばれる(非特許文献14)。トラッキング・スプリッティング・アルゴリズムはこれらの制約を扱うことができず、MHTアプローチを使用しなければならない(非特許文献15を参照。)。 Another type of approach for motion mapping is a statistical data association technique such as, for example, a joint probability data association (JPDA) filter (NPL 11) or a tracking splitting filter (NPL 12). These algorithms are currently attracting widespread attention, particularly in the field of computer vision. However, JPDA is only suitable if the number of tracks is known in advance and is kept constant throughout the motion sequence. The tracking splitting filter is similar to multiple hypothesis tracking used in tracking trees to postpone matching decisions until more evidence is available. However, tracking splitting filters can share measurement results between tracks. This is not physically realistic and may focus the tracking device on one most likely object (see, for example, Non-Patent Document 2). It may also be assumed that the geometric feature produces only one measurement vector within a time frame. This non-simultaneity is a general limitation in human vision, and is called uniqueness in the case of stereo matching (Non-patent Document 13), and in the case of motion matching, Called (Non-Patent Document 14). Tracking splitting algorithms cannot handle these constraints and must use the MHT approach (see Non-Patent Document 15).
MHTは、以下の1)〜5)の能力を統合した唯一の統計的データ連想アルゴリズムである。
1)追跡開始:新しい幾何学的特徴が視野に入ったとき、新しいトラックを自動的に生成する。
2)追跡終了:幾何学的特徴が長期間に亘って見えなくなったとき、追跡を自動的に終了する。
3)追跡継続:測定量が無いとき、数フレームに亘って追跡を継続する。そのため、このアルゴリズムは、一時的なオクルージョンをあるレベルでサポートすることができる。
4)偽測定値の明示的なモデル化
5)一意性制約の明示的なモデル化:ある測定値は単一のトラックだけに割り当てられ、あるトラックは1フレーム当たりに1個の測定値の発生源である。
MHT is the only statistical data associative algorithm that integrates the following capabilities 1) to 5).
1) Start tracking: When a new geometric feature enters the field of view, a new track is automatically generated.
2) End of tracking: When the geometric feature disappears for a long time, the tracking is automatically ended.
3) Continuation tracking: When there is no measurement, the tracking is continued over several frames. Therefore, this algorithm can support temporary occlusion at a certain level.
4) Explicit modeling of false measurements 5) Explicit modeling of uniqueness constraints: A measurement is assigned to only a single track, and a track generates one measurement per frame Is the source.
このタイプの複数対象物追跡システムの利点は、殆どのケースにおいて、単一対象物の追跡装置が、複数対象物追跡問題の全体の、限定された視点、即ち、局所視点しか持たないことである。この結果として、準最適解が得られる。 The advantage of this type of multi-object tracking system is that in most cases a single-object tracking device has only a limited, or local, perspective of the entire multi-object tracking problem. . As a result, a suboptimal solution is obtained.
第2のタイプの複数対象物追跡システムは、複数対象物追跡問題の完全なベイズ定式化を利用する。不確実性を予測する性質を本来的に備えているので、ベイズ理論は、クラッター環境下における対象物追跡の強力なツールである。大域的な完全なベイズモデルに基づく複数対象物追跡装置は、ドメインの完全なビューを有する。残念ながら、この大域的モデルは、高次元状態空間を利用しなければ獲得できないので、ベイズ推論が殆ど困難になる。近年のパーティクルフィルタリングの研究によれば、この問題に対する有望なソリューションが示されている。 The second type of multi-object tracking system utilizes a complete Bayesian formulation of the multi-object tracking problem. Because of its inherent nature of predicting uncertainty, Bayesian theory is a powerful tool for object tracking in clutter environments. A multi-object tracking device based on a global complete Bayesian model has a complete view of the domain. Unfortunately, this global model can only be obtained using a high-dimensional state space, making Bayesian inference almost difficult. Recent particle filtering research shows a promising solution to this problem.
パーティクルフィルタリングはクラッター環境下の対象物追跡にうまく適用されている(非特許文献14及び15を参照。)。元来のCondensation (Conditional Density Propagation)アルゴリズム及びその変形版は、基本状態表現として、一つの対象物状態を使用する。多数の対象物が存在することは、事後確率分布に多数のピークが現れることによって暗黙的に示される。Condensationアルゴリズムがこのような表現に適用された場合、ピークは、推定が長期間に亘って行われたとき、他のすべてのピークよりも支配的になる。事後確率分布が一定数のサンプルと共に伝搬する場合、最終的に、すべてのサンプルは支配的なピークの周辺に集まる。支配的ピークの問題の他に、追加、削除及びオクルージョンのような事象を当然には取り扱えない。サンプリングの枠組みと、複数のモードを維持し得る能力は、パーティクルフィルタリングがこのような問題に対処する手段を提供すべきであることを示す。しかしながら、このような手段は、これまでは十分に利用されていない。概略的に説明すると、複数のモードが生じる原因が二つある。第1の原因は、測定量が不十分であるか、又は、クラッターのために対象物状態に曖昧さが含まれることである。第2の原因は、測定量が複数の対象物に由来することである。第1の原因の場合、曖昧さが自然に解消されるまで、すべてのモードを追跡することが望ましい。第2の原因の場合、屡々、現れたすべての対象物を追跡することが要求される。これらの制限は、パーティクルフィルタリング処理から生じる制限ではなく、追跡装置によって使用される状態表現と観測モデルの両方から生じる制限である。
従来の標準的な対象物追跡法であるパーティクルフィルタは、対象物追跡がベイズ推論問題として定式化できることを示している。そして、複数対象物の追跡も同様に定式化できる。しかし、パーティクルフィルタを複数対象物の追跡の定式化に使用するためには、非線形性のある確率的動的システムと、不完全な観測と、観測される複数対象物の次数及び割当の増大によって生ずるその他の困難な問題と、を解決しなければならない。 Particle filters, which are conventional standard object tracking methods, show that object tracking can be formulated as a Bayesian inference problem. The tracking of a plurality of objects can be similarly formulated. However, in order to use a particle filter to formulate the tracking of multiple objects, a nonlinear stochastic dynamic system, imperfect observations, and increased order and allocation of observed multiple objects. Any other difficult problems that arise must be solved.
この問題点を解決するため、本発明は、多様相を維持し、任意の数の類似対象物を自然に効率的に取り扱うことがよりよくできる複数対象物追跡方法及び追跡システムを提案する。また、本発明は、このような追跡システムにおいて行われる処理をコンピュータに実現させるためのプログラム、及び、このプログラムを記録した記録媒体の提供を目的とする。 In order to solve this problem, the present invention proposes a multi-object tracking method and tracking system that can better handle any number of similar objects in a natural and efficient manner while maintaining a variety of phases. Another object of the present invention is to provide a program for causing a computer to execute the processing performed in such a tracking system, and a recording medium on which the program is recorded.
本発明は、これらの困難な問題に対処するため、次の三つの新規技術を導入することにより典型的なパーティクルフィルタの拡張を提供する。1番目の新規技術は、対象物の間のオクルージョンをパーティクルに明示的に表現する。第2の新規技術は、観測の概念だけを組み込むのではなく、全く重なり合い(オーバーラップ)の無い対象物から多数の重なり合いのある対象物までを柔軟に取り扱うことができる専用設計された観測尤度関数である。3番目の新規技術は、観測モデルに関する技術である。本発明によれば、状態表現に隠れ変数を補強することによって、ビューや幾何学的変換に対して不変である生成的観測モデルが開発された。この観測モデルは対象物のアピアランス(見え方)が変形したときに適応する。 The present invention provides a typical particle filter extension by introducing the following three new technologies to address these difficult problems. The first new technique explicitly expresses occlusions between objects in particles. The second new technology does not incorporate only the concept of observation, but is an observation likelihood designed exclusively for flexible handling of objects with no overlap (overlap) to many objects with overlap. It is a function. The third new technology is related to observation models. According to the present invention, generative observation models have been developed that are invariant to views and geometric transformations by reinforcing hidden variables in the state representation. This observation model is applied when the appearance of the object is deformed.
請求項1に係る発明は、
画像シーケンス中の複数対象物を個別に同時に追跡するパーティクルフィルタリングに基づく複数対象物追跡方法であって、
対象物間のオクルージョンをパーティクルに明示的に記述し、
重なり合いの無い対象物から重なり合いのある対象物までを取り扱う観測尤度関数を設定し、
対象物アピアランス変形のダイナミクスをモデル化する隠れ表現を状態表現に組み込む、
ことを特徴とする。
The invention according to
A multi-object tracking method based on particle filtering for individually tracking multiple objects in an image sequence simultaneously,
Explicitly describe occlusions between objects in particles,
Set an observation likelihood function that handles objects from non-overlapping to overlapping objects,
Incorporate hidden expressions into the state expression to model the dynamics of object appearance deformation.
It is characterized by that.
本発明は、推論に確率推論を用いて複数の対象物を個別に識別しながら対象物をトラッキングする。各々の対象物は動きの特徴から識別できる。よって、形が同じ対象物であっても識別することができる。また、本発明によれば、オクルージョンの発生も認識できる。更に、本発明では、見えない変数(隠れ変数)を利用して幾何学的変換に影響を受けないモデルが実現されている。よって、本発明によれば、図形変換や傾きの変化に強い対象物追跡を実現することができる。 The present invention tracks an object while individually identifying a plurality of objects using probability reasoning for inference. Each object can be identified from the motion characteristics. Therefore, even objects having the same shape can be identified. Further, according to the present invention, occurrence of occlusion can also be recognized. Furthermore, in the present invention, a model that is not affected by geometric transformation is realized by using invisible variables (hidden variables). Therefore, according to the present invention, it is possible to realize object tracking that is resistant to graphic transformation and inclination change.
請求項2に係る発明によれば、前記状態表現において、基本表現は画像内のすべての対象物を対象物コンフィギュレーションとして表現することによって増強され、オクルージョンはオクルージョンリストを前記対象物コンフィギュレーションに補強することによって明示的に取り扱われる。表現を増強することによって、観測尤度計算のために必要な順序付き奥行き(ordering depths)を、オクルージョン関係に含まれる対象物のペアに分解することが可能になる。
According to the invention of
請求項3に係る発明によれば、観測モデルは個数が変化しながら出現する対象物の尤度を反映する。一旦、このようなモデルを利用できるようになると、対象物の個数とコンフィギュレーションに関する事後確率分布を生成するために標準的なパーティクルを適用することができる。
According to the invention of
請求項4に係る発明によれば、前記隠れ表現は確率的ランダム変数でもよく、ビューや幾何学的変換に対して不変である観測モデルを生成する。これにより、観測モデルは様々な種類の変形に適応する。サンプルの不足と、複数対象物の追跡の際に特に悪化する確率崩壊問題に対処するため、再重み付けされたサンプリングを複数対象物追跡の枠組みの中で具現化することができる。
According to the invention of
請求項5に係る発明は、画像シーケンス中の複数対象物を個別に同時に追跡するパーティクルフィルタリングに基づく複数対象物追跡方法であって、
対象物間に発生したオクルージョンに関するすべての仮説を維持するオクルージョンリストと、観測モデルが対象物のアピアランス変形によって変化しないようにさせる変数と、を個別の対象物のコンフィギュレーションの複合体の状態表現に導入することによって排他原理を複数対象物へ拡張するステップと、
動的ベイジアンネットワークを、排他原理に基づく専用設計された観測モデルと組み合わせ使用することにより、ベイズ推論フレームワークの範囲内で複数対象物追跡を定式化するステップと、
全体的なオクルージョンが発生したときの曖昧さを軽減するための混合状態動的プロセスと、新たに到着した対象物を追跡するための再初期化を、同じ枠組みで考慮するステップと、
を有する。
The invention according to
An occlusion list that maintains all hypotheses about occlusions that occur between objects, and a variable that keeps the observation model from changing due to the appearance deformation of the object. Extending the exclusion principle to multiple objects by introducing;
Formulating multiple object tracking within a Bayesian inference framework by using a dynamic Bayesian network in combination with a dedicated designed observation model based on exclusion principles;
Considering a mixed-state dynamic process to reduce ambiguity when global occlusion occurs and reinitialization to track newly arrived objects in the same framework;
Have
請求項5に係る発明によれば、対象物間のオクルージョンをモデル化する隠れ過程と、各対象物の変換をモデル化する隠れ過程を、パーティクルフィルタ形式の基本動的ベイジアンネットワークに統合することによって、複数対象物追跡における、対象物間のオクルージョンと、幾何学的変換によって生じる可能性のある変形に対する適応性とを、ベイジアンネットワークの枠組みで取り扱い、複数対象物追跡方法を、例えば、逐次モンテカルロ解決法によって定式化することが可能になる。
According to the invention of
請求項6記載の複数対象物追跡システムは、
画像シーケンスを入力して複数対象物を個別に同時に追跡するパーティクルフィルタリングに基づく複数対象物追跡処理部と、
対象物間に発生したオクルージョンに関するすべての仮説を維持するオクルージョンリストと、観測モデルが対象物のアピアランス変形によって変化しないようにさせる変数と、を個別の対象物のコンフィギュレーションの複合体の状態表現に導入することによって排他原理を複数対象物へ拡張する拡張処理部と、
動的ベイジアンネットワークを、排他原理に基づく専用設計された観測モデルと組み合わせ使用することにより、ベイズ推論フレームワークの範囲内で複数対象物追跡を定式化するベイズ推論部と、
全体的なオクルージョンが発生したときの曖昧さを軽減するための混合状態動的プロセスと、新たに到着した対象物を追跡するための再初期化を、同じ枠組みで考慮する統合処理部と、
を有する。
The multiple object tracking system according to
Multiple object tracking processing unit based on particle filtering that inputs image sequence and tracks multiple objects individually and simultaneously,
An occlusion list that maintains all hypotheses about occlusions that occur between objects, and a variable that keeps the observation model from changing due to the appearance deformation of the object. An expansion processing unit that extends the exclusion principle to multiple objects by introducing;
A Bayesian inference unit that formulates multiple object tracking within the Bayesian inference framework by using a dynamic Bayesian network in combination with a dedicated designed observation model based on the exclusion principle;
An integrated processing unit that considers mixed state dynamic processes to reduce ambiguity when global occlusion occurs and re-initialization to track newly arrived objects in the same framework;
Have
請求項6に係る発明によれば、対象物間のオクルージョンをモデル化する隠れ過程と、各対象物の変換をモデル化する隠れ過程を、パーティクルフィルタ形式の基本動的ベイジアンネットワークに統合することによって、複数対象物追跡における、対象物間のオクルージョンと、幾何学的変換によって生じる可能性のある変形に対する適応性とを、ベイジアンネットワークの枠組みで取り扱い、複数対象物追跡方法を、例えば、逐次モンテカルロ解決法によって定式化するシステムを構築することが可能になる。
According to the invention which concerns on
請求項7に係る発明は、
画像シーケンスを入力して複数対象物を個別に同時に追跡するパーティクルフィルタリングに基づく複数対象物追跡機能と、
対象物間に発生したオクルージョンに関するすべての仮説を維持するオクルージョンリストと、観測モデルが対象物のアピアランス変形によって変化しないようにさせる変数と、を個別の対象物のコンフィギュレーションの複合体の状態表現に導入することによって排他原理を複数対象物へ拡張する機能と、
動的ベイジアンネットワークを、排他原理に基づく専用設計された観測モデルと組み合わせ使用することにより、ベイズ推論フレームワークの範囲内で複数対象物追跡を定式化するベイズ推論機能と、
全体的なオクルージョンが発生したときの曖昧さを軽減するための混合状態動的プロセスと、新たに到着した対象物を追跡するための再初期化を、同じ枠組みで考慮する統合機能と、
をコンピュータに実現させるためのプログラムである。
The invention according to claim 7 provides:
Multiple object tracking function based on particle filtering to input multiple image sequences and track multiple objects individually,
An occlusion list that maintains all hypotheses about occlusions that occur between objects, and a variable that keeps the observation model from changing due to the appearance deformation of the object. A function to extend the exclusion principle to multiple objects by introducing,
Bayesian inference function that formulates multi-object tracking within the Bayesian inference framework by using a dynamic Bayesian network in combination with a specially designed observation model based on exclusion principles;
An integrated function that considers mixed state dynamic processes to reduce ambiguity when global occlusion occurs and reinitialization to track newly arrived objects in the same framework;
Is a program for causing a computer to realize the above.
この請求項7に係る発明は、前記システムの様々な機能をコンピュータに実現させるためのプログラムを提供する。このプログラムは、通信回線や記録媒体を用いて前記システムに提供することが可能である。 The invention according to claim 7 provides a program for causing a computer to realize various functions of the system. This program can be provided to the system using a communication line or a recording medium.
また、請求項8に係る発明は、請求項7に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体を提供する。 The invention according to claim 8 provides a computer-readable recording medium in which the program according to claim 7 is recorded.
発明によれば、状態表現に隠れ変数を補強することによって、ビューや幾何学的変換に対して不変である生成的観測モデルが開発された。この観測モデルは対象物のアピアランス(見え方)が変形したときに適応する。本発明によれば、非線形性のある確率的動的システムと、不完全な観測と、観測される複数対象物の次数及び割当の増加によって生ずるその他の困難な問題と、が解決されるので、複数対象物の追跡の定式化にパーティクルフィルタを使用することができる。 According to the invention, generative observation models have been developed that are invariant to views and geometric transformations by reinforcing hidden variables in the state representation. This observation model is applied when the appearance of the object is deformed. According to the present invention, non-linear stochastic dynamic systems, incomplete observations, and other difficult problems caused by increasing the order and allocation of observed multiple objects are solved. A particle filter can be used to formulate the tracking of multiple objects.
以下、本発明を実施するための最良の形態を図面と共に詳細に説明する。 Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the drawings.
本発明を実施するための最良の形態では、クラッター画像シーケンス中の同じタイプの多数対象物を追跡するためパーティクルフィルタリングを使用する。本発明の一つのアプリケーション分野は、自動会議要約への先駆けとして会議室で使用されるペン型入力装置によって生成された円のロバスト追跡である(非特許文献23を参照。)。典型的に、画像シーケンスには、見分けることが難しい画像特徴が含まれる。このようなシーケンス内での複数対象物追跡は困難である。なぜならば、アピアランスモデルは、各対象物をサポートするため、同じタイプの画像特徴を使用し、対象物が遮蔽され始めたり、相互に側を通過したりするとき、測定量の曖昧さの範囲が非常に大きくなるからである。 In the best mode for practicing the invention, particle filtering is used to track multiple objects of the same type in a clutter image sequence. One application area of the present invention is robust tracking of circles generated by pen-type input devices used in conference rooms as a precursor to automatic conference summaries (see Non-Patent Document 23). An image sequence typically includes image features that are difficult to distinguish. Tracking multiple objects within such a sequence is difficult. Because the appearance model supports each object, it uses the same type of image features, and when the objects begin to be occluded or pass side by side, the range of ambiguity of the measurand is Because it becomes very large.
本発明の一実施例は、従来の方法とは異なる以下の三つの新規技術を導入することによって複数対象物追跡を実現する。第1の新規技術は、状態表現のパーティクル内で対象物間のオクルージョンの明示的な表現を使用することである。この状態表現では、基本表現は、画像内のすべての対象物を対象物コンフィギュレーションとして表現することによって増強され、オクルージョンは、オクルージョンリストをそのコンフィギュレーションに補強することによって明示的に取り扱われる。表現を増強することによって、観測尤度計算のために必要な順序付き奥行き(ordering depths)を、オクルージョン関係に含まれる対象物のペアに分解することが可能になる。 One embodiment of the present invention realizes multi-object tracking by introducing the following three new technologies different from the conventional method. The first novel technique is to use an explicit representation of occlusion between objects within the state representation particles. In this state representation, the basic representation is augmented by representing all objects in the image as object configurations, and occlusion is handled explicitly by augmenting the occlusion list to that configuration. By enhancing the representation, it is possible to decompose the ordering depths necessary for the calculation of the observation likelihood into pairs of objects included in the occlusion relation.
第2の新規技術は、観測量の表記だけを組み込むのではなく、重なり合いのない対象物から多数の重なり合いのある対象物までスペクトルを柔軟に取り扱う観測尤度関数を設計することである。得られた観測モデルは、個数が変化しながら出現する対象物の尤度を正確に反映する。一旦、このようなモデルを利用できるようになると、対象物の個数とコンフィギュレーションに関する事後確率分布を生成するために標準的なパーティクルを適用可能であることがわかる。 The second novel technique is to design an observation likelihood function that flexibly handles a spectrum from a non-overlapping object to a large number of overlapping objects, rather than incorporating only the observation amount notation. The obtained observation model accurately reflects the likelihood of the object appearing while the number changes. Once such a model is available, it can be seen that standard particles can be applied to generate a posteriori probability distribution for the number of objects and the configuration.
第3の新規技術は観測モデルに関する技術である。オクルージョンリストの他に、幾何学的変形によって生じる対象物アピアランス変形のダイナミクスをモデル化する隠れ確率的ランダム変数を、状態表現に補強する。これにより、観測モデルは様々な種類の変形に適応する。サンプルの不足と、複数対象物の追跡の際に特に悪化する確率崩壊問題に対処するため、再重み付けされたサンプリングを複数対象物追跡の枠組みの中で具現化する。 The third new technology is a technology related to observation models. In addition to the occlusion list, the state representation is augmented with hidden stochastic random variables that model the dynamics of object appearance deformation caused by geometric deformation. This allows the observation model to adapt to various types of deformations. To address the lack of samples and the probability collapse problem that is particularly worse when tracking multiple objects, reweighted sampling is implemented within the multiple object tracking framework.
実験結果から分かるように、あらゆる新規技術は、追跡をロバスト(頑健)にさせるだけではなく、対象物がビデオ内で実行する変換のクラスを追跡することが可能である。本発明の最良の実施の形態の性能は、多数の同一円追跡と、会議室内での人物追跡の二つの実施例を用いて実証されている。 As can be seen from the experimental results, any new technology can not only make the tracking robust, but also track the class of transformations that the object performs in the video. The performance of the best embodiment of the present invention has been demonstrated using two examples: multiple identical circle tracking and person tracking in a conference room.
以下では、本発明をより詳細に説明する。そのため、最初に関連技術を概説する。次に、複数対象物追跡のタスクをベイズ推論問題として定式化する。次に、状態表現及び観測尤度関数を説明する。更に、対象物の追加、削除及びオクルージョンの取り扱い方を詳細に説明する。最後に、実験結果と結論を説明する。 In the following, the present invention will be described in more detail. Therefore, first, the related technology is outlined. Next, the task of tracking multiple objects is formulated as a Bayesian inference problem. Next, the state expression and the observation likelihood function will be described. In addition, how to add and delete objects and how to handle occlusion will be described in detail. Finally, the experimental results and conclusions will be explained.
[1] 関連技術
一般的に、複数対象物追跡方法は二つのクラスに大別される。一つの方法は、多数の追跡システムの成功例で使用されている共通の方法であり、前景対象物を得るために背景差分を使用し、次に、データ連想問題を解法するため、多数仮説追跡によって各対象物にカルマンフィルタを帰属させる。対象物の表現モデルは、位置又は速度しか含まないので、更なる処理に必要な情報が不足している。もう一方の方法は、ベイズ推論に基づく追跡方法である。このクラスの追跡方法は、検出及び追跡を統合されたベイズ推論フレームワークに具現化し、将来に有望な手法である。本発明は、後者のベイズ推論に基づく追跡方法を重点的に取り扱う。
[1] Related Art Generally, the multiple object tracking method is roughly divided into two classes. One method is a common method used in the success of multiple tracking systems, using background differences to obtain foreground objects, and then multiple hypothesis tracking to solve data association problems. By assigning a Kalman filter to each object. Since the representation model of the object includes only the position or velocity, information necessary for further processing is insufficient. The other method is a tracking method based on Bayesian inference. This class of tracking methods embodies detection and tracking in an integrated Bayesian inference framework and is a promising approach in the future. The present invention focuses on the latter tracking method based on Bayesian inference.
ベイズ推論フレームワークに基づく対象物追跡を扱う近年の研究は、二つのカテゴリーに大別される。第1のクラスは、単一対象物の追跡問題に取り組み(非特許文献17、18、19及び22)、第2のクラスは、複数対象物を同時に追跡する問題を取り扱う(非特許文献1、4、8、20、21、24及び25)。これらのシステムは、その他のシステムと同様に、非ガウス確率分布上のベイズ推論のために逐次モンテカルロ法を使用する。最初に、これらの二つのクラスのアルゴリズムについて簡単に説明する。
Recent studies dealing with object tracking based on the Bayesian inference framework can be broadly divided into two categories. The first class addresses the tracking problem of single objects (Non-Patent Documents 17, 18, 19 and 22), and the second class handles the problem of tracking multiple objects simultaneously (
単一対象物追跡の研究では、通常、巧妙な対象物モデルに重点が置かれ、単一対象物状態を基本状態表現として使用し、複数対象物の存在は、事後確率分布の複数個のピークによって暗黙的に示される。注目対象物が人物である場合に、人物は3次元姿勢モデルを種々の視点からのオプティカルフロー情報と融合することによりモデル化される(例えば、非特許文献17を参照。)。また、低レベル追跡手法と高レベル追跡手法の間のキャップをつなぐために重要度サンプリングが使用される(非特許文献18)。クラッター環境下のロバスト追跡では、観測モデルの適応性が重要であると指摘されている(非特許文献19)。 Single object tracking studies typically focus on clever object models, using single object states as basic state representations, and the presence of multiple objects is due to multiple peaks in the posterior probability distribution. Implicitly indicated by When the target object is a person, the person is modeled by fusing a three-dimensional posture model with optical flow information from various viewpoints (see, for example, Non-Patent Document 17). Also, importance sampling is used to connect the cap between the low level tracking method and the high level tracking method (Non-patent Document 18). It has been pointed out that the adaptability of the observation model is important for robust tracking in a clutter environment (Non-patent Document 19).
複数対象物追跡の殆どのアルゴリズムは二つのカテゴリーに大別される。第1のカテゴリーに属するアルゴリズムは、一般的に、すべての注目対象物のコンポーネントを包括するように状態空間を拡張することによって複数対象物追跡問題を解決する。これにより、複数対象物の問題はより簡単な単一対象物の問題に簡約化され、複数対象物が存在する場合に多様相に対処できないという単一対象物状態表現に基づくパーティクルフィルタの制限が克服される。対象物の個数の変化は、状態空間の次数をダイナミックに変化させることによって、又は、対象物の有無を表すインジケータ変数の組を対応付けることによって受け容れられる。 Most algorithms for tracking multiple objects fall into two categories. Algorithms belonging to the first category typically solve the multi-object tracking problem by extending the state space to encompass all the components of interest. This simplifies the problem of multiple objects to a simpler single object problem and restricts particle filters based on single object state representations that cannot deal with polymorphism when multiple objects exist. Overcome. The change in the number of objects is accepted by dynamically changing the order of the state space or by associating a set of indicator variables indicating the presence or absence of the object.
これに対して、第2のカテゴリーに属するアルゴリズムは、対象物の連結を避け、複数対象物を個別に、しかも、同時に追跡するパーティクルフィルタリングに基づくアルゴリズムである(非特許文献20、21、24及び25。)。複数対象物追跡装置は、単一対象物追跡アルゴリズムの複数のインスタンス化によって構築される。様々なレベルの高度化を伴う戦略は、オクルージョンや、重なり合う対象物が存在する場合に、得られた追跡装置の出力を解釈するために開発された。Condensationアルゴリズムは、ICondensationアルゴリズム(非特許文献18)からアイデアを借用して複数対象物追跡に拡張され、突然の出現及び消失の状況に対処するため検出−追跡−検出スキームを利用する。近年、多様相を維持することができないパーティクルフィルタの欠点を解決するため非パラメトリック混合モデルが提案された(非特許文献25)。 On the other hand, the algorithm belonging to the second category is an algorithm based on particle filtering that avoids connection of objects and tracks a plurality of objects individually and simultaneously (Non-Patent Documents 20, 21, 24 and 25.). A multi-object tracking device is built by multiple instantiations of a single object tracking algorithm. Strategies with various levels of sophistication were developed to interpret the resulting tracking device output in the presence of occlusions and overlapping objects. The Condensation algorithm borrows ideas from the ICondensation algorithm (Non-Patent Document 18) and extends to multi-object tracking and utilizes a detection-tracking-detection scheme to deal with sudden appearance and disappearance situations. In recent years, a non-parametric mixture model has been proposed in order to solve the drawbacks of particle filters that cannot maintain various phases (Non-patent Document 25).
複数対象物追跡における不可避的な、興味深い問題は、複数の対象物と背景のオクルージョンである。従来の複数対象物追跡の拡張は、理論的に精密ではあるが、せいぜい2〜3個の対象物を取り扱うように設計され、より多数の対象物を取り扱えるように拡張することは容易ではなかった(非特許文献1、2、4、8及び26)。複数の隠蔽する対象物を追跡する確率論的排他原理は、各パーティクルに2個の対象物、即ち、隠蔽する可能性のある前景背景物、及び、隠蔽される可能性のある背景対象物を収容することによって導入された(非特許文献2)。この原理によれば、画像の「特徴」は、2個の対象物のうちの多くても一方をサポートするため使用することができる。状態密度を因数分解することにより、分割サンプリングは、前景対象物である第1レベル及び背景対象物である第2レベルと共に使用することができる。Condensationアルゴリズムにパーティクル間のバインディングが導入され(非特許文献25)、これにより、複数のオクルージョンを標準的なCondensationフレームワーク内で自然に取り扱えるようになるが、すべての2個のパーティクルの間のオクルージョン検出の計算は、必要なパーティクルの個数が増加したとき、集約的になる。
An inevitable and interesting issue in multi-object tracking is multiple object and background occlusion. The extension of conventional multi-object tracking is theoretically precise, but it was designed to handle at most 2 to 3 objects, and it was not easy to expand to handle a larger number of objects. (
上記の従来技術に対して、本発明は、複数対象物追跡のための古典的なパーティクルフィルタリング方法の新規の拡張を提供する。図1は本発明の一実施例による複数対象物追跡方法のフローチャートである。本発明の一実施例は、排他原理を採用し(非特許文献2)、対象物間に発生したオクルージョンに関するすべての仮説を維持するオクルージョンリストと、観測モデルが対象物のアピアランス変形によって変化しないようにさせる変数と、を個別の対象物のコンフィギュレーションの複合体の状態表現に導入することによって排他原理を複数対象物へ拡張する(ステップ101)。これらを、排他原理に基づく専用設計された観測モデルと組み合わせ、動的ベイジアンネットワークを使用することにより、ベイズ推論フレームワークの範囲内で複数対象物追跡を定式化する(ステップ102)。本発明の一実施例では複数対象物の追跡が取り扱われるので、全体的なオクルージョンが発生したときの曖昧さを軽減するための混合状態動的プロセスと、新たに到着した対象物を追跡するための再初期化が、このフレームワーク内で考慮される(ステップ103)。 In contrast to the prior art described above, the present invention provides a novel extension of the classical particle filtering method for multi-object tracking. FIG. 1 is a flowchart of a multi-object tracking method according to an embodiment of the present invention. One embodiment of the present invention adopts an exclusion principle (Non-Patent Document 2), and maintains an occlusion list that maintains all hypotheses regarding occlusions occurring between objects, so that the observation model does not change due to appearance deformation of the object. The exclusion principle is extended to a plurality of objects by introducing the variable to be expressed into the state representation of the complex of the configuration of the individual objects (step 101). These are combined with a specially designed observation model based on exclusion principles and a dynamic Bayesian network is used to formulate multiple object tracking within the Bayesian inference framework (step 102). In one embodiment of the present invention, tracking multiple objects is handled, so a mixed state dynamic process to reduce ambiguity when global occlusion occurs and to track newly arrived objects Is re-initialized within this framework (step 103).
[2] 追跡のベイズ定式化とパーティクルフィルタ
ベイズの定理(非特許文献27及び28)は、次式(1)に示されるように、画像シーンIから世界Wを確率論的に推論するツールを提供する。
[2] Bayesian formulation of tracking and particle filter The Bayes' theorem (Non-patent Documents 27 and 28) is a tool that probabilistically infers the world W from the image scene I as shown in the following equation (1). provide.
時点tにおいて、状態 State at time t
説明の完全性のため、基本パーティクルフィルタについて簡単に説明する。パーティクルフィルタを裏付ける基本的な考え方は、モンテカルロ戦略(非特許文献30)によって式(3)をシミュレーションすることである。このシミュレーションは、重み付きパーティクル集合: For completeness of explanation, the basic particle filter is briefly described. The basic idea behind the particle filter is to simulate equation (3) using the Monte Carlo strategy (Non-patent Document 30). This simulation is a weighted particle set:
次に、複数対象物追跡問題と、複数対象物追跡のための従来のパーティクルフィルタリング方法と、について簡単に説明する。複数対象物を並列に追跡することは非常に難しい。なぜならば、複数対象物は、複数の最大値を有する事後確率分布を生ずるからである。MAPソリューションは曖昧になり、その結果として非実用的になる。しかし、好都合に、単一対象物追跡を用いて複数対象物のケースで追跡を行う方法が存在する。複数対象物の同時追跡は、複数対象物により構成された「対象物複合」対象物のコンフィギュレーションとして説明することができる。但し、単一複合対象物追跡を用いて複数対象物追跡問題のモデル化を簡単化することは、状態空間の次元が目標数の関数として指数関数的に増大することの代償として達成される。対象物の個数が少数であっても計算的に殆ど解決困難な問題、「次元の呪い」とも呼ばれる現象を生ずる。 Next, a multiple object tracking problem and a conventional particle filtering method for tracking multiple objects will be briefly described. It is very difficult to track multiple objects in parallel. This is because multiple objects produce a posterior probability distribution having multiple maximum values. The MAP solution becomes ambiguous and consequently impractical. However, there are expedient ways to track in the case of multiple objects using single object tracking. Simultaneous tracking of multiple objects can be described as a configuration of “object composite” objects composed of multiple objects. However, simplifying the modeling of multiple object tracking problems using single compound object tracking is accomplished at the cost of exponentially increasing the state space dimension as a function of the target number. Even if the number of objects is small, a problem that is almost difficult to solve computationally, a phenomenon called “curse of dimension”, occurs.
この複雑さは、シーン内に存在する対象物の個数が未知である場合には更に増大する。追跡される対象物の個数を制限することによって、問題の複雑さを予想することが可能になるが、システムの汎用性が制限される。これに対して、出現対象物の個数を事前予想することなく、追跡問題を解決する効率的な戦略を得ることは難しい。本発明の一実施例では、これらの問題に対処する手段を利用する。 This complexity is further increased when the number of objects present in the scene is unknown. By limiting the number of objects tracked, it becomes possible to predict the complexity of the problem, but it limits the versatility of the system. On the other hand, it is difficult to obtain an efficient strategy for solving the tracking problem without predicting the number of appearance objects in advance. One embodiment of the present invention utilizes means to address these issues.
[3] 複数対象物パーティクルフィルタ
追跡すべき対象物の個数をMで表し、最初に、このMは一定であると仮定する。次に、対象物の個数が可変である場合について説明する。以下の説明では、インデックスiはM個の目標物のなかの一つを指定し、常に、第1の上付き添え字として使用する。複数対象物の追跡では、すべての対象物の状態ベクトルを連結することにより作成された状態ベクトルを評価する。一般的に、対象物は独立したマルコフダイナミクスに従って運動することが仮定される。単一対象物追跡と同様に、複数対象物追跡は、図5に示されるようなグラフで表すことができる。
[3] Multi-object particle filter The number of objects to be tracked is represented by M. First, it is assumed that M is constant. Next, a case where the number of objects is variable will be described. In the following description, the index i designates one of M targets and is always used as the first superscript. In tracking multiple objects, the state vectors created by concatenating the state vectors of all objects are evaluated. In general, it is assumed that the object moves according to independent Markov dynamics. Similar to single object tracking, multiple object tracking can be represented by a graph as shown in FIG.
時点tにおいて、 At time t
時点tに収集された観測ベクトルは、 The observation vector collected at time t is
多重仮説追跡アルゴリズムは連想仮説を再帰的に構築する(非特許文献15)。このアルゴリズムの一つの利点は、新しい目標物のアピアランスは各ステップで仮説として立てられることである。しかし、このアルゴリズムの複雑さは、時間と共に指数関数的に増大する。連想の一部を除去するため、ある種の除去用ソリューションを見つける必要がある。JDPAF(非特許文献11)は、測定量の規制を行い、予測の周りの楕円内部の測定量だけを通す。この規制は、測定量が予測状態に中心があるガウス則に従って分布することを仮定する。したがって、各連想Kt j=iの確率が推定される。 The multiple hypothesis tracking algorithm recursively constructs associative hypotheses (Non-Patent Document 15). One advantage of this algorithm is that the appearance of the new target is hypothesized at each step. However, the complexity of this algorithm increases exponentially with time. To remove some of the associations, some sort of removal solution needs to be found. JDPAF (Non-Patent Document 11) regulates the measurement amount and passes only the measurement amount inside the ellipse around the prediction. This restriction assumes that the measured quantity is distributed according to Gaussian law centered on the predicted state. Therefore, the probability of each association K t j = i is estimated.
パーティクルフィルタリング方法は、パーティクル集合を用いて多重仮説を表現する本質的な能力を備えている。連想は所定の時間的反復のときだけ考慮すればよいので、データ連想の複雑さが軽減される。パーティクルが単一対象物状態空間に展開されるハイブリッド・ブートストラップ・フィルタが提案されている(非特許文献35)。かくして、測定量が与えられた場合の目標物の事後確率則は、ガウス混合によって表現される。この法則の各モードは対象物のうちの一つに対応する。しかし、混合によって事後確率を表現する方法は、オクルージョン中に対象物のうちの一つを失う可能性がある(非特許文献36)。隠蔽された対象物を追跡するパーティクルは非常に小さい重みが与えられるので、再サンプリングステップ中に放棄される。この問題にクラッターパーティクルの考え方を導入することが提案されている(非特許文献37)。このアルゴリズムは、本質的に、パーティクルを、別々に追跡されるクラスタに分類する。各クラスタには、上位レベルで動作する別のモンテカルロフィルタによって追跡される確率が割り当てられる。 The particle filtering method has an essential ability to express multiple hypotheses using particle sets. Since associations need only be considered for a given temporal iteration, the complexity of data associations is reduced. A hybrid bootstrap filter in which particles are developed in a single object state space has been proposed (Non-patent Document 35). Thus, the posterior probability rule of the target when the measured quantity is given is expressed by Gaussian mixture. Each mode of this law corresponds to one of the objects. However, the method of expressing the posterior probability by mixing may lose one of the objects during occlusion (Non-patent Document 36). Particles that track the concealed object are given a very low weight and are discarded during the resampling step. It has been proposed to introduce the clutter particle concept into this problem (Non-patent Document 37). This algorithm essentially classifies particles into separately tracked clusters. Each cluster is assigned a probability that is tracked by another Monte Carlo filter operating at a higher level.
本発明の一実施例では、複数対象物追跡のためパーティクルフィルタを採用し、パーティクルの次数が各対象物に対応した個別の状態空間の和であるパーティクルを使用する(非特許文献1、2、4及び26)。そして、従来技術とは異なり、各パーティクルサンプルに付加的な変数Occl_listを導入する。これは、対象物間のオクルージョンを明示し、対象物が互いに隠蔽することを許容し、観測尤度をどのように計算すべきであるかについて重要な手がかりを与える。Occl_listはコンフィギュレーションが与えられた場合に決定される。コンフィギュレーション空間が0個、1個、2個、...の対象物の考え得るすべてのコンフィギュレーションの和集合であるとすると、典型的な要素は、次式(5’):
In one embodiment of the present invention, a particle filter is used for tracking a plurality of objects, and particles whose order is the sum of individual state spaces corresponding to each object are used (
式(2)から類推すると、複数対象物状態に対して(過去の画像に基づく条件を仮定すると)、 By analogy with equation (2), for multiple object states (assuming conditions based on past images)
再度式(3)を参照すると、対象物の動きは独立しているので、 Referring to Equation (3) again, the movement of the object is independent.
上述の通り、オクルージョンがなければ、観測尤度は式(8)を用いて一意に決定することができる。しかし、オクルージョンが発生したとき、オクルージョン関係は、尤度を一意に計算する前に分かっていなければならない。即ち、尤度は隠れ過程{oi}に基づいて決まる(非特許文献27)。本発明の一実施例では、オクルージョンは、確率過程ではなく、決定論的過程として取り扱われる(非特許文献27)。なぜならば、本実施例の状態表現の場合、オクルージョンは簡単に検出することができ、これにより、後段のベイズ推論タスクが簡単化されるからである。 As described above, if there is no occlusion, the observation likelihood can be uniquely determined using Equation (8). However, when occlusion occurs, the occlusion relationship must be known before the likelihood is calculated uniquely. That is, the likelihood is determined based on the hidden process {o i } (Non-patent Document 27). In one embodiment of the present invention, occlusion is treated as a deterministic process, not a stochastic process (27). This is because the occlusion can be detected easily in the case of the state expression of this embodiment, thereby simplifying the subsequent Bayesian inference task.
図7に示された動的ベイジアンネットワークの場合、M個の対象物に対応したM個の隠れマルコフ過程が存在する。図7における動的ベイジアンネットワークの厳密な確率論的推論は、観測尤度が複雑である場合には、非常に困難であろう。これに対して、確率論的逐次モンテカルロ戦略は、この問題に対して計算的なアプローチを提供し、確率は重み付きパーティクルの集合によって近似される。動的ベイジアンネットワークによるパーティクルの集合の展開は、動的システムの挙動を特徴付け、隠れ過程はパーティクルの集合から復元できる。 In the case of the dynamic Bayesian network shown in FIG. 7, there are M hidden Markov processes corresponding to M objects. Strict probabilistic reasoning of the dynamic Bayesian network in FIG. 7 would be very difficult when the observation likelihood is complex. In contrast, the stochastic sequential Monte Carlo strategy provides a computational approach to this problem, with probabilities approximated by a set of weighted particles. The expansion of a set of particles by a dynamic Bayesian network characterizes the behavior of the dynamic system, and the hidden process can be restored from the set of particles.
N個のパーティクルからなる初期パーティクル集合: Initial particle set consisting of N particles:
図3及び4に示したパーティクルフィルタリングアルゴリズムと同様に、各反復は、予測と重み付けのような二つの主要な演算を含む。予測は、プロポーザル密度fからのサンプリングによって実行され、これは、以下のダイナミクス(10)と一致する。 Similar to the particle filtering algorithm shown in FIGS. 3 and 4, each iteration includes two main operations, such as prediction and weighting. Prediction is performed by sampling from proposal density f, which is consistent with the following dynamics (10):
[4] 適応的観測尤度
n番目のパーティクル
[4] Adaptive observation likelihood
nth particle
ここで、 here,
第2のステップは、オクルージョンに関係している対象物に対する最も確からしい奥行き順序を選ぶことである。このため、オクルージョンに関係している対象物の奥行き順序の考えられるすべての並べ替えが列挙される。対象物間のオクルージョン関係をあらゆる2個の対象物へ分解するので、奥行き順序に関して残されている不確実性は、2状態過程であり、遷移行列 The second step is to select the most probable depth order for the object involved in occlusion. For this reason, all possible permutations of the depth order of objects related to occlusion are listed. Since the occlusion relationship between the objects is broken down into every two objects, the remaining uncertainty with respect to the depth order is a two-state process and the transition matrix
得られた奥行き順序を用いて、画像Iのサイズの2値マスクの集合 A set of binary masks of the size of image I using the obtained depth order
[4.1] 輪郭に基づく観測モデル
この形式の対象物は輪郭を用いて記述され、輪郭はB−スプライン曲線としてモデル化される。形状空間は、低次元ベクトル空間Qsとしてパラメータ化され(非特許文献16)、アフィン変換的な変形に制約される。このスプライン方式アプローチは、追跡される対象物の形状の任意の詳細記述を可能にするが、対象物の輪郭が剛性的、平面的な曲線であり、平行移動、拡大縮小、平面内の回転に限定されているならば、アフィン変換による制約は、モデルの自由度を効率的に固定する。図8は、画像上の輪郭観測と測定ラインに沿ったエッジ点の説明図である。式(10)のようなプロポーザル密度fによって予測されたコンフィギュレーションQ∈Qsは、図8に示された方法によって測定され、画像座標のリストZ=(Z(1),...,Z(B))が得られる。Zの成分は、それ自体が、コンフィギュレーションQの固定測定ラインに沿って測定された測定量により構成されたベクトルz(b) b∈{1,...,B}である(即ち、コンフィギュレーションQが与えられた場合、測定ラインの配置も固定されることを意味する(非特許文献16を参照。)。)。図6において、点線の直線は測定ラインを表し、小さい丸点は測定ライン上のエッジ点を表す。番号が付されていない丸点は真の輪郭点を表している。円状の曲線(一部は隠れている)は仮定された輪郭である。
[4.1] Observation model based on contour An object of this type is described using a contour, and the contour is modeled as a B-spline curve. The shape space is parameterized as a low-dimensional vector space Q s (Non-Patent Document 16), and is restricted by affine transformation. This spline approach allows any detailed description of the shape of the object being tracked, but the contour of the object is a rigid, planar curve that translates, scales, and rotates in a plane. If limited, the affine transformation constraints effectively fix the model's degrees of freedom. FIG. 8 is an explanatory diagram of edge observation along the contour observation and measurement line on the image. The configuration QεQ s predicted by the proposal density f as in equation (10) is measured by the method shown in FIG. 8, and the list of image coordinates Z = (Z (1) ,. (B) ) is obtained. The component of Z is itself a vector z (b) b∈ {1, ..., B} composed of measured quantities measured along the fixed measurement line of configuration Q (ie, configuration When the action Q is given, it means that the arrangement of the measurement line is also fixed (see Non-Patent Document 16). In FIG. 6, a dotted straight line represents a measurement line, and a small round dot represents an edge point on the measurement line. A round dot without a number represents a true contour point. A circular curve (partially hidden) is an assumed contour.
ここで、2個の隠蔽する対象物を含むことが分かっている画像に配置された長さLの1本の固定測定ラインについて考える。1次元のエッジ検出器がこのラインに適用され、ある特徴が画像座標z=(z1,...,zn)で検出される。一部のyiは目標対象物の境界に対応しているかもしれないが、その他は画像のクラッターによって生じたものである。 Now consider a single fixed measurement line of length L placed in an image known to contain two objects to be hidden. A one-dimensional edge detector is applied to this line, and certain features are detected at image coordinates z = (z 1 ,..., Z n ). Some y i may correspond to the boundaries of the target object, while others are caused by image clutter.
異なる測定ラインには、異なる個数のこのような特徴点が存在するので、異なる輪郭仮説に対する観測尤度は同等ではないであろう。そのため、本発明の一実施例で使用される観測尤度は、{z1,...,zn}の位置の同時確率(非特許文献43)とは異なる。{zi} i=1,...,nのうちの高々1個が目標輪郭点xiによって生成され、その位置だけを考慮する必要があり、他の特徴点はポアソン過程によりモデル化されたクラッターと関連しているので、他の特徴点については、実際の位置ではなく、その個数だけを考慮すればよい。したがって、尤度を計算する観測は、(1)
1個のエッジ点の位置(未知である)と、(2)検出された特徴点の個数と、により構成される。
Since different numbers of such feature points exist in different measurement lines, the observation likelihoods for different contour hypotheses will not be equivalent. Therefore, the observation likelihood used in one embodiment of the present invention is different from the joint probability of the position of {z 1 ,..., Z n } (Non-patent Document 43). At most one of {z i } i = 1, ..., n is generated by the target contour point x i , only its position needs to be considered, the other feature points are modeled by Poisson process For other feature points, it is only necessary to consider their number, not their actual position. Therefore, the observation for calculating the likelihood is (1)
It is composed of the position of one edge point (unknown) and (2) the number of detected feature points.
検出された特徴点が測定ライン方向のクラッター分布と関連付けられ、ポアソン過程β(m:λ)に従う場合を考える。ここで、mは特徴の個数である。この仮説は従来技術でも使用されている(非特許文献2)。m個の特徴がクラッターと関連付けられている場合、 Consider a case where the detected feature points are associated with a clutter distribution in the direction of the measurement line and follow a Poisson process β (m: λ). Here, m is the number of features. This hypothesis is also used in the prior art (Non-Patent Document 2). If m features are associated with a clutter,
さらに、目標輪郭点xiと関連した特徴点は、 Furthermore, the feature points associated with the target contour point x i are
W内部のどの特徴を目標に関連付けるべきであるかを決定できないので、すべての可能性を統合する。その上、目標に関連付けられた特徴の検出ミスを許容することは追跡をより頑健にすることができるので、事象φ0及びφ1を Since it is not possible to determine which features within W should be associated with the goal, integrate all possibilities. Moreover, allowing for misdetection of features associated with the target can make tracking more robust, so events φ 0 and φ 1
同様に、φ1を条件とする尤度は、 Similarly, the likelihood with φ 1 as the condition is
したがって、 Therefore,
測定ラインは独立であると仮定しているので、目標観測モデルは、 Since the measurement line is assumed to be independent, the target observation model is
輪郭に基づく尤度の順応性に関しては、形状空間は既にアフィン変換によって生じた変化をモデル化しているので、変形が形状空間を獲得するため使用された学習集合に含まれているならば、形状空間は変形に対して多少頑健である。 For contour-like likelihood adaptability, the shape space already models the changes caused by the affine transformation, so if the deformation is included in the learning set used to acquire the shape space, the shape The space is somewhat robust against deformation.
[4.2] アピアランス観測モデル
近年、大域的なカラー基準モデルを使用する追跡装置は、頑健であり、計算コストが妥当であるため多目的に使えることが分かってきた(非特許文献3、8、22及び38を参照。)。これらの追跡装置は、特に、注目対象物が様々な種類の対象物であり、さらに、シーケンスの間に空間構造が姿勢変化や部分的オクルージョンなどによって急激に変化するタスクを追跡するために非常に有用である。
[4.2] Appearance Observation Model In recent years, it has been found that tracking devices using a global color reference model are robust and can be used for various purposes because of reasonable calculation costs (
アピアランスに基づく追跡用モデルの基本的な考え方は、現在フレームから、領域、即ち、カラー内容が基準カラーモデルと最もよく一致する固定形状可変サイズのウィンドウを探索することである。多種多様なパラメータ及び非パラメトリック確率論的技術が一様な着色領域のカラー分布をモデル化するため使用されている。その中で、カーネル密度推定技術、ある種の特定の非パラメトリック技術がコンピュータビジョン分野で近年注目されている。その理由は、この技術は、特定の分布を前提とするのではなく、推定が十分なサンプルをもつ任意の密度形状に収束し、特に、領域のカラー分布をパターンやカラーの混合によってモデル化するために適しているからである。したがって、この技術は、追跡の際の標準的な対象物表現方法になり始めている(非特許文献3、8、22及び38)。本発明の一実施例では、従来の対照表現方法(非特許文献8)を採用し、ビューの変化に適応するように僅かな変更を加える。
The basic idea of an appearance-based tracking model is to search the current frame for a region, i.e. a fixed-shape variable-size window whose color content best matches the reference color model. A wide variety of parameters and non-parametric stochastic techniques are used to model the color distribution of uniform colored areas. Among them, kernel density estimation technology and certain specific non-parametric technologies have recently attracted attention in the field of computer vision. The reason is that this technique does not assume a specific distribution, but converges to an arbitrary density shape with sufficient samples to estimate, and in particular, the color distribution of the region is modeled by a mixture of patterns and colors Because it is suitable for. Therefore, this technique has begun to become a standard object expression method for tracking (
領域Rは目標の画像投影として定義され、カラーモデルは、シェーディング効果から色情報を分離するため、色相−彩度−明度(HSV)色空間でヒストグラム化技術を用いて獲得される。画像位置p及び形状Qによってパラメータ化された幾何学的表現Rの内部の画素を収集した後、Rのカラー確率分布関数は、基準モデルになるように選択され、位置yで定められ、確率分布関数p(y)によって特徴付けられる予測領域と比較される。両方の確率密度関数pdfはデータから推定される。目標モデルのためのカラー確率密度関数と、領域候補は、次式(18)及び(19)のように予測される。 Region R is defined as the target image projection, and the color model is acquired using a histogramming technique in the Hue-Saturation-Brightness (HSV) color space to separate the color information from the shading effect. After collecting the pixels inside the geometric representation R parameterized by the image position p and shape Q, the color probability distribution function of R is selected to be the reference model, defined by the position y, and the probability distribution Compared with the prediction region characterized by the function p (y). Both probability density functions pdf are estimated from the data. The color probability density function for the target model and the region candidate are predicted as in the following equations (18) and (19).
目標モデルとして定義された領域内での正規化画素位置を
関数 function
正規化係数Cは、制約条件 Normalization factor C is a constraint
[4.2.2] 目標候補
現在フレーム内でyに中心が置かれた目標候補の正規化画素位置を
[4.2.2] Target candidate The normalized pixel position of the target candidate centered at y in the current frame.
Chがyに依存しない点に注意すべきである。画素位置xiは規則的な格子に編成され、yは格子グリッドの一つである。したがって、Chは、所定のカーネルとhの種々の値に対して予め計算することができる。帯域幅hは、目標候補のスケール、即ち、局在化過程で考慮される画素数を定義する。 Note that C h does not depend on y. Pixel positions x i are organized into a regular grid, and y is one of the grid grids. Therefore, C h can be pre-calculated for various values of a given kernel and h. Bandwidth h defines the scale of the target candidate, ie the number of pixels considered in the localization process.
[4.2.3] 観測尤度関数
類似度関数は、目標モデルと候補の間の距離を定義する。様々な目標間での比較が行えるようにするため、距離はメトリック構造を備えるべきである。Battachary係数に基づくメトリックは次式(24)で定義される。
[4.2.3] Observation likelihood function The similarity function defines the distance between the target model and the candidate. The distance should have a metric structure so that comparisons between various goals can be made. The metric based on the Battachary coefficient is defined by the following equation (24).
アピアランスモデルを一例として考えると、上述のアピアランスモデルは、多数のアプリケーションを実現しているが、アピアランスモデルは、平行移動、回転、シヤリング及びワープのような入力画像の空間的変形又はトポロジカル変形に対し非常に敏感である。サブ空間に基づく技術が、ビューや大きいアピアランス変化に対して頑健なアピアランスに基づく表現を学習するため利用されている(非特許文献39及び40)。これらの表現は目標検出及び認識のために適しているが、追跡タスクの場合にサブ空間の次数は高くなる。
コンピュータビジョン用のアピアランスに基づくモデルを構築するための別の方法は、グラフィカルモデルとそれらのダイナミックな変形方式であり、普及し始めている(非特許文献26、41及び42)。離散的変換変数を使用して、これらのモデルに対する入力画像における地理的変換を考慮し、この変数を生成的グラフィカルモデル内で潜在的変数として構築し、次に、変換の集合についての例外を計算するためEMアルゴリズムを使用し、得られたモデルが、入力における変換に対して不変性のある形でクラスタリングと、次数削減と、時系列解析と、を実行することが提案されている(非特許文献42)。生の学習データの選択された代表値として標本を獲得し、対象物コンフィギュレーションの確率混合分布を表現するためこの標本を使用し、生成的グラフィカルモデル内でのトラッキングを解決するため逐次モンテカルロ法を使用することも提案されている(非特許文献41)。このアイデアをアピアランスに基づく追跡に利用することも提案されている(非特許文献26)。もちろん、このアイデアは輪郭に基づく観測モデルにも拡張することができる。 Another method for building appearance-based models for computer vision is graphical models and their dynamic variants, which are beginning to become popular (Non-Patent Documents 26, 41, and 42). Use discrete transformation variables to account for geographic transformations in the input image for these models, build this variable as a latent variable in the generative graphical model, and then compute exceptions for the set of transformations In order to achieve this, it has been proposed that the obtained model perform clustering, order reduction, and time series analysis in a form that is invariant to the transformation at the input (non-patent) Reference 42). Take a sample as a selected representative value of the raw training data, use this sample to represent the probability mixture distribution of the object configuration, and use a sequential Monte Carlo method to solve tracking in the generative graphical model It has also been proposed to use (Non-Patent Document 41). It has also been proposed to use this idea for tracking based on appearance (Non-patent Document 26). Of course, this idea can be extended to observation models based on contours.
本発明の一実施例では、観測モデルを適合的にするため、変換された隠れマルコフモデル(THMM)を導入する。変換t(既知変換の集合)を、画素強度のベクトルに作用するスパース変換生成行列Gtを用いて表現する。例えば、画像の整数画素の平行移動は順列行列によって表現することができる。他のタイプの変換行列は、順列行列によって正確に表現できない場合もあるが、殆どの有用なタイプの変換はスパース変換行列によって表現できる。例えば、回転及びブラーは、1行あたりに小数の非零要素を有する行列によって表現できる。 In one embodiment of the present invention, a transformed hidden Markov model (THMM) is introduced to make the observation model adaptive. A transformation t (a set of known transformations) is expressed using a sparse transformation generation matrix G t that operates on a pixel intensity vector. For example, the translation of integer pixels in the image can be represented by a permutation matrix. Although other types of transformation matrices may not be accurately represented by permutation matrices, most useful types of transformations can be represented by sparse transformation matrices. For example, rotation and blur can be represented by a matrix having a small number of non-zero elements per row.
観測画像zは、無変換潜在的画像xと、変換インデックスt∈{1,...,L}に次式(27)のようにリンクされる。 The observed image z is linked to the non-transformed latent image x and the transformation index tε {1,..., L} as in the following equation (27).
ビデオシーケンスを解析する場合、対象物のアピアランスを決定する隠れ変数と、対象物の空間変換を表現する隠れ変数の両方に、時間的コヒーレンスを使用することは優れた考え方である。THMMは、時間的コヒーレンスをクラス変換及び空間変換に効率的に取り入れる。空間変換が非常にコヒーレントである場合、動的モデルにおける推論及び学習に要する時間は、同じ画像の集合に適用された等価的な静的モデルの場合と同じであることが分かる。図11は、ビデオ処理のために動的ベイジアンネットワークの一実施例の説明図である。本例では、時点tにおけるクラスは、時点t-1におけるクラスに依存するが、時点t-1での変換には依存しない。 When analyzing video sequences, it is a good idea to use temporal coherence for both the hidden variables that determine the appearance of the object and the hidden variables that represent the spatial transformation of the object. THMM efficiently incorporates temporal coherence into class and spatial transformations. If the spatial transformation is very coherent, it can be seen that the time required for inference and learning in the dynamic model is the same as in the equivalent static model applied to the same set of images. FIG. 11 is an illustration of an embodiment of a dynamic Bayesian network for video processing. In this example, the class at time t depends on the class at time t-1, but does not depend on the conversion at time t-1.
THMMに組み込むことができる独立性には数種類のタイプがある。殆どのケースでは、動き(変換遷移)は画像クラスに依存する場合も、依存しない場合もあるが、クラス遷移は現在の変換インデックスから独立していることを仮定するのが適当である。 There are several types of independence that can be incorporated into a THMM. In most cases, the motion (transformation transition) may or may not depend on the image class, but it is appropriate to assume that the class transition is independent of the current transform index.
変換に時間的コヒーレンスをモデル化するため、相対運動のマップm(tt,tt-1)を使用して Use the relative motion map m (t t , t t-1 ) to model temporal coherence in the transformation.
次に、相対運動の大きさだけに関心がある場合には、マッピングを Next, if you are only interested in the magnitude of relative motion,
そこで、異なる画像クラスに対して異なる動き特性を許容するかどうかに依存して、 So depending on whether to allow different motion characteristics for different image classes,
THMMのパラメータは、c=1,...Cに対するucと、C個のクラスに対する平均画像と、各クラスの異なる画素に対する不確実性のレベルを定義するφcと、検出器ノイズを記述する対角共分散行列ψcと、s=(c,t)の場合の異なる状態の事前確率πsと、上述のように分解できる最終的な遷移確率as,s'=p(st=s'|st-1=s)と、である。モデルの隠れ変数は、状態stと潜在的画像xtである。 THMM parameters describe u c for c = 1, ... C, average image for C classes, φ c defining the level of uncertainty for different pixels in each class, and detector noise Diagonal covariance matrix ψ c , prior probabilities π s for different states when s = (c, t), and final transition probabilities a s, s ′ = p (s t = s' | s t-1 = s). Models of hidden variables, the state s t a potential image x t.
生成的モデルと、過去の状態が与えられると、クラスタインデックスctと変換インデックスttは、 Given a generative model and past states, the cluster index c t and the transformation index t t are
基礎になる画像空間の変換集合{t}及び正規化画像のクラスタ{c}(又はクラス)への分割は、様々な形式で実現される。例えば、変換集合{t}は、幾何学的歪みをモデル化する形状空間でもよく、クラスタ{c}はテクスチャーの空間でもよい(非特許文献44)。或いは、{t}は平面類似度変換の空間であり、{c}に歪みと、テクスチャー/シェーディングの分布を吸収させてもよい。{t}及び{c}の解析的な形式を得るため、ガウス混合、因子分析(確率的PCA)、及び、隠れマルコフモデルが屡々使用される。この考え方は、標本の集合から学習させることができるメトリックモデルを用いることにより更に拡張されている(非特許文献42)。より詳しく説明すると、本発明の一実施例では、{t}と{c}の両方は既に解析的形式で分かっていることを前提とする。実際上、輪郭観測モデルの場合、{t}及び{c}は、既にB−スプライン曲線形状空間内に暗黙的に表現されている。しかし、{t}及び{c}が採用された場合、形状空間の次数は低下するであろう。 The division of the underlying image space transformation set {t} and the normalized image into clusters {c} (or classes) can be implemented in various forms. For example, the transformation set {t} may be a shape space that models geometric distortion, and the cluster {c} may be a texture space (Non-patent Document 44). Alternatively, {t} is a plane similarity conversion space, and {c} may absorb distortion and texture / shading distribution. Gaussian mixture, factor analysis (probabilistic PCA), and hidden Markov models are often used to obtain analytic forms of {t} and {c}. This idea is further expanded by using a metric model that can be learned from a set of samples (Non-Patent Document 42). More specifically, in one embodiment of the present invention, it is assumed that both {t} and {c} are already known in analytical form. In practice, in the case of the contour observation model, {t} and {c} are already implicitly expressed in the B-spline curve shape space. However, if {t} and {c} are adopted, the shape space order will decrease.
当然、図10に示された変換による影響を受けないモデルと、図6に示されたオクルージョンモデルを組み合わせることにより、新しい動的ベイジアンネットワークが得られる。図12は、新しい動的ベイジアンネットワークの説明図である。隠れ変数tt mはパラメータct mによってインデックスが付けられた幾何学的変換であり、ここで、m∈[1,M]である。隠れ変数Otは異なる対象物の間のオクルージョン関係を制御する。 Naturally, a new dynamic Bayesian network can be obtained by combining the model not affected by the transformation shown in FIG. 10 and the occlusion model shown in FIG. FIG. 12 is an explanatory diagram of a new dynamic Bayesian network. The hidden variable t t m is a geometric transformation indexed by the parameter c t m , where mε [1, M]. The hidden variable O t controls the occlusion relationship between different objects.
図6に示された動的ベイジアンネットワークと比較すると、図12の例では、三つ以上の隠れマルコフ処理が各対象物状態に付加されている。ここで、M*3+1個の隠れ処理 Compared to the dynamic Bayesian network shown in FIG. 6, in the example of FIG. 12, three or more hidden Markov processes are added to each object state. Here, M * 3 + 1 hidden processing
同時尤度 Joint likelihood
モデルを特徴付けるためには、各対象物のダイナミクス To characterize the model, the dynamics of each object
ここまでの説明では、対象物の個数が既知であり、追跡中にその個数が一定に保たれる場合を仮定していた。しかし、実際の対象物追跡アプリケーションでは、対象物がシーンに出入りするので、対象物の個数が絶えず変化することがある。予測モデル In the description so far, it has been assumed that the number of objects is known and the number is kept constant during tracking. However, in an actual object tracking application, the number of objects may constantly change because the objects enter and exit the scene. Prediction model
[5] 実施例の詳細な説明
以下では、二つの主要なステップ:予測ステップと重み付けステップの実施例を詳細に説明する。複数対象物用の完全なパーティクルフィルタは、図3及び4に示した生成的パーティクルフィルタに類似しているように思われるが、実際には相違点がある。これらの相違点について説明する。
[5] Detailed Description of the Examples In the following, an example of two main steps: a prediction step and a weighting step will be described in detail. A complete particle filter for multiple objects appears to be similar to the generative particle filter shown in FIGS. 3 and 4, but in practice there are differences. These differences will be described.
[5.1] 予測
本発明の一実施例では、
[5.1] Prediction In one embodiment of the present invention,
幾何学的変換に対し不変性のある観測モデルを導入しているので、sのダイナミクスも考慮しなければならない。もう一度式(31)に戻り、相対運動が画像クラスcとは独立であることを仮定する。これにより、sのダイナミクスはcとvの二つのダイナミクスに分解できる。vのダイナミクスは次式(36) Since an invariant observation model is introduced for the geometric transformation, the dynamics of s must also be considered. Returning again to equation (31), it is assumed that the relative motion is independent of image class c. As a result, the dynamics of s can be decomposed into two dynamics of c and v. The dynamics of v is given by the following formula (36)
本発明の一実施例では、対象物間のオクルージョンは、occl_list内の対象物のあらゆるペアの考えられるオクルージョンに分解されるので、簡略化された状況では、あらゆるオクルージョン遷移をモデル化するため固定マルコフ行列Tijを使用する。もちろん、Tijは遷移をヒストグラム化することによって学習することが可能である。 In one embodiment of the present invention, occlusion between objects is broken down into possible occlusions for every pair of objects in the occl_list, so that in a simplified situation, a fixed Markov model is used to model every occlusion transition. Use the matrix T ij . Of course, T ij can be learned by making the transition into a histogram.
[5.2] 観測尤度による重み付け
観測尤度
[5.2] Weighting by observation likelihood Observation likelihood
2値マスク Binary mask
初期化関数g(t)は、一意の識別子tを割り当て、対象物事前分布に従って位置、速度及び形状を生成する。位置は可視的シーンに対応した四角形から一意に得られ、形状は形状ARPの定常状態分布から得られる。例示であるため、パーティクル集合に存在し得る個別の対象物の総数をMmaxに制限し、本実施例では、Mt個の対象物を追跡する。|Mt-1|<Mmaxのときに限り、初期サンプルが生成される。時点t=0での初期化は簡単であり、各パーティクルには等しい重みが割り当てられ、対象物の個数は0個であると仮定する。 The initialization function g (t) assigns a unique identifier t and generates position, velocity and shape according to the object prior distribution. The position is uniquely obtained from a square corresponding to the visible scene, and the shape is obtained from the steady state distribution of the shape ARP. As an example, the total number of individual objects that can exist in the particle set is limited to M max , and in this example, M t objects are tracked. An initial sample is generated only if | M t-1 | <M max . Initialization at time t = 0 is simple, assuming that each particle is assigned an equal weight and the number of objects is zero.
図15は不特定の数の対象物を追跡するパーティクルフィルタの処理のフローチャートである。 FIG. 15 is a flowchart of a particle filter process for tracking an unspecified number of objects.
[6] 実験
本発明の方法を2種類のアプリケーションに適用した。実験1は多数の円形領域を追跡するアプリケーションであり、実験2は会議室内の人物の行動を追跡するアプリケーションである。実験1は、複数の同一対象物を追跡する能力を調べるために使用された。なぜならば、円形領域は同じアピアランスを有するからである。円形の直径は追跡中に変化し、輪郭に基づく観測モデルが使用された。実験2では、本発明の方法は、複数の人物の動きと形状を追跡するために使用された。本実験で示されたもう一つの興味深い性質は、本発明の方法が、追跡中に副生成物として、対象物の動きと姿勢のクラスを出力し得ることである。
[6] Experiment The method of the present invention was applied to two types of applications.
[6.1] 実験1:円形領域追跡
本実験では、対象物間のオクルージョンを考慮し、3通りの状況で結果を得た。図16は、587フレーム長のテスト用ビデオシーケンスからの3フレームを表す図である。各フレームのサイズは320×240であり、30フレーム/秒である。
[6.1] Experiment 1: Circular area tracking In this experiment, the results were obtained in three different situations in consideration of occlusion between objects. FIG. 16 is a diagram illustrating three frames from a test video sequence having a length of 587 frames. The size of each frame is 320 × 240, which is 30 frames / second.
本実験1では、円形領域の外形、即ち、円が追跡されるので、各対象物の状態Xは円の3個のパラメータである。本実験1で使用した動的パラメータの数値は表1に示されている。
In
第2の状況では、一定数の複数対象物を追跡する。その追跡結果は図18に番号1〜3が付された円として示されている。本実験例では、各円のダイナミクスを別々に取り扱うので、それぞれの動的モデルは異なる。(a)から(c)では、円1は2状態動的モデルで記述され、円2は3状態動的モデルで記述され、円3は1状態動的モデルで記述されている。追跡装置は、フレーム50以降では円3を見失っているが、ビデオシーケンスの全体を通じてオクルージョンと交差が発生しても円1と円2を追跡し続けた。円3を見失う問題は、(d)から(f)において、円3の動的モデルを1状態動的モデルで置き換えることによって解決された。この実験は、時間的コヒーレンスが追跡の際に、特に、多数の同一対象物を追跡する際に、重要な役割を果たしていることを示している。
In the second situation, a certain number of multiple objects are tracked. The tracking results are shown as circles numbered 1 to 3 in FIG. In this experimental example, the dynamics of each circle are handled separately, so that each dynamic model is different. In (a) to (c),
最後に、図19は、不特定の数の複数対象物を追跡する処理の説明図である。使用したテスト用ビデオは700フレームの長さがあり、フレームサイズは上記の実験例と同じであり、輪郭に基づく適応的観測モデルを使用した。このビデオに使用された動的モデルは、円1に対しては2状態、円2に対しては3状態、円3に対しては3状態である。これらの動的モデルは300フレームの学習用ビデオから学習した。図20は、動的モデルを学習するために使用されたこれらの3個の移動円の軌跡を表す図である。
Finally, FIG. 19 is an explanatory diagram of processing for tracking an unspecified number of multiple objects. The test video used was 700 frames long, the frame size was the same as in the experimental example above, and an adaptive observation model based on contours was used. The dynamic model used for this video has two states for
[6.2] 実験2:人物追跡
本実験では、例えば、会議室内の3乃至5人の複数の人物の形状と動きを追跡するため本発明の方法を使用する。追跡装置は、姿勢と動きタイプ(例えば、歩行、会釈、席を見つけるための移動など)を出力する。
[6.2] Experiment 2: Person Tracking In this experiment, for example, the method of the present invention is used to track the shape and movement of a plurality of 3 to 5 persons in a conference room. The tracking device outputs a posture and a motion type (for example, walking, talk, movement to find a seat, etc.).
[7] 複数対象物追跡システムの構成
本発明の複数対象物追跡方法は、この追跡方法の各ステップをコンピュータに実現させるためのプログラムを、コンピュータに接続されるハードディスク装置や、CD−ROM、DVD又はフレキシブルディスクなどの可搬型記憶媒体に格納し、本発明を実施する際にコンピュータにインストールし、又は、通信回線からコンピュータにダウンロードし、インストールして、コンピュータのCPU等でこのプログラムを実行することによって容易に実現される。
[7] Configuration of Multi-Object Tracking System The multi-object tracking method of the present invention includes a program for causing a computer to implement each step of the tracking method, a hard disk device connected to the computer, a CD-ROM, a DVD. Alternatively, the program is stored in a portable storage medium such as a flexible disk and installed in a computer when the present invention is carried out, or downloaded to a computer from a communication line and installed, and this program is executed by a CPU of the computer or the like. Is easily realized.
また、図21は、本発明の複数対象物追跡方法を実現するシステムの機能ブロック図であり、複数対象物追跡システムは、
画像シーケンスを入力して複数対象物を個別に同時に追跡するパーティクルフィルタリングに基づく複数対象物追跡処理部2101と、
対象物間に発生したオクルージョンに関するすべての仮説を維持するオクルージョンリストと、観測モデルが対象物のアピアランス変形によって変化しないようにさせる変数と、を個別の対象物のコンフィギュレーションの複合体の状態表現に導入することによって排他原理を複数対象物へ拡張する拡張処理部2102と、
動的ベイジアンネットワークを、排他原理に基づく専用設計された観測モデルと組み合わせ使用することにより、ベイズ推論フレームワークの範囲内で複数対象物追跡を定式化するベイズ推論部2103と、
全体的なオクルージョンが発生したときの曖昧さを軽減するための混合状態動的プロセスと、新たに到着した対象物を追跡するための再初期化を、同じ枠組みで考慮する統合処理部2104と、
を有する。
FIG. 21 is a functional block diagram of a system for realizing the multiple object tracking method of the present invention.
A multi-object tracking processing unit 2101 based on particle filtering that inputs an image sequence and simultaneously tracks a plurality of objects individually;
An occlusion list that maintains all hypotheses about occlusions that occur between objects, and variables that keep the observation model from changing due to the appearance deformation of the objects, in a state representation of the complex of individual object configurations An
A Bayesian inference unit 2103 that formulates multiple object tracking within the Bayesian inference framework by using a dynamic Bayesian network in combination with a dedicated designed observation model based on the exclusion principle;
An
Have
以上で説明した実施例3は本発明を実施するための最良の形態の一つにすぎず、本発明はその趣旨を逸脱しない限り種々変形して実施可能である。 The third embodiment described above is only one of the best modes for carrying out the present invention, and the present invention can be implemented with various modifications without departing from the gist thereof.
[8] まとめ
以上の通り、本発明では、典型的なパーティクルフィルタを拡張することにより複数対象物追跡方法を実現した。本発明は、対象物間のオクルージョンをモデル化する隠れ過程と、各対象物の変換をモデル化する隠れ過程を、パーティクルフィルタ形式の基本動的ベイジアンネットワークに統合することによって、複数対象物追跡における、対象物間のオクルージョンと、幾何学的変換によって生じる可能性のある変形に対する適応性とを、ベイジアンネットワークの枠組みで取り扱うことを可能にさせ、複数対象物追跡に対する逐次モンテカルロ解決法を見出した。
[8] Summary As described above, in the present invention, the multi-object tracking method is realized by extending a typical particle filter. The present invention integrates a hidden process that models occlusion between objects and a hidden process that models the transformation of each object into a basic dynamic Bayesian network in the form of a particle filter. It has made it possible to handle occlusion between objects and adaptability to deformations caused by geometric transformations in a Bayesian network framework, and found a sequential Monte Carlo solution for multiple object tracking.
2101 複数対象物追跡処理部
2102 拡張処理部
2103 ベイズ推論部
2104 統合処理部
2101 Multiple object
Claims (8)
対象物間のオクルージョンをパーティクルに明示的に記述し、
重なり合いの無い対象物から重なり合いのある対象物までを取り扱う観測尤度関数を設定し、
対象物アピアランス変形のダイナミクスをモデル化する隠れ表現を状態表現に組み込む、
ことを特徴とする複数対象物追跡方法。 A multi-object tracking method based on particle filtering for individually tracking multiple objects in an image sequence simultaneously,
Explicitly describe occlusions between objects in particles,
Set an observation likelihood function that handles objects from non-overlapping to overlapping objects,
Incorporate hidden expressions into the state expression to model the dynamics of object appearance deformation.
A method for tracking multiple objects.
対象物間に発生したオクルージョンに関するすべての仮説を維持するオクルージョンリストと、観測モデルが対象物のアピアランス変形によって変化しないようにさせる変数と、を個別の対象物のコンフィギュレーションの複合体の状態表現に導入することによって排他原理を複数対象物へ拡張するステップと、
動的ベイジアンネットワークを、排他原理に基づく専用設計された観測モデルと組み合わせ使用することにより、ベイズ推論フレームワークの範囲内で複数対象物追跡を定式化するステップと、
全体的なオクルージョンが発生したときの曖昧さを軽減するための混合状態動的プロセスと、新たに到着した対象物を追跡するための再初期化を、同じ枠組みで考慮するステップと、
を有する複数対象物追跡方法。 A multi-object tracking method based on particle filtering for individually tracking multiple objects in an image sequence simultaneously,
An occlusion list that maintains all hypotheses about occlusions that occur between objects, and a variable that keeps the observation model from changing due to the appearance deformation of the object. Extending the exclusion principle to multiple objects by introducing;
Formulating multiple object tracking within a Bayesian inference framework by using a dynamic Bayesian network in combination with a dedicated designed observation model based on exclusion principles;
Considering a mixed-state dynamic process to reduce ambiguity when global occlusion occurs and reinitialization to track newly arrived objects in the same framework;
A multi-object tracking method comprising:
対象物間に発生したオクルージョンに関するすべての仮説を維持するオクルージョンリストと、観測モデルが対象物のアピアランス変形によって変化しないようにさせる変数と、を個別の対象物のコンフィギュレーションの複合体の状態表現に導入することによって排他原理を複数対象物へ拡張する拡張処理部と、
動的ベイジアンネットワークを、排他原理に基づく専用設計された観測モデルと組み合わせ使用することにより、ベイズ推論フレームワークの範囲内で複数対象物追跡を定式化するベイズ推論部と、
全体的なオクルージョンが発生したときの曖昧さを軽減するための混合状態動的プロセスと、新たに到着した対象物を追跡するための再初期化を、同じ枠組みで考慮する統合処理部と、
を有する複数対象物追跡システム。 Multiple object tracking processing unit based on particle filtering that inputs image sequence and tracks multiple objects individually and simultaneously,
An occlusion list that maintains all hypotheses about occlusions that occur between objects, and a variable that keeps the observation model from changing due to the appearance deformation of the object. An expansion processing unit that extends the exclusion principle to multiple objects by introducing;
A Bayesian inference unit that formulates multiple object tracking within the Bayesian inference framework by using a dynamic Bayesian network in combination with a dedicated designed observation model based on the exclusion principle;
An integrated processing unit that considers mixed state dynamic processes to reduce ambiguity when global occlusion occurs and re-initialization to track newly arrived objects in the same framework;
A multi-object tracking system.
対象物間に発生したオクルージョンに関するすべての仮説を維持するオクルージョンリストと、観測モデルが対象物のアピアランス変形によって変化しないようにさせる変数と、を個別の対象物のコンフィギュレーションの複合体の状態表現に導入することによって排他原理を複数対象物へ拡張する機能と、
動的ベイジアンネットワークを、排他原理に基づく専用設計された観測モデルと組み合わせ使用することにより、ベイズ推論フレームワークの範囲内で複数対象物追跡を定式化するベイズ推論機能と、
全体的なオクルージョンが発生したときの曖昧さを軽減するための混合状態動的プロセスと、新たに到着した対象物を追跡するための再初期化を、同じ枠組みで考慮する統合機能と、
をコンピュータに実現させるためのプログラム。 Multiple object tracking function based on particle filtering to input multiple image sequences and track multiple objects individually,
An occlusion list that maintains all hypotheses about occlusions that occur between objects, and a variable that keeps the observation model from changing due to the appearance deformation of the object. A function to extend the exclusion principle to multiple objects by introducing,
Bayesian inference function that formulates multi-object tracking within the Bayesian inference framework by using a dynamic Bayesian network in combination with a specially designed observation model based on exclusion principles;
An integrated function that considers mixed state dynamic processes to reduce ambiguity when global occlusion occurs and reinitialization to track newly arrived objects in the same framework;
A program to make a computer realize.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003403820A JP2005165688A (en) | 2003-12-02 | 2003-12-02 | Multiple objects tracking method and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003403820A JP2005165688A (en) | 2003-12-02 | 2003-12-02 | Multiple objects tracking method and system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005165688A true JP2005165688A (en) | 2005-06-23 |
Family
ID=34726979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003403820A Withdrawn JP2005165688A (en) | 2003-12-02 | 2003-12-02 | Multiple objects tracking method and system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005165688A (en) |
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007122218A (en) * | 2005-10-26 | 2007-05-17 | Fuji Xerox Co Ltd | Image analyzing device |
JP2007233798A (en) * | 2006-03-02 | 2007-09-13 | Nippon Hoso Kyokai <Nhk> | Video object tracking device and video object tracking program |
JP2007249885A (en) * | 2006-03-20 | 2007-09-27 | Nippon Telegr & Teleph Corp <Ntt> | Moving object-tracking device, moving object-tracking method, and recording medium stored with program having realized the method |
WO2008007471A1 (en) * | 2006-07-10 | 2008-01-17 | Kyoto University | Walker tracking method and walker tracking device |
JP2008134939A (en) * | 2006-11-29 | 2008-06-12 | Nippon Telegr & Teleph Corp <Ntt> | Moving object tracking apparatus, moving object tracking method, moving object tracking program with the method described therein, and recording medium with the program stored therein |
KR100902771B1 (en) | 2007-10-29 | 2009-06-15 | 재단법인 포항산업과학연구원 | Method for tracking multiple objects using particle filter |
JP2009217523A (en) * | 2008-03-10 | 2009-09-24 | Nippon Telegr & Teleph Corp <Ntt> | Dynamic image processing method, dynamic image processing device and dynamic image processing program |
JP2010020374A (en) * | 2008-07-08 | 2010-01-28 | Sony Corp | Information processor, information processing method, and computer program |
JP2010517139A (en) * | 2007-01-18 | 2010-05-20 | シーメンス コーポレイト リサーチ インコーポレイテツド | System and method for detecting and tracking a vehicle |
JP2010525299A (en) * | 2007-02-09 | 2010-07-22 | ジーイー・ヘルスケア・バイオサイエンス・コーポレイション | System and method for tracking movement of biological material |
JP2010205274A (en) * | 2010-04-05 | 2010-09-16 | Olympus Corp | Image processing apparatus |
US7940957B2 (en) | 2006-06-09 | 2011-05-10 | Sony Computer Entertainment Inc. | Object tracker for visually tracking object motion |
CN102063625A (en) * | 2010-12-10 | 2011-05-18 | 浙江大学 | Improved particle filtering method for multi-target tracking under multiple viewing angles |
JP2011118891A (en) * | 2009-12-01 | 2011-06-16 | Honda Research Inst Europe Gmbh | Many object tracking which use autonomous adaptation of knowledge base of tracking modeling level |
JP2011170684A (en) * | 2010-02-19 | 2011-09-01 | Panasonic Corp | Object tracking device, object tracking method and object tracking program |
KR101064573B1 (en) * | 2008-02-21 | 2011-09-14 | 가부시끼가이샤 도시바 | System for tracking a moving object, by using particle filtering |
CN101051385B (en) * | 2006-04-07 | 2011-11-23 | 欧姆龙株式会社 | Tracking method and device for special shooted objects and tracking method and device for aspect parts |
KR101181146B1 (en) | 2010-12-14 | 2012-09-17 | 중앙대학교 산학협력단 | Apparatus and method for tracking multiple object |
US8400520B2 (en) | 2009-08-11 | 2013-03-19 | Nikon Corporation | Subject tracking program and camera using template matching processing |
JP2013522747A (en) * | 2010-03-17 | 2013-06-13 | アイシス イノベーション リミテッド | How to track targets in video data |
CN103500456A (en) * | 2013-10-22 | 2014-01-08 | 北京大学 | Object tracking method and equipment based on dynamic Bayes model network |
WO2015008432A1 (en) * | 2013-07-17 | 2015-01-22 | 日本電気株式会社 | Object tracking device, object tracking method, and object tracking program |
CN105023277A (en) * | 2014-04-15 | 2015-11-04 | 南京理工大学 | Kalman particle filter tracking method based on complex dynamic scene |
CN105719312A (en) * | 2016-01-19 | 2016-06-29 | 深圳大学 | Multi-target tracking method and tracking system based on sequential Bayes filtering |
CN108446710A (en) * | 2018-01-31 | 2018-08-24 | 高睿鹏 | Indoor plane figure fast reconstructing method and reconstructing system |
CN109325961A (en) * | 2018-08-27 | 2019-02-12 | 北京悦图遥感科技发展有限公司 | UAV Video multi-object tracking method and device |
KR20190023389A (en) * | 2017-08-29 | 2019-03-08 | 인하대학교 산학협력단 | Multi-Class Multi-Object Tracking Method using Changing Point Detection |
US10298928B2 (en) | 2015-03-31 | 2019-05-21 | Megachips Corporation | Image processing system and image processing method |
CN109800721A (en) * | 2019-01-24 | 2019-05-24 | 深圳大学 | A kind of multi-object tracking method and system |
US10410079B2 (en) | 2015-03-31 | 2019-09-10 | Megachips Corporation | Image processing system and image processing method |
US10419780B2 (en) | 2015-12-14 | 2019-09-17 | Megachips Corporation | Image processing system and image processing method |
CN110334322A (en) * | 2019-06-26 | 2019-10-15 | 电子科技大学 | A kind of population adaptive approach of particle filter |
CN111563960A (en) * | 2020-05-08 | 2020-08-21 | 北京理工大学重庆创新中心 | Space group target detection method and device based on Bayesian recursion and storage medium |
WO2021046681A1 (en) * | 2019-09-09 | 2021-03-18 | 深圳市迪米欧科技有限公司 | Complex scenario-oriented multi-source target tracking method |
CN115601432A (en) * | 2022-11-08 | 2023-01-13 | 肇庆学院(Cn) | Robot position optimal estimation method and system based on FPGA |
CN116400318A (en) * | 2023-06-08 | 2023-07-07 | 中国人民解放军国防科技大学 | Multi-observation target position estimation method and device based on online particle swarm optimization |
-
2003
- 2003-12-02 JP JP2003403820A patent/JP2005165688A/en not_active Withdrawn
Cited By (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007122218A (en) * | 2005-10-26 | 2007-05-17 | Fuji Xerox Co Ltd | Image analyzing device |
JP2007233798A (en) * | 2006-03-02 | 2007-09-13 | Nippon Hoso Kyokai <Nhk> | Video object tracking device and video object tracking program |
JP4664838B2 (en) * | 2006-03-02 | 2011-04-06 | 日本放送協会 | Video object tracking device and video object tracking program |
JP2007249885A (en) * | 2006-03-20 | 2007-09-27 | Nippon Telegr & Teleph Corp <Ntt> | Moving object-tracking device, moving object-tracking method, and recording medium stored with program having realized the method |
JP4673241B2 (en) * | 2006-03-20 | 2011-04-20 | 日本電信電話株式会社 | Moving object tracking device, moving object tracking method, and recording medium storing program realizing the method |
CN101051385B (en) * | 2006-04-07 | 2011-11-23 | 欧姆龙株式会社 | Tracking method and device for special shooted objects and tracking method and device for aspect parts |
US7940957B2 (en) | 2006-06-09 | 2011-05-10 | Sony Computer Entertainment Inc. | Object tracker for visually tracking object motion |
WO2008007471A1 (en) * | 2006-07-10 | 2008-01-17 | Kyoto University | Walker tracking method and walker tracking device |
JP4686663B2 (en) * | 2006-07-10 | 2011-05-25 | 国立大学法人京都大学 | Pedestrian tracking method and pedestrian tracking device |
JPWO2008007471A1 (en) * | 2006-07-10 | 2009-12-10 | 国立大学法人京都大学 | Pedestrian tracking method and pedestrian tracking device |
US8229164B2 (en) | 2006-07-10 | 2012-07-24 | Synthesis Corporation | Pedestrian tracking method and pedestrian tracking device |
JP2008134939A (en) * | 2006-11-29 | 2008-06-12 | Nippon Telegr & Teleph Corp <Ntt> | Moving object tracking apparatus, moving object tracking method, moving object tracking program with the method described therein, and recording medium with the program stored therein |
JP2010517139A (en) * | 2007-01-18 | 2010-05-20 | シーメンス コーポレイト リサーチ インコーポレイテツド | System and method for detecting and tracking a vehicle |
JP2010525299A (en) * | 2007-02-09 | 2010-07-22 | ジーイー・ヘルスケア・バイオサイエンス・コーポレイション | System and method for tracking movement of biological material |
JP2014089191A (en) * | 2007-02-09 | 2014-05-15 | Ge Healthcare Bioscience Corp | System and method for tracking movement of biological materials |
KR100902771B1 (en) | 2007-10-29 | 2009-06-15 | 재단법인 포항산업과학연구원 | Method for tracking multiple objects using particle filter |
KR101064573B1 (en) * | 2008-02-21 | 2011-09-14 | 가부시끼가이샤 도시바 | System for tracking a moving object, by using particle filtering |
US8223207B2 (en) | 2008-02-21 | 2012-07-17 | Kabushiki Kaisha Toshiba | System for tracking a moving object, by using particle filtering |
JP2009217523A (en) * | 2008-03-10 | 2009-09-24 | Nippon Telegr & Teleph Corp <Ntt> | Dynamic image processing method, dynamic image processing device and dynamic image processing program |
JP2010020374A (en) * | 2008-07-08 | 2010-01-28 | Sony Corp | Information processor, information processing method, and computer program |
US8400520B2 (en) | 2009-08-11 | 2013-03-19 | Nikon Corporation | Subject tracking program and camera using template matching processing |
JP2011118891A (en) * | 2009-12-01 | 2011-06-16 | Honda Research Inst Europe Gmbh | Many object tracking which use autonomous adaptation of knowledge base of tracking modeling level |
JP2011170684A (en) * | 2010-02-19 | 2011-09-01 | Panasonic Corp | Object tracking device, object tracking method and object tracking program |
JP2013522747A (en) * | 2010-03-17 | 2013-06-13 | アイシス イノベーション リミテッド | How to track targets in video data |
JP2010205274A (en) * | 2010-04-05 | 2010-09-16 | Olympus Corp | Image processing apparatus |
CN102063625A (en) * | 2010-12-10 | 2011-05-18 | 浙江大学 | Improved particle filtering method for multi-target tracking under multiple viewing angles |
CN102063625B (en) * | 2010-12-10 | 2012-12-26 | 浙江大学 | Improved particle filtering method for multi-target tracking under multiple viewing angles |
KR101181146B1 (en) | 2010-12-14 | 2012-09-17 | 중앙대학교 산학협력단 | Apparatus and method for tracking multiple object |
WO2015008432A1 (en) * | 2013-07-17 | 2015-01-22 | 日本電気株式会社 | Object tracking device, object tracking method, and object tracking program |
US9946935B2 (en) | 2013-07-17 | 2018-04-17 | Nec Corporation | Object tracking device, object tracking method, and object tracking program |
CN103500456A (en) * | 2013-10-22 | 2014-01-08 | 北京大学 | Object tracking method and equipment based on dynamic Bayes model network |
CN103500456B (en) * | 2013-10-22 | 2016-06-15 | 北京大学 | A kind of method for tracing object based on dynamic Bayesian network network and equipment |
CN105023277B (en) * | 2014-04-15 | 2018-10-12 | 南京理工大学 | Kalman's particle filter tracking method based on complicated dynamic scene |
CN105023277A (en) * | 2014-04-15 | 2015-11-04 | 南京理工大学 | Kalman particle filter tracking method based on complex dynamic scene |
US10298928B2 (en) | 2015-03-31 | 2019-05-21 | Megachips Corporation | Image processing system and image processing method |
US10410079B2 (en) | 2015-03-31 | 2019-09-10 | Megachips Corporation | Image processing system and image processing method |
US10419780B2 (en) | 2015-12-14 | 2019-09-17 | Megachips Corporation | Image processing system and image processing method |
CN105719312A (en) * | 2016-01-19 | 2016-06-29 | 深圳大学 | Multi-target tracking method and tracking system based on sequential Bayes filtering |
KR102465960B1 (en) | 2017-08-29 | 2022-11-11 | 인하대학교 산학협력단 | Multi-Class Multi-Object Tracking Method using Changing Point Detection |
KR20190023389A (en) * | 2017-08-29 | 2019-03-08 | 인하대학교 산학협력단 | Multi-Class Multi-Object Tracking Method using Changing Point Detection |
CN108446710A (en) * | 2018-01-31 | 2018-08-24 | 高睿鹏 | Indoor plane figure fast reconstructing method and reconstructing system |
CN109325961A (en) * | 2018-08-27 | 2019-02-12 | 北京悦图遥感科技发展有限公司 | UAV Video multi-object tracking method and device |
CN109800721A (en) * | 2019-01-24 | 2019-05-24 | 深圳大学 | A kind of multi-object tracking method and system |
CN109800721B (en) * | 2019-01-24 | 2020-10-23 | 深圳大学 | Multi-target tracking method and system |
CN110334322A (en) * | 2019-06-26 | 2019-10-15 | 电子科技大学 | A kind of population adaptive approach of particle filter |
WO2021046681A1 (en) * | 2019-09-09 | 2021-03-18 | 深圳市迪米欧科技有限公司 | Complex scenario-oriented multi-source target tracking method |
CN111563960A (en) * | 2020-05-08 | 2020-08-21 | 北京理工大学重庆创新中心 | Space group target detection method and device based on Bayesian recursion and storage medium |
CN111563960B (en) * | 2020-05-08 | 2023-05-16 | 北京理工大学重庆创新中心 | Space group target detection method and device based on Bayesian recurrence and storage medium |
CN115601432A (en) * | 2022-11-08 | 2023-01-13 | 肇庆学院(Cn) | Robot position optimal estimation method and system based on FPGA |
CN115601432B (en) * | 2022-11-08 | 2023-05-30 | 肇庆学院 | Robot position optimal estimation method and system based on FPGA |
CN116400318A (en) * | 2023-06-08 | 2023-07-07 | 中国人民解放军国防科技大学 | Multi-observation target position estimation method and device based on online particle swarm optimization |
CN116400318B (en) * | 2023-06-08 | 2023-08-04 | 中国人民解放军国防科技大学 | Multi-observation target position estimation method and device based on online particle swarm optimization |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005165688A (en) | Multiple objects tracking method and system | |
Dockstader et al. | Multiple camera tracking of interacting and occluded human motion | |
Deori et al. | A survey on moving object tracking in video | |
Gupta et al. | Blocks world revisited: Image understanding using qualitative geometry and mechanics | |
Ozyildiz et al. | Adaptive texture and color segmentation for tracking moving objects | |
Singh et al. | Multi-view recognition system for human activity based on multiple features for video surveillance system | |
Salih et al. | Comparison of stochastic filtering methods for 3D tracking | |
Raskin et al. | Dimensionality reduction using a Gaussian process annealed particle filter for tracking and classification of articulated body motions | |
Chiranjeevi et al. | Rough-set-theoretic fuzzy cues-based object tracking under improved particle filter framework | |
Zhu et al. | Tracking multiple objects through occlusion with online sampling and position estimation | |
Kim et al. | Interactive crowd content generation and analysis using trajectory-level behavior learning | |
Sahoo et al. | Adaptive feature fusion and spatio-temporal background modeling in KDE framework for object detection and shadow removal | |
Sui et al. | Geofusion: Geometric consistency informed scene estimation in dense clutter | |
Narayana | Automatic tracking of moving objects in video for surveillance applications | |
Dadgostar et al. | Gesture-based human–machine interfaces: a novel approach for robust hand and face tracking | |
Garcia et al. | Fuzzy region assignment for visual tracking | |
Cattelani et al. | A particle filtering approach for tracking an unknown number of objects with dynamic relations | |
Makris et al. | Hierarchical feature fusion for visual tracking | |
Kim et al. | Anomaly detection using autoencoder with feature vector frequency map | |
Baisa | Single to multiple target, multiple type visual tracking | |
Leykin | Visual human tracking and group activity analysis: A video mining system for retail marketing | |
Ahmed | Human Motion Imagination and Prediction-A Survey. | |
Pawar et al. | Survey on Object Detection from Video Sequence | |
Ghedia et al. | Moving Objects Detection Using Machine Learning | |
Wang et al. | A new approach for adaptive background object tracking based on Kalman filter and mean shift |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061127 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20081021 |