JP4382597B2 - Estimation apparatus, estimation method, and estimation program - Google Patents

Estimation apparatus, estimation method, and estimation program Download PDF

Info

Publication number
JP4382597B2
JP4382597B2 JP2004203724A JP2004203724A JP4382597B2 JP 4382597 B2 JP4382597 B2 JP 4382597B2 JP 2004203724 A JP2004203724 A JP 2004203724A JP 2004203724 A JP2004203724 A JP 2004203724A JP 4382597 B2 JP4382597 B2 JP 4382597B2
Authority
JP
Japan
Prior art keywords
physical quantity
tracking
real time
condensation method
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004203724A
Other languages
Japanese (ja)
Other versions
JP2005044352A (en
Inventor
智広 柴田
賢治 銅谷
誉司 坂東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2004203724A priority Critical patent/JP4382597B2/en
Publication of JP2005044352A publication Critical patent/JP2005044352A/en
Application granted granted Critical
Publication of JP4382597B2 publication Critical patent/JP4382597B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

この発明は、対象物に関連する物理量の観測値に基づいて、対象物の物理量の真の値を推定する推定装置、推定方法および推定プログラムに関し、より特定的には、カメラ等からの実画像を処理する画像処理に関連して、画像中の対象物を視覚追跡するための画像認識の分野に関する。   The present invention relates to an estimation device, an estimation method, and an estimation program for estimating a true value of a physical quantity of an object based on an observed value of a physical quantity related to the object, and more specifically, an actual image from a camera or the like. Relates to the field of image recognition for visual tracking of objects in an image.

撮影された実動画像中において、対象物や対象人物を時間の経過とともに追跡することは、画像認識における中心的な課題の1つである。   Tracking a target or a target person with the passage of time in a captured actual moving image is one of the central issues in image recognition.

ここで、近年、非ガウス性雑音が加算された信号の時系列解析手法として、パーティクルフィルタが様々な分野から注目を集めている(たとえば、非特許文献1を参照)。実時間ビジョンの分野でも、カルマンフィルタでは行う事ができないノイズや障害物などの非ガウス性雑音で汚れた実画像上での物体運動の推定や予測を統計的に行う事ができるため、パーティクルフィルタによる応用研究が盛んになってきている(たとえば、非特許文献2および非特許文献3を参照)。   Here, in recent years, particle filters have attracted attention from various fields as a time-series analysis method for signals added with non-Gaussian noise (see, for example, Non-Patent Document 1). Even in the real-time vision field, it is possible to statistically estimate and predict object motion on real images soiled with non-Gaussian noise such as noise and obstacles that cannot be done with Kalman filter. Applied research has become popular (see, for example, Non-Patent Document 2 and Non-Patent Document 3).

パーティクルフィルタはベイズフィルタの近似計算法であり、有限のパーティクルによって分布関数を表現し、それを用いて時系列推定や予測を行うものである。   The particle filter is an approximate calculation method of the Bayes filter, and expresses a distribution function with finite particles, and uses it to perform time series estimation and prediction.

すなわち、パーティクルフィルタはサンプリングに基づいたモンテカルロ法の一種であり、対象物体の推定位置の分布をパーティクルの位置と重みによる集合表現で近似するため、非ガウスな分布でも扱う事が可能である。
N.J.ゴールドン、J.J.サーモンド、A.F.M.スミス:「非線形で非ガウシアンのベイズ状態評価への新たなアプローチ」、IEEEプロシーディング レーダーシグナルプロセッシング、第140巻、頁107−113(1993)(Gordon, N.J., Salmond, J.J. and Smith, A.F.M. : Novel approach to nonlinear non-Gaussian Bayesian state estimation, IEEE Proc Radar Signal Processing, vol.140, pp.107-113(1993)) M.イザード、A.ブレイク:「コンデンセーション−ビジュアルトラッキングに対する条件密度伝播」、インターナショナル ジャーナル オブ コンピュータ ビジョン、第28巻、No.1、pp.5−28(1998)(M. Isard and A. Blake: CONDASATION - Conditional Density Propagation for Visual Tracking, Int’l J. Computer Vision, vol. 28, no. 1, pp. 5-28(1998)) M.J.ブラック、A.D.ジェプソン :「コンデンセーションアルゴリズムを用いた時間軸上の軌跡認識」、IEEE インターナショナル カンファレンス オートマティック フェイス ジェスチャー、pp.16−21(1998)(Black, M.J. and Jepson, A.D. : Recognizing temporal trajectories using the condensation algorithm, IEEE Int’l Conf Automat Face Gesture, pp. 16-21 (1998))
In other words, the particle filter is a kind of Monte Carlo method based on sampling, and the distribution of the estimated position of the target object is approximated by a collective expression based on the position and weight of the particle, so that even a non-Gaussian distribution can be handled.
N. J. et al. Goldon, J.H. J. et al. Thurmond, A. F. M.M. Smith: “A New Approach to Nonlinear and Non-Gaussian Bayesian State Evaluation”, IEEE Proceedings Radar Signal Processing, Vol. 140, pp. 107-113 (1993) (Gordon, NJ, Salmond, JJ and Smith, AFM: Novel approach to nonlinear non-Gaussian Bayesian state estimation, IEEE Proc Radar Signal Processing, vol.140, pp.107-113 (1993)) M.M. Isard, A.D. Blake: “Condensation-Conditional Density Propagation for Visual Tracking”, International Journal of Computer Vision, Vol. 1, pp. 5-28 (1998) (M. Isard and A. Blake: CONDASATION-Conditional Density Propagation for Visual Tracking, Int'l J. Computer Vision, vol. 28, no. 1, pp. 5-28 (1998)) M.M. J. et al. Black, A. D. Jepson: "Trace recognition on time axis using condensation algorithm", IEEE International Conference Automatic Face Gesture, pp. 16-21 (1998) (Black, MJ and Jepson, AD: Recognizing temporal trajectories using the condensation algorithm, IEEE Int'l Conf Automat Face Gesture, pp. 16-21 (1998))

しかし、パーティクルの数を無限とすることはできず、それゆえにパーティクルフィルタの性質、正確さはサンプリング手法に大きく依存する。このことについては、パーティクルフィルタの中心的な問題点として活発な議論が行われている。   However, the number of particles cannot be infinite. Therefore, the nature and accuracy of the particle filter depend greatly on the sampling method. This is an active discussion as a central problem with particle filters.

特に、対象物体(対象人物)の視覚追跡においては、有限計算資源、実時間計算という拘束条件、複雑な実環境における視覚追跡において、パーティクルフィルタを用いた視覚追跡を、以下のような条件に適合させつつ、実現すればよいかは、必ずしも明らかではない。   In particular, for visual tracking of target objects (target persons), finite computational resources, constraints such as real-time calculations, and visual tracking using particle filters in visual tracking in complex real environments meet the following conditions: However, it is not always clear whether it should be realized.

すなわち、まず第1には、追跡対象についての事前知識に基づき、パーティクル位置でのみ観測を行う事で、周辺の雑音(良く似た物体など)に影響されにくいロバストな追跡を行う必要がある。   That is, firstly, it is necessary to perform robust tracking that is not easily influenced by surrounding noise (such as a similar object) by performing observation only at the particle position based on prior knowledge about the tracking target.

さらに、第2には、計算量を少なく抑制しつつ、有限計算資源で実時間処理を行う必要がある。   Furthermore, secondly, it is necessary to perform real-time processing with a finite computational resource while suppressing a calculation amount to be small.

それゆえに本発明の目的は、実環境における対象物に関連する物理量の観測値に基づいて、対象物の物理量の真の値を実時間で推定する推定装置、推定方法および推定プログラムを提供することである。   Therefore, an object of the present invention is to provide an estimation device, an estimation method, and an estimation program for estimating a real value of a physical quantity of an object in real time based on an observed value of the physical quantity related to the object in a real environment. It is.

この発明の他の目的は、実環境で撮影された動画像に対して、計算量を抑制しつつ、ロバストな視覚追跡を行うことが可能な視覚追跡装置、視覚追跡方法および視覚追跡プログラムを提供することである。   Another object of the present invention is to provide a visual tracking device, a visual tracking method, and a visual tracking program capable of performing robust visual tracking on a moving image shot in a real environment while suppressing the amount of calculation. It is to be.

この発明のある局面に従う推定装置は、対象物に関連する物理量の観測データを準備する手段と、コンデンセーション法により対象物の特徴量に関連する量を重みとして対象物の物理量を実時間で推定して抽出し追跡する手段と、コンデンセーション法による対象物の物理量の推定値の分散が所定値を越えることに応じて、コンデンセーション法に代えて、オーグジリアリ パーティクルフィルター法により重みを用いて、対象物の物理量を実時間で推定して抽出し追跡する手段と、オーグジリアリ パーティクルフィルター法による対象物の物理量の推定値の分散が所定値以下となることに応じて、コンデンセーション法により重みを用いて対象物の物理量を抽出し追跡する手段とを備える。   An estimation apparatus according to an aspect of the present invention estimates a physical quantity of an object in real time by using means for preparing observation data of a physical quantity related to the object and a quantity related to the feature quantity of the object by a condensation method. If the variance of the estimated physical quantity of the object by the condensation method exceeds a predetermined value, the weight is determined by the augmented particle filter method instead of the condensation method. A means for estimating, extracting, and tracking physical quantities of objects in real time, and using a weight by the condensation method according to the variance of the estimated values of physical quantities of objects by the Augmentary Particle Filter method being less than a predetermined value. Means for extracting and tracking the physical quantity of the object.

この発明の他の局面に従う推定装置は、対象物を含む対象画像領域内の各画素の値のデジタルデータを準備する手段と、対象となる画像領域内において、コンデンセーション法により対象物の特徴量に関連する量を重みとして対象物の位置を実時間で推定して抽出し追跡する手段と、コンデンセーション法による対象物の位置の推定値の分散が所定値を越えることに応じて、対象となる画像領域内において、コンデンセーション法に代えて、オーグジリアリ パーティクルフィルター法により重みを用いて、対象物の位置を実時間で推定して抽出し追跡する手段と、オーグジリアリ パーティクルフィルター法による対象物の位置の推定値の分散が所定値以下となることに応じて、コンデンセーション法により重みを用いて対象物の位置を実時間で推定して抽出し追跡する手段とを備える。   According to another aspect of the present invention, there is provided an estimation device that prepares digital data of values of pixels in a target image area including a target object, and a feature amount of the target object by a condensation method in the target image area. A means for estimating and extracting and tracking the position of the object in real time with the amount related to the weight as the weight, and the variance of the estimated value of the position of the object by the condensation method exceeds a predetermined value. In this image area, instead of the condensation method, a means for estimating, extracting and tracking the position of the object in real time using the weight by the augmented particle filter method, and the position of the object by the augmented particle filter method When the variance of the estimated value is less than or equal to a predetermined value, the position of the object is Means for estimating, extracting and tracking between.

好ましくは、対象物の特徴量は、対象物の色である。   Preferably, the feature amount of the object is the color of the object.

この発明のさらに他の局面に従う推定方法は、観測装置が、対象物の物理量に関連する特徴量の観測データを取得するステップと、演算装置が、コンデンセーション法により対象物の特徴量に関連する量を重みとして対象物の物理量を実時間で推定して抽出し追跡するステップと、演算装置が、コンデンセーション法による対象物の物理量の推定値の分散が所定値を越えることに応じて、コンデンセーション法に代えて、オーグジリアリ パーティクルフィルター法により重みを用いて、対象物の物理量を実時間で推定して抽出し追跡するステップと、演算装置が、オーグジリアリ パーティクルフィルター法による対象物の物理量の推定値の分散が所定値以下となることに応じて、コンデンセーション法により重みを用いて対象物の物理量を抽出し追跡するステップとを備える。 According to still another aspect of the present invention, there is provided an estimation method in which an observation device acquires observation data of a feature amount related to a physical quantity of an object, and an arithmetic device relates to the feature quantity of the object by a condensation method. A step of estimating and extracting and tracking the physical quantity of the object in real time using the quantity as a weight, and a computing device when the variance of the estimated value of the physical quantity of the object by the condensation method exceeds a predetermined value. Instead of the session method, the step of estimating and extracting the physical quantity of the target object in real time using the weight by the augmented particle filter method , and the computing unit is the estimated value of the physical quantity of the target object by the auxiliary particle filter method. The physical quantity of the target object using the weight by the condensation method. And a step of tracking out.

この発明のさらに他の局面に従うと、推定方法であって、撮像装置が、対象物を含む対象画像領域内の各画素の値のデジタルデータを取得するステップと、演算装置が、対象となる画像領域内において、コンデンセーション法により対象物の特徴量に関連する量を重みとして対象物の位置を実時間で推定して抽出し追跡するステップと、演算装置が、コンデンセーション法による対象物の位置の推定値の分散が所定値を越えることに応じて、対象となる画像領域内において、コンデンセーション法に代えて、オーグジリアリ パーティクルフィルター法により重みを用いて、対象物の位置を実時間で推定して抽出し追跡するステップと、演算装置が、オーグジリアリ パーティクルフィルター法による対象物の位置の推定値の分散が所定値以下となることに応じて、コンデンセーション法により重みを用いて対象物の位置を実時間で推定して抽出し追跡するステップとを備える。 According to still another aspect of the present invention, there is provided an estimation method in which an imaging device acquires digital data of values of each pixel in a target image region including a target object, and an arithmetic device is a target image. in the region, a step of positioning the extracted estimated in real time tracking of the object the quantity associated with the feature amount as the weight of the object by condensation method, computing device, the position of the object by condensation method When the variance of the estimated value exceeds a predetermined value, the position of the target is estimated in real time in the target image area by using the weight by the augmented particle filter method instead of the condensation method. extracting tracks Te, computing device, variance of the estimate of the position of an object by Ogujiriari particle filter method is less than a predetermined value Depending on to become, and a step of tracking extracted by estimating the position of the object in real time using the weight by condensation method.

好ましくは、対象物の特徴量は、対象物の色である。   Preferably, the feature amount of the object is the color of the object.

この発明のさらに他の局面に従うと、コンピュータに、対象物に関連する物理量を推定させる方法を実行させるためのプログラムであって、プログラムは、対象物に関連する物理量の観測データを準備するステップと、コンデンセーション法により対象物の特徴量に関連する量を重みとして対象物の物理量を実時間で推定して抽出し追跡するステップと、コンデンセーション法による対象物の物理量の推定値の分散が所定値を越えることに応じて、コンデンセーション法に代えて、オーグジリアリ パーティクルフィルター法により重みを用いて、対象物の物理量を実時間で推定して抽出し追跡するステップと、オーグジリアリ パーティクルフィルター法による対象物の物理量の推定値の分散が所定値以下となることに応じて、コンデンセーション法により重みを用いて対象物の物理量を抽出し追跡するステップとを備える。   According to still another aspect of the present invention, a program for causing a computer to execute a method of estimating a physical quantity related to an object, the program preparing observation data of the physical quantity related to the object; , A step of estimating and extracting the physical quantity of the target object in real time using the quantity related to the feature quantity of the target object by the condensation method, and a variance of the estimated physical quantity of the target object by the condensation method are predetermined. In response to exceeding the value, a step of estimating and tracking the physical quantity of the target object in real time using the weight by the augmented particle filter method instead of the condensation method, and an object by the augmented particle filter method When the variance of the estimated value of the physical quantity falls below a predetermined value, And extracting and tracking the physical quantity of the object using the weights by the calculation method.

この発明のさらに他の局面に従うと、対象物の物理量に関連する特徴量の観測データを準備する手段と、コンデンセーション法により対象物の特徴量に関連する量を重みとして対象物の物理量を実時間で推定して抽出し追跡する手段と、コンデンセーション法による対象物の物理量の推定値の共分散行列の少なくとも1つの成分が対応する所定値を越えることに応じて、コンデンセーション法に代えて、オーグジリアリ パーティクルフィルター法により重みを用いて、対象物の物理量を実時間で推定して抽出し追跡する手段と、オーグジリアリ パーティクルフィルター法による対象物の物理量の推定値の共分散行列の少なくとも1つの成分が対応する所定値以下となることに応じて、コンデンセーション法により重みを用いて対象物の物理量を抽出し追跡する手段とを備える。   According to still another aspect of the present invention, means for preparing observation data of feature quantities related to the physical quantity of the target object and physical quantities of the target object are obtained by weighting the quantity related to the feature quantity of the target object by the condensation method. In place of the condensation method according to the means for extracting, tracking, estimating by time, and when at least one component of the covariance matrix of the estimated physical quantity of the object by the condensation method exceeds a corresponding predetermined value , A means for estimating and extracting a physical quantity of an object in real time using weights by the Augerary particle filter method, and at least one component of a covariance matrix of an estimated value of the physical quantity of the object by the Augerary particle filter method The object's physics using weights by the condensation method Means for extracting and tracking the quantity.

この発明のさらに他の局面に従うと、対象物を含む対象画像領域内の各画素の値のデジタルデータを準備する手段と、対象となる画像領域内において、コンデンセーション法により対象物の特徴量に関連する量を重みとして対象物の位置を実時間で推定して抽出し追跡する手段と、コンデンセーション法による対象物の位置の推定値の共分散行列の少なくとも1つの成分が対応する所定値を越えることに応じて、対象となる画像領域内において、コンデンセーション法に代えて、オーグジリアリ パーティクルフィルター法により重みを用いて、対象物の位置を実時間で推定して抽出し追跡する手段と、オーグジリアリ パーティクルフィルター法による対象物の位置の推定値の共分散行列の少なくとも1つの成分が対応する所定値以下となることに応じて、コンデンセーション法により重みを用いて対象物の位置を実時間で推定して抽出し追跡する手段とを備える。   According to still another aspect of the present invention, means for preparing digital data of the value of each pixel in the target image area including the target object, and the feature amount of the target object by the condensation method in the target image area. Means for estimating and extracting and tracking the position of the object in real time with the associated quantity as a weight; and a predetermined value corresponding to at least one component of the covariance matrix of the estimated position of the object by the condensation method. A means for estimating, extracting, and tracking the position of the target object in real time using weights by the augmented particle filter method instead of the condensing method in the target image area. At least one component of the covariance matrix of the estimated value of the position of the object by the particle filter method is equal to or less than the corresponding predetermined value. Depending on the situation, it comprises means for estimating, extracting and tracking the position of the object in real time using weights by means of a condensation method.

この発明のさらに他の局面に従うと、推定方法であって、観測装置が、対象物の物理量に関連する特徴量の観測データを取得するステップと、演算装置が、コンデンセーション法により対象物の特徴量に関連する量を重みとして対象物の物理量を実時間で推定して抽出し追跡するステップと、演算装置が、コンデンセーション法による対象物の物理量の推定値の共分散行列の少なくとも1つの成分が対応する所定値を越えることに応じて、コンデンセーション法に代えて、オーグジリアリ パーティクルフィルター法により重みを用いて、対象物の物理量を実時間で推定して抽出し追跡するステップと、演算装置が、オーグジリアリ パーティクルフィルター法による対象物の物理量の推定値の共分散行列の少なくとも1つの成分が対応する所定値以下となることに応じて、コンデンセーション法により重みを用いて対象物の物理量を抽出し追跡するステップとを備える。 According to still another aspect of the present invention , there is provided an estimation method in which an observation device acquires observation data of a feature quantity related to a physical quantity of an object, and an arithmetic device is a feature of the object by a condensation method. a step of physical quantity is extracted by estimating in real time tracking of the object an amount related to the amount as a weight, computing device, at least one component of the covariance matrix of the estimated value of the physical quantity of the object by condensation method There in response to exceeding a corresponding predetermined value, instead of the condensation method, using the weight by Ogujiriari particle filter method, the steps of the physical quantity is extracted by estimating in real time tracking of the object, computing device , at least one component of the physical estimate of the amount of the covariance matrix corresponding place of the object by Ogujiriari particle filter method In response to a value below and a step of extracting to track physical quantity of an object using the weight by condensation method.

この発明のさらに他の局面に従うと、推定方法であって、撮像装置が、対象物を含む対象画像領域内の各画素の値のデジタルデータを準備するステップと、演算装置が、対象となる画像領域内において、コンデンセーション法により対象物の特徴量に関連する量を重みとして対象物の位置を実時間で推定して抽出し追跡するステップと、演算装置が、コンデンセーション法による対象物の位置の推定値の共分散行列の少なくとも1つの成分が対応する所定値を越えることに応じて、対象となる画像領域内において、コンデンセーション法に代えて、オーグジリアリ パーティクルフィルター法により重みを用いて、対象物の位置を実時間で推定して抽出し追跡するステップと、演算装置が、オーグジリアリ パーティクルフィルター法による対象物の位置の推定値の共分散行列の少なくとも1つの成分が対応する所定値以下となることに応じて、コンデンセーション法により重みを用いて対象物の位置を実時間で推定して抽出し追跡するステップとを備える。 According to still another aspect of the present invention , there is provided an estimation method in which an imaging device prepares digital data of values of each pixel in a target image region including a target object, and an arithmetic device is a target image. in the region, a step of positioning the extracted estimated in real time tracking of the object the quantity associated with the feature amount as the weight of the object by condensation method, computing device, the position of the object by condensation method In response to at least one component of the covariance matrix of the estimated value exceeding the corresponding predetermined value, in the target image area, instead of using the condensation method, the weight is determined by the augmented particle filter method. a step of tracking extracted by estimating the position of an object in real time, arithmetic unit, pair by Ogujiriari particle filter method When at least one component of the covariance matrix of the estimated value of the object position falls below the corresponding predetermined value, the object position is estimated and extracted in real time using the weight by the condensation method and tracked And a step of performing.

この発明のさらに他の局面に従うと、コンピュータに、対象物に関連する物理量を推定させる方法を実行させるためのプログラムであって、プログラムは、対象物の物理量に関連する特徴量の観測データを準備するステップと、コンデンセーション法により対象物の特徴量に関連する量を重みとして対象物の物理量を実時間で推定して抽出し追跡するステップと、コンデンセーション法による対象物の物理量の推定値の共分散行列の少なくとも1つの成分が対応する所定値を越えることに応じて、コンデンセーション法に代えて、オーグジリアリ パーティクルフィルター法により重みを用いて、対象物の物理量を実時間で推定して抽出し追跡するステップと、オーグジリアリ パーティクルフィルター法による対象物の物理量の推定値の共分散行列の少なくとも1つの成分が対応する所定値以下となることに応じて、コンデンセーション法により重みを用いて対象物の物理量を抽出し追跡するステップとを備える。   According to still another aspect of the present invention, there is provided a program for causing a computer to execute a method for estimating a physical quantity related to an object, wherein the program prepares observation data of a feature quantity related to the physical quantity of the object. A step of estimating, extracting, and tracking the physical quantity of the object in real time using the amount related to the feature quantity of the object as a weight by the condensation method, and an estimate of the physical quantity of the object by the condensation method. When at least one component of the covariance matrix exceeds the corresponding predetermined value, the physical quantity of the object is estimated and extracted in real time using weights by the Augmentary Particle Filter method instead of the condensation method. Co-sharing the tracking step with the estimated physical quantity of the object using the Augmented Particle Filter method A step of extracting and tracking a physical quantity of an object using a weight according to a condensation method in response to at least one component of a scatter matrix being equal to or less than a corresponding predetermined value.

本発明によれば、実時間、実環境における複雑な状況においても、予測を主としたコンデンセーションのロバスト性と観測を重視したオーグジリアリ パーティクルフィルター法の収束の速さをうまく融合し、安定した追跡を行うことが可能となる。   According to the present invention, even in complex situations in real time and in a real environment, the robustness of condensation that is mainly predictive and the convergence speed of the augmented particle filter method that emphasizes observations are well integrated to achieve stable tracking. Can be performed.

[実施の形態1]
[ハードウェア構成]
以下、本発明にかかる視覚追跡装置について説明する。この視覚追跡装置は、パーソナルコンピュータまたはワークステーション等、コンピュータ上で実行されるソフトウェアにより実現されるものであって、対象実動画像から対象物(あるいは対象人物)を抽出し、実時間で追跡するためのものである。
[Embodiment 1]
[Hardware configuration]
The visual tracking device according to the present invention will be described below. This visual tracking device is realized by software executed on a computer such as a personal computer or a workstation, and extracts a target object (or target person) from a target actual moving image and tracks it in real time. Is for.

ただし、以下の説明でも明らかとなるように、本発明は、具体例として説明する視覚追跡に限らず、より一般的に、対象物に関連する物理量の観測データに基づいて、この物理量の真の値を実時間で推定する場合に適用可能なものである。   However, as will be apparent from the following description, the present invention is not limited to visual tracking described as a specific example, and more generally, based on observation data of a physical quantity related to an object, Applicable when estimating values in real time.

図1に、この視覚追跡装置の外観を示す。   FIG. 1 shows the appearance of this visual tracking device.

図1を参照してこのシステム20は、CD−ROM(Compact Disc Read-Only Memory )ドライブ50およびFD(Flexible Disk )ドライブ52を備えたコンピュータ本体40と、コンピュータ本体40に接続された表示装置としてのディスプレイ42と、同じくコンピュータ本体40に接続された入力装置としてのキーボード46およびマウス48と、コンピュータ本体40に接続された、画像を取込むためのカメラ30とを含む。この実施の形態の装置では、カメラ30としてはCCD(固体撮像素子)を含むビデオカメラを用い、カメラ30で撮影された動画像に対して、対象となる物体または対象となる人物を検出し、実時間で追跡する処理を行うものとする。   Referring to FIG. 1, the system 20 includes a computer main body 40 having a CD-ROM (Compact Disc Read-Only Memory) drive 50 and an FD (Flexible Disk) drive 52, and a display device connected to the computer main body 40. , A keyboard 46 and a mouse 48 as input devices also connected to the computer main body 40, and a camera 30 for capturing an image connected to the computer main body 40. In the apparatus of this embodiment, a video camera including a CCD (solid-state imaging device) is used as the camera 30, and a target object or a target person is detected from a moving image captured by the camera 30, It is assumed that processing to be tracked in real time is performed.

すなわち、カメラ30により、対象物(対象人物)を含む動画像であって対象となる画像領域内の各画素の値のデジタルデータが準備される。   In other words, the camera 30 prepares digital data of the value of each pixel in the target image area, which is a moving image including an object (target person).

図2に、このシステム20の構成をブロック図形式で示す。図2に示されるようにこのシステム20を構成するコンピュータ本体40は、CD−ROMドライブ50およびFDドライブ52に加えて、それぞれバス66に接続されたCPU(Central Processing Unit )56と、ROM(Read Only Memory) 58と、RAM (Random Access Memory)60と、ハードディスク54と、カメラ30からの画像を取込むための画像取込装置68とを含んでいる。CD−ROMドライブ50にはCD−ROM62が装着される。FDドライブ52にはFD64が装着される。   FIG. 2 shows the configuration of the system 20 in the form of a block diagram. As shown in FIG. 2, in addition to the CD-ROM drive 50 and the FD drive 52, the computer main body 40 constituting the system 20 includes a CPU (Central Processing Unit) 56 and a ROM (Read Only Memory (RAM) 58, RAM (Random Access Memory) 60, hard disk 54, and image capturing device 68 for capturing images from camera 30 are included. A CD-ROM 62 is attached to the CD-ROM drive 50. An FD 64 is attached to the FD drive 52.

既に述べたようにこの視覚追跡装置の主要部は、コンピュータハードウェアと、CPU56により実行されるソフトウェアとにより構成される。一般的にこうしたソフトウェアはCD−ROM62、FD64等の記憶媒体に格納されて流通し、CD−ROMドライブ50またはFDドライブ52等により記憶媒体から読取られてハードディスク54に一旦格納される。または、当該装置がネットワークに接続されている場合には、ネットワーク上のサーバから一旦ハードディスク54にコピーされる。そうしてさらにハードディスク54からRAM60に読出されてCPU56により実行される。なお、ネットワーク接続されている場合には、ハードディスク54に格納することなくRAM60に直接ロードして実行するようにしてもよい。   As described above, the main part of the visual tracking device is constituted by computer hardware and software executed by the CPU 56. Generally, such software is stored and distributed in a storage medium such as a CD-ROM 62 or FD 64, read from the storage medium by the CD-ROM drive 50 or FD drive 52, and temporarily stored in the hard disk 54. Alternatively, when the device is connected to the network, it is temporarily copied from the server on the network to the hard disk 54. Then, it is further read from the hard disk 54 to the RAM 60 and executed by the CPU 56. In the case of network connection, the program may be directly loaded into the RAM 60 and executed without being stored in the hard disk 54.

図1および図2に示したコンピュータのハードウェア自体およびその動作原理は一般的なものである。したがって、本発明の最も本質的な部分は、FD64、ハードディスク54等の記憶媒体に記憶されたソフトウェアである。   The computer hardware itself and its operating principle shown in FIGS. 1 and 2 are general. Therefore, the most essential part of the present invention is software stored in a storage medium such as the FD 64 and the hard disk 54.

なお、最近の一般的傾向として、コンピュータのオペレーティングシステムの一部として様々なプログラムモジュールを用意しておき、アプリケーションプログラムはこれらモジュールを所定の配列で必要な時に呼び出して処理を進める方式が一般的である。そうした場合、当該視覚追跡装置を実現するためのソフトウェア自体にはそうしたモジュールは含まれず、当該コンピュータでオペレーティングシステムと協働してはじめて視覚追跡装置が実現することになる。しかし、一般的なプラットフォームを使用する限り、そうしたモジュールを含ませたソフトウェアを流通させる必要はなく、それらモジュールを含まないソフトウェア自体およびそれらソフトウェアを記録した記録媒体(およびそれらソフトウェアがネットワーク上を流通する場合のデータ信号)が実施の形態を構成すると考えることができる。   As a recent general trend, various program modules are prepared as part of a computer operating system, and an application program generally calls a module in a predetermined arrangement to advance processing when necessary. is there. In such a case, the software itself for realizing the visual tracking device does not include such a module, and the visual tracking device is realized only when the computer cooperates with the operating system. However, as long as a general platform is used, it is not necessary to distribute software including such modules, and the software itself not including these modules and the recording medium storing the software (and the software distributes on the network). Data signal) can be considered to constitute the embodiment.

[本発明による視覚追跡の基本的原理]
まず、本発明の手続きの概略をまとめると、本発明では、視覚追跡において基本的なアルゴリズムの一つであるコンデンセーション(CONDENSATION)法と、その問題点の一部を改善したオーグジリアリ パーティクルフィルター(Auxiliary Particle Filter、以下「APF」と呼ぶ)法とを視覚追跡に特有な状況の下で、適切な条件下で切換えて処理を実施する。コンデンセーションは、遮蔽などにロバストだが精度良く追跡ができない。それに対して、APF法は観測結果を重視し追跡対象に精度良く正確な追跡を行う事はできるが、遮蔽がある場合は、雑音に収束してしまう事が多い。そこで、この二つを、以下に説明するような条件で切り替えることで、各アルゴリズムの長所を生かし、実環境におけるより多くの状況においてロバストな実時間追跡を実施する。
[Basic principles of visual tracking according to the present invention]
First, the outline of the procedure of the present invention is summarized. In the present invention, the condensation method (CONDENSATION) which is one of basic algorithms in visual tracking and an auxiliary particle filter (Auxiliary filter) which has improved some of its problems are described. The processing is performed by switching the Particle Filter (hereinafter referred to as “APF”) method under appropriate conditions under a condition specific to visual tracking. Condensation is robust to shielding, but cannot be tracked with high accuracy. On the other hand, the APF method attaches importance to the observation result and can accurately and accurately track the tracking target. However, if there is a shielding, the APF method often converges to noise. Therefore, by switching between these two conditions under the conditions described below, the advantages of each algorithm are utilized, and robust real-time tracking is performed in more situations in the real environment.

以下では、まず、動画像中での視覚追跡という具体例を説明する前提として、コンデンセーション法とAPF法とを切り替える構成について、より一般的に説明した後に、それを動画像中での視覚追跡に適用するための構成について説明する。   In the following, first, as a premise for explaining a specific example of visual tracking in a moving image, a configuration for switching between a condensation method and an APF method will be described more generally, and then the visual tracking in a moving image will be described. A configuration for applying to the above will be described.

(コンデンセーション法)
時刻tにおける追跡対象の連続値状態変数ベクトルxtを以下のとおりと定義する。ここで、連続値状態変数ベクトルxtは、本発明を視覚追跡に適用する場合は、たとえば、対象物の真の位置座標を示す。
(Condensation method)
The continuous value state variable vector xt to be tracked at time t is defined as follows. Here, when the present invention is applied to visual tracking, the continuous value state variable vector x t indicates, for example, the true position coordinates of the object.

Figure 0004382597
Figure 0004382597

さらに、連続値状態変数ベクトルxtの履歴を以下のとおりとする。 Further, the history of the continuous value state variable vector x t is as follows.

Figure 0004382597
Figure 0004382597

同様に、観測変数ベクトルztを以下のとおりに定義する。ここで、観測変数ベクトルztは、本発明を視覚追跡に適用する場合は、たとえば、観測された対象物の位置座標を示す。 Similarly, the observation variable vector z t is defined as follows. Here, the observation variable vector z t indicates, for example, the position coordinates of the observed object when the present invention is applied to visual tracking.

Figure 0004382597
Figure 0004382597

観測変数ベクトルztの履歴を以下のとおりとする。 The history of the observation variable vector z t is as follows.

Figure 0004382597
Figure 0004382597

以下の式(0)のような時刻tにおけるパーティクルと重みのセットを用いて、状態変数ベクトルxtの観測値に対する事後分布を式(1)以下のように近似する。 Using a set of particles and weights at time t as in the following equation (0), the posterior distribution for the observed value of the state variable vector x t is approximated as in equation (1).

Figure 0004382597
Figure 0004382597

ただし、δ(…)はディラックのデルタ関数を示す。すなわち、πt (n)は、重みを示し、st (n)は、パーティクルの位置を示す。そして、πt (n)は、以下の式(2)を満たすものとする。 Here, δ (...) Represents a Dirac delta function. That is, π t (n) indicates the weight, and s t (n) indicates the position of the particle. And π t (n) satisfies the following formula (2).

Figure 0004382597
Figure 0004382597

この時、追跡対象のダイナミクスが、以下の式(3)で表される一次のマルコフ性を持つ事と、式(4)で表される観測の条件付き独立性を満たすことを仮定する。   At this time, it is assumed that the dynamics to be tracked have a first-order Markov property expressed by the following formula (3) and that the conditional independence of the observation expressed by the formula (4) is satisfied.

Figure 0004382597
Figure 0004382597

このとき、状態変数ベクトルxtの事前分布は、以下の式(5)により近似することができる。 At this time, the prior distribution of the state variable vector x t can be approximated by the following equation (5).

Figure 0004382597
Figure 0004382597

観測変数ベクトルztからベイズの定理により推定される事後分布は、以下の式(6)のように書くことができる。 The posterior distribution estimated from the observed variable vector z t by Bayes' theorem can be written as the following equation (6).

Figure 0004382597
Figure 0004382597

ここで、ktは正規化のための定数である。式(5)と式(6)とを繰り返し用いる事で、任意の時刻tにおける状態変数ベクトルxtの推定を行う事が出来る。 Here, k t is a constant for normalization. By repeatedly using the equations (5) and (6), it is possible to estimate the state variable vector x t at an arbitrary time t.

コンデンセーション法のようなサンプリング/インポータンス リサンプリング(Sampling/Importance Resampling:以下、「SIR」と呼ぶ)を用いたフィルタに特有の問題として、以下のような時刻(t−1)におけるパーティクル{st-1 (n),n=1,…,N}から再サンプリングを行い、時刻tにおける新たなパーティクル{st (j),j=1,…,N}を得る際の重みとなるπt-1 (n)が各時刻の観測変数ベクトルztとは独立であるため、観測とは無関係に状態空間が探索される点がある。それ故にSIRフィルタは外れ値に大きく影響され、しばしば追跡が非効率的になる。 As a problem peculiar to a filter using sampling / importance resampling (hereinafter referred to as “SIR”) such as a condensation method, particles {s t −1 (n) , n = 1,..., N} is resampled, and π t is a weight for obtaining new particles {s t (j) , j = 1,. Since −1 (n) is independent of the observation variable vector z t at each time, there is a point where the state space is searched regardless of the observation. Therefore, SIR filters are greatly affected by outliers and often make tracking inefficient.

(APF法)
コンデンセーション法の様なSIRフィルタにおいて、外れ値をいかにして扱うかという問題に対する効果的な手法として、上述したAPF法がある。このAPF法については、文献:M.Pitt and N. Shephard: Filtering via Simulations: Auxiliary Particle Filters, Journal of American Statistical Association, (1999)に詳しく開示されているので、以下では、その大略について述べる。
(APF method)
As an effective technique for the problem of how to handle outliers in a SIR filter such as the condensation method, there is the above-described APF method. Since this APF method is disclosed in detail in the literature: M. Pitt and N. Shephard: Filtering via Simulations: Auxiliary Particle Filters, Journal of American Statistical Association, (1999), the outline will be described below.

このAPF法では平均値、モードなどの代表点を用いてダイナミクスを近似し、代表点での尤度をダイナミクスを用いて計算し、それを重みとして再びサンプリングを行う。代表点に注目することで外れ値にあまり影響されずに目標点に速やかに収束させることができる。   In this APF method, dynamics are approximated using representative points such as an average value and a mode, the likelihood at the representative points is calculated using the dynamics, and sampling is performed again using that as a weight. By paying attention to the representative point, it is possible to quickly converge to the target point without much influence from the outlier.

図3は、コンデンセーション法とAPF法のサンプリング法の違いによるパーティクルの分布の違いを示す図である。図3において、白丸は、コンデンセーションによって、白いひし形はAPF法によってサンプリングされたパーティクルの位置を表わす。   FIG. 3 is a diagram illustrating a difference in particle distribution due to a difference in sampling method between the condensation method and the APF method. In FIG. 3, white circles indicate the positions of particles sampled by condensation, and white diamonds indicate the positions of particles sampled by the APF method.

また、図4は、パーティクルの分布の違いから生じるターゲットへの収束速度の違いを示す図である。図4では、ある一つのパーティクルが対象を見付けてから推定値が対象の位置と一致するまでにかかるフレーム数とパーティクルの数の関係を示している。   FIG. 4 is a diagram showing a difference in convergence speed to the target resulting from a difference in particle distribution. FIG. 4 shows the relationship between the number of frames and the number of particles required for a certain particle to find the target until the estimated value matches the target position.

今、m=1,…,Mがパーティクルのインデックスを表わすとすると、式(6)より各パーティクルについて、以下の式(7)が成り立つ。   Assuming that m = 1,..., M represents the particle index, the following equation (7) is established for each particle from equation (6).

Figure 0004382597
Figure 0004382597

この時、μt (m)を以下のような式の代表点とする。 At this time, μ t (m) is a representative point of the following equation.

Figure 0004382597
Figure 0004382597

このとき、上式の近似を行うと、以下の式(8)となる。   At this time, when the above equation is approximated, the following equation (8) is obtained.

Figure 0004382597
Figure 0004382597

この式(8)が、以下のように一段目の重みλt (m)となる。 This equation (8) becomes the first-stage weight λ t (m) as follows.

Figure 0004382597
Figure 0004382597

次のステップとして一段目の重みλt (m)に基づいてN回サンプリングを行い、新たに二段目の重みπt (n)を以下の式(9)のように決定する。 As the next step, sampling is performed N times based on the first-stage weight λ t (m) , and a second-stage weight π t (n) is newly determined as in the following equation (9).

Figure 0004382597
Figure 0004382597

ここで、式(9)において、以下の式で表されている値は、st (n)と関連付けられるμt (m)である。 Here, in Expression (9), the value represented by the following expression is μ t (m) associated with st (n) .

Figure 0004382597
Figure 0004382597

(再サンプリング法の動的な切替え)
APF法が観測重視で追跡対象の状態を推定しているのに比べて、コンデンセーションは事前知識重視で追跡対象の状態推定を行う。APF法は追跡対象に精度良く正確な追跡を行うことができるが、遮蔽や追跡対象によく似た特徴が複数存在するような複雑な状況における視覚追跡においては観測結果よりも事前知識を重視した方が安定した追跡を行うことができると考えられる。
(Dynamic switching of resampling method)
Condensation estimates the state of the tracking target with emphasis on prior knowledge, as compared with the APF method, which focuses on observation and estimates the state of the tracking target. The APF method can accurately and accurately track the tracking target, but prior knowledge is more important than observation results in visual tracking in complex situations where there are multiple features similar to the tracking and tracking target. It is considered that more stable tracking can be performed.

まず、以下の式で、時刻tにおけるxの期待値を表すとする。   First, let the following equation represent the expected value of x at time t.

Figure 0004382597
Figure 0004382597

このとき、以下のとおり、推定値の分散σestのi成分を式(10)で表す。なお、本発明を視覚追跡に適用する場合は、i成分とは、座標軸成分を示す。 At this time, the i component of the estimated value variance σ est is expressed by Expression (10) as follows. When the present invention is applied to visual tracking, the i component represents a coordinate axis component.

Figure 0004382597
Figure 0004382597

この推定値の分散σestを推定の精度を示す値として、再サンプリングアルゴリズムを以下のとおり、動的に切替える。 The resampling algorithm is dynamically switched as follows using the variance σ est of the estimated value as a value indicating the accuracy of the estimation.

Figure 0004382597
Figure 0004382597

このようにアルゴリズムを動的に切り替えることで、コンデンセーションの予測を主とした遮蔽に強い性質と、APF法の追跡対象への収束の速さをうまく融合できる。   By dynamically switching the algorithm in this way, it is possible to successfully combine the strong property of shielding mainly for prediction of condensation and the speed of convergence to the tracking target of the APF method.

ここで、切替えの判断のためのしきい値は、以下のとおり各成分に対するしきい値のベクトルとして表される。   Here, the threshold value for switching determination is expressed as a threshold vector for each component as follows.

Figure 0004382597
Figure 0004382597

このようなしきい値ベクトルは、特に限定されないが、たとえば、実験的に所定の値を予め定めておくことができる。   Although such a threshold vector is not particularly limited, for example, a predetermined value can be determined in advance experimentally.

また、推定値の分散σestは、各成分ごとにしきい値と比較するものとしたが、推定値の分散σestのベクトルの大きさそのものをしきい値γと比較することとしてもよい。 Further, the estimated value variance σ est is compared with the threshold value for each component, but the magnitude of the vector of the estimated value variance σ est itself may be compared with the threshold value γ.

図5は、以上説明した本発明の切替えアルゴリズムを説明するためのフローチャートである。なお、図5では、本発明を視覚追跡に適用する場合について説明している。   FIG. 5 is a flowchart for explaining the switching algorithm of the present invention described above. Note that FIG. 5 illustrates a case where the present invention is applied to visual tracking.

なお、ここで、視覚追跡の場合に重みとして、何を採用するかについては、後に詳しく説明する。   Here, what is adopted as the weight in the case of visual tracking will be described in detail later.

図5を参照して、カメラ30により準備された、対象物(対象人物)を含む動画像であって対象となる画像領域内の各画素の値のデジタルデータに基づいて、視覚追跡が開始されると(ステップS100)、システム20は、コンデンセーション法による視覚追跡を実施する(ステップS102)。   Referring to FIG. 5, visual tracking is started based on digital data of the value of each pixel in a target image area that is a moving image including a target object (target person) prepared by camera 30. Then (step S100), the system 20 performs visual tracking by the condensation method (step S102).

続いて、システム20は、少なくとも1つの空間軸で、推定値の分散が所定値を超えるか否かを判断する(ステップS104)。いずれの空間軸でも推定値の分散が所定値を超えていない場合、処理は、ステップS102に復帰する。   Subsequently, the system 20 determines whether or not the variance of the estimated value exceeds a predetermined value on at least one space axis (step S104). If the variance of the estimated values does not exceed the predetermined value in any spatial axis, the process returns to step S102.

一方、少なくとも1つの空間軸で、推定値の分散が所定値を超える場合、システム20は、APF法による視覚追跡を行う(ステップS106)。   On the other hand, if the variance of the estimated value exceeds a predetermined value on at least one spatial axis, the system 20 performs visual tracking by the APF method (step S106).

続いて、システム20は、すべての空間軸で、推定値の分散が所定値を超えるか否かを判断する(ステップS108)。いずれの空間軸でも推定値の分散が所定値以下である場合、処理は、ステップS102に復帰する。   Subsequently, the system 20 determines whether or not the variance of the estimated value exceeds a predetermined value in all the space axes (step S108). When the variance of the estimated value is equal to or smaller than the predetermined value in any spatial axis, the process returns to step S102.

一方、少なくとも1つの空間軸で、推定値の分散が所定値を超える場合、システム20は、APF法による視覚追跡を継続する(ステップS106)。   On the other hand, if the variance of the estimated value exceeds a predetermined value on at least one spatial axis, the system 20 continues visual tracking by the APF method (step S106).

(最尤推定によるダイナミクスの学習)
より多くの状況においてロバストな追跡を行うためには、追跡対象のダイナミクスを画像列より学習する事が必要である。追跡対象のダイナミクスとしてバイアス項を持つ以下の二次の線形方程式(11)を仮定する。
(Learning dynamics by maximum likelihood estimation)
In order to perform robust tracking in more situations, it is necessary to learn the dynamics to be tracked from the image sequence. The following quadratic linear equation (11) having a bias term is assumed as the dynamics to be tracked.

Figure 0004382597
Figure 0004382597

式(11)のパラメータをまとめて、以下のとおりθで表し、さらに、wtを白色ガウスノイズとする。 The parameters of Equation (11) are collectively expressed as θ as follows, and w t is white Gaussian noise.

Figure 0004382597
Figure 0004382597

このとき、以下のRtが平均0、分散Cのガウス分布に従う。 In this case, the following R t is zero mean Gaussian distribution of the dispersion C.

Figure 0004382597
Figure 0004382597

このため、θの対数尤度は、以下の式(12)となる。   For this reason, the logarithmic likelihood of θ is expressed by the following equation (12).

Figure 0004382597
Figure 0004382597

パラメータβの最尤推定値はこれを最大にする点を∂L/∂θ=0を解くことにより求めればよい。これを直接求めることは困難であるが、以下のスムージング推定値をxtの期待値とすることで求めることができる。 The maximum likelihood estimation value of the parameter β may be obtained by solving ∂L / ∂θ = 0 for the point that maximizes this. Although it is difficult to directly obtain this, it can be obtained by setting the following smoothing estimated value as the expected value of x t .

Figure 0004382597
Figure 0004382597

このとき、各パラメータについて以下の式(13)〜(16)が成り立つ。   At this time, the following equations (13) to (16) hold for each parameter.

Figure 0004382597
Figure 0004382597

但しここで、以下のとおりとする。 However, here it is as follows.

Figure 0004382597
Figure 0004382597

式(13)〜(16)により更新したパラメータを用いて再びフィルタリングを繰り返す。これをパラメータが収束するまで繰り返す。   Filtering is repeated again using the parameters updated by the equations (13) to (16). This is repeated until the parameters converge.

以上はバッチ学習であり、観測結果が全て得られた後にモデルパラメータの更新を行う場合の手続きである。   The above is batch learning, which is a procedure for updating model parameters after all observation results are obtained.

しかし、実際の環境においてダイナミクスの学習を行いながら追跡を行うには、ダイナミクスの学習をオンラインで行う必要がある.そこで、時刻tにおけるフィルタリング推定値に固定ラグのカルマンスムージングをかけ、窓枠内で上記バッチ学習を一回適用して得られたSi,Sijに学習係数ηを用いて、以下の式(19)および(20)とおりに書き直す。   However, in order to perform tracking while learning dynamics in an actual environment, it is necessary to perform dynamics learning online. Therefore, by applying a fixed lag Kalman smoothing to the filtering estimated value at time t and applying the batch learning once within the window frame, the learning coefficient η is used as the following equation (19). And rewrite as (20).

Figure 0004382597
Figure 0004382597

視覚追跡の場合、たとえば、窓の大きさを60フレームとすればよいが、ある程度の大きさを持った密であれば安定した学習を行うことができる。   In the case of visual tracking, for example, the window size may be 60 frames, but stable learning can be performed if the window has a certain size and is dense.

システム20は、式(13)〜(16)によるパラメータの更新を行う。これにより、ダイナミクスの学習をオンラインで行うことができる。   The system 20 updates the parameters according to the equations (13) to (16). Thereby, learning of dynamics can be performed online.

なお、特に限定されないが、たとえば、以下の説明では、η=0.01とすることができる。   Although not particularly limited, for example, in the following description, η = 0.01.

(実画像を用いた実験)
状態変数として画像面上での追跡対象の位置(x,y)をとり、実画像を用いた実験結果について以下に説明する。
(Experiment using real images)
The position of the tracking target (x, y) on the image plane is taken as the state variable, and the experimental results using the actual image will be described below.

以下の実験では、たとえば、パーティクルの個数N=800としている。この時1フレームの処理時間は、2GHzのクロックで動作するCPUを搭載したパーソナルコンピュータでも、約8msecであり、十分実時間で処理を行うことができる。以下の実験では、デジタルビデオカメラを用いて撮影した画像をパーソナルコンピュータに取り込み、得られた連続画像に対してパーティクルフィルタによる追跡とダイナミクスのオンライン学習を実行した。   In the following experiment, for example, the number of particles N is set to 800. At this time, the processing time for one frame is about 8 msec even in a personal computer equipped with a CPU that operates with a 2 GHz clock, and processing can be performed in sufficient real time. In the following experiment, images captured using a digital video camera were captured into a personal computer, and tracking of the obtained images and dynamics online learning were performed on the obtained continuous images.

(カラーモデル)
視覚追跡の対象が人間である場合は、肌色を対象物の特徴量として、画像中の肌色らしさを重みとして推定を行えばよい。ただし、以下では、肌色そのものではなく、赤らしさ(「赤色度」)を重みとする例について説明する。
(Color model)
When the target of visual tracking is a human, estimation may be performed using the skin color as the feature amount of the target object and the skin color likelihood in the image as the weight. However, an example in which redness (“redness”) is used as a weight instead of the skin color itself will be described below.

もちろん、対象物の色に応じて、他の色を重みとして採用することも可能である。また、画像中で対象物(または対象人物)を特定できる特徴量であれば、必ずしも色に限定されるものでなく、たとえば、明るさ、形、模様、大きさのような特徴量を用いることもできる。   Of course, other colors may be used as weights depending on the color of the object. Further, the feature amount is not necessarily limited to a color as long as it is a feature amount that can identify an object (or a target person) in an image. For example, feature amounts such as brightness, shape, pattern, and size are used. You can also.

時刻tにおける画像中の画素ztの赤緑青成分をそれぞれ、R(zt),G(zt),B(zt)とする。この時、画素ztの赤色度は、以下の式(21)のように定義される。 Each red, green and blue components of the pixel z t in the image at time t, R (z t), G (z t), and B (z t). At this time, the redness of the pixel z t is defined as in the following equation (21).

Figure 0004382597
Figure 0004382597

事前に得ておいた追跡対象の赤色度のヒストグラムの平均値μhと分散σh 2を用いて、以下の式(22)および(23)のとおり正規分布を用いて表現する。 Using the average value μ h and variance σ h 2 of the histogram of the redness of the tracking target obtained in advance, it is expressed using a normal distribution as in the following equations (22) and (23).

Figure 0004382597
Figure 0004382597

但し、r(xt)〜μhとし、r(xt)は追跡対象の位置に依存しないとしている。 However, r (x t ) to μ h is assumed, and r (x t ) does not depend on the position of the tracking target.

(実験結果)
(実画像からのダイナミクスのオンライン学習)
先に述べたダイナミクスのオンライン学習を適用し、人間が左右に振るボール(画像面で直径約16ピクセル(pixel))の追跡を行う。
(Experimental result)
(Online learning of dynamics from real images)
The above-described dynamics online learning is applied to track a ball (a diameter of about 16 pixels on the image plane) that a person swings to the left and right.

図6は、このようなオンライン学習の実験を行った環境下での画像の例を示す図である。   FIG. 6 is a diagram illustrating an example of an image in an environment in which such an online learning experiment is performed.

なお、追跡アルゴリズムにはコンデンセーションを用いた。   Condensation was used as the tracking algorithm.

図7は、図6で示した実験で得られた推定値の軌跡を示す図である。   FIG. 7 is a diagram showing a locus of estimated values obtained in the experiment shown in FIG.

図7には、ダイナミクスを xt+2=2xt+1―xt+Bwtと仮定した時の結果も合わせて示す(学習なし)。 FIG. 7 also shows the results when dynamics are assumed to be x t + 2 = 2x t + 1 −x t + Bw t (no learning).

ダイナミクスのオンライン学習を行った場合、学習初期には追跡対象を見失う事もあるが、学習が進むにつれて速度方向が変わる部分においても安定した追跡ができるようになっている。   When online learning of dynamics is performed, the tracking target may be lost in the initial stage of learning, but stable tracking can be performed even in a portion where the speed direction changes as learning progresses.

図8は、学習の進行と推定値の標準偏差σestの関係を示す図である。 FIG. 8 is a diagram illustrating the relationship between the progress of learning and the standard deviation σ est of the estimated value.

学習が進むにつれてσestは小さくなり、確信を持って追跡を行うことができるようになっている。図8では、しきい値をγ=(88)Tとして切り替えアルゴリズム(図中、SWITCH)を適用した時の結果も合わせて示している。学習初期においても追跡対象を見失うことなく安定し、追跡が可能である。 As learning progresses, σ est becomes smaller and tracking can be performed with certainty. FIG. 8 also shows the result when the switching algorithm (SWITCH in the figure) is applied with the threshold value γ = (88) T. Even in the initial stage of learning, the tracking target is stable and can be tracked without losing sight.

また、図9は、この時の学習の進行とコンデンセーションとAPF法の切り替えの様子を示す図である。学習が進むにつれAPF法の選択されるフレーム数が減少し、観測を重視した追跡から事前知識を重視した追跡に変化している。   FIG. 9 is a diagram showing the learning progress, condensation, and switching of the APF method at this time. As the learning progresses, the number of frames selected by the APF method decreases, and the tracking that focuses on observation changes to the tracking that prioritizes prior knowledge.

(遮蔽がある場合の視覚追跡)
次に、赤いボール(画像中で直径約16pixel)を単振動させたものの追跡を行った結果について説明する。なお、この実験では、ボールは遮蔽板(ボード)の後ろを通るため、一時ボールの観測は不可能になる。
(Visual tracking with occlusion)
Next, the results of tracking a red ball (with a diameter of about 16 pixels in the image) that is simply vibrated will be described. In this experiment, since the ball passes behind the shielding plate (board), the temporary ball cannot be observed.

図10は、実験環境を示す図であり、図11は、推定値の軌跡を示す図である。切り替えアルゴリズムのしきい値は事前に同じ画像列にコンデンセーションを適用し、得られた結果によりγ=(55)Tとした。図11中で色が付いている部分は、追跡対象が遮蔽板の後ろに隠れてしまう範囲を示す。 FIG. 10 is a diagram illustrating an experimental environment, and FIG. 11 is a diagram illustrating a locus of estimated values. The threshold value of the switching algorithm was set to γ = (55) T based on the result obtained by applying condensation to the same image sequence in advance. A colored portion in FIG. 11 indicates a range where the tracking target is hidden behind the shielding plate.

コンデンセーションでは遮蔽を超えた後、追跡対象にパーティクルが収束する前に追跡対象が動いてしまい、見失ってしまう場合が多く見られたが、逆にAPF法の場合は遮蔽が越えられず雑音に誤って収束してしまうことが多かった。   In the condensation, the tracking target moved and disappeared before the particles converged on the tracking target after exceeding the shielding. On the contrary, in the case of the APF method, the shielding is not exceeded and noise is generated. In many cases, it converged by mistake.

一方、本発明の切り替えアルゴリズムを用いると、両者の性質をうまく融合させ安定した追跡を行うことができている。   On the other hand, when the switching algorithm of the present invention is used, the properties of both can be well fused and stable tracking can be performed.

表1は、このようなタスクを50回繰り返し、遮蔽板を越えて正確にボールを追跡できた回数を示す。   Table 1 shows the number of times such a task was repeated 50 times and the ball could be accurately tracked across the shield.

Figure 0004382597
Figure 0004382597

以上説明したとおり、再サンプリング法を動的に切り替えることで、実時間、実環境における複雑な状況においても、予測を主としたコンデンセーションのロバスト性と観測を重視したAPF法の収束の速さをうまく融合し、安定した追跡を行うことが可能となる。本発明では二つのアルゴリズムを切り替えることで、計算量の増大を抑えて実時間での処理を十分に可能にしている。また、追跡対象のダイナミクスをオンラインで学習することにより、一定のダイナミクスを仮定するよりもロバストな追跡を行うことができる。   As described above, by dynamically switching the resampling method, the convergence speed of the APF method that focuses on the robustness of observation and observation, even in complex situations in real time and real environments, and the convergence speed It is possible to perform a stable tracking by fusing them well. In the present invention, by switching between the two algorithms, an increase in the amount of calculation is suppressed and processing in real time is sufficiently possible. Also, by learning the dynamics to be tracked online, it is possible to perform more robust tracking than assuming a certain dynamic.

[実施の形態1の変形例]
上述した実施の形態1の図5においては、切替えアルゴリズムにおける判断基準として、「少なくとも1つの空間軸で、推定値の分散が所定値を超えるか否か」(ステップS104)ということと、「すべての空間軸で、推定値の分散が所定値を超えるか否か」(ステップS108)とを用いていた。
[Modification of Embodiment 1]
In FIG. 5 of the first embodiment described above, as a determination criterion in the switching algorithm, “whether or not the variance of the estimated value exceeds a predetermined value on at least one space axis” (step S104) and “all Whether or not the variance of the estimated value exceeds a predetermined value on the space axis (step S108).

しかしながら、切替アルゴリズムとしては、式(10)に示した推定値の分散σestのi成分に代えて、より一般に、推定値の共分散行列を判断基準として用いることができる。 However, as a switching algorithm, instead of the i component of the estimated value variance σ est shown in Equation (10), more generally, an estimated value covariance matrix can be used as a criterion.

すなわち、推定値の共分散行列の(i,j)成分であるσest,i,j(t)を用いて、共分散行列Vest(t)が以下のように表されるものとする。なお、このときも、本発明を視覚追跡に適用する場合は、(i,j)成分において、i,jはそれぞれ座標軸を示す。 That is, the covariance matrix V est (t) is expressed as follows using σ est, i, j (t) that is the (i, j) component of the estimated value covariance matrix. In this case as well, when the present invention is applied to visual tracking, i and j respectively represent coordinate axes in the (i, j) component.

Figure 0004382597
Figure 0004382597

このとき、実施の形態1の変形例としては、以下の規則に従って、再サンプリングアルゴリズムを動的に切替える構成とする。ここで、γi,jは、σest,i,j(t)に対応するしきい値であって、たとえば、事前に実験により定められた所定の定数とする。 At this time, as a modification of the first embodiment, the resampling algorithm is dynamically switched according to the following rules. Here, γ i, j is a threshold value corresponding to σ est, i, j (t), and is, for example, a predetermined constant determined by an experiment in advance.

Figure 0004382597
Figure 0004382597

図12は、実施の形態1の変形例の切替えアルゴリズムを説明するためのフローチャートであり、図5と対比される図である。なお、図12でも、本発明を視覚追跡に適用する場合について説明している。   FIG. 12 is a flowchart for explaining a switching algorithm according to a modification of the first embodiment, and is a diagram to be compared with FIG. FIG. 12 also illustrates the case where the present invention is applied to visual tracking.

図12を参照して、カメラ30により準備された、対象物(対象人物)を含む動画像であって対象となる画像領域内の各画素の値のデジタルデータに基づいて、視覚追跡が開始されると(ステップS100)、システム20は、コンデンセーション法による視覚追跡を実施する(ステップS102)。   Referring to FIG. 12, visual tracking is started based on digital data of a value of each pixel in a target image area which is a moving image including a target object (target person) prepared by camera 30. Then (step S100), the system 20 performs visual tracking by the condensation method (step S102).

続いて、システム20は、Vest(t)の少なくとも1つの成分が対応する所定値γi,jを超えるか否かを判断する(ステップS104´)。いずれの成分も所定値を超えていない場合、処理は、ステップS102に復帰する。 Subsequently, the system 20 determines whether or not at least one component of V est (t) exceeds a corresponding predetermined value γ i, j (step S104 ′). If any component does not exceed the predetermined value, the process returns to step S102.

一方、少なくとも1つの成分が所定値を超える場合、システム20は、APF法による視覚追跡を行う(ステップS106)。   On the other hand, when at least one component exceeds a predetermined value, the system 20 performs visual tracking by the APF method (step S106).

続いて、システム20は、Vest(t)のすべての成分が対応する所定値γi,jを超えるか否かを判断する(ステップS108´)。いずれの成分も対応する所定値γi,j以下である場合、処理は、ステップS102に復帰する。 Subsequently, the system 20 determines whether or not all components of V est (t) exceed the corresponding predetermined value γ i, j (step S108 ′). If any component is equal to or less than the corresponding predetermined value γ i, j , the process returns to step S102.

一方、少なくとも成分が、対応する所定値γi,jを超える場合、システム20は、APF法による視覚追跡を継続する(ステップS106)。 On the other hand, if at least the component exceeds the corresponding predetermined value γ i, j , the system 20 continues visual tracking by the APF method (step S106).

以上のような構成によっても、実施の形態1と同様の効果を奏することができる。   Even with the configuration as described above, the same effects as those of the first embodiment can be obtained.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

本発明の実施の形態にかかるシステムの外観図である。1 is an external view of a system according to an embodiment of the present invention. 本発明の実施の形態にかかるシステムのハードウェア的構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the system concerning embodiment of this invention. コンデンセーション法とAPF法のサンプリング法の違いによるパーティクルの分布の違いを示す図である。It is a figure which shows the difference in particle distribution by the difference in the sampling method of a condensation method and an APF method. パーティクルの分布の違いから生じるターゲットへの収束速度の違いを示す図である。It is a figure which shows the difference in the convergence speed to the target resulting from the difference in particle distribution. 本発明の切替えアルゴリズムを説明するためのフローチャートである。It is a flowchart for demonstrating the switching algorithm of this invention. オンライン学習の実験を行った環境下での画像の例を示す図である。It is a figure which shows the example of the image in the environment where the experiment of online learning was conducted. 図6で示した実験で得られた推定値の軌跡を示す図である。It is a figure which shows the locus | trajectory of the estimated value obtained by the experiment shown in FIG. 学習の進行と推定値の標準偏差σestの関係を示す図である。It is a figure which shows the relationship between progress of learning, and standard deviation (sigma) est of an estimated value. 学習の進行とコンデンセーション法とAPF法の切り替えの様子を示す図である。It is a figure which shows the mode of a change of learning progress, a condensation method, and APF method. 実験環境を示す図である。It is a figure which shows an experimental environment. 推定値の軌跡を示す図である。It is a figure which shows the locus | trajectory of an estimated value. 本発明の切替えアルゴリズムの変形例を説明するためのフローチャートである。It is a flowchart for demonstrating the modification of the switching algorithm of this invention.

符号の説明Explanation of symbols

20 システム(視覚追跡装置)、30 カメラ、40 コンピュータ本体、42 モニタ。   20 system (visual tracking device), 30 camera, 40 computer body, 42 monitor.

Claims (12)

対象物の物理量に関連する特徴量の観測データを準備する手段と、
コンデンセーション法により前記対象物の前記特徴量に関連する量を重みとして前記対象物の物理量を実時間で推定して抽出し追跡する手段と、
前記コンデンセーション法による前記対象物の物理量の推定値の分散が所定値を越えることに応じて、前記コンデンセーション法に代えて、オーグジリアリ パーティクルフィルター法により前記重みを用いて、前記対象物の物理量を実時間で推定して抽出し追跡する手段と、
前記オーグジリアリ パーティクルフィルター法による前記対象物の物理量の推定値の分散が所定値以下となることに応じて、前記コンデンセーション法により前記重みを用いて前記対象物の物理量を抽出し追跡する手段とを備える、推定装置。
Means for preparing observation data of feature quantities related to physical quantities of the object;
Means for estimating and extracting a physical quantity of the object in real time by using a quantity related to the feature quantity of the object as a weight by a condensation method; and
When the variance of the estimated value of the physical quantity of the object by the condensation method exceeds a predetermined value, the physical quantity of the object is calculated by using the weight by the augmented particle filter method instead of the condensation method. Means to estimate, extract and track in real time;
Means for extracting and tracking the physical quantity of the object using the weight according to the condensation method in response to the variance of the estimated value of the physical quantity of the object by the augmented particle filter method being a predetermined value or less. An estimation device.
対象物を含む対象画像領域内の各画素の値のデジタルデータを準備する手段と、
前記対象となる画像領域内において、コンデンセーション法により対象物の特徴量に関連する量を重みとして前記対象物の位置を実時間で推定して抽出し追跡する手段と、
前記コンデンセーション法による前記対象物の位置の推定値の分散が所定値を越えることに応じて、前記対象となる画像領域内において、前記コンデンセーション法に代えて、オーグジリアリ パーティクルフィルター法により前記重みを用いて、前記対象物の位置を実時間で推定して抽出し追跡する手段と、
前記オーグジリアリ パーティクルフィルター法による前記対象物の位置の推定値の分散が所定値以下となることに応じて、前記コンデンセーション法により前記重みを用いて前記対象物の位置を実時間で推定して抽出し追跡する手段とを備える、推定装置。
Means for preparing digital data of the value of each pixel in the target image area including the target;
Means for estimating, extracting, and tracking in real time the position of the object in the image area of interest by estimating the position of the object in real time by using a quantity related to the feature quantity of the object by a condensation method;
When the variance of the estimated value of the position of the object by the condensation method exceeds a predetermined value, the weight is determined by an augmented particle filter method instead of the condensation method in the target image area. Means for estimating and extracting and tracking the position of the object in real time;
When the variance of the estimated value of the position of the object by the augmented particle filter method is equal to or less than a predetermined value, the position of the object is estimated and extracted in real time using the weight by the condensation method. And estimating means.
前記対象物の特徴量は、前記対象物の色である、請求項2記載の推定装置。   The estimation apparatus according to claim 2, wherein the feature amount of the object is a color of the object. 観測装置が、対象物の物理量に関連する特徴量の観測データを取得するステップと、
演算装置が、コンデンセーション法により前記対象物の前記特徴量に関連する量を重みとして前記対象物の物理量を実時間で推定して抽出し追跡するステップと、
前記演算装置が、前記コンデンセーション法による前記対象物の物理量の推定値の分散が所定値を越えることに応じて、前記コンデンセーション法に代えて、オーグジリアリ パーティクルフィルター法により前記重みを用いて、前記対象物の物理量を実時間で推定して抽出し追跡するステップと、
前記演算装置が、前記オーグジリアリ パーティクルフィルター法による前記対象物の物理量の推定値の分散が所定値以下となることに応じて、前記コンデンセーション法により前記重みを用いて前記対象物の物理量を抽出し追跡するステップとを備える、推定方法。
An observation device acquiring observation data of a feature quantity related to a physical quantity of an object;
A computing device that estimates and extracts the physical quantity of the object in real time by using a quantity related to the feature quantity of the object as a weight by a condensation method; and
In accordance with the fact that the variance of the estimated value of the physical quantity of the object by the condensation method exceeds a predetermined value , the arithmetic unit uses the weight by the augmented particle filter method instead of the condensation method, Estimating, extracting and tracking physical quantities of objects in real time;
The arithmetic unit extracts the physical quantity of the object using the weight by the condensation method when the variance of the estimated value of the physical quantity of the object by the augmented particle filter method is a predetermined value or less. And a step of tracking.
撮像装置が、対象物を含む対象画像領域内の各画素の値のデジタルデータを取得するステップと、
演算装置が、前記対象となる画像領域内において、コンデンセーション法により対象物の特徴量に関連する量を重みとして前記対象物の位置を実時間で推定して抽出し追跡するステップと、
前記演算装置が、前記コンデンセーション法による前記対象物の位置の推定値の分散が所定値を越えることに応じて、前記対象となる画像領域内において、前記コンデンセーション法に代えて、オーグジリアリ パーティクルフィルター法により前記重みを用いて、前記対象物の位置を実時間で推定して抽出し追跡するステップと、
前記演算装置が、前記オーグジリアリ パーティクルフィルター法による前記対象物の位置の推定値の分散が所定値以下となることに応じて、前記コンデンセーション法により前記重みを用いて前記対象物の位置を実時間で推定して抽出し追跡するステップとを備える、推定方法。
The imaging device acquiring digital data of the value of each pixel in the target image area including the target; and
A computing device that estimates, extracts and tracks the position of the target object in real time by using a quantity related to the feature quantity of the target object as a weight by a condensation method in the target image region;
In accordance with the fact that the variance of the estimated value of the position of the object by the condensation method exceeds a predetermined value , the arithmetic device replaces the condensation method in the object image area, and replaces the auxiliary particle filter. Using the weights in accordance with a method to estimate and track the position of the object in real time;
In response to the variance of the estimated position of the object by the augmented particle filter method being equal to or less than a predetermined value , the arithmetic unit determines the position of the object in real time using the weight by the condensation method. An estimation method comprising: extracting, tracking, and tracking.
前記対象物の特徴量は、前記対象物の色である、請求項5記載の推定方法。   The estimation method according to claim 5, wherein the feature amount of the object is a color of the object. コンピュータに、対象物に関連する物理量を推定させる方法を実行させるためのプログラムであって、前記プログラムは、
前記対象物の前記物理量に関連する特徴量の観測データを準備するステップと、
コンデンセーション法により前記対象物の特徴量に関連する量を重みとして前記対象物の物理量を実時間で推定して抽出し追跡するステップと、
前記コンデンセーション法による前記対象物の物理量の推定値の分散が所定値を越えることに応じて、前記コンデンセーション法に代えて、オーグジリアリ パーティクルフィルター法により前記重みを用いて、前記対象物の物理量を実時間で推定して抽出し追跡するステップと、
前記オーグジリアリ パーティクルフィルター法による前記対象物の物理量の推定値の分散が所定値以下となることに応じて、前記コンデンセーション法により前記重みを用いて前記対象物の物理量を抽出し追跡するステップとを備える、プログラム。
A program for causing a computer to execute a method for estimating a physical quantity related to an object, the program comprising:
Preparing observation data of feature quantities related to the physical quantity of the object;
Estimating and extracting the physical quantity of the target object in real time by using a quantity related to the feature quantity of the target object as a weight by a condensation method; and
When the variance of the estimated value of the physical quantity of the object by the condensation method exceeds a predetermined value, the physical quantity of the object is calculated by using the weight by the augmented particle filter method instead of the condensation method. Estimating and extracting and tracking in real time;
Extracting and tracking the physical quantity of the object using the weight by the condensation method in response to the variance of the estimated value of the physical quantity of the object by the augmented particle filter method being a predetermined value or less. A program to prepare.
対象物の物理量に関連する特徴量の観測データを準備する手段と、
コンデンセーション法により前記対象物の前記特徴量に関連する量を重みとして前記対象物の物理量を実時間で推定して抽出し追跡する手段と、
前記コンデンセーション法による前記対象物の物理量の推定値の共分散行列の少なくとも1つの成分が対応する所定値を越えることに応じて、前記コンデンセーション法に代えて、オーグジリアリ パーティクルフィルター法により前記重みを用いて、前記対象物の物理量を実時間で推定して抽出し追跡する手段と、
前記オーグジリアリ パーティクルフィルター法による前記対象物の物理量の推定値の共分散行列の少なくとも1つの成分が対応する所定値以下となることに応じて、前記コンデンセーション法により前記重みを用いて前記対象物の物理量を抽出し追跡する手段とを備える、推定装置。
Means for preparing observation data of feature quantities related to physical quantities of the object;
Means for estimating and extracting a physical quantity of the object in real time by using a quantity related to the feature quantity of the object as a weight by a condensation method; and
When at least one component of the covariance matrix of the estimated value of the physical quantity of the object by the condensation method exceeds a corresponding predetermined value, the weight is determined by an augmented particle filter method instead of the condensation method. Means for estimating, extracting and tracking the physical quantity of the object in real time;
When at least one component of the covariance matrix of the estimated physical quantity of the object by the augmented particle filter method is equal to or less than the corresponding predetermined value, the weight of the object is determined by the condensation method. An estimation apparatus comprising: means for extracting and tracking a physical quantity.
対象物を含む対象画像領域内の各画素の値のデジタルデータを準備する手段と、
前記対象となる画像領域内において、コンデンセーション法により対象物の特徴量に関連する量を重みとして前記対象物の位置を実時間で推定して抽出し追跡する手段と、
前記コンデンセーション法による前記対象物の位置の推定値の共分散行列の少なくとも1つの成分が対応する所定値を越えることに応じて、前記対象となる画像領域内において、前記コンデンセーション法に代えて、オーグジリアリ パーティクルフィルター法により前記重みを用いて、前記対象物の位置を実時間で推定して抽出し追跡する手段と、
前記オーグジリアリ パーティクルフィルター法による前記対象物の位置の推定値の共分散行列の少なくとも1つの成分が対応する所定値以下となることに応じて、前記コンデンセーション法により前記重みを用いて前記対象物の位置を実時間で推定して抽出し追跡する手段とを備える、推定装置。
Means for preparing digital data of the value of each pixel in the target image area including the target;
Means for estimating, extracting, and tracking in real time the position of the object in the image area of interest by estimating the position of the object in real time by using a quantity related to the feature quantity of the object by a condensation method;
In response to the fact that at least one component of the covariance matrix of the estimated value of the position of the object by the condensation method exceeds a corresponding predetermined value, in place of the condensation method in the target image area Means for estimating, extracting, and tracking the position of the object in real time using the weights by an augmented particle filter method;
When at least one component of the covariance matrix of the estimated position of the object by the augmented particle filter method is equal to or less than a corresponding predetermined value, the weight of the object is determined by the condensation method. An estimation device comprising means for estimating, extracting, and tracking a position in real time.
観測装置が、対象物の物理量に関連する特徴量の観測データを取得するステップと、
演算装置が、コンデンセーション法により前記対象物の前記特徴量に関連する量を重みとして前記対象物の物理量を実時間で推定して抽出し追跡するステップと、
前記演算装置が、前記コンデンセーション法による前記対象物の物理量の推定値の共分散行列の少なくとも1つの成分が対応する所定値を越えることに応じて、前記コンデンセーション法に代えて、オーグジリアリ パーティクルフィルター法により前記重みを用いて、前記対象物の物理量を実時間で推定して抽出し追跡するステップと、
前記演算装置が、前記オーグジリアリ パーティクルフィルター法による前記対象物の物理量の推定値の共分散行列の少なくとも1つの成分が対応する所定値以下となることに応じて、前記コンデンセーション法により前記重みを用いて前記対象物の物理量を抽出し追跡するステップとを備える、推定方法。
An observation device acquiring observation data of a feature quantity related to a physical quantity of an object;
A computing device that estimates and extracts the physical quantity of the object in real time by using a quantity related to the feature quantity of the object as a weight by a condensation method; and
In response to the fact that at least one component of the covariance matrix of the estimated value of the physical quantity of the object by the condensation method exceeds the corresponding predetermined value, the arithmetic device replaces the condensation method with an auxiliary particle filter Using the weight according to a method to estimate and track the physical quantity of the object in real time;
The computing device uses the weight by the condensation method when at least one component of the covariance matrix of the estimated physical quantity of the object by the augmented particle filter method is equal to or less than a corresponding predetermined value. Extracting and tracking a physical quantity of the object.
撮像装置が、対象物を含む対象画像領域内の各画素の値のデジタルデータを準備するステップと、
演算装置が、前記対象となる画像領域内において、コンデンセーション法により対象物の特徴量に関連する量を重みとして前記対象物の位置を実時間で推定して抽出し追跡するステップと、
前記演算装置が、前記コンデンセーション法による前記対象物の位置の推定値の共分散行列の少なくとも1つの成分が対応する所定値を越えることに応じて、前記対象となる画像領域内において、前記コンデンセーション法に代えて、オーグジリアリ パーティクルフィルター法により前記重みを用いて、前記対象物の位置を実時間で推定して抽出し追跡するステップと、
前記演算装置が、前記オーグジリアリ パーティクルフィルター法による前記対象物の位置の推定値の共分散行列の少なくとも1つの成分が対応する所定値以下となることに応じて、前記コンデンセーション法により前記重みを用いて前記対象物の位置を実時間で推定して抽出し追跡するステップとを備える、推定方法。
The imaging device preparing digital data of the value of each pixel in the target image area including the target;
A computing device that estimates, extracts and tracks the position of the target object in real time by using a quantity related to the feature quantity of the target object as a weight by a condensation method in the target image region;
In response to the fact that at least one component of the covariance matrix of the estimated value of the position of the object by the condensation method exceeds a predetermined value corresponding to the arithmetic unit, In place of the session method, the step of estimating and extracting the position of the target object in real time using the weight by the augmented particle filter method and tracking it;
The computing device uses the weight by the condensation method when at least one component of the covariance matrix of the estimated value of the position of the object by the augmented particle filter method is equal to or less than a corresponding predetermined value. And estimating and extracting and tracking the position of the object in real time.
コンピュータに、対象物に関連する物理量を推定させる方法を実行させるためのプログラムであって、前記プログラムは、
前記対象物の前記物理量に関連する特徴量の観測データを準備するステップと、
コンデンセーション法により前記対象物の特徴量に関連する量を重みとして前記対象物の物理量を実時間で推定して抽出し追跡するステップと、
前記コンデンセーション法による前記対象物の物理量の推定値の共分散行列の少なくとも1つの成分が対応する所定値を越えることに応じて、前記コンデンセーション法に代えて、オーグジリアリ パーティクルフィルター法により前記重みを用いて、前記対象物の物理量を実時間で推定して抽出し追跡するステップと、
前記オーグジリアリ パーティクルフィルター法による前記対象物の物理量の推定値の共分散行列の少なくとも1つの成分が対応する所定値以下となることに応じて、前記コンデンセーション法により前記重みを用いて前記対象物の物理量を抽出し追跡するステップとを備える、プログラム。
A program for causing a computer to execute a method for estimating a physical quantity related to an object, the program comprising:
Preparing observation data of feature quantities related to the physical quantity of the object;
Estimating and extracting the physical quantity of the target object in real time by using a quantity related to the feature quantity of the target object as a weight by a condensation method; and
When at least one component of the covariance matrix of the estimated value of the physical quantity of the object by the condensation method exceeds a corresponding predetermined value, the weight is determined by an augmented particle filter method instead of the condensation method. Using, extracting and tracking the physical quantity of the object in real time;
When at least one component of the covariance matrix of the estimated physical quantity of the object by the augmented particle filter method is equal to or less than the corresponding predetermined value, the weight of the object is determined by the condensation method. A program comprising: extracting and tracking a physical quantity.
JP2004203724A 2003-07-10 2004-07-09 Estimation apparatus, estimation method, and estimation program Expired - Lifetime JP4382597B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004203724A JP4382597B2 (en) 2003-07-10 2004-07-09 Estimation apparatus, estimation method, and estimation program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003195068 2003-07-10
JP2004203724A JP4382597B2 (en) 2003-07-10 2004-07-09 Estimation apparatus, estimation method, and estimation program

Publications (2)

Publication Number Publication Date
JP2005044352A JP2005044352A (en) 2005-02-17
JP4382597B2 true JP4382597B2 (en) 2009-12-16

Family

ID=34277255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004203724A Expired - Lifetime JP4382597B2 (en) 2003-07-10 2004-07-09 Estimation apparatus, estimation method, and estimation program

Country Status (1)

Country Link
JP (1) JP4382597B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108027974A (en) * 2015-09-25 2018-05-11 株式会社日立信息通信工程 Image processing apparatus and image processing method

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4673241B2 (en) * 2006-03-20 2011-04-20 日本電信電話株式会社 Moving object tracking device, moving object tracking method, and recording medium storing program realizing the method
JP4928193B2 (en) * 2006-08-16 2012-05-09 日本放送協会 Face image recognition apparatus and face image recognition program
JP2008134939A (en) * 2006-11-29 2008-06-12 Nippon Telegr & Teleph Corp <Ntt> Moving object tracking apparatus, moving object tracking method, moving object tracking program with the method described therein, and recording medium with the program stored therein
JP5044527B2 (en) * 2008-11-12 2012-10-10 日本電信電話株式会社 Time series parameter estimation device, time series parameter estimation method, time series parameter estimation program
JP5044528B2 (en) * 2008-11-12 2012-10-10 日本電信電話株式会社 Time series parameter estimation device, time series parameter estimation method, time series parameter estimation program
JP2011040993A (en) 2009-08-11 2011-02-24 Nikon Corp Subject homing program and camera
EP2345998B1 (en) * 2009-12-01 2019-11-20 Honda Research Institute Europe GmbH Multi-object tracking with a knowledge-based, autonomous adaptation of the tracking modeling level
JP5791555B2 (en) * 2012-03-23 2015-10-07 日本電信電話株式会社 Status tracking apparatus, method, and program
EP3324360A4 (en) 2016-09-13 2019-05-08 Hitachi Information & Telecommunication Engineering, Ltd. State prediction device and state prediction method
WO2018220673A1 (en) 2017-05-29 2018-12-06 株式会社日立情報通信エンジニアリング State prediction control device and state prediction control method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108027974A (en) * 2015-09-25 2018-05-11 株式会社日立信息通信工程 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2005044352A (en) 2005-02-17

Similar Documents

Publication Publication Date Title
Gao et al. Object tracking using firefly algorithm
Li et al. Unscented Kalman filter for visual curve tracking
Maggio et al. Hybrid particle filter and mean shift tracker with adaptive transition model
Lim et al. A feature covariance matrix with serial particle filter for isolated sign language recognition
EP2320379B1 (en) Image processing device, object tracking device, and image processing method
JP4382597B2 (en) Estimation apparatus, estimation method, and estimation program
US20130335635A1 (en) Video Analysis Based on Sparse Registration and Multiple Domain Tracking
CN102142085B (en) Robust tracking method for moving flame target in forest region monitoring video
WO2008007471A1 (en) Walker tracking method and walker tracking device
Mikami et al. Memory-based particle filter for face pose tracking robust under complex dynamics
Hoey et al. Tracking using Flocks of Features, with Application to Assisted Handwashing.
Yoon et al. Object tracking from image sequences using adaptive models in fuzzy particle filter
KR102186875B1 (en) Motion tracking system and method
Czyz et al. A color-based particle filter for joint detection and tracking of multiple objects
CN106780539A (en) Robot vision tracking
Karami et al. Online adaptive motion model-based target tracking using local search algorithm
Lanz et al. Hybrid joint-separable multibody tracking
JP4750758B2 (en) Attention area extraction method, attention area extraction device, computer program, and recording medium
Zhang et al. An improved particle filter for tracking color object
Liu et al. 2D articulated pose tracking using particle filter with partitioned sampling and model constraints
Menezes et al. A single camera motion capture system dedicated to gestures imitation
KR20090075536A (en) Robust head tracking method using ellipsoidal model in particle filters
Ma et al. Efficient visual tracking using particle filter
Wang et al. Experience based sampling technique for multimedia analysis
Pantrigo et al. Scatter search particle filter for 2d real-time hands and face tracking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090602

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090825

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090917

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150