JP2012221164A - Motion vector detection device, motion vector detection method and motion vector detection program - Google Patents
Motion vector detection device, motion vector detection method and motion vector detection program Download PDFInfo
- Publication number
- JP2012221164A JP2012221164A JP2011085541A JP2011085541A JP2012221164A JP 2012221164 A JP2012221164 A JP 2012221164A JP 2011085541 A JP2011085541 A JP 2011085541A JP 2011085541 A JP2011085541 A JP 2011085541A JP 2012221164 A JP2012221164 A JP 2012221164A
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- vector
- motion
- detection
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、実空間を移動する物体を含むシーンを撮像するカメラによって入力された少なくとも2枚以上のフレーム画像から、動きベクトルを検出し、当該動きベクトルから移動物体上の動きベクトルを検出する動きベクトル検出装置、動きベクトル検出方法及び動きベクトル検出プログラムに関する。 The present invention detects a motion vector from at least two frame images input by a camera that captures a scene including an object moving in real space, and detects a motion vector on the moving object from the motion vector. The present invention relates to a vector detection device, a motion vector detection method, and a motion vector detection program.
実空間を移動する物体を含むシーンを撮像するカメラによって入力された少なくとも2枚以上のフレーム画像から、動きベクトルを検出し、検出した動きベクトルから移動物体上の動きベクトルを検出する移動物体動きベクトル検出装置では、検出した動きベクトルを用いて、例えば歩行者や車の逆向を検出することなどを可能にしている。 A moving object motion vector that detects a motion vector from at least two frame images input by a camera that captures a scene including an object moving in real space, and detects a motion vector on the moving object from the detected motion vector The detection device can detect, for example, the reverse direction of a pedestrian or a car using the detected motion vector.
従来の移動物体上動きベクトル検出装置としては、1枚以上のフレーム画像から、テンプレートマッチングや時空間微分法を用いて動きベクトルを算出し、算出した動きベクトルの類似性によりクラスタリングすることで移動物体を検出する方法が知られている(例えば、非特許文献1参照)。 As a conventional moving object motion vector detecting device, a moving object is calculated from one or more frame images using template matching or spatiotemporal differentiation, and clustered according to the similarity of the calculated motion vectors. There is known a method of detecting (see, for example, Non-Patent Document 1).
しかしながら、従来の方法では、テンプレートマッチングや時空間微分法によって算出する動きベクトルが正しいものとして移動物体を検出するため、検出した動きベクトルに、撮像対象である実空間中に繰返しテクスチャを有す、或いはテクスチャ情報が少ない物体が存在することや、物体が他の物体によって隠蔽されるオクルージョン、撮像画像上でのエッジ部分によって生じる開口問題等に起因する誤検出ベクトルが含まれる場合、正しく移動物体を検出できないという問題がある。 However, in the conventional method, in order to detect a moving object on the assumption that the motion vector calculated by template matching or spatiotemporal differentiation is correct, the detected motion vector has a repetitive texture in the real space to be imaged. Or if there is an object with little texture information, occlusion where the object is occluded by another object, or a false detection vector due to an opening problem caused by an edge part on the captured image, etc. There is a problem that it cannot be detected.
本発明は、このような事情に鑑みてなされたもので、移動物体上動きベクトル検出する際に、算出した動きベクトルに誤検出ベクトルが含まれる場合においても正確に移動物体上の動きベクトルを検出することができる動きベクトル検出装置、動きベクトル検出方法及び動きベクトル検出プログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and when detecting a motion vector on a moving object, the motion vector on the moving object is accurately detected even if the calculated motion vector includes a false detection vector. An object of the present invention is to provide a motion vector detection device, a motion vector detection method, and a motion vector detection program.
本発明は、少なくとも2枚のフレーム画像を入力し、入力した2枚の前記フレーム画像から特徴点の動きベクトルを算出し、算出した前記動きベクトルと、最新時刻のフレーム画像とを出力する動きベクトル検出手段と、前記最新時刻フレーム画像と、前記動きベクトルから誤検出ベクトルと推測される動きベクトルをテンプレートマッチングを用いて検出し、入力された動きベクトルから、検出した誤検出ベクトルを除いた動きベクトルを出力する誤検出ベクトル除去手段と、前記誤検出ベクトルを除いた動きベクトルについて、画像上での角度パラメータを算出し、算出した角度パラメータを各動きベクトルに唯一付与された動きベクトルIDを関連付けた特徴量リストを作成し、作成した特徴量リストを出力する特徴量算出手段と、前記特徴量リスト中の前記動きベクトルをクラスタリングすることにより、前記動きベクトルを決定して出力する動きベクトルクラスタリング手段とを備えたことを特徴とする。 The present invention inputs at least two frame images, calculates a motion vector of a feature point from the two input frame images, and outputs the calculated motion vector and the latest frame image A motion vector obtained by detecting, using template matching, a motion vector that is estimated as a false detection vector from the detection means, the latest time frame image, and the motion vector, and excluding the detected false detection vector from the input motion vector And an angle parameter on the image for the motion vector excluding the false detection vector, and the calculated angle parameter is associated with a motion vector ID uniquely assigned to each motion vector. A feature quantity calculating means for creating a feature quantity list and outputting the created feature quantity list; By clustering the motion vector in the feature list, characterized by comprising a motion vector clustering means determines and outputs the motion vector.
本発明は、少なくとも2枚のフレーム画像を入力し、入力した2枚の前記フレーム画像から特徴点の動きベクトルを算出し、算出した前記動きベクトルと、最新時刻のフレーム画像とを出力する動きベクトル検出ステップと、前記最新時刻フレーム画像と、前記動きベクトルから誤検出ベクトルと推測される動きベクトルをテンプレートマッチングを用いて検出し、入力された動きベクトルから、検出した誤検出ベクトルを除いた動きベクトルを出力する誤検出ベクトル除去ステップと、前記誤検出ベクトルを除いた動きベクトルについて、画像上での角度パラメータを算出し、算出した角度パラメータを各動きベクトルに唯一付与された動きベクトルIDを関連付けた特徴量リストを作成し、作成した特徴量リストを出力する特徴量算出ステップと、前記特徴量リスト中の前記動きベクトルをクラスタリングすることにより、前記動きベクトルを決定して出力する動きベクトルクラスタリングステップとを有することを特徴とする。 The present invention inputs at least two frame images, calculates a motion vector of a feature point from the two input frame images, and outputs the calculated motion vector and the latest frame image A motion vector obtained by detecting a motion vector presumed to be a false detection vector from the latest time frame image and the motion vector using template matching, and removing the detected false detection vector from the input motion vector; And a step of removing the false detection vector, calculating an angle parameter on the image for the motion vector excluding the false detection vector, and associating the calculated angle parameter with a motion vector ID uniquely assigned to each motion vector Create a feature list and output the created feature list. And-up, by clustering the motion vector in the feature list, and having a motion vector clustering step determines and outputs the motion vector.
本発明は、動きベクトル検出装置上のコンピュータに動きベクトルを検出させる動きベクトル検出プログラムであって、少なくとも2枚のフレーム画像を入力し、入力した2枚の前記フレーム画像から特徴点の動きベクトルを算出し、算出した前記動きベクトルと、最新時刻のフレーム画像とを出力する動きベクトル検出ステップと、前記最新時刻フレーム画像と、前記動きベクトルから誤検出ベクトルと推測される動きベクトルをテンプレートマッチングを用いて検出し、入力された動きベクトルから、検出した誤検出ベクトルを除いた動きベクトルを出力する誤検出ベクトル除去ステップと、前記誤検出ベクトルを除いた動きベクトルについて、画像上での角度パラメータを算出し、算出した角度パラメータを各動きベクトルに唯一付与された動きベクトルIDを関連付けた特徴量リストを作成し、作成した特徴量リストを出力する特徴量算出ステップと、前記特徴量リスト中の前記動きベクトルをクラスタリングすることにより、前記動きベクトルを決定して出力する動きベクトルクラスタリングステップとを前記コンピュータに行わせることを特徴とする。 The present invention is a motion vector detection program for causing a computer on a motion vector detection device to detect a motion vector, which inputs at least two frame images and obtains a motion vector of a feature point from the two input frame images. A motion vector detection step for calculating and outputting the calculated motion vector and the latest time frame image; and using the template matching of the latest time frame image and a motion vector estimated as a false detection vector from the motion vector A false detection vector removing step for outputting a motion vector obtained by removing the detected false detection vector from the input motion vector, and calculating an angle parameter on the image for the motion vector excluding the false detection vector The calculated angle parameter is uniquely assigned to each motion vector. Generating a feature quantity list in which the motion vector IDs are associated with each other, and a feature quantity calculating step for outputting the created feature quantity list; and clustering the motion vectors in the feature quantity list to determine the motion vector. And causing the computer to perform a motion vector clustering step to be output.
本発明によれば、動きベクトルを算出後、算出した動きベクトルから誤検出ベクトルを検出・除去し、残存する誤検出ベクトルと移動物体上の動きベクトルをガウス混合分布と見なして分離するため、正確に移動物体上の動きベクトルを検出することができるという効果が得られる。 According to the present invention, after calculating the motion vector, the false detection vector is detected and removed from the calculated motion vector, and the remaining false detection vector and the motion vector on the moving object are separated as a Gaussian mixture distribution. In addition, it is possible to detect the motion vector on the moving object.
以下、図面を参照して、本発明の一実施形態による動きベクトル検出装置を説明する。図1は同実施形態の構成を示すブロック図である。この図において、符号1は、コンピュータ装置で構成する動きベクトル検出装置であり、2枚のフレーム画像を入力し、移動物体上の動きベクトルを出力する。符号2は、動きベクトル検出装置1の各処理に用いるデータを記憶する記憶部である。ここでいう「移動物体」とは、人や物などの任意の移動する被写体を含む。
Hereinafter, a motion vector detection apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the embodiment. In this figure,
動きベクトル検出装置1は、動きベクトル検出部11と、誤検出ベクトル除去部12と、特徴量算出部13と、動きベクトルクラスタリング部14とを備える。動きベクトル検出部11は、少なくとも2枚以上のフレーム画像F(t−1),F(t)を入力し、最新時刻のフレーム画像から画像上の角や交点となる特徴点を抽出し、特徴点に対する動きベクトルを少なくとも2枚以上のフレーム画像からテンプレートマッチングや時空間微分法を用いて算出し、算出した動きベクトルと最新時刻tのフレーム画像とを出力する。
The motion
誤検出ベクトル除去部12は、最新時刻のフレーム画像F(t)と動きベクトルを入力し、動きベクトルから誤検出ベクトルと推測される動きベクトルをテンプレートマッチングを用いることで検出し、入力された動きベクトルから検出した誤検出ベクトルを除いた動きベクトルを出力する。
The false detection
特徴量算出部13は、誤検出ベクトル除去部12から出力される動きベクトルを入力し、全ての動きベクトルに亘って画像上での角度パラメータを算出し、算出した角度パラメータを各動きベクトルに唯一付与された動きベクトルIDを関連付けた特徴量リストを作成し、作成した特徴量リストを出力する。
The feature
動きベクトルクラスタリング部14は、特徴量算出部13から出力される特徴量リストを入力し、入力した特徴量リストをEMアルゴリズムを用いてクラスタリングし、出力される複数のクラスタに関連付けられて出力されるガウス分布パラメータに対する閾値処理によって、移動物体上動きベクトルを決定し出力する。
The motion
次に、図面を参照して、図1に示す動きベクトル検出装置1の処理動作を説明する。始めに、図5、図6を参照して、図1に示す動きベクトル検出部11の処理動作を説明する。図5、図6は、動きベクトル検出装置1に入力されるフレーム画像の例である。図6は現在時刻の実空間をカメラで撮像したフレーム画像F(t)であり、図5は現在時刻から1時刻前に同じ実空間を撮像したフレーム画像F(t−1)を示している。動きベクトル検出部11は、最新時刻のフレーム画像F(t)から画像上の角や交点となる特徴点を抽出し、抽出した特徴点に対する動きベクトルをフレーム画像F(t)とフレーム画像F(t−1)を用いて算出する。ここで動きベクトルの算出処理は、例えばフレーム画像F(t−1)に対するテンプレートマッチング処理により行う。すなわち、フレーム画像F(t)で抽出済みの特徴点近傍の画像データ、例えば特徴点の8近傍内の画像データと、フレーム画像F(t−1)の画像データを比較することで、フレーム画像F(t−1)においてフレーム画像F(t)上の処理対象の特徴点に対応する点の画像座標を決定する。決定した画像座標とフレーム画像F(t)上の処理対象の特徴点の画像座標を動きベクトルとして決定する。この処理をフレーム画像F(t)で抽出した全ての特徴点に亘って行い、動きベクトルとフレーム画像F(t)とを出力する。この処理によって、図7に示す動きベクトルが算出されたものとして以下の説明を行う。
Next, processing operations of the motion
次に、図2を参照して、図1に示す誤検出ベクトル除去部12の処理動作を説明する。誤検出ベクトル除去部12は、対象とする動きベクトルの終点が、自点近傍を除いた自点付近に、自点に酷似するパターンを有す点が存在すれば、繰返しテクスチャの存在やテクスチャ情報が少ないことに起因する誤検出である可能性が高いため、後段での処理対象から除く処理を行う。まず、誤検出ベクトル除去部12は、動きベクトル検出部11から出力するフレーム画像F(t)と動きベクトルを入力する(ステップS1)。そして、誤検出ベクトル除去部12は、全ての動きベクトルについて処理済みであるか否かを判定し(ステップS2)、処理済みでなれば、入力された動きベクトルから1つの動きベクトルを選択し、選択した動きベクトルの終点を処理対象点とする。
Next, the processing operation of the false detection
次に、誤検出ベクトル除去部12は、処理対象点近傍に所定サイズの探索ウィンドウを設定し、設定した探索ウィンドウ内の画像データをテンプレートとして記憶部に記憶する(ステップS3)。続いて、誤検出ベクトル除去部12は、処理対象点近傍にテンプレートマッチング処理におけるテンプレートの走査範囲を示す探索領域を設定する(ステップS4)。この探索領域のサイズは予め決められているものとし、設定した探索ウィンドウのサイズより大きい。
Next, the false detection
次に、誤検出ベクトル除去部12は、処理対象点近傍にテンプレートマッチング処理を施さない範囲を示すマスク領域を設定する(ステップS5)。マスク領域のサイズは予め決められているものとし、そのサイズは0より大きく探索領域より小さいサイズである。続いて、誤検出ベクトル除去部12は、マスク領域を除く探索領域内の画像データに対するテンプレートマッチング処理を行うことで、この探索領域内から処理対象点に類似する点を決定する(ステップS6)。この類似点の決定処理はテンプレートマッチングで算出される各点の類似度のうち、最も類似度が高い点を選択することで実現できる。この類似度の値として、例えば探索ウィンドウ内と当該ウィンドウと同じサイズを有す探索領域内の処理対象点を包含するウィンドウ内の画素値の差の2乗和(SSD:Sum of Squared Differences)を用いることができる。また、SSDに限らず、正規化相関値や画素値の差の絶対値和(SAD:Sum of Absolute Differences)など画像中から対応点を絞り込むために利用されるものであれば何でも良い。例えば、類似度の値としてSSD値を用いる場合には、各点のSSD値のうち最も小さい点を選択することで、類似する点を決定することができる。
Next, the false detection
次に、誤検出ベクトル除去部12は、決定した類似度が所定の閾値を超えるか否かを判定し(ステップS7)、決定された処理対象点に類似する点の類似度が所定の閾値を超える場合は、選択した動きベクトルを、入力された動きベクトルのリストから除去する(ステップS8)。例えば類似度の値としてSSD値を用いた場合には、類似度が所定の閾値を下回る場合、つまり処理対象点に類似している場合に、選択した動きベクトルを、入力された動きベクトルのリストから除去する。誤検出ベクトル除去部12は、この処理を入力された動きベクトル全てに亘って行った後に、動きベクトルを出力し(ステップS9)処理を終了する。
Next, the false detection
このように、実空間中に繰返しテクスチャを有す、或いはテクスチャ情報が少ない物体が存在することや、撮像画像上でのエッジ部分によって生じる開口問題等に起因した誤検出ベクトルと推測される動きベクトルをテンプレートマッチングを用いて検出することにより、誤検出の動きベクトルを除去することが可能となる。 In this way, a motion vector that is presumed to be a false detection vector due to the presence of an object having repetitive texture in the real space or having little texture information, or an opening problem caused by an edge portion on the captured image. By using the template matching, it is possible to remove the erroneously detected motion vector.
次に、図3を参照して、図1に示す特徴量算出部13の処理動作を説明する。まず、特徴量算出部13は、誤検出ベクトル除去部12から出力される動きベクトルを入力する(ステップS11)。そして、特徴量算出部13は、全ての動きベクトルについて処理済みであるか否かを判定する(ステップS12)。この判定の結果、処理済みでなければ、特徴量算出部13は、動くベクトルの画像上での角度パラメータを算出し(ステップS13)、算出した角度パラメータを各動きベクトルに唯一付与された動きベクトルIDを関連付けた特徴量リスト情報を作成し、記憶部2に記憶する(ステップS14)。そして、特徴量算出部13は、全ての動きベクトルについて同様の処理を行った後、記憶部2に記憶されている特徴量リストを出力し(ステップS15)、処理を終了する。
Next, the processing operation of the feature
特徴量算出部13が行う処理を図9、図10を用いて詳細に説明する。まず、特徴量算出部13は、入力された動きベクトルから1つの動きベクトルを処理対象ベクトルとして選択する。ここで、処理対象ベクトルの始点座標が(Xs,Ys)、終点座標が(Xe,Ye)であったものとして説明する。始めに処理対象ベクトルの角度αを(1)式により算出する。
α=tan−1((Ys−Ye)/(Xs−Xe)) ・・・(1)
The processing performed by the feature
α = tan −1 ((Ys−Ye) / (Xs−Xe)) (1)
(1)式で算出される角度は単位がラジアンとなるが、単位を角度に変換しても良い。また角度は図9に示す画像のi軸を基準とする座標系を用いて記述するものとする。続いて、算出した角度を処理対象ベクトルの動きベクトルIDに関連付けて記憶する。ここで動きベクトルIDとは、各動きベクトルに唯一付与されたIDのことである。この処理を入力された動きベクトル全てに亘って行った後に、動きベクトルIDに関連付けて記録された角度を特徴量リスト(図10参照)として出力し処理を終える。 The unit of the angle calculated by equation (1) is radians, but the unit may be converted into an angle. The angle is described using a coordinate system based on the i-axis of the image shown in FIG. Subsequently, the calculated angle is stored in association with the motion vector ID of the processing target vector. Here, the motion vector ID is an ID uniquely assigned to each motion vector. After performing this process for all the input motion vectors, the angle recorded in association with the motion vector ID is output as a feature quantity list (see FIG. 10), and the process is terminated.
なお、前述した説明では処理対象ベクトルの角度を(1)式により算出するα1つのみを用いる例について説明したが、(1)式で算出したαから(2)式、(3)式によりそれぞれ算出されるα1、α2の2つを用いても良い。
α1=sinα ・・・(2)
α2=cosα ・・・(3)
In the above description, an example in which only one α that calculates the angle of the processing target vector using Equation (1) is used, but from α calculated using Equation (1), Equation (2) and Equation (3) respectively. Two calculated α 1 and α 2 may be used.
α 1 = sin α (2)
α 2 = cos α (3)
次に、図4を参照して、図1に示す動きベクトルクラスタリング部14の処理動作を説明する。動きベクトルクラスタリング部14は、特徴量算出部13から出力する特徴量リストを入力する(ステップS21)。この特徴量リストで表現される動きベクトルには、移動物体上の動きベクトルに加えて、物体が他の物体によって隠蔽されるオクルージョンや、他の原因によって生じる誤って検出された動きベクトルも含まれる。図11に特徴量リストで表現される動きベクトルの角度のヒストグラム分布を示す。ここでは、動きベクトルの角度のヒストグラム分布を複数のガウス分布の合成であるガウス混合分布でモデル化表現し、各ピークのパラメータをEMアルゴリズム(Expectation-maximization algorithm)などの公知の処理を行って決定することで、移動物体上の動きベクトル、オクルージョンに起因する誤った動きベクトル、他の原因に起因する誤った動きベクトルのそれぞれにクラスタリングする(ステップS22)。
Next, the processing operation of the motion
EMアルゴリズムは公知のアルゴリズムであるためここで詳細な説明を省略するが、確率モデル(本実施の形態では正規分布曲線)のパラメータを反復法により数値解析的に最尤推定するアルゴリズムであり、特に確率モデルが観測できない隠れたパラメータに依存する場合に用いられる。EMアルゴリズムは他の推定手法と比べて良い解に収束し易く、また実装が簡単になることが多く処理速度も基本的に高速であるため有効である。図12では、図11の角度分布に対してEMアルゴリズムを適用して正規分布曲線を推定した場合の例を示している。 Since the EM algorithm is a known algorithm, a detailed description thereof is omitted here. However, the EM algorithm is an algorithm that estimates a parameter of a probability model (normal distribution curve in the present embodiment) in a numerical analysis by an iterative method. Used when the probabilistic model depends on hidden parameters that cannot be observed. The EM algorithm is effective because it easily converges to a good solution compared to other estimation methods, is often simple to implement, and the processing speed is basically high. FIG. 12 shows an example in which a normal distribution curve is estimated by applying the EM algorithm to the angular distribution of FIG.
なお、本実施の形態では正規分布曲線を推定する際にEMアルゴリズムを用いているが、他のアルゴリズムを用いることも当然可能である。特徴量リストを入力としEMアルゴリズムを実行することで、クラスタリングされ、動きベクトルIDに関連付けられてクラスタ番号が付与される。加えて、各クラスタに関連付けられてガウス分布パラメータがクラスタ数分出力される。ここでガウス分布パラメータには、少なくともガウス分布の中心位置を示す平均値、ガウス分布の広がりを示す分散値が含まれ、併せて当該ガウス分布の混合分布に対する重みを示す重み値が含まれるとより良い。 In this embodiment, the EM algorithm is used when estimating the normal distribution curve, but other algorithms can naturally be used. Clustering is performed by executing the EM algorithm using the feature list as an input, and a cluster number is assigned in association with the motion vector ID. In addition, Gaussian distribution parameters are output for the number of clusters associated with each cluster. Here, the Gaussian distribution parameter includes at least an average value indicating the center position of the Gaussian distribution, a variance value indicating the spread of the Gaussian distribution, and a weight value indicating a weight for the mixed distribution of the Gaussian distribution. good.
次に、動きベクトルクラスタリング部14は、EMアルゴリズムに因って出力された複数クラスタに関連付けられて出力されたガウス分布パラメータに対する閾値処理(ステップS23)によって、移動物体上動きベクトルを決定し出力する。この閾値処理は、例えば、ガウス分布パラメータの分散値に対して所定の値と比較することで実現できる。また、混合分布の重み値に対して所定の値と比較することによっても実現できる。
Next, the motion
次に、動きベクトルクラスタリング部14は、移動物体上動きベクトルとして決定されたクラスタ番号に属する特徴量リストの動きベクトルIDを移動物体上動きベクトルとして出力し(ステップS24)、処理を終了する。この出力としては、特徴量算出部13の特徴量リストを生成する時点で動きベクトルIDに関連付けて動きベクトルの始点、終点も動きベクトルの角度と併せて記録しておき、動きベクトルクラスタリング部14にて移動物体上動きベクトルとして決定された動きベクトルIDに関連付けられた動きベクトルの始点、終点を出力しても良い。以上の処理の結果、図13に示す移動物体上のベクトルが検出されることとなる。
Next, the motion
以上、本発明を実施形態例に基づき具体的に説明したが、上記実施の形態の説明は、本発明を説明するためのものであって、特許請求の範囲に記載の発明を限定し、或は範囲を減縮する様に解すべきではない。また、本発明の各手段構成は上記実施の形態に限らず、特許請求の範囲に記載の技術的範囲内で種々の変形が可能であることは勿論である。 Although the present invention has been specifically described above based on the embodiments, the description of the above embodiments is for explaining the present invention, and limits the invention described in the claims. Should not be construed as reducing the range. Moreover, each means structure of this invention is not restricted to the said embodiment, Of course, a various deformation | transformation is possible within the technical scope as described in a claim.
以上説明したように、動きベクトル群の角度分布がガウス混合分布に従わないエラーベクトルを除去することで、残りの動きベクトル群をガウス混合分布で近似できる状態にし、そのうえで動きベクトルクラスタリングにてEMアルゴリズムによって動きベクトル群をクラスタリングすることで、動きベクトル群のうち移動物体によって引き起こされた動きベクトルを特定することが可能になる。 As described above, the error vector whose motion vector group angular distribution does not follow the Gaussian mixture distribution is removed, so that the remaining motion vector group can be approximated by the Gaussian mixture distribution, and then the EM algorithm is performed by motion vector clustering. By clustering the motion vector group by the above, it becomes possible to specify the motion vector caused by the moving object from the motion vector group.
また、特徴量算出部13では、EMアルゴリズムの入力として、動きベクトルの角度が不連続関数として扱われる(0°と360°が本来同じなのに異なると扱われる)ことを回避するため、(2)式、(3)式を導入することにより、クラスタリング精度が落ちることを回避することができる。 Further, in order to avoid that the angle of the motion vector is treated as a discontinuous function as an input of the EM algorithm (0) and 360 ° are treated as being different from each other in the feature quantity calculation unit 13 (2) By introducing the equation (3), it is possible to avoid a decrease in clustering accuracy.
また、フレーム画像F(t)を対象にテンプレートマッチング処理を施すことで、他画像との比較時に必要な照明変動の考慮が不要な簡易なテンプレートマッチング処理(例えば探索ウィンドウと探索領域内の対象ウィンドウとの画素値の差の絶対値の総和)の適用が可能になる。 Also, by applying the template matching process to the frame image F (t) as a target, a simple template matching process (for example, a search window and a target window in the search area) that does not require consideration of illumination fluctuations required for comparison with other images. The sum of the absolute values of the pixel value differences between the first and second pixels) can be applied.
なお、図1における処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより動きベクトル検出処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。 A motion vector detection process is performed by recording a program for realizing the function of the processing unit in FIG. 1 on a computer-readable recording medium, causing the computer system to read and execute the program recorded on the recording medium. May be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer system” includes a WWW system having a homepage providing environment (or display environment). The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.
実空間を移動する物体を含むシーンを撮像するカメラによって入力された少なくとも2枚以上のフレーム画像から、動きベクトルを検出し、当該動きベクトルから移動物体上の動きベクトルを検出することが不可欠な用途に適用できる。 Applications where it is essential to detect a motion vector from at least two frame images input by a camera that captures a scene including an object moving in real space, and to detect a motion vector on the moving object from the motion vector Applicable to.
1・・・動きベクトル検出装置、11・・・動きベクトル検出部、12・・・誤検出ベクトル除去部、13・・・特徴量算出部、14・・・動きベクトルクラスタリング部、2・・・記憶部
DESCRIPTION OF
Claims (3)
前記最新時刻フレーム画像と、前記動きベクトルから誤検出ベクトルと推測される動きベクトルをテンプレートマッチングを用いて検出し、入力された動きベクトルから、検出した誤検出ベクトルを除いた動きベクトルを出力する誤検出ベクトル除去手段と、
前記誤検出ベクトルを除いた動きベクトルについて、画像上での角度パラメータを算出し、算出した角度パラメータを各動きベクトルに唯一付与された動きベクトルIDを関連付けた特徴量リストを作成し、作成した特徴量リストを出力する特徴量算出手段と、
前記特徴量リスト中の前記動きベクトルをクラスタリングすることにより、前記動きベクトルを決定して出力する動きベクトルクラスタリング手段と
を備えたことを特徴とする動きベクトル検出装置。 Motion vector detection means for inputting at least two frame images, calculating a motion vector of a feature point from the two input frame images, and outputting the calculated motion vector and the latest frame image;
A motion vector that is estimated to be a false detection vector from the latest time frame image and the motion vector is detected using template matching, and an error that outputs a motion vector obtained by removing the detected false detection vector from the input motion vector is output. Detection vector removing means;
For the motion vector excluding the false detection vector, an angle parameter on the image is calculated, a feature amount list in which the calculated angle parameter is associated with a motion vector ID uniquely assigned to each motion vector is created, and the created feature A feature quantity calculating means for outputting a quantity list;
And a motion vector clustering means for determining and outputting the motion vector by clustering the motion vectors in the feature quantity list.
前記最新時刻フレーム画像と、前記動きベクトルから誤検出ベクトルと推測される動きベクトルをテンプレートマッチングを用いて検出し、入力された動きベクトルから、検出した誤検出ベクトルを除いた動きベクトルを出力する誤検出ベクトル除去ステップと、
前記誤検出ベクトルを除いた動きベクトルについて、画像上での角度パラメータを算出し、算出した角度パラメータを各動きベクトルに唯一付与された動きベクトルIDを関連付けた特徴量リストを作成し、作成した特徴量リストを出力する特徴量算出ステップと、
前記特徴量リスト中の前記動きベクトルをクラスタリングすることにより、前記動きベクトルを決定して出力する動きベクトルクラスタリングステップと
を有することを特徴とする動きベクトル検出方法。 A motion vector detection step of inputting at least two frame images, calculating a motion vector of a feature point from the two input frame images, and outputting the calculated motion vector and the latest frame image;
A motion vector that is estimated to be a false detection vector from the latest time frame image and the motion vector is detected using template matching, and an error that outputs a motion vector obtained by removing the detected false detection vector from the input motion vector is output. A detection vector removal step;
For the motion vector excluding the false detection vector, an angle parameter on the image is calculated, a feature amount list in which the calculated angle parameter is associated with a motion vector ID uniquely assigned to each motion vector is created, and the created feature A feature quantity calculating step for outputting a quantity list;
A motion vector clustering step of determining and outputting the motion vector by clustering the motion vectors in the feature quantity list.
少なくとも2枚のフレーム画像を入力し、入力した2枚の前記フレーム画像から特徴点の動きベクトルを算出し、算出した前記動きベクトルと、最新時刻のフレーム画像とを出力する動きベクトル検出ステップと、
前記最新時刻フレーム画像と、前記動きベクトルから誤検出ベクトルと推測される動きベクトルをテンプレートマッチングを用いて検出し、入力された動きベクトルから、検出した誤検出ベクトルを除いた動きベクトルを出力する誤検出ベクトル除去ステップと、
前記誤検出ベクトルを除いた動きベクトルについて、画像上での角度パラメータを算出し、算出した角度パラメータを各動きベクトルに唯一付与された動きベクトルIDを関連付けた特徴量リストを作成し、作成した特徴量リストを出力する特徴量算出ステップと、
前記特徴量リスト中の前記動きベクトルをクラスタリングすることにより、前記動きベクトルを決定して出力する動きベクトルクラスタリングステップと
を前記コンピュータに行わせることを特徴とする動きベクトル検出プログラム。 A motion vector detection program for causing a computer on a motion vector detection device to detect a motion vector,
A motion vector detection step of inputting at least two frame images, calculating a motion vector of a feature point from the two input frame images, and outputting the calculated motion vector and the latest frame image;
A motion vector that is estimated to be a false detection vector from the latest time frame image and the motion vector is detected using template matching, and an error that outputs a motion vector obtained by removing the detected false detection vector from the input motion vector is output. A detection vector removal step;
For the motion vector excluding the false detection vector, an angle parameter on the image is calculated, a feature amount list in which the calculated angle parameter is associated with a motion vector ID uniquely assigned to each motion vector is created, and the created feature A feature quantity calculating step for outputting a quantity list;
A motion vector detection program that causes the computer to perform a motion vector clustering step of determining and outputting the motion vector by clustering the motion vectors in the feature quantity list.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011085541A JP5643147B2 (en) | 2011-04-07 | 2011-04-07 | Motion vector detection apparatus, motion vector detection method, and motion vector detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011085541A JP5643147B2 (en) | 2011-04-07 | 2011-04-07 | Motion vector detection apparatus, motion vector detection method, and motion vector detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012221164A true JP2012221164A (en) | 2012-11-12 |
JP5643147B2 JP5643147B2 (en) | 2014-12-17 |
Family
ID=47272615
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011085541A Expired - Fee Related JP5643147B2 (en) | 2011-04-07 | 2011-04-07 | Motion vector detection apparatus, motion vector detection method, and motion vector detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5643147B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015166915A (en) * | 2014-03-03 | 2015-09-24 | トヨタ自動車株式会社 | Surrounding monitoring device and object determination method |
WO2018110541A1 (en) | 2016-12-13 | 2018-06-21 | 日本電信電話株式会社 | Image difference determination device and method, change period estimation device and method, and program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000331169A (en) * | 1999-05-20 | 2000-11-30 | Fujitsu Ltd | Method and device for measuring motion vector of image |
-
2011
- 2011-04-07 JP JP2011085541A patent/JP5643147B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000331169A (en) * | 1999-05-20 | 2000-11-30 | Fujitsu Ltd | Method and device for measuring motion vector of image |
Non-Patent Citations (2)
Title |
---|
CSNJ200910102359; 舌間英彦 外1名: '移動カメラで撮影された移動物体上の特徴点の分類' 電子情報通信学会1998年総合大会講演論文集 情報・システム2 , 19980306, 第359頁, 社団法人電子情報通信学会 * |
JPN6014014864; 舌間英彦 外1名: '移動カメラで撮影された移動物体上の特徴点の分類' 電子情報通信学会1998年総合大会講演論文集 情報・システム2 , 19980306, 第359頁, 社団法人電子情報通信学会 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015166915A (en) * | 2014-03-03 | 2015-09-24 | トヨタ自動車株式会社 | Surrounding monitoring device and object determination method |
WO2018110541A1 (en) | 2016-12-13 | 2018-06-21 | 日本電信電話株式会社 | Image difference determination device and method, change period estimation device and method, and program |
US11398056B2 (en) | 2016-12-13 | 2022-07-26 | Nippon Telegraph And Telephone Corporation | Image difference deterination device and method that determines whether or not there is a temporary difference between images and non-transitory computer-readable medium |
Also Published As
Publication number | Publication date |
---|---|
JP5643147B2 (en) | 2014-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6942488B2 (en) | Image processing equipment, image processing system, image processing method, and program | |
JP6430064B2 (en) | Method and system for aligning data | |
EP3542304B1 (en) | System and method for object tracking | |
JP6655878B2 (en) | Image recognition method and apparatus, program | |
US8233661B2 (en) | Object tracking apparatus and object tracking method | |
JP5715833B2 (en) | Posture state estimation apparatus and posture state estimation method | |
US9721387B2 (en) | Systems and methods for implementing augmented reality | |
US20180232906A1 (en) | Visual odometry using object priors | |
JP5166102B2 (en) | Image processing apparatus and method | |
EP2660753B1 (en) | Image processing method and apparatus | |
EP2591460A1 (en) | Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation | |
WO2020082258A1 (en) | Multi-objective real-time tracking method and apparatus, and electronic device | |
KR20120044484A (en) | Apparatus and method for tracking object in image processing system | |
KR102552968B1 (en) | Method of tracking multiple objects and apparatus for the same | |
CN111382637B (en) | Pedestrian detection tracking method, device, terminal equipment and medium | |
JP2018124689A (en) | Moving body detection device, moving body detection system and moving body detection method | |
JP2019512821A (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM | |
JP2009129237A (en) | Image processing apparatus and its method | |
JP6103765B2 (en) | Action recognition device, method and program, and recognizer construction device | |
JP5848665B2 (en) | Moving object motion vector detection apparatus, moving object motion vector detection method, and program | |
JP2017084065A (en) | Identity theft detection device | |
JP6305856B2 (en) | Image processing apparatus, image processing method, and program | |
JP6434718B2 (en) | Face image recognition apparatus and face image recognition program | |
JP5643147B2 (en) | Motion vector detection apparatus, motion vector detection method, and motion vector detection program | |
JP2021144359A (en) | Learning apparatus, estimation apparatus, learning method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20130606 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20130726 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130731 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140313 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140408 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140516 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141028 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141030 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5643147 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |