JP2012221164A - Motion vector detection device, motion vector detection method and motion vector detection program - Google Patents

Motion vector detection device, motion vector detection method and motion vector detection program Download PDF

Info

Publication number
JP2012221164A
JP2012221164A JP2011085541A JP2011085541A JP2012221164A JP 2012221164 A JP2012221164 A JP 2012221164A JP 2011085541 A JP2011085541 A JP 2011085541A JP 2011085541 A JP2011085541 A JP 2011085541A JP 2012221164 A JP2012221164 A JP 2012221164A
Authority
JP
Japan
Prior art keywords
motion vector
vector
motion
detection
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011085541A
Other languages
Japanese (ja)
Other versions
JP5643147B2 (en
Inventor
Jun Shimamura
潤 島村
Masashi Morimoto
正志 森本
Hideki Koike
秀樹 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2011085541A priority Critical patent/JP5643147B2/en
Publication of JP2012221164A publication Critical patent/JP2012221164A/en
Application granted granted Critical
Publication of JP5643147B2 publication Critical patent/JP5643147B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a motion vector detection device for accurately detecting a motion vector on a traveling object.SOLUTION: The motion vector detection device includes: means for inputting at least two frame images, calculating the motion vectors of feature points from the input two frame images, and outputting the calculated motion vectors and the latest time frame image; means for detecting the latest time frame image and the motion vectors estimated as erroneous detection vectors from the motion vectors by using template matching, and outputting the motion vectors by removing the detected erroneous detection vectors from the input motion vectors; means for calculating angle parameters on the image about the motion vectors from which the erroneous detection vectors have been removed, creating a featured value list in which the calculated angle parameters and motion vector ID uniquely applied to each of the motion vectors are associated with each other, and outputting the created featured value list; and means for determining the motion vectors by clustering the motion vectors in the featured value list, and outputting them.

Description

本発明は、実空間を移動する物体を含むシーンを撮像するカメラによって入力された少なくとも2枚以上のフレーム画像から、動きベクトルを検出し、当該動きベクトルから移動物体上の動きベクトルを検出する動きベクトル検出装置、動きベクトル検出方法及び動きベクトル検出プログラムに関する。   The present invention detects a motion vector from at least two frame images input by a camera that captures a scene including an object moving in real space, and detects a motion vector on the moving object from the motion vector. The present invention relates to a vector detection device, a motion vector detection method, and a motion vector detection program.

実空間を移動する物体を含むシーンを撮像するカメラによって入力された少なくとも2枚以上のフレーム画像から、動きベクトルを検出し、検出した動きベクトルから移動物体上の動きベクトルを検出する移動物体動きベクトル検出装置では、検出した動きベクトルを用いて、例えば歩行者や車の逆向を検出することなどを可能にしている。   A moving object motion vector that detects a motion vector from at least two frame images input by a camera that captures a scene including an object moving in real space, and detects a motion vector on the moving object from the detected motion vector The detection device can detect, for example, the reverse direction of a pedestrian or a car using the detected motion vector.

従来の移動物体上動きベクトル検出装置としては、1枚以上のフレーム画像から、テンプレートマッチングや時空間微分法を用いて動きベクトルを算出し、算出した動きベクトルの類似性によりクラスタリングすることで移動物体を検出する方法が知られている(例えば、非特許文献1参照)。   As a conventional moving object motion vector detecting device, a moving object is calculated from one or more frame images using template matching or spatiotemporal differentiation, and clustered according to the similarity of the calculated motion vectors. There is known a method of detecting (see, for example, Non-Patent Document 1).

「パターン情報処理」,白井良明、谷内田正彦 共著,オーム社発行pp.139−pp.142,1998)"Pattern information processing", Yoshiaki Shirai and Masahiko Taniuchi, published by Ohmsha pp. 139-pp. 142, 1998)

しかしながら、従来の方法では、テンプレートマッチングや時空間微分法によって算出する動きベクトルが正しいものとして移動物体を検出するため、検出した動きベクトルに、撮像対象である実空間中に繰返しテクスチャを有す、或いはテクスチャ情報が少ない物体が存在することや、物体が他の物体によって隠蔽されるオクルージョン、撮像画像上でのエッジ部分によって生じる開口問題等に起因する誤検出ベクトルが含まれる場合、正しく移動物体を検出できないという問題がある。   However, in the conventional method, in order to detect a moving object on the assumption that the motion vector calculated by template matching or spatiotemporal differentiation is correct, the detected motion vector has a repetitive texture in the real space to be imaged. Or if there is an object with little texture information, occlusion where the object is occluded by another object, or a false detection vector due to an opening problem caused by an edge part on the captured image, etc. There is a problem that it cannot be detected.

本発明は、このような事情に鑑みてなされたもので、移動物体上動きベクトル検出する際に、算出した動きベクトルに誤検出ベクトルが含まれる場合においても正確に移動物体上の動きベクトルを検出することができる動きベクトル検出装置、動きベクトル検出方法及び動きベクトル検出プログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and when detecting a motion vector on a moving object, the motion vector on the moving object is accurately detected even if the calculated motion vector includes a false detection vector. An object of the present invention is to provide a motion vector detection device, a motion vector detection method, and a motion vector detection program.

本発明は、少なくとも2枚のフレーム画像を入力し、入力した2枚の前記フレーム画像から特徴点の動きベクトルを算出し、算出した前記動きベクトルと、最新時刻のフレーム画像とを出力する動きベクトル検出手段と、前記最新時刻フレーム画像と、前記動きベクトルから誤検出ベクトルと推測される動きベクトルをテンプレートマッチングを用いて検出し、入力された動きベクトルから、検出した誤検出ベクトルを除いた動きベクトルを出力する誤検出ベクトル除去手段と、前記誤検出ベクトルを除いた動きベクトルについて、画像上での角度パラメータを算出し、算出した角度パラメータを各動きベクトルに唯一付与された動きベクトルIDを関連付けた特徴量リストを作成し、作成した特徴量リストを出力する特徴量算出手段と、前記特徴量リスト中の前記動きベクトルをクラスタリングすることにより、前記動きベクトルを決定して出力する動きベクトルクラスタリング手段とを備えたことを特徴とする。   The present invention inputs at least two frame images, calculates a motion vector of a feature point from the two input frame images, and outputs the calculated motion vector and the latest frame image A motion vector obtained by detecting, using template matching, a motion vector that is estimated as a false detection vector from the detection means, the latest time frame image, and the motion vector, and excluding the detected false detection vector from the input motion vector And an angle parameter on the image for the motion vector excluding the false detection vector, and the calculated angle parameter is associated with a motion vector ID uniquely assigned to each motion vector. A feature quantity calculating means for creating a feature quantity list and outputting the created feature quantity list; By clustering the motion vector in the feature list, characterized by comprising a motion vector clustering means determines and outputs the motion vector.

本発明は、少なくとも2枚のフレーム画像を入力し、入力した2枚の前記フレーム画像から特徴点の動きベクトルを算出し、算出した前記動きベクトルと、最新時刻のフレーム画像とを出力する動きベクトル検出ステップと、前記最新時刻フレーム画像と、前記動きベクトルから誤検出ベクトルと推測される動きベクトルをテンプレートマッチングを用いて検出し、入力された動きベクトルから、検出した誤検出ベクトルを除いた動きベクトルを出力する誤検出ベクトル除去ステップと、前記誤検出ベクトルを除いた動きベクトルについて、画像上での角度パラメータを算出し、算出した角度パラメータを各動きベクトルに唯一付与された動きベクトルIDを関連付けた特徴量リストを作成し、作成した特徴量リストを出力する特徴量算出ステップと、前記特徴量リスト中の前記動きベクトルをクラスタリングすることにより、前記動きベクトルを決定して出力する動きベクトルクラスタリングステップとを有することを特徴とする。   The present invention inputs at least two frame images, calculates a motion vector of a feature point from the two input frame images, and outputs the calculated motion vector and the latest frame image A motion vector obtained by detecting a motion vector presumed to be a false detection vector from the latest time frame image and the motion vector using template matching, and removing the detected false detection vector from the input motion vector; And a step of removing the false detection vector, calculating an angle parameter on the image for the motion vector excluding the false detection vector, and associating the calculated angle parameter with a motion vector ID uniquely assigned to each motion vector Create a feature list and output the created feature list. And-up, by clustering the motion vector in the feature list, and having a motion vector clustering step determines and outputs the motion vector.

本発明は、動きベクトル検出装置上のコンピュータに動きベクトルを検出させる動きベクトル検出プログラムであって、少なくとも2枚のフレーム画像を入力し、入力した2枚の前記フレーム画像から特徴点の動きベクトルを算出し、算出した前記動きベクトルと、最新時刻のフレーム画像とを出力する動きベクトル検出ステップと、前記最新時刻フレーム画像と、前記動きベクトルから誤検出ベクトルと推測される動きベクトルをテンプレートマッチングを用いて検出し、入力された動きベクトルから、検出した誤検出ベクトルを除いた動きベクトルを出力する誤検出ベクトル除去ステップと、前記誤検出ベクトルを除いた動きベクトルについて、画像上での角度パラメータを算出し、算出した角度パラメータを各動きベクトルに唯一付与された動きベクトルIDを関連付けた特徴量リストを作成し、作成した特徴量リストを出力する特徴量算出ステップと、前記特徴量リスト中の前記動きベクトルをクラスタリングすることにより、前記動きベクトルを決定して出力する動きベクトルクラスタリングステップとを前記コンピュータに行わせることを特徴とする。   The present invention is a motion vector detection program for causing a computer on a motion vector detection device to detect a motion vector, which inputs at least two frame images and obtains a motion vector of a feature point from the two input frame images. A motion vector detection step for calculating and outputting the calculated motion vector and the latest time frame image; and using the template matching of the latest time frame image and a motion vector estimated as a false detection vector from the motion vector A false detection vector removing step for outputting a motion vector obtained by removing the detected false detection vector from the input motion vector, and calculating an angle parameter on the image for the motion vector excluding the false detection vector The calculated angle parameter is uniquely assigned to each motion vector. Generating a feature quantity list in which the motion vector IDs are associated with each other, and a feature quantity calculating step for outputting the created feature quantity list; and clustering the motion vectors in the feature quantity list to determine the motion vector. And causing the computer to perform a motion vector clustering step to be output.

本発明によれば、動きベクトルを算出後、算出した動きベクトルから誤検出ベクトルを検出・除去し、残存する誤検出ベクトルと移動物体上の動きベクトルをガウス混合分布と見なして分離するため、正確に移動物体上の動きベクトルを検出することができるという効果が得られる。   According to the present invention, after calculating the motion vector, the false detection vector is detected and removed from the calculated motion vector, and the remaining false detection vector and the motion vector on the moving object are separated as a Gaussian mixture distribution. In addition, it is possible to detect the motion vector on the moving object.

本発明の一実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of this invention. 図1に示す誤検出ベクトル除去部11の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the false detection vector removal part 11 shown in FIG. 図1に示す特徴量算出部13の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the feature-value calculation part 13 shown in FIG. 図1に示す動きベクトルクラスタリング部14の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the motion vector clustering part 14 shown in FIG. 動きベクトル検出装置1に入力されるフレーム画像の一例を示す説明図である。It is explanatory drawing which shows an example of the frame image input into the motion vector detection apparatus. 動きベクトル検出装置1に入力されるフレーム画像の一例を示す説明図である。It is explanatory drawing which shows an example of the frame image input into the motion vector detection apparatus. 動きベクトル算出結果の一例を示す説明図である。It is explanatory drawing which shows an example of a motion vector calculation result. 誤検出ベクトル除去処理における各領域を示す説明図である。It is explanatory drawing which shows each area | region in a false detection vector removal process. 特徴量算出処理を示す説明図である。It is explanatory drawing which shows a feature-value calculation process. 特徴量リストの一例を示す説明図である。It is explanatory drawing which shows an example of a feature-value list | wrist. 動きベクトルクラスタリング処理を示す説明図である。It is explanatory drawing which shows a motion vector clustering process. 動きベクトルクラスタリング処理を示す説明図である。It is explanatory drawing which shows a motion vector clustering process. 動きベクトルクラスタリング処理を示す説明図である。It is explanatory drawing which shows a motion vector clustering process.

以下、図面を参照して、本発明の一実施形態による動きベクトル検出装置を説明する。図1は同実施形態の構成を示すブロック図である。この図において、符号1は、コンピュータ装置で構成する動きベクトル検出装置であり、2枚のフレーム画像を入力し、移動物体上の動きベクトルを出力する。符号2は、動きベクトル検出装置1の各処理に用いるデータを記憶する記憶部である。ここでいう「移動物体」とは、人や物などの任意の移動する被写体を含む。   Hereinafter, a motion vector detection apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the embodiment. In this figure, reference numeral 1 denotes a motion vector detection device constituted by a computer device, which inputs two frame images and outputs a motion vector on a moving object. Reference numeral 2 denotes a storage unit that stores data used for each process of the motion vector detection device 1. The “moving object” here includes an arbitrary moving subject such as a person or an object.

動きベクトル検出装置1は、動きベクトル検出部11と、誤検出ベクトル除去部12と、特徴量算出部13と、動きベクトルクラスタリング部14とを備える。動きベクトル検出部11は、少なくとも2枚以上のフレーム画像F(t−1),F(t)を入力し、最新時刻のフレーム画像から画像上の角や交点となる特徴点を抽出し、特徴点に対する動きベクトルを少なくとも2枚以上のフレーム画像からテンプレートマッチングや時空間微分法を用いて算出し、算出した動きベクトルと最新時刻tのフレーム画像とを出力する。   The motion vector detection device 1 includes a motion vector detection unit 11, an erroneous detection vector removal unit 12, a feature amount calculation unit 13, and a motion vector clustering unit 14. The motion vector detection unit 11 inputs at least two or more frame images F (t−1) and F (t), extracts feature points that are corners or intersections on the image from the frame image at the latest time, and features A motion vector for a point is calculated from at least two frame images using template matching or a spatiotemporal differential method, and the calculated motion vector and a frame image at the latest time t are output.

誤検出ベクトル除去部12は、最新時刻のフレーム画像F(t)と動きベクトルを入力し、動きベクトルから誤検出ベクトルと推測される動きベクトルをテンプレートマッチングを用いることで検出し、入力された動きベクトルから検出した誤検出ベクトルを除いた動きベクトルを出力する。   The false detection vector removal unit 12 receives the latest frame image F (t) and a motion vector, detects a motion vector estimated as a false detection vector from the motion vector by using template matching, and receives the input motion. A motion vector obtained by removing a false detection vector detected from the vector is output.

特徴量算出部13は、誤検出ベクトル除去部12から出力される動きベクトルを入力し、全ての動きベクトルに亘って画像上での角度パラメータを算出し、算出した角度パラメータを各動きベクトルに唯一付与された動きベクトルIDを関連付けた特徴量リストを作成し、作成した特徴量リストを出力する。   The feature amount calculation unit 13 receives the motion vector output from the false detection vector removal unit 12, calculates the angle parameter on the image over all the motion vectors, and the calculated angle parameter is unique to each motion vector. A feature quantity list in which the given motion vector ID is associated is created, and the created feature quantity list is output.

動きベクトルクラスタリング部14は、特徴量算出部13から出力される特徴量リストを入力し、入力した特徴量リストをEMアルゴリズムを用いてクラスタリングし、出力される複数のクラスタに関連付けられて出力されるガウス分布パラメータに対する閾値処理によって、移動物体上動きベクトルを決定し出力する。   The motion vector clustering unit 14 receives the feature amount list output from the feature amount calculation unit 13, clusters the input feature amount list using the EM algorithm, and outputs the list in association with a plurality of output clusters. A motion vector on a moving object is determined and output by threshold processing for a Gaussian distribution parameter.

次に、図面を参照して、図1に示す動きベクトル検出装置1の処理動作を説明する。始めに、図5、図6を参照して、図1に示す動きベクトル検出部11の処理動作を説明する。図5、図6は、動きベクトル検出装置1に入力されるフレーム画像の例である。図6は現在時刻の実空間をカメラで撮像したフレーム画像F(t)であり、図5は現在時刻から1時刻前に同じ実空間を撮像したフレーム画像F(t−1)を示している。動きベクトル検出部11は、最新時刻のフレーム画像F(t)から画像上の角や交点となる特徴点を抽出し、抽出した特徴点に対する動きベクトルをフレーム画像F(t)とフレーム画像F(t−1)を用いて算出する。ここで動きベクトルの算出処理は、例えばフレーム画像F(t−1)に対するテンプレートマッチング処理により行う。すなわち、フレーム画像F(t)で抽出済みの特徴点近傍の画像データ、例えば特徴点の8近傍内の画像データと、フレーム画像F(t−1)の画像データを比較することで、フレーム画像F(t−1)においてフレーム画像F(t)上の処理対象の特徴点に対応する点の画像座標を決定する。決定した画像座標とフレーム画像F(t)上の処理対象の特徴点の画像座標を動きベクトルとして決定する。この処理をフレーム画像F(t)で抽出した全ての特徴点に亘って行い、動きベクトルとフレーム画像F(t)とを出力する。この処理によって、図7に示す動きベクトルが算出されたものとして以下の説明を行う。   Next, processing operations of the motion vector detection device 1 shown in FIG. 1 will be described with reference to the drawings. First, the processing operation of the motion vector detection unit 11 shown in FIG. 1 will be described with reference to FIGS. 5 and 6 are examples of frame images input to the motion vector detection device 1. FIG. 6 shows a frame image F (t) obtained by imaging the real space at the current time with a camera, and FIG. 5 shows a frame image F (t−1) obtained by imaging the same real space one hour before the current time. . The motion vector detection unit 11 extracts feature points that are corners or intersections on the image from the frame image F (t) at the latest time, and the motion vectors for the extracted feature points are used as the frame image F (t) and the frame image F ( Calculated using t-1). Here, the motion vector calculation process is performed by, for example, a template matching process for the frame image F (t−1). That is, by comparing the image data in the vicinity of the feature points already extracted in the frame image F (t), for example, the image data in the vicinity of 8 of the feature points with the image data of the frame image F (t−1), In F (t−1), the image coordinates of a point corresponding to the feature point to be processed on the frame image F (t) are determined. The determined image coordinates and the image coordinates of the feature point to be processed on the frame image F (t) are determined as motion vectors. This process is performed over all feature points extracted in the frame image F (t), and a motion vector and the frame image F (t) are output. The following description will be made on the assumption that the motion vector shown in FIG. 7 has been calculated by this processing.

次に、図2を参照して、図1に示す誤検出ベクトル除去部12の処理動作を説明する。誤検出ベクトル除去部12は、対象とする動きベクトルの終点が、自点近傍を除いた自点付近に、自点に酷似するパターンを有す点が存在すれば、繰返しテクスチャの存在やテクスチャ情報が少ないことに起因する誤検出である可能性が高いため、後段での処理対象から除く処理を行う。まず、誤検出ベクトル除去部12は、動きベクトル検出部11から出力するフレーム画像F(t)と動きベクトルを入力する(ステップS1)。そして、誤検出ベクトル除去部12は、全ての動きベクトルについて処理済みであるか否かを判定し(ステップS2)、処理済みでなれば、入力された動きベクトルから1つの動きベクトルを選択し、選択した動きベクトルの終点を処理対象点とする。   Next, the processing operation of the false detection vector removing unit 12 shown in FIG. 1 will be described with reference to FIG. If the end point of the target motion vector is a point near the own point excluding the vicinity of the own point and there is a point having a pattern very similar to the own point, the false detection vector removing unit 12 repeats the presence of texture or texture information. Since there is a high possibility of erroneous detection due to a small amount of data, processing to be excluded from the processing target in the subsequent stage is performed. First, the false detection vector removal unit 12 receives the frame image F (t) and the motion vector output from the motion vector detection unit 11 (step S1). Then, the false detection vector removal unit 12 determines whether or not all the motion vectors have been processed (step S2), and if not, selects one motion vector from the input motion vectors, The end point of the selected motion vector is set as the processing target point.

次に、誤検出ベクトル除去部12は、処理対象点近傍に所定サイズの探索ウィンドウを設定し、設定した探索ウィンドウ内の画像データをテンプレートとして記憶部に記憶する(ステップS3)。続いて、誤検出ベクトル除去部12は、処理対象点近傍にテンプレートマッチング処理におけるテンプレートの走査範囲を示す探索領域を設定する(ステップS4)。この探索領域のサイズは予め決められているものとし、設定した探索ウィンドウのサイズより大きい。   Next, the false detection vector removal unit 12 sets a search window of a predetermined size near the processing target point, and stores the image data in the set search window as a template in the storage unit (step S3). Subsequently, the false detection vector removing unit 12 sets a search region indicating the scanning range of the template in the template matching process in the vicinity of the processing target point (step S4). The size of the search area is predetermined and is larger than the set search window size.

次に、誤検出ベクトル除去部12は、処理対象点近傍にテンプレートマッチング処理を施さない範囲を示すマスク領域を設定する(ステップS5)。マスク領域のサイズは予め決められているものとし、そのサイズは0より大きく探索領域より小さいサイズである。続いて、誤検出ベクトル除去部12は、マスク領域を除く探索領域内の画像データに対するテンプレートマッチング処理を行うことで、この探索領域内から処理対象点に類似する点を決定する(ステップS6)。この類似点の決定処理はテンプレートマッチングで算出される各点の類似度のうち、最も類似度が高い点を選択することで実現できる。この類似度の値として、例えば探索ウィンドウ内と当該ウィンドウと同じサイズを有す探索領域内の処理対象点を包含するウィンドウ内の画素値の差の2乗和(SSD:Sum of Squared Differences)を用いることができる。また、SSDに限らず、正規化相関値や画素値の差の絶対値和(SAD:Sum of Absolute Differences)など画像中から対応点を絞り込むために利用されるものであれば何でも良い。例えば、類似度の値としてSSD値を用いる場合には、各点のSSD値のうち最も小さい点を選択することで、類似する点を決定することができる。   Next, the false detection vector removing unit 12 sets a mask region indicating a range in which template matching processing is not performed in the vicinity of the processing target point (step S5). The size of the mask area is determined in advance, and the size is larger than 0 and smaller than the search area. Subsequently, the false detection vector removing unit 12 performs a template matching process on the image data in the search area excluding the mask area, thereby determining a point similar to the processing target point from the search area (step S6). This similarity determination process can be realized by selecting the point with the highest similarity among the similarities of the points calculated by template matching. As the similarity value, for example, a sum of squares (SSD: Sum of Squared Differences) of pixel values in a window that includes a processing target point in the search window and a search area having the same size as the window. Can be used. Further, not only SSD but also any normalized correlation value and absolute sum of pixel value differences (SAD: Sum of Absolute Differences) may be used as long as they are used for narrowing down corresponding points in an image. For example, when an SSD value is used as the similarity value, a similar point can be determined by selecting the smallest point among the SSD values of the respective points.

次に、誤検出ベクトル除去部12は、決定した類似度が所定の閾値を超えるか否かを判定し(ステップS7)、決定された処理対象点に類似する点の類似度が所定の閾値を超える場合は、選択した動きベクトルを、入力された動きベクトルのリストから除去する(ステップS8)。例えば類似度の値としてSSD値を用いた場合には、類似度が所定の閾値を下回る場合、つまり処理対象点に類似している場合に、選択した動きベクトルを、入力された動きベクトルのリストから除去する。誤検出ベクトル除去部12は、この処理を入力された動きベクトル全てに亘って行った後に、動きベクトルを出力し(ステップS9)処理を終了する。   Next, the false detection vector removing unit 12 determines whether or not the determined similarity exceeds a predetermined threshold (step S7), and the similarity of a point similar to the determined processing target point is set to a predetermined threshold. If so, the selected motion vector is removed from the list of input motion vectors (step S8). For example, when an SSD value is used as the similarity value, when the similarity is below a predetermined threshold, that is, when the similarity is similar to the processing target point, the selected motion vector is a list of input motion vectors. Remove from. The false detection vector removal unit 12 performs this process over all the input motion vectors, and then outputs a motion vector (step S9), and ends the process.

このように、実空間中に繰返しテクスチャを有す、或いはテクスチャ情報が少ない物体が存在することや、撮像画像上でのエッジ部分によって生じる開口問題等に起因した誤検出ベクトルと推測される動きベクトルをテンプレートマッチングを用いて検出することにより、誤検出の動きベクトルを除去することが可能となる。   In this way, a motion vector that is presumed to be a false detection vector due to the presence of an object having repetitive texture in the real space or having little texture information, or an opening problem caused by an edge portion on the captured image. By using the template matching, it is possible to remove the erroneously detected motion vector.

次に、図3を参照して、図1に示す特徴量算出部13の処理動作を説明する。まず、特徴量算出部13は、誤検出ベクトル除去部12から出力される動きベクトルを入力する(ステップS11)。そして、特徴量算出部13は、全ての動きベクトルについて処理済みであるか否かを判定する(ステップS12)。この判定の結果、処理済みでなければ、特徴量算出部13は、動くベクトルの画像上での角度パラメータを算出し(ステップS13)、算出した角度パラメータを各動きベクトルに唯一付与された動きベクトルIDを関連付けた特徴量リスト情報を作成し、記憶部2に記憶する(ステップS14)。そして、特徴量算出部13は、全ての動きベクトルについて同様の処理を行った後、記憶部2に記憶されている特徴量リストを出力し(ステップS15)、処理を終了する。   Next, the processing operation of the feature quantity calculation unit 13 shown in FIG. 1 will be described with reference to FIG. First, the feature quantity calculation unit 13 receives the motion vector output from the false detection vector removal unit 12 (step S11). Then, the feature quantity calculation unit 13 determines whether or not all the motion vectors have been processed (step S12). If the result of this determination is that processing has not been completed, the feature quantity calculation unit 13 calculates an angle parameter on the image of the moving vector (step S13), and the motion vector uniquely assigned to each motion vector is the calculated angle parameter. Feature quantity list information associated with the ID is created and stored in the storage unit 2 (step S14). Then, after performing the same processing for all the motion vectors, the feature amount calculation unit 13 outputs the feature amount list stored in the storage unit 2 (step S15), and ends the processing.

特徴量算出部13が行う処理を図9、図10を用いて詳細に説明する。まず、特徴量算出部13は、入力された動きベクトルから1つの動きベクトルを処理対象ベクトルとして選択する。ここで、処理対象ベクトルの始点座標が(Xs,Ys)、終点座標が(Xe,Ye)であったものとして説明する。始めに処理対象ベクトルの角度αを(1)式により算出する。
α=tan−1((Ys−Ye)/(Xs−Xe)) ・・・(1)
The processing performed by the feature amount calculation unit 13 will be described in detail with reference to FIGS. First, the feature amount calculation unit 13 selects one motion vector as a processing target vector from the input motion vectors. Here, description will be made assuming that the start point coordinates of the processing target vector are (Xs, Ys) and the end point coordinates are (Xe, Ye). First, the angle α of the processing target vector is calculated by the equation (1).
α = tan −1 ((Ys−Ye) / (Xs−Xe)) (1)

(1)式で算出される角度は単位がラジアンとなるが、単位を角度に変換しても良い。また角度は図9に示す画像のi軸を基準とする座標系を用いて記述するものとする。続いて、算出した角度を処理対象ベクトルの動きベクトルIDに関連付けて記憶する。ここで動きベクトルIDとは、各動きベクトルに唯一付与されたIDのことである。この処理を入力された動きベクトル全てに亘って行った後に、動きベクトルIDに関連付けて記録された角度を特徴量リスト(図10参照)として出力し処理を終える。   The unit of the angle calculated by equation (1) is radians, but the unit may be converted into an angle. The angle is described using a coordinate system based on the i-axis of the image shown in FIG. Subsequently, the calculated angle is stored in association with the motion vector ID of the processing target vector. Here, the motion vector ID is an ID uniquely assigned to each motion vector. After performing this process for all the input motion vectors, the angle recorded in association with the motion vector ID is output as a feature quantity list (see FIG. 10), and the process is terminated.

なお、前述した説明では処理対象ベクトルの角度を(1)式により算出するα1つのみを用いる例について説明したが、(1)式で算出したαから(2)式、(3)式によりそれぞれ算出されるα、αの2つを用いても良い。
α=sinα ・・・(2)
α=cosα ・・・(3)
In the above description, an example in which only one α that calculates the angle of the processing target vector using Equation (1) is used, but from α calculated using Equation (1), Equation (2) and Equation (3) respectively. Two calculated α 1 and α 2 may be used.
α 1 = sin α (2)
α 2 = cos α (3)

次に、図4を参照して、図1に示す動きベクトルクラスタリング部14の処理動作を説明する。動きベクトルクラスタリング部14は、特徴量算出部13から出力する特徴量リストを入力する(ステップS21)。この特徴量リストで表現される動きベクトルには、移動物体上の動きベクトルに加えて、物体が他の物体によって隠蔽されるオクルージョンや、他の原因によって生じる誤って検出された動きベクトルも含まれる。図11に特徴量リストで表現される動きベクトルの角度のヒストグラム分布を示す。ここでは、動きベクトルの角度のヒストグラム分布を複数のガウス分布の合成であるガウス混合分布でモデル化表現し、各ピークのパラメータをEMアルゴリズム(Expectation-maximization algorithm)などの公知の処理を行って決定することで、移動物体上の動きベクトル、オクルージョンに起因する誤った動きベクトル、他の原因に起因する誤った動きベクトルのそれぞれにクラスタリングする(ステップS22)。   Next, the processing operation of the motion vector clustering unit 14 shown in FIG. 1 will be described with reference to FIG. The motion vector clustering unit 14 receives the feature amount list output from the feature amount calculating unit 13 (step S21). In addition to the motion vector on the moving object, the motion vector represented by this feature amount list includes an occlusion in which the object is concealed by another object and a motion vector detected in error caused by another cause. . FIG. 11 shows a histogram distribution of the angles of the motion vectors expressed by the feature quantity list. Here, the histogram distribution of the angle of the motion vector is modeled and expressed by a Gaussian mixture distribution that is a combination of multiple Gaussian distributions, and the parameters of each peak are determined by performing a known process such as an EM algorithm (Expectation-maximization algorithm). Thus, clustering is performed on each of the motion vector on the moving object, the erroneous motion vector due to occlusion, and the erroneous motion vector due to other causes (step S22).

EMアルゴリズムは公知のアルゴリズムであるためここで詳細な説明を省略するが、確率モデル(本実施の形態では正規分布曲線)のパラメータを反復法により数値解析的に最尤推定するアルゴリズムであり、特に確率モデルが観測できない隠れたパラメータに依存する場合に用いられる。EMアルゴリズムは他の推定手法と比べて良い解に収束し易く、また実装が簡単になることが多く処理速度も基本的に高速であるため有効である。図12では、図11の角度分布に対してEMアルゴリズムを適用して正規分布曲線を推定した場合の例を示している。   Since the EM algorithm is a known algorithm, a detailed description thereof is omitted here. However, the EM algorithm is an algorithm that estimates a parameter of a probability model (normal distribution curve in the present embodiment) in a numerical analysis by an iterative method. Used when the probabilistic model depends on hidden parameters that cannot be observed. The EM algorithm is effective because it easily converges to a good solution compared to other estimation methods, is often simple to implement, and the processing speed is basically high. FIG. 12 shows an example in which a normal distribution curve is estimated by applying the EM algorithm to the angular distribution of FIG.

なお、本実施の形態では正規分布曲線を推定する際にEMアルゴリズムを用いているが、他のアルゴリズムを用いることも当然可能である。特徴量リストを入力としEMアルゴリズムを実行することで、クラスタリングされ、動きベクトルIDに関連付けられてクラスタ番号が付与される。加えて、各クラスタに関連付けられてガウス分布パラメータがクラスタ数分出力される。ここでガウス分布パラメータには、少なくともガウス分布の中心位置を示す平均値、ガウス分布の広がりを示す分散値が含まれ、併せて当該ガウス分布の混合分布に対する重みを示す重み値が含まれるとより良い。   In this embodiment, the EM algorithm is used when estimating the normal distribution curve, but other algorithms can naturally be used. Clustering is performed by executing the EM algorithm using the feature list as an input, and a cluster number is assigned in association with the motion vector ID. In addition, Gaussian distribution parameters are output for the number of clusters associated with each cluster. Here, the Gaussian distribution parameter includes at least an average value indicating the center position of the Gaussian distribution, a variance value indicating the spread of the Gaussian distribution, and a weight value indicating a weight for the mixed distribution of the Gaussian distribution. good.

次に、動きベクトルクラスタリング部14は、EMアルゴリズムに因って出力された複数クラスタに関連付けられて出力されたガウス分布パラメータに対する閾値処理(ステップS23)によって、移動物体上動きベクトルを決定し出力する。この閾値処理は、例えば、ガウス分布パラメータの分散値に対して所定の値と比較することで実現できる。また、混合分布の重み値に対して所定の値と比較することによっても実現できる。   Next, the motion vector clustering unit 14 determines and outputs the motion vector on the moving object by threshold processing (step S23) for the Gaussian distribution parameters output in association with the plurality of clusters output by the EM algorithm. . This threshold processing can be realized by comparing the variance value of the Gaussian distribution parameter with a predetermined value, for example. It can also be realized by comparing the weight value of the mixed distribution with a predetermined value.

次に、動きベクトルクラスタリング部14は、移動物体上動きベクトルとして決定されたクラスタ番号に属する特徴量リストの動きベクトルIDを移動物体上動きベクトルとして出力し(ステップS24)、処理を終了する。この出力としては、特徴量算出部13の特徴量リストを生成する時点で動きベクトルIDに関連付けて動きベクトルの始点、終点も動きベクトルの角度と併せて記録しておき、動きベクトルクラスタリング部14にて移動物体上動きベクトルとして決定された動きベクトルIDに関連付けられた動きベクトルの始点、終点を出力しても良い。以上の処理の結果、図13に示す移動物体上のベクトルが検出されることとなる。   Next, the motion vector clustering unit 14 outputs the motion vector ID of the feature list belonging to the cluster number determined as the moving object motion vector as the moving object motion vector (step S24), and ends the process. As the output, the start point and end point of the motion vector are recorded together with the angle of the motion vector in association with the motion vector ID when the feature amount list is generated by the feature amount calculation unit 13, and is stored in the motion vector clustering unit 14. The start point and end point of the motion vector associated with the motion vector ID determined as the motion vector motion vector may be output. As a result of the above processing, the vector on the moving object shown in FIG. 13 is detected.

以上、本発明を実施形態例に基づき具体的に説明したが、上記実施の形態の説明は、本発明を説明するためのものであって、特許請求の範囲に記載の発明を限定し、或は範囲を減縮する様に解すべきではない。また、本発明の各手段構成は上記実施の形態に限らず、特許請求の範囲に記載の技術的範囲内で種々の変形が可能であることは勿論である。   Although the present invention has been specifically described above based on the embodiments, the description of the above embodiments is for explaining the present invention, and limits the invention described in the claims. Should not be construed as reducing the range. Moreover, each means structure of this invention is not restricted to the said embodiment, Of course, a various deformation | transformation is possible within the technical scope as described in a claim.

以上説明したように、動きベクトル群の角度分布がガウス混合分布に従わないエラーベクトルを除去することで、残りの動きベクトル群をガウス混合分布で近似できる状態にし、そのうえで動きベクトルクラスタリングにてEMアルゴリズムによって動きベクトル群をクラスタリングすることで、動きベクトル群のうち移動物体によって引き起こされた動きベクトルを特定することが可能になる。   As described above, the error vector whose motion vector group angular distribution does not follow the Gaussian mixture distribution is removed, so that the remaining motion vector group can be approximated by the Gaussian mixture distribution, and then the EM algorithm is performed by motion vector clustering. By clustering the motion vector group by the above, it becomes possible to specify the motion vector caused by the moving object from the motion vector group.

また、特徴量算出部13では、EMアルゴリズムの入力として、動きベクトルの角度が不連続関数として扱われる(0°と360°が本来同じなのに異なると扱われる)ことを回避するため、(2)式、(3)式を導入することにより、クラスタリング精度が落ちることを回避することができる。   Further, in order to avoid that the angle of the motion vector is treated as a discontinuous function as an input of the EM algorithm (0) and 360 ° are treated as being different from each other in the feature quantity calculation unit 13 (2) By introducing the equation (3), it is possible to avoid a decrease in clustering accuracy.

また、フレーム画像F(t)を対象にテンプレートマッチング処理を施すことで、他画像との比較時に必要な照明変動の考慮が不要な簡易なテンプレートマッチング処理(例えば探索ウィンドウと探索領域内の対象ウィンドウとの画素値の差の絶対値の総和)の適用が可能になる。   Also, by applying the template matching process to the frame image F (t) as a target, a simple template matching process (for example, a search window and a target window in the search area) that does not require consideration of illumination fluctuations required for comparison with other images. The sum of the absolute values of the pixel value differences between the first and second pixels) can be applied.

なお、図1における処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより動きベクトル検出処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   A motion vector detection process is performed by recording a program for realizing the function of the processing unit in FIG. 1 on a computer-readable recording medium, causing the computer system to read and execute the program recorded on the recording medium. May be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer system” includes a WWW system having a homepage providing environment (or display environment). The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

実空間を移動する物体を含むシーンを撮像するカメラによって入力された少なくとも2枚以上のフレーム画像から、動きベクトルを検出し、当該動きベクトルから移動物体上の動きベクトルを検出することが不可欠な用途に適用できる。   Applications where it is essential to detect a motion vector from at least two frame images input by a camera that captures a scene including an object moving in real space, and to detect a motion vector on the moving object from the motion vector Applicable to.

1・・・動きベクトル検出装置、11・・・動きベクトル検出部、12・・・誤検出ベクトル除去部、13・・・特徴量算出部、14・・・動きベクトルクラスタリング部、2・・・記憶部   DESCRIPTION OF SYMBOLS 1 ... Motion vector detection apparatus, 11 ... Motion vector detection part, 12 ... False detection vector removal part, 13 ... Feature-value calculation part, 14 ... Motion vector clustering part, 2 ... Storage

Claims (3)

少なくとも2枚のフレーム画像を入力し、入力した2枚の前記フレーム画像から特徴点の動きベクトルを算出し、算出した前記動きベクトルと、最新時刻のフレーム画像とを出力する動きベクトル検出手段と、
前記最新時刻フレーム画像と、前記動きベクトルから誤検出ベクトルと推測される動きベクトルをテンプレートマッチングを用いて検出し、入力された動きベクトルから、検出した誤検出ベクトルを除いた動きベクトルを出力する誤検出ベクトル除去手段と、
前記誤検出ベクトルを除いた動きベクトルについて、画像上での角度パラメータを算出し、算出した角度パラメータを各動きベクトルに唯一付与された動きベクトルIDを関連付けた特徴量リストを作成し、作成した特徴量リストを出力する特徴量算出手段と、
前記特徴量リスト中の前記動きベクトルをクラスタリングすることにより、前記動きベクトルを決定して出力する動きベクトルクラスタリング手段と
を備えたことを特徴とする動きベクトル検出装置。
Motion vector detection means for inputting at least two frame images, calculating a motion vector of a feature point from the two input frame images, and outputting the calculated motion vector and the latest frame image;
A motion vector that is estimated to be a false detection vector from the latest time frame image and the motion vector is detected using template matching, and an error that outputs a motion vector obtained by removing the detected false detection vector from the input motion vector is output. Detection vector removing means;
For the motion vector excluding the false detection vector, an angle parameter on the image is calculated, a feature amount list in which the calculated angle parameter is associated with a motion vector ID uniquely assigned to each motion vector is created, and the created feature A feature quantity calculating means for outputting a quantity list;
And a motion vector clustering means for determining and outputting the motion vector by clustering the motion vectors in the feature quantity list.
少なくとも2枚のフレーム画像を入力し、入力した2枚の前記フレーム画像から特徴点の動きベクトルを算出し、算出した前記動きベクトルと、最新時刻のフレーム画像とを出力する動きベクトル検出ステップと、
前記最新時刻フレーム画像と、前記動きベクトルから誤検出ベクトルと推測される動きベクトルをテンプレートマッチングを用いて検出し、入力された動きベクトルから、検出した誤検出ベクトルを除いた動きベクトルを出力する誤検出ベクトル除去ステップと、
前記誤検出ベクトルを除いた動きベクトルについて、画像上での角度パラメータを算出し、算出した角度パラメータを各動きベクトルに唯一付与された動きベクトルIDを関連付けた特徴量リストを作成し、作成した特徴量リストを出力する特徴量算出ステップと、
前記特徴量リスト中の前記動きベクトルをクラスタリングすることにより、前記動きベクトルを決定して出力する動きベクトルクラスタリングステップと
を有することを特徴とする動きベクトル検出方法。
A motion vector detection step of inputting at least two frame images, calculating a motion vector of a feature point from the two input frame images, and outputting the calculated motion vector and the latest frame image;
A motion vector that is estimated to be a false detection vector from the latest time frame image and the motion vector is detected using template matching, and an error that outputs a motion vector obtained by removing the detected false detection vector from the input motion vector is output. A detection vector removal step;
For the motion vector excluding the false detection vector, an angle parameter on the image is calculated, a feature amount list in which the calculated angle parameter is associated with a motion vector ID uniquely assigned to each motion vector is created, and the created feature A feature quantity calculating step for outputting a quantity list;
A motion vector clustering step of determining and outputting the motion vector by clustering the motion vectors in the feature quantity list.
動きベクトル検出装置上のコンピュータに動きベクトルを検出させる動きベクトル検出プログラムであって、
少なくとも2枚のフレーム画像を入力し、入力した2枚の前記フレーム画像から特徴点の動きベクトルを算出し、算出した前記動きベクトルと、最新時刻のフレーム画像とを出力する動きベクトル検出ステップと、
前記最新時刻フレーム画像と、前記動きベクトルから誤検出ベクトルと推測される動きベクトルをテンプレートマッチングを用いて検出し、入力された動きベクトルから、検出した誤検出ベクトルを除いた動きベクトルを出力する誤検出ベクトル除去ステップと、
前記誤検出ベクトルを除いた動きベクトルについて、画像上での角度パラメータを算出し、算出した角度パラメータを各動きベクトルに唯一付与された動きベクトルIDを関連付けた特徴量リストを作成し、作成した特徴量リストを出力する特徴量算出ステップと、
前記特徴量リスト中の前記動きベクトルをクラスタリングすることにより、前記動きベクトルを決定して出力する動きベクトルクラスタリングステップと
を前記コンピュータに行わせることを特徴とする動きベクトル検出プログラム。
A motion vector detection program for causing a computer on a motion vector detection device to detect a motion vector,
A motion vector detection step of inputting at least two frame images, calculating a motion vector of a feature point from the two input frame images, and outputting the calculated motion vector and the latest frame image;
A motion vector that is estimated to be a false detection vector from the latest time frame image and the motion vector is detected using template matching, and an error that outputs a motion vector obtained by removing the detected false detection vector from the input motion vector is output. A detection vector removal step;
For the motion vector excluding the false detection vector, an angle parameter on the image is calculated, a feature amount list in which the calculated angle parameter is associated with a motion vector ID uniquely assigned to each motion vector is created, and the created feature A feature quantity calculating step for outputting a quantity list;
A motion vector detection program that causes the computer to perform a motion vector clustering step of determining and outputting the motion vector by clustering the motion vectors in the feature quantity list.
JP2011085541A 2011-04-07 2011-04-07 Motion vector detection apparatus, motion vector detection method, and motion vector detection program Expired - Fee Related JP5643147B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011085541A JP5643147B2 (en) 2011-04-07 2011-04-07 Motion vector detection apparatus, motion vector detection method, and motion vector detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011085541A JP5643147B2 (en) 2011-04-07 2011-04-07 Motion vector detection apparatus, motion vector detection method, and motion vector detection program

Publications (2)

Publication Number Publication Date
JP2012221164A true JP2012221164A (en) 2012-11-12
JP5643147B2 JP5643147B2 (en) 2014-12-17

Family

ID=47272615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011085541A Expired - Fee Related JP5643147B2 (en) 2011-04-07 2011-04-07 Motion vector detection apparatus, motion vector detection method, and motion vector detection program

Country Status (1)

Country Link
JP (1) JP5643147B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015166915A (en) * 2014-03-03 2015-09-24 トヨタ自動車株式会社 Surrounding monitoring device and object determination method
WO2018110541A1 (en) 2016-12-13 2018-06-21 日本電信電話株式会社 Image difference determination device and method, change period estimation device and method, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000331169A (en) * 1999-05-20 2000-11-30 Fujitsu Ltd Method and device for measuring motion vector of image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000331169A (en) * 1999-05-20 2000-11-30 Fujitsu Ltd Method and device for measuring motion vector of image

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNJ200910102359; 舌間英彦 外1名: '移動カメラで撮影された移動物体上の特徴点の分類' 電子情報通信学会1998年総合大会講演論文集 情報・システム2 , 19980306, 第359頁, 社団法人電子情報通信学会 *
JPN6014014864; 舌間英彦 外1名: '移動カメラで撮影された移動物体上の特徴点の分類' 電子情報通信学会1998年総合大会講演論文集 情報・システム2 , 19980306, 第359頁, 社団法人電子情報通信学会 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015166915A (en) * 2014-03-03 2015-09-24 トヨタ自動車株式会社 Surrounding monitoring device and object determination method
WO2018110541A1 (en) 2016-12-13 2018-06-21 日本電信電話株式会社 Image difference determination device and method, change period estimation device and method, and program
US11398056B2 (en) 2016-12-13 2022-07-26 Nippon Telegraph And Telephone Corporation Image difference deterination device and method that determines whether or not there is a temporary difference between images and non-transitory computer-readable medium

Also Published As

Publication number Publication date
JP5643147B2 (en) 2014-12-17

Similar Documents

Publication Publication Date Title
JP6942488B2 (en) Image processing equipment, image processing system, image processing method, and program
JP6430064B2 (en) Method and system for aligning data
EP3542304B1 (en) System and method for object tracking
JP6655878B2 (en) Image recognition method and apparatus, program
US8233661B2 (en) Object tracking apparatus and object tracking method
JP5715833B2 (en) Posture state estimation apparatus and posture state estimation method
US9721387B2 (en) Systems and methods for implementing augmented reality
US20180232906A1 (en) Visual odometry using object priors
JP5166102B2 (en) Image processing apparatus and method
EP2660753B1 (en) Image processing method and apparatus
EP2591460A1 (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
WO2020082258A1 (en) Multi-objective real-time tracking method and apparatus, and electronic device
KR20120044484A (en) Apparatus and method for tracking object in image processing system
KR102552968B1 (en) Method of tracking multiple objects and apparatus for the same
CN111382637B (en) Pedestrian detection tracking method, device, terminal equipment and medium
JP2018124689A (en) Moving body detection device, moving body detection system and moving body detection method
JP2019512821A (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
JP2009129237A (en) Image processing apparatus and its method
JP6103765B2 (en) Action recognition device, method and program, and recognizer construction device
JP5848665B2 (en) Moving object motion vector detection apparatus, moving object motion vector detection method, and program
JP2017084065A (en) Identity theft detection device
JP6305856B2 (en) Image processing apparatus, image processing method, and program
JP6434718B2 (en) Face image recognition apparatus and face image recognition program
JP5643147B2 (en) Motion vector detection apparatus, motion vector detection method, and motion vector detection program
JP2021144359A (en) Learning apparatus, estimation apparatus, learning method, and program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130606

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130726

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141028

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141030

R150 Certificate of patent or registration of utility model

Ref document number: 5643147

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees