JP2011043922A - Device and method for recognizing traveling object, and program - Google Patents
Device and method for recognizing traveling object, and program Download PDFInfo
- Publication number
- JP2011043922A JP2011043922A JP2009190474A JP2009190474A JP2011043922A JP 2011043922 A JP2011043922 A JP 2011043922A JP 2009190474 A JP2009190474 A JP 2009190474A JP 2009190474 A JP2009190474 A JP 2009190474A JP 2011043922 A JP2011043922 A JP 2011043922A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature
- feature point
- point
- correlation value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、移動体認識装置、移動体認識方法及びプログラムに関し、更に詳しくは、視野内を移動する移動体を認識する移動体認識装置、視野内を移動する移動体を認識するための移動体認識方法及びプログラムに関する。 The present invention relates to a mobile object recognition apparatus, a mobile object recognition method, and a program. More specifically, the present invention relates to a mobile object recognition apparatus that recognizes a mobile object that moves within a visual field, and a mobile object that recognizes a mobile object that moves within a visual field. The present invention relates to a recognition method and a program.
近年、自車周辺の移動体や、運転者の死角から自車に接近する移動体を検出する運転支援システムの実用化が進んでいる。この種のシステムでは、その性質上、短時間に精度よく移動体を検出する必要がある。そこで、画像処理を精度よく迅速に行うための方法が種々提案されている(例えば特許文献1乃至3参照)。 2. Description of the Related Art In recent years, driving support systems that detect a moving body around the own vehicle and a moving body approaching the own vehicle from a driver's blind spot have been put into practical use. In this type of system, it is necessary to detect a moving body with high accuracy in a short time due to its nature. Therefore, various methods for performing image processing with high accuracy and speed have been proposed (see, for example, Patent Documents 1 to 3).
特許文献1に記載された方法では、移動体を撮像して得られた画像が例えば、第1画像と第2画像とに分割される。そして、危険度に応じて第1画像及び第2画像のうちから一方の画像が選択され、選択された画像についてのみ画像処理が実行される。この方法を用いることにより、移動体の移動方向を短時間に検出することが可能となる。 In the method described in Patent Literature 1, an image obtained by imaging a moving body is divided into, for example, a first image and a second image. Then, one image is selected from the first image and the second image according to the degree of risk, and image processing is executed only for the selected image. By using this method, the moving direction of the moving body can be detected in a short time.
また、特許文献2に記載された方法では、移動体が移動する際に、橋の欄干やガードレールなどのように周期的に画像中に現れる障害物に起因するオプティカルフローと、移動体に起因するオプティカルフローとが識別される。この方法を用いることにより、障害物に起因するオプティカルフローを除外して、検出対象物である移動体に起因するオプティカルフローのみに基づいて、移動体の検出を行うことができる。したがって、移動体の検出に用いる情報量を少なくすることができ、結果的に迅速に移動体を検出することが可能となる。 Further, in the method described in Patent Document 2, when the moving body moves, the optical flow caused by an obstacle that periodically appears in an image such as a railing of a bridge or a guardrail, and the moving body. An optical flow is identified. By using this method, an optical flow caused by an obstacle can be excluded, and a moving object can be detected based only on the optical flow caused by the moving object that is the detection target. Therefore, the amount of information used for detecting the moving body can be reduced, and as a result, the moving body can be detected quickly.
また、特許文献3に記載された方法では、1フレーム分だけ時間の異なる画像間のオプティカルフローの中から、最もマッチ度が低いベクトルが検出される。この方法を用いることにより、最も多くの移動体の移動情報を有するベクトルのみに基づいて、移動体の検出を行うことができる。したがって、移動体の検出に用いる情報量を少なくすることができ、結果的に迅速に移動体を検出することが可能となる。 Further, in the method described in Patent Document 3, the vector with the lowest matching degree is detected from the optical flows between images that are different in time by one frame. By using this method, it is possible to detect the moving object based only on the vector having the most movement information of the moving object. Therefore, the amount of information used for detecting the moving body can be reduced, and as a result, the moving body can be detected quickly.
上述した方法それぞれは、画像処理における演算量を削減するために、演算の対象となる領域を制限するものである。しかしながら、画像間の対応する領域を探索するためには、畳み込み演算が必要となる。この、畳み込み演算は、演算量が多く、探索する領域が広いと畳み込み演算に長時間を要することになる。このため、上記3つの方法を実行しようとすると、高速な演算装置が必要となる。 Each of the above-described methods limits the area to be calculated in order to reduce the amount of calculation in image processing. However, in order to search for a corresponding region between images, a convolution operation is required. This convolution calculation has a large calculation amount, and if the search area is wide, the convolution calculation takes a long time. For this reason, when trying to execute the above three methods, a high-speed arithmetic device is required.
また、探索対象となる画像を構成する画素の輝度が低い場合や、対応する領域を構成する画素の輝度と、その周囲の領域の画素の輝度との差が小さい場合には、対応する領域を正確に探索することが困難となり、オプティカルフローに誤差が含まれることが考えられる。 In addition, when the luminance of the pixels constituting the search target image is low or when the difference between the luminance of the pixels constituting the corresponding region and the luminance of the pixels in the surrounding region is small, the corresponding region is selected. It may be difficult to search accurately, and errors may be included in the optical flow.
本発明は、上述の事情の下になされたもので、短時間に精度良く移動体を検出することができる移動体認識装置等を提供することを目的とする。 The present invention has been made under the above circumstances, and an object thereof is to provide a moving body recognition apparatus and the like that can detect a moving body with high accuracy in a short time.
上記目的を達成するために、本発明の移動体認識装置は、移動する移動体を順次撮像して得られた第1画像及び第2画像それぞれを構成する画素についての特徴量を演算する特徴量演算手段と、特徴量に基づいて、第1画像及び第2画像それぞれの特徴点を抽出する特徴点抽出手段と、第1画像の特徴点の特徴量と、第2画像の特徴点それぞれの特徴量との差分を演算し、差分が所定の範囲内となる第2画像の特徴点をそれぞれ選択する選択手段と、第1画像の特徴点と、選択された第2画像の特徴点それぞれとの相関値を演算する相関値演算手段と、第1画像の特徴点を始点とし、始点としての特徴点に対する相関値が最も高い第2画像の特徴点を終点とするオプティカルフローを生成するオプティカルフロー生成手段と、を備える。 In order to achieve the above object, the mobile object recognition apparatus of the present invention calculates a feature value for pixels constituting each of the first image and the second image obtained by sequentially imaging a moving mobile object. A calculation means, a feature point extraction means for extracting each feature point of the first image and the second image based on the feature quantity, a feature quantity of the feature point of the first image, and a feature point of each feature point of the second image A selection means for calculating a difference between the second image and a feature point of the second image in which the difference is within a predetermined range; a feature point of the first image; and a feature point of the selected second image. Correlation value calculation means for calculating a correlation value, and optical flow generation for generating an optical flow having a feature point of the first image as a start point and a feature point of the second image having the highest correlation value with respect to the feature point as the start point as an end point Means.
また、移動体認識装置は、第1画像の特徴点にそれぞれ対応する探索領域を、第2画像上にそれぞれ設定する探索領域設定手段を更に備え、選択手段は、探索領域内で第2画像の特徴点の選択を実行することとしてもよい。 The mobile object recognition apparatus further includes search area setting means for setting search areas respectively corresponding to the feature points of the first image on the second image, and the selection means includes the second image in the search area. The selection of feature points may be executed.
また、特徴点抽出手段は、特徴量の算出対象となる算出対象画素の特徴量と、算出対象画素の周囲の画素の平均輝度とに基づいて、特徴点を抽出することとしてもよい。 Further, the feature point extracting means may extract the feature points based on the feature amount of the calculation target pixel that is the target of calculation of the feature amount and the average luminance of pixels around the calculation target pixel.
また、特徴点抽出手段は、特徴量の算出対象となる算出対象画素の特徴量の、算出対象画素の周囲にある画素の平均輝度に対する割合が所定の値以上の場合に、算出対象画素に対応する特徴点を抽出することとしてもよい。 In addition, the feature point extraction unit corresponds to the calculation target pixel when the ratio of the feature quantity of the calculation target pixel that is the calculation target of the feature quantity to the average luminance of the pixels around the calculation target pixel is equal to or greater than a predetermined value. The feature points to be extracted may be extracted.
また、相関値演算手段は、第1画像の特徴点を含む画像をテンプレートとし、テンプレートと、第2画像の特徴点を含む領域内の画像との相関値を算出することとしてもよい。 The correlation value calculating means may calculate an correlation value between the template and an image in an area including the feature point of the second image using an image including the feature point of the first image as a template.
上記目的を達成するために、本発明の移動体認識方法は、移動する移動体を順次撮像して得られた第1画像及び第2画像それぞれを構成する画素についての特徴量を演算する工程と、特徴量に基づいて、第1画像及び第2画像それぞれの特徴点を抽出する工程と、第1画像の特徴点の特徴量と、第2画像の特徴点それぞれの特徴量との差分を演算し、差分が所定の範囲内となる第2画像の特徴点をそれぞれ選択する工程と、第1画像の特徴点と、選択された第2画像の特徴点それぞれとの相関値を演算する工程と、第1画像の特徴点を始点とし、始点としての特徴点に対する相関値が最も高い第2画像の特徴点を終点とするオプティカルフローを生成する工程と、を含む。 In order to achieve the above object, a moving object recognition method of the present invention includes a step of calculating feature amounts for pixels constituting each of a first image and a second image obtained by sequentially imaging moving moving objects, and Based on the feature amount, the step of extracting the feature points of the first image and the second image, and the difference between the feature amount of the feature point of the first image and the feature amount of each feature point of the second image is calculated. And selecting each of the feature points of the second image whose difference is within a predetermined range, and calculating a correlation value between each of the feature points of the first image and each of the feature points of the selected second image. Generating an optical flow having a feature point of the first image as a start point and a feature point of the second image having the highest correlation value with respect to the feature point as the start point as an end point.
上記目的を達成するために、本発明のプログラムは、コンピュータを、移動する移動体を順次撮像して得られた第1画像及び第2画像それぞれを構成する画素についての特徴量を演算する手段と、特徴量に基づいて、第1画像及び第2画像それぞれの特徴点を抽出する手段と、第1画像の特徴点の特徴量と、第2画像の特徴点それぞれの特徴量との差分を演算し、差分が所定の範囲内となる第2画像の特徴点をそれぞれ選択する手段と、第1画像の特徴点と、選択された第2画像の特徴点それぞれとの相関値を演算する手段と、第1画像の特徴点を始点とし、始点としての特徴点に対する相関値が最も高い第2画像の特徴点を終点とするオプティカルフローを生成する手段と、として機能させる。 In order to achieve the above object, a program according to the present invention comprises means for calculating a feature amount for pixels constituting each of a first image and a second image obtained by sequentially imaging a moving body. Based on the feature amount, a means for extracting the feature point of each of the first image and the second image, and the difference between the feature amount of the feature point of the first image and the feature amount of each feature point of the second image is calculated. And means for selecting each feature point of the second image within which the difference falls within a predetermined range; and means for calculating a correlation value between each feature point of the first image and each feature point of the selected second image And a means for generating an optical flow having a feature point of the first image as a start point and a feature point of the second image having the highest correlation value with respect to the feature point as the start point as an end point.
本発明によれば、短時間に精度良く移動体を検出することができる。 According to the present invention, it is possible to accurately detect a moving body in a short time.
《第1の実施形態》
以下、本発明の第1の実施形態を、図1〜図11を参照しつつ説明する。図1は本実施形態にかかる移動体認識システム10の概略的な構成を示すブロック図である。移動体認識システム10は、例えば撮像装置20によって順次撮像される画像に含まれる移動体を認識し検出するシステムである。この移動体認識システム10は、図1に示されるように、撮像装置20と、撮像装置20の視野内を移動する移動体を認識する移動体認識装置30とを有している。
<< First Embodiment >>
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing a schematic configuration of a moving
撮像装置20は、被写体を撮像することにより取得した画像を電気信号に変換して出力する装置である。撮像装置20は、例えば図2に示されるように、車両100の後方に取り付けられたカメラ20a介して、車両100の後方を走行する移動体としての車両を撮像し、撮像して得た画像に関する情報を移動体認識装置30へ出力する。
The
例えば、撮像装置20によって、自車よりも早い速度で右車線を走行する移動体101が順次撮像されると、図3に示される画像P1、図4に示される画像P2が順次撮像される。画像P1及び画像P2に関する情報は、移動体認識装置30へ出力される。
For example, when the
図1に戻り、移動体認識装置30は、記憶部31、特徴点抽出部32、探索領域設定部33、特徴点選択部34、相関値演算部35、オプティカルフロー生成部36、グルーピング処理部37、及び移動体検出部38を含んで構成されている。
Returning to FIG. 1, the mobile
記憶部31は、撮像装置20から順次出力される画像に関する情報を時系列的に記憶する。また、上記各部32〜38の処理結果としての情報を順次記憶する。
The
特徴点抽出部32は、記憶部31に記憶された画像を構成する画素それぞれについての特徴量を算出し、この特徴量に基づいて画像に含まれる特徴点を抽出する。画像上に規定されたXY座標系で示される画素M(x、y)の特徴量f(x、y)は、画像の輝度勾配を示す関数I(x、y)を用いると下記の式(1)によって表される。
The feature
ただし、Ixx、Iyy、Ixyはそれぞれ下記の式(2)〜(3)によってそれぞれ表され、kは定数である。 However, Ixx, Iyy, and Ixy are respectively represented by the following formulas (2) to (3), and k is a constant.
特徴点抽出部32は、まず、式(1)を用いて画像を構成する画素M(x、y)に対する特徴量f(x、y)をそれぞれ算出する。次に、特徴点抽出部32は、画素M(x、y)の周囲にある画素の輝度の平均値AVG(x、y)を算出し、特徴量f(x、y)を、輝度の平均値AVG(x、y)を4乗したもので除する。特徴点抽出部32は、これにより得られた比較値V(=f(x、y)/AVG(x、y)4)を、予め設定された閾値と比較して、比較値Vが閾値以上の場合に、このときの画素M(x、y)を特徴点として抽出する。ここで、特徴量f(x、y)を輝度の平均値AVG(x、y)を4乗したもので除する理由は、特徴量f(x、y)を輝度に関して正規化するためである。
The feature
図5は、画像P1から抽出された移動体101に関連する特徴点a1〜a6を模式的に示す図である。また、図6は、画像P2から抽出された移動体101に関連する特徴点b1〜b18を模式的に示す図である。画像P1及び画像P2では、移動体101の輪郭が急峻に変化する不連続点や、移動体101を構成するパーツの形状が不連続に変化する点などが抽出される。
FIG. 5 is a diagram schematically showing feature points a 1 to a 6 related to the moving
特徴点抽出部32は、特徴点の抽出が完了すると、抽出した特徴点に関する情報を記憶部31へ出力するとともに、特徴点の抽出が完了したことを探索領域設定部33へ通知する。
When the feature point extraction is completed, the feature
図1に戻り、探索領域設定部33は、順次撮像された1組の画像のうち最初に撮像された第1画像の特徴点を順次選択するとともに、選択した特徴点に対応する探索領域を、第1画像の次に撮像された第2画像に設定する。
Returning to FIG. 1, the search
例えば、図7には、1組の画像P1及びP2のうち、最初に撮像された画像P1上の特徴点a1に対応した探索領域F1が示されている。この探索領域F1は、画像P1上の特徴点a1に対応する特徴点が含まれると予想される領域である。探索領域F1は、具体的には、画像P1上の特徴点a1を終点とし画像P1が撮像される前に撮像された画像上の特徴点を始点とするオプティカルフローを用いて予想することが可能な移動体101の移動速度、移動方向などを考慮して決定することができる。探索領域設定部33は、画像P1上のすべての特徴点a1〜a6についての探索領域F1〜F6(画像P2の部分領域)を、画像P2上に設定する。
For example, FIG. 7 shows a search area F 1 corresponding to the feature point a 1 on the first image P1 of the pair of images P1 and P2. The search area F 1 is an area where a feature point corresponding to the feature point a 1 on the image P 1 is expected to be included. Specifically, the search area F 1 is predicted using an optical flow having the feature point a 1 on the image P 1 as the end point and the feature point on the image captured before the image P 1 is captured as the start point. Can be determined in consideration of the moving speed, moving direction, etc. The search
探索領域設定部33は、探索領域の設定が完了すると、探索領域に関する情報を記憶部31へ出力するとともに、探索領域の設定が完了したことを特徴点選択部34へ通知する。
When the setting of the search area is completed, the search
図1に戻り、特徴点選択部34は、第1画像の特徴点に対応するように第2画像に設定された探索領域から、第1画像の特徴点の特徴量と同等の特徴量を有する特徴点を選択する。
Returning to FIG. 1, the feature
例えば、特徴点選択部34は、図5に示される特徴点a1の特徴量と、図7に示される探索領域F1内にある画像P2の4つの特徴点b1,b3,b4,b9それぞれの特徴量を比較する。そして、特徴点a1の特徴量との差分が、予め設定された閾値以下となる特徴点を選択する。特徴点選択部34は、特徴点a2〜a6について設定された探索領域F2〜F6からも、同様の要領で特徴点を選択する。
For example, the feature
図1に戻り、相関値演算部35は、順次撮像された1組の画像のうちの最初に撮像された第1画像の特徴点を順次選択する。そして、この選択した特徴点と、この特徴点について設定された第2画像の探索領域内から選択された特徴点との相関値を算出する。
Returning to FIG. 1, the correlation
具体的には、相関値演算部35は、まず、図8に示されるように、画像P1の特徴点a1を中心とする長方形の画像(画像P1の部分画像)をテンプレートT1として規定する。このテンプレートT1は、M行N列のマトリクス状に配置された画素からなる画像である。また、以下の説明では、テンプレートT1の座標とは、テンプレートの中心の座標をいうものとする。
Specifically, the correlation
次に、相関値演算部35は、特徴点b1,b3,b4,b9のうち、特徴点選択部34によって選択された特徴点を含む画像と、テンプレートT1とをマッチングさせたときの相関値Rを算出する。この相関値Rの算出は、例えば正規化相互相関を示す下記の式(5)を用いることができる。なお、I(i,j)はマッチング対象となる画像の、i行目かつj列目に位置する画素の輝度である。また、T(i,j)はテンプレートTの、i行目かつj列目に位置する画素の輝度である。また、IAVGはマッチング対象となる画像を構成する画素の輝度の平均値であり、TAVGは、テンプレートを構成する画素の輝度の平均値である。IAVG及びTAVGは下記の式(6)及び式(7)で示される。
Next, the correlation
相関値演算部35は、テンプレートT1に含まれる特徴点a1と、探索領域F1内に含まれる特徴点b1,b3,b4,b9のうちから選択した特徴点とを一致させたときの、テンプレートT1と、このテンプレートT1と重なる対象画像との相関値Rを算出する。例えば、特徴点選択部34によって、探索領域F1内の特徴点b1が選択された場合には、相関値演算部35は、テンプレートT1の特徴点a1が特徴点b1に一致するように、テンプレートT1を画像P2に重ねる。そして、画像P2のテンプレートT1と重なった対象画像と、テンプレートT1との相関値Rを、上記式(5)に基づいて算出する。
The correlation
次に、図9を参照するとわかるように、相関値演算部35は、探索領域F1内に、特徴点b1を中心とし、テンプレートT1より大きいマッチング領域MAを規定する。そして、テンプレートT1を、マッチング領域MA内で所定のピッチで移動させながら、テンプレートT1と、このテンプレートT1と重なる対象画像との相関値Rを、上記式(5)に基づいて順次算出する。
Next, as can be seen with reference to FIG. 9, the
相関値演算部35は、画像P1の特徴点a2〜a6と、特徴点a2〜a6それぞれについて設定された探索領域F2〜F6についても、上述と同様の処理を実行する。
The
相関値演算部35は、相関値の算出が完了すると、算出した相関値に関する情報を記憶部31へ出力するとともに、相関値の算出が完了したことをオプティカルフロー生成部36へ通知する。
When the calculation of the correlation value is completed, the correlation
図1に戻り、オプティカルフロー生成部36は、相関値演算部35によって算出された相関値に基づいて、第1画像の特徴点を始点とし、第2画像の特徴点或いはその近傍を終点とするオプティカルフローを生成する。
Returning to FIG. 1, based on the correlation value calculated by the
例えば、オプティカルフロー生成部36は、図9において、テンプレートT1と探索領域F1内の画像との相関値が最も高かったときの、画像P2上のテンプレートT1の位置座標(X21、Y21)を新たな特徴点として特定する。そして、位置座標(X21、Y21)を終点E1とし、特徴点a1の画像P上の位置座標(X11、Y11)を始点S1とするオプティカルフローを画像P1及び画像P2に共通するXY座標系に規定する。オプティカルフロー生成部36は、上述と同様の処理を、画像P1上の特徴点a2〜a6について実行し、一例として図10に示されるように、始点S1〜S6と終点E1〜E6とで規定される1群のオプティカルフローを生成する。
For example, the
オプティカルフロー生成部36は、オプティカルフローを生成すると、このオプティカルフローに関する情報を記憶部31へ出力するとともに、オプティカルフローの生成が完了したことをグルーピング処理部37へ通知する。
When the optical flow is generated, the optical
図1に戻り、グルーピング処理部37は、生成された1群のオプティカルフローのグルーピングを行う。図10に示されるように、本実施形態では説明の便宜上、移動体101に関するオプティカルフローが6本である場合について説明した。しかしながら、実際は、移動体101を撮像した画像からは、数十或いは数百の特徴点を抽出することができ、数十或いは数百本のオプティカルフローを規定することができる。
Returning to FIG. 1, the
グルーピング処理部37は、数十或いは数百本のオプティカルフローのうちから、ある程度のノイズ成分を多く含むオプティカルフローを除外し、残りのオプティカルフローをグルーピングする。例えば、移動体101が完全な直線運動をしている場合には、各オプティカルフローと一致する直線は一点(消失点)で交わるはずである。そこで、グルーピング処理部37は、オプティカルフローと一致する直線が、他のオプティカルフローと一致する直線が収束する消失点から著しく離れている場合には、このオプティカルフローを除外し、残りのオプティカルフローを同一の移動体に関連するオプティカルフローとみなしてグルーピングする。
The
グルーピング処理部37は、オプティカルフローのグルーピングが完了すると、グルーピングしたオプティカルフローに関する情報を記憶部31へ出力するとともに、グルーピングが完了したことを、移動体検出部38へ通知する。
When the optical flow grouping is completed, the
移動体検出部38は、グルーピングされたオプティカルフローに基づいて、自車と移動体の距離、自車と移動体の相対速度及び相対移動方向などを検出し出力する。例えば、移動体検出部38は、一群のオプティカルフローの始点の配置と、終点の配置との相違から移動体の相対速度及び相対移動方向を検出し出力する。
The moving
以上説明したように、本第1の実施形態では、相関値演算部35によって、画像P1の特徴点を含むテンプレートTを用いたマッチング処理が行われる前に、特徴点選択部34によって、画像P2に設定された探索領域からマッチング処理を行う対象となる特徴点が選択される。そして、特徴点選択部34によって選択された特徴点を含む画像についてのみ、テンプレートTを用いたマッチング処理が実行される。このため、マッチング処理を実行することにより得られる相関値が高いと予想される領域についてのみ、マッチング処理を実行することができ、結果的に短時間に精度よく移動体を検出することが可能となる。
As described above, in the first embodiment, before the matching process using the template T including the feature point of the image P1 is performed by the correlation
また、本第1の実施形態では、マッチング処理を実行することにより得られる相関値が高いと予想される領域についてのみ、マッチング処理が実行される。したがって、相互に特徴量が低い画像P1の特徴点と画像P2の特徴点とが、マッチング処理の誤りによって相互に対応づけられることを回避することが可能となる。 In the first embodiment, the matching process is executed only for an area where the correlation value obtained by executing the matching process is expected to be high. Therefore, it is possible to avoid the feature points of the image P1 and the feature points of the image P2 having low mutual feature amounts from being associated with each other due to an error in the matching process.
また、本第1の実施形態では、特徴点抽出部32は、画像P1及び画像P2それぞれを構成する画素の特徴量と、特徴量の算出対象となる画素の周囲に存在する画素の平均輝度とを考慮して、画像P1及び画像P2から特徴点を抽出する。したがって、撮像された画像の明るさ、すなわち画像を構成する画素それぞれの輝度に関わらず精度よく特徴点を抽出することが可能となる。
Further, in the first embodiment, the feature
具体的には、一般に画像中の明るい領域はコントラストが高く、特徴量が大きくなる傾向がある。一方、暗い領域ではコントラストが低く、特徴量が小さくなる傾向がある。このため、単に画素について算出した特徴量を所定の閾値と比較すると、明るい領域では、多数の特徴点が抽出され、暗い領域では少数の特徴点が抽出される結果になる。本実施形態にでは、特徴量の算出対象となる画素の周囲に存在する画素の平均輝度を考慮して、特徴量が算出されるため、撮像された画像の明るさに関わらず、適当な特徴点を抽出することが可能となる。
《第2の実施形態》
次に、本発明の第2の実施形態を、図11〜図14を参照しつつ説明する。なお、第1の実施形態と同一又は同等の構成については、同等の符号を用いるとともに、その説明を省略又は簡略する。
Specifically, in general, a bright region in an image has a high contrast and a feature amount tends to increase. On the other hand, in a dark region, the contrast is low and the feature amount tends to be small. For this reason, when the feature amount calculated for the pixel is simply compared with a predetermined threshold, a large number of feature points are extracted in a bright region, and a small number of feature points are extracted in a dark region. In the present embodiment, since the feature amount is calculated in consideration of the average luminance of the pixels existing around the pixel whose feature amount is to be calculated, an appropriate feature is obtained regardless of the brightness of the captured image. It becomes possible to extract points.
<< Second Embodiment >>
Next, a second embodiment of the present invention will be described with reference to FIGS. In addition, about the structure same or equivalent to 1st Embodiment, while using an equivalent code | symbol, the description is abbreviate | omitted or simplified.
本実施形態にかかる移動体認識システム10は、移動体認識装置30が、一般的なコンピュータ、又はマイクロコンピュータなどの装置と同様の構成によって実現されている点で、第1の実施形態にかかる移動体認識システム10と相違している。
The mobile
図11は、移動体認識システム10の物理的な構成を示すブロック図である。図11に示されるように、移動体認識システム10は、撮像装置20と、コンピュータからなる移動体認識装置30とから構成されている。
FIG. 11 is a block diagram showing a physical configuration of the mobile
移動体認識装置30は、CPU(Central Processing Unit)30a、主記憶部30b、補助記憶部30c、表示部30d、入力部30e、インターフェイス部30f、及び上記各部を相互に接続するシステムバス30gを含んで構成されている。
The moving
CPU30aは、補助記憶部30cに記憶されているプログラムに従って、撮像装置20によって取得された画像に対して後述する処理を実行する。
CPU30a performs the process mentioned later with respect to the image acquired by the
主記憶部30bは、RAM(Random Access Memory)等を含んで構成され、CPU30aの作業領域として用いられる。
The
補助記憶部30cは、ROM(Read Only Memory)、磁気ディスク、半導体メモリ等の不揮発性メモリを含んで構成されている。この補助記憶部30cは、CPU30aが実行するプログラム、及び各種パラメータなどを記憶している。また、撮像装置20から出力される画像に関する情報、及びCPU30aによる処理結果などを含む情報を順次記憶する。
The
表示部30dは、CRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)などを含んで構成され、CPU30aの処理結果を表示する。
The
入力部30eは、キーボードやマウス等のポインティングデバイスを含んで構成されている。オペレータの指示は、この入力部30eを介して入力され、システムバス30gを経由してCPU30aに通知される。
The input unit 30e includes a pointing device such as a keyboard and a mouse. The operator's instruction is input via the input unit 30e and notified to the
インターフェイス部30fは、シリアルインターフェイスまたはLAN(Local Area Network)インターフェイス等を含んで構成されている。撮像装置20は、インターフェイス部30fを介してシステムバス30gに接続される。
The interface unit 30f includes a serial interface or a LAN (Local Area Network) interface. The
図12のフローチャートは、CPU30aによって実行されるプログラムの一連の処理アルゴリズムに対応している。以下、図12を参照しつつ、移動体認識装置30が実行する処理について説明する。なお、この処理は、移動体認識システム10が起動され、撮像装置20によって撮像された画像に関する情報が出力された後に実行される。また、前提として、撮像装置20からは、図5に示される画像P1、及び図6に示される画像P2が順次出力され、画像P1については、特徴点a1〜a6が既に抽出されているものとする。
The flowchart in FIG. 12 corresponds to a series of processing algorithms of a program executed by the
まず、最初のステップS101では、CPU30aは、撮像装置20によって撮像された画像P2を構成する画素それぞれについての特徴量を算出し、この特徴量に基づいて画像P2に含まれる特徴点を抽出する。図13は、ステップS101で実行されるサブルーチン1を示す図である。CPU30aは、ステップS101での処理を、図13に示されるサブルーチン1を実行することにより実現する。
First, in the first step S101, the
最初のステップS201では、CPU30aは、特徴量を算出する画素の座標を設定する。この座標は、撮像装置20によって撮像された画像P2上のXY座標系上に規定される。
In the first step S201, the
次のステップS202では、CPU30aは、画像P2を構成する画素M(x、y)の周囲にある画素の輝度の平均値AVG(x、y)を算出する。
In the next step S202, the
次のステップS203では、CPU30aは、式(1)を用いて画素M(x、y)に対する特徴量f(x、y)をそれぞれ算出する。
In the next step S203, the
次のステップS204では、CPU30aは、特徴量f(x、y)を、輝度の平均値AVG(x、y)を4乗したもので除して、比較値V(=f(x、y)/AVG(x、y)4)を算出する。
In the next step S204, the
次のステップS205では、CPU30aは、比較値Vが予め設定された閾値以上であるか否かを判断する。比較値Vが閾値以上である場合には、ステップS205での判断が肯定され、CPU30aは、ステップS206へ移行する。一方、比較値Vが閾値以下である場合には、ステップS205での判断が否定され、CPU30aは、ステップS207へ移行する。
In the next step S205, the
次のステップS206では、CPU30aは、画素M(x、y)を画像P2の特徴点として抽出する。
In the next step S206, the
次のステップS207では、画像P2を構成する画素についての処理が完了したか否かを判断する。画素P2のすべての画素について、ステップS201〜S206までの処理が完了していない場合には、ステップS207での判断が否定され、CPU30aは、ステップS201へ戻る。
In the next step S207, it is determined whether or not the processing for the pixels constituting the image P2 is completed. When the processing from step S201 to S206 is not completed for all the pixels P2, the determination in step S207 is denied and the
CPU30aは、ステップS201において、特徴量を算出する画素の座標を再設定し、以降、ステップS207での判断が肯定されるまで、ステップS201〜S207の処理を繰り返し実行する。これにより、図6に示されるように、画像P2からは特徴点b1〜b18が抽出される。画素P2のすべての画素について、ステップS201〜S206までの処理が完了終了すると(ステップS207:Yes)、CPU30aは、サブルーチン1を終了し、次のステップS102へ移行する。
In step S201, the
図12に戻り、次のステップS102では、CPU30aは、画像P1から抽出された特徴点a1〜a6にそれぞれ対応する探索領域を画像P2上に設定する。例えば、図7には、1組の画像P1及びP2のうち、最初に撮像された画像P1上の特徴点a1に対応した探索領域F1が示されている。この探索領域F1は、画像P1上の特徴点a1に対応する特徴点が含まれると予想される領域である。CPU30aは、画像P1上のすべての特徴点a1〜a6についての探索領域F1〜F6を、画像P2上に設定する。
Returning to FIG. 12, in the next step S102, the
次のステップS103では、CPU30aは、相関値の算出を行う。図14は、ステップS103で実行されるサブルーチン2を示す図である。CPU30aは、ステップS103での処理を、図14に示されるサブルーチン2を実行することにより実現する。
In the next step S103, the
最初のステップS301では、CPU30aは、画像P1の特徴点a1を選択する。
In the first step S301,
次のステップS302では、CPU30aは、特徴点a1の特徴量と、特徴点a1に対応する探索領域F1内にある4つの特徴点b1,b3,b4,b9それぞれの特徴量とを比較する。そして、特徴点a1の特徴量との差分が、予め設定された閾値以下となる特徴点を選択する。ここでは、例えば特徴点b1及び特徴点b4が選択されたものとして以下の説明を行う。
In the next step S302,
次のステップS303では、CPU30aは、特徴点a1と、探索領域F1内にある4つの特徴点b1,b3,b4,b9のうちから選択した特徴点b1及び特徴点b4との相関値を算出する。具体的には、CPU30aは、まず、図8に示されるように、画像P1の特徴点a1を中心とする長方形の画像をテンプレートT1として規定する。次に、CPU30aは、テンプレートT1に含まれる特徴点a1と、探索領域F1内に含まれる特徴点b1とを一致させたときの、テンプレートT1と、このテンプレートT1と重なる対象画像との相関値R1を、上記式(5)を用いて算出する。
In the next step S303,
次のステップS304では、算出した相関値Rが最大であるか否かを判断する。算出した相関値Rが過去に算出された相関値よりも大きい場合には、ステップS304での判断が肯定され、CPU30aは、次のステップS305へ移行する。また、算出した相関値Rが過去に算出された相関値よりも小さい場合には、ステップS304での判断が否定され、CPU30aは、ステップS306へ移行する。ここでは、過去に算出さされた相関値がないため、相関値R1が最大となる。したがって、CPU30aは、次のステップS305へ移行する。
In the next step S304, it is determined whether or not the calculated correlation value R is the maximum. When the calculated correlation value R is larger than the correlation value calculated in the past, the determination in step S304 is affirmed, and the
次のステップS305では、CPU30aは、特徴点a1の画像P上の位置座標(X11、Y11)を始点S1とし、ステップS303におけるテンプレートT1の画像P2上の位置座標(ここでは、特徴点b1の座標(X21、Y21))を終点E1とするオプティカルフローを画像P1及び画像P2に共通するXY座標系に規定する。
In the next step S305, the
次のステップS306では、CPU30aは、特徴点b1の周辺領域の探索が完了したか否かを判断する。周辺領域の探索が完了していない場合には、ステップS306での判断は否定され、CPU30aは、次のステップS307へ移行する。一方、完了している場合には、ステップS306での判断は肯定され、CPU30aは、次のステップS308へ移行する。ここでは、特徴点b1の周辺領域の探索が完了していないので、CPU30aは、次のステップS307へ移行する。
In the next step S306,
次のステップS307では、CPU30aは、図9を参照するとわかるように、探索領域F1内に、特徴点b1を中心とし、テンプレートT1より大きいマッチング領域MAを規定する。そして、この領域を内にテンプレートT1と同形状で、中心が特徴点b1からずれたオフセット領域を設定する。
In the next step S307,
以降、CPU30aは、ステップS303〜S307までの処理をマッチング領域MAに対して繰り返し実行する。これにより、マッチング領域MA内に順次設定されるオフセット領域に対する相関値が順次算出される。そして、マッチング領域MA全域についてのマッチングが終了すると、ステップS306での判断が肯定され、CPU30aは、次のステップS308へ移行する。なお、CPU30aは、テンプレートTとオフセット領域との相関値が、ステップS304で最大と判断された場合には、ステップS305において、このときのテンプレートTが位置する座標に対応する点を画像P2の新たな特徴点とし、オプティカルフローの終点を新たな特徴点に変更する。
Thereafter, the
次のステップS308では、CPU30aは、探索領域F1から選択された特徴点すべてについてのマッチング処理が完了したか否かを判断する。探索領域F1から選択されたすべての特徴点についてのマッチング処理が完了していない場合には、ステップS308での判断は否定される。この場合、CPU30aは、ステップS302に戻り、次の特徴点b4を選択し、同様に、ステップS302〜S308までの処理を実行する。以降、CPU30aは、ステップS308での判断が肯定されるまで、ステップS302〜S308までの処理を繰り返し実行する。
In the next step S308,
一方、探索領域F1から選択されたすべての特徴点についてのマッチング処理が完了した場合には、ステップS308での判断は肯定され、CPU30aは、次のステップS309へ移行する。
On the other hand, when the matching process for all of the feature points selected from the search area F 1 is completed, the determination in step S308 is affirmative,
次のステップS309では、CPU30aは、画像P1の特徴点a1〜a6について、ステップS302〜S309までの処理が実行されたか否かを判断する。画像P1の特徴点a1〜a6についての処理が完了していない場合には、ステップS301に戻り、次の特徴点を選択し、同様に、ステップS302〜S309までの処理を実行する。以降、CPU30aは、ステップS309での判断が肯定されるまで、ステップS302〜S309までの処理を繰り返し実行する。一方、画像P1の特徴点a1〜a6についての処理が完了した場合には、ステップS309での判断が肯定され、CPU30aは、サブルーチン2を終了し、次のステップS104に移行する。サブルーチン2が終了したときには、図10に示されるように、一群のオプティカルフローが規定された状態となっている。なお、図10には、6本の移動体101に関するオプティカルフローが示されているが、実際は、数十或いは数百本のオプティカルフローが規定される。
In the next step S309,
図12に戻り、次のステップS104では、CPU30aは、数十或いは数百本のオプティカルフローのうちから、ある程度のノイズ成分を多く含むオプティカルフローを除外し、残りのオプティカルフローをグルーピングする。例えば、移動体101が完全な直線運動をしている場合には、各オプティカルフローと一致する直線は一点(消失点)で交わるはずである。そこで、CPU30aは、オプティカルフローと一致する直線が、他のオプティカルフローと一致する直線群が収束する消失点から著しく離れている場合には、このオプティカルフローを除外し、残りの一群のオプティカルフローを同一の移動体に関連するオプティカルフローと見なしてグルーピングする。
Returning to FIG. 12, in the next step S104, the
次のステップS105では、CPU30aは、グルーピングされたオプティカルフローに基づいて、自車と移動体の距離、自車と移動体の相対速度及び相対移動方向などを検出し出力する。例えば、CPU30aは、一群のオプティカルフローの始点の配置と、終点の配置との相違から移動体の相対速度及び相対移動方向を検出し出力する。
In the next step S105, the
以上説明したように、本第2の実施形態では、画像P1の特徴点を含むテンプレートTを用いたマッチング処理が行われる前に、画像P2に設定された探索領域からマッチング処理を行う対象となる特徴点が選択される。そして、選択された特徴点を含む画像についてのみ、テンプレートTを用いたマッチング処理が実行される。このため、マッチング処理を実行することにより得られる相関値が高いと予想される領域についてのみ、マッチング処理を実行することができ、結果的に短時間に精度よく移動体を検出することが可能となる。 As described above, in the second embodiment, the matching process is performed from the search region set in the image P2 before the matching process using the template T including the feature point of the image P1 is performed. A feature point is selected. Then, the matching process using the template T is executed only for the image including the selected feature point. For this reason, it is possible to execute the matching process only for the region where the correlation value obtained by executing the matching process is expected to be high, and as a result, it is possible to detect the moving object with high accuracy in a short time. Become.
また、本第2の実施形態では、マッチング処理を実行することにより得られる相関値が高いと予想される領域についてのみ、マッチング処理が実行される。したがって、相互に特徴量が低い画像P1の特徴点と画像P2の特徴点とが、マッチング処理の誤りによって相互に対応づけられることを回避することが可能となる。 In the second embodiment, the matching process is executed only for an area where the correlation value obtained by executing the matching process is expected to be high. Therefore, it is possible to avoid the feature points of the image P1 and the feature points of the image P2 having low mutual feature amounts from being associated with each other due to an error in the matching process.
また、本第2の実施形態では、画像P1及び画像P2それぞれを構成する画素の特徴量と、特徴量の算出対象となる画素の周囲に存在する画素の平均輝度とを考慮して、画像P1及び画像P2から特徴点を抽出する。したがって、撮像された画像の明るさ、すなわち画像を構成する画素それぞれの輝度に関わらず精度よく特徴点を抽出することが可能となる。 In the second embodiment, the image P1 is considered in consideration of the feature amount of the pixels constituting each of the images P1 and P2 and the average luminance of the pixels existing around the pixel whose feature amount is to be calculated. Then, feature points are extracted from the image P2. Therefore, it is possible to accurately extract feature points regardless of the brightness of the captured image, that is, the brightness of each pixel constituting the image.
以上、本発明の実施形態について説明したが、本発明は上記実施形態によって限定されるものではない。 As mentioned above, although embodiment of this invention was described, this invention is not limited by the said embodiment.
例えば、上記各実施形態では、式(1)を用いて特徴量f(x、y)を算出したが、本発明はこれに限定されるものではない。例えば、特徴量は、いわゆるKLT特徴量min(λ1、λ2)であってもよい。この場合は、特徴量を上述した平均値AVG(x、y)を2乗したもので除することで比較値Vを算出することができる。なお、λ1及びλ2は、それぞれ下記の式(8)及び式(9)で示される。 For example, in each of the above embodiments, the feature amount f (x, y) is calculated using the equation (1), but the present invention is not limited to this. For example, the feature amount may be a so-called KLT feature amount min (λ1, λ2). In this case, the comparison value V can be calculated by dividing the feature amount by the square of the average value AVG (x, y) described above. Note that λ1 and λ2 are represented by the following equations (8) and (9), respectively.
なお、A〜Cは下記の式(10)で表される。ただし、Ix、Iyは、画像上の位置(x、y)における輝度I(x、y)のX軸方向及びY軸方向の勾配を示す。具体的には、下記の式(11)及び式(12)で表される。 A to C are represented by the following formula (10). Here, Ix and Iy indicate gradients in the X-axis direction and Y-axis direction of the luminance I (x, y) at the position (x, y) on the image. Specifically, it is represented by the following formula (11) and formula (12).
また、上記各実施形態に係る移動体認識装置30の機能は、専用のハードウェアによっても、また、通常のコンピュータシステムによっても実現することができる。
Moreover, the function of the moving
また、第2の実施形態において移動体認識装置30の補助記憶部30cに記憶されているプログラムは、フレキシブルディスク、CD−ROM(Compact Disk Read-Only Memory)、DVD(Digital Versatile Disk)、MO(Magneto-Optical disk)等のコンピュータで読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータにインストールすることにより、上述の処理を実行する装置を構成することとしてもよい。
In the second embodiment, the program stored in the
また、プログラムをインターネット等の通信ネットワーク上の所定のサーバ装置が有するディスク装置等に格納しておき、例えば、搬送波に重畳させて、コンピュータにダウンロード等するようにしても良い。 Further, the program may be stored in a disk device or the like included in a predetermined server device on a communication network such as the Internet, and may be downloaded onto a computer by being superimposed on a carrier wave, for example.
また、プログラムは、通信ネットワークを介して転送しながら起動実行することとしてもよい。 Further, the program may be activated and executed while being transferred via a communication network.
また、プログラムは、全部又は一部をサーバ装置上で実行させ、その処理に関する情報を通信ネットワークを介して送受信しながら、上述の画像処理を実行することとしてもよい。 The program may be executed entirely or partially on the server device, and the above-described image processing may be executed while transmitting / receiving information regarding the processing via the communication network.
なお、上述の機能を、OS(Operating System)が分担して実現する場合又はOSとアプリケーションとの協働により実現する場合等には、OS以外の部分のみを媒体に格納して配布してもよく、また、コンピュータにダウンロード等しても良い。 Note that when the above functions are realized by sharing an OS (Operating System) or when the functions are realized by cooperation between the OS and an application, only the part other than the OS may be stored in a medium and distributed. It may also be downloaded to a computer.
なお、本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施形態及び変形が可能とされるものである。また、上述した実施形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。 It should be noted that the present invention can be variously modified and modified without departing from the broad spirit and scope of the present invention. Further, the above-described embodiment is for explaining the present invention, and does not limit the scope of the present invention.
本発明の移動体認識装置、移動体認識方法及びプログラムは、移動体の認識に適している。 The mobile object recognition apparatus, mobile object recognition method, and program of the present invention are suitable for recognition of a mobile object.
10 移動体認識システム
20 撮像装置
20a カメラ
30 移動体認識装置
30a CPU
30b 主記憶部
30c 補助記憶部
30d 表示部
30e 入力部
30f インターフェイス部
30g システムバス
31 記憶部
32 特徴点抽出部
33 探索領域設定部
34 特徴点選択部
35 相関値演算部
36 オプティカルフロー生成部
37 グルーピング処理部
38 移動体検出部
100 車両
101 移動体
P1,P2 画像
a1〜a6 特徴点
b1〜b18 特徴点
MA マッチング領域
F 探索領域
T テンプレート
DESCRIPTION OF
30b
Claims (7)
前記特徴量に基づいて、前記第1画像及び前記第2画像それぞれの特徴点を抽出する特徴点抽出手段と、
前記第1画像の前記特徴点の前記特徴量と、前記第2画像の前記特徴点それぞれの前記特徴量との差分を演算し、前記差分が所定の範囲内となる前記第2画像の前記特徴点をそれぞれ選択する選択手段と、
前記第1画像の前記特徴点と、前記選択された前記第2画像の前記特徴点それぞれとの相関値を演算する相関値演算手段と、
前記第1画像の前記特徴点を始点とし、前記始点としての前記特徴点に対する前記相関値が最も高い前記第2画像の前記特徴点を終点とするオプティカルフローを生成するオプティカルフロー生成手段と、
を備える移動体認識装置。 A feature amount calculating means for calculating a feature amount for pixels constituting each of the first image and the second image obtained by sequentially capturing moving moving bodies;
Feature point extraction means for extracting feature points of the first image and the second image based on the feature amount; and
The difference between the feature amount of the feature point of the first image and the feature amount of each of the feature points of the second image is calculated, and the feature of the second image is within a predetermined range. A selection means for selecting each of the points;
Correlation value calculating means for calculating a correlation value between the feature point of the first image and each of the feature points of the selected second image;
Optical flow generation means for generating an optical flow starting from the feature point of the first image and having the feature point of the second image having the highest correlation value as the start point as the end point;
A mobile object recognition apparatus comprising:
前記選択手段は、前記探索領域内で前記第2画像の前記特徴点の選択を実行する請求項1に記載の移動体認識装置。 Search area setting means for setting search areas respectively corresponding to the feature points of the first image on the second image;
The moving body recognition apparatus according to claim 1, wherein the selection unit performs selection of the feature point of the second image within the search area.
前記テンプレートと、前記第2画像の前記特徴点を含む領域内の前記画像との前記相関値を算出する請求項1乃至4のいずれか一項に記載の移動体認識装置。 The correlation value calculating means uses an image including the feature points of the first image as a template,
5. The moving object recognition apparatus according to claim 1, wherein the correlation value between the template and the image in an area including the feature point of the second image is calculated.
前記特徴量に基づいて、前記第1画像及び前記第2画像それぞれの特徴点を抽出する工程と、
前記第1画像の前記特徴点の前記特徴量と、前記第2画像の前記特徴点それぞれの前記特徴量との差分を演算し、前記差分が所定の範囲内となる前記第2画像の前記特徴点をそれぞれ選択する工程と、
前記第1画像の前記特徴点と、前記選択された前記第2画像の前記特徴点それぞれとの相関値を演算する工程と、
前記第1画像の前記特徴点を始点とし、前記始点としての前記特徴点に対する前記相関値が最も高い前記第2画像の前記特徴点を終点とするオプティカルフローを生成する工程と、
を含む移動体認識方法。 A step of calculating a feature amount for pixels constituting each of the first image and the second image obtained by sequentially capturing moving moving bodies;
Extracting a feature point of each of the first image and the second image based on the feature amount;
The difference between the feature amount of the feature point of the first image and the feature amount of each of the feature points of the second image is calculated, and the feature of the second image is within a predetermined range. Selecting each of the points;
Calculating a correlation value between the feature point of the first image and each of the feature points of the selected second image;
Generating an optical flow having the feature point of the first image as a start point and the feature point of the second image having the highest correlation value with respect to the feature point as the start point as an end point;
A moving body recognition method.
移動する移動体を順次撮像して得られた第1画像及び第2画像それぞれを構成する画素についての特徴量を演算する手段と、
前記特徴量に基づいて、前記第1画像及び前記第2画像それぞれの特徴点を抽出する手段と、
前記第1画像の前記特徴点の前記特徴量と、前記第2画像の前記特徴点それぞれの前記特徴量との差分を演算し、前記差分が所定の範囲内となる前記第2画像の前記特徴点をそれぞれ選択する手段と、
前記第1画像の前記特徴点と、前記選択された前記第2画像の前記特徴点それぞれとの相関値を演算する手段と、
前記第1画像の前記特徴点を始点とし、前記始点としての前記特徴点に対する前記相関値が最も高い前記第2画像の前記特徴点を終点とするオプティカルフローを生成する手段と、
として機能させるプログラム。 Computer
Means for calculating a feature amount for pixels constituting each of the first image and the second image obtained by sequentially capturing moving moving bodies;
Means for extracting feature points of each of the first image and the second image based on the feature amount;
The difference between the feature amount of the feature point of the first image and the feature amount of each of the feature points of the second image is calculated, and the feature of the second image is within a predetermined range. Means for selecting each of the points;
Means for calculating a correlation value between the feature point of the first image and each of the feature points of the selected second image;
Means for generating an optical flow having the feature point of the first image as a start point and the feature point of the second image having the highest correlation value with respect to the feature point as the start point as an end point;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009190474A JP5365408B2 (en) | 2009-08-19 | 2009-08-19 | Mobile object recognition apparatus, mobile object recognition method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009190474A JP5365408B2 (en) | 2009-08-19 | 2009-08-19 | Mobile object recognition apparatus, mobile object recognition method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011043922A true JP2011043922A (en) | 2011-03-03 |
JP5365408B2 JP5365408B2 (en) | 2013-12-11 |
Family
ID=43831321
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009190474A Expired - Fee Related JP5365408B2 (en) | 2009-08-19 | 2009-08-19 | Mobile object recognition apparatus, mobile object recognition method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5365408B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014010765A (en) * | 2012-07-02 | 2014-01-20 | Sumitomo Electric Ind Ltd | Mobile object detector, image type sensor, and computer program |
WO2014172875A1 (en) * | 2013-04-25 | 2014-10-30 | Harman International Industries, Incorporated | Moving object detection |
US10043276B2 (en) | 2015-09-01 | 2018-08-07 | Canon Kabushiki Kaisha | Image processing method, image processing apparatus, robot apparatus, program, and recording medium |
WO2018159467A1 (en) | 2017-02-28 | 2018-09-07 | Necソリューションイノベータ株式会社 | Mobile entity detector, mobile entity detection method, and computer-readable recording medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5764283A (en) * | 1995-12-29 | 1998-06-09 | Lucent Technologies Inc. | Method and apparatus for tracking moving objects in real time using contours of the objects and feature paths |
JP2004005089A (en) * | 2002-05-31 | 2004-01-08 | Mitsubishi Electric Corp | Image processor and image processing method |
JP2005167657A (en) * | 2003-12-03 | 2005-06-23 | Seiko Epson Corp | Image processor and image processing method |
JP2008282386A (en) * | 2007-05-10 | 2008-11-20 | Honda Motor Co Ltd | Object detector, object detection method, and object detection program |
JP2009020800A (en) * | 2007-07-13 | 2009-01-29 | Casio Comput Co Ltd | Feature-point tracking device and program |
-
2009
- 2009-08-19 JP JP2009190474A patent/JP5365408B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5764283A (en) * | 1995-12-29 | 1998-06-09 | Lucent Technologies Inc. | Method and apparatus for tracking moving objects in real time using contours of the objects and feature paths |
JP2004005089A (en) * | 2002-05-31 | 2004-01-08 | Mitsubishi Electric Corp | Image processor and image processing method |
JP2005167657A (en) * | 2003-12-03 | 2005-06-23 | Seiko Epson Corp | Image processor and image processing method |
JP2008282386A (en) * | 2007-05-10 | 2008-11-20 | Honda Motor Co Ltd | Object detector, object detection method, and object detection program |
JP2009020800A (en) * | 2007-07-13 | 2009-01-29 | Casio Comput Co Ltd | Feature-point tracking device and program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014010765A (en) * | 2012-07-02 | 2014-01-20 | Sumitomo Electric Ind Ltd | Mobile object detector, image type sensor, and computer program |
WO2014172875A1 (en) * | 2013-04-25 | 2014-10-30 | Harman International Industries, Incorporated | Moving object detection |
US10043276B2 (en) | 2015-09-01 | 2018-08-07 | Canon Kabushiki Kaisha | Image processing method, image processing apparatus, robot apparatus, program, and recording medium |
WO2018159467A1 (en) | 2017-02-28 | 2018-09-07 | Necソリューションイノベータ株式会社 | Mobile entity detector, mobile entity detection method, and computer-readable recording medium |
US11062174B2 (en) | 2017-02-28 | 2021-07-13 | Nec Solution Innovators, Ltd. | Mobile entity detection apparatus, mobile entity detection method, and computer-readable recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP5365408B2 (en) | 2013-12-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10043313B2 (en) | Information processing apparatus, information processing method, information processing system, and storage medium | |
CN110363817B (en) | Target pose estimation method, electronic device, and medium | |
US20070183665A1 (en) | Face feature point detecting device and method | |
US20120106784A1 (en) | Apparatus and method for tracking object in image processing system | |
US20210329175A1 (en) | Image processing system, image processing method, and program | |
CN108197567B (en) | Method, apparatus and computer readable medium for image processing | |
EP3300025A1 (en) | Image processing device and image processing method | |
JP5365408B2 (en) | Mobile object recognition apparatus, mobile object recognition method, and program | |
CN116071520B (en) | Digital twin water affair simulation test method | |
JP2015138428A (en) | Additional information display apparatus and additional information display program | |
KR20210049655A (en) | Apparatus and method for generating feature maps | |
JP6037134B2 (en) | Feature point association system, feature point association method, and program | |
JP5048609B2 (en) | Object tracking device and program | |
JP2011089784A (en) | Device for estimating direction of object | |
US9727145B2 (en) | Detecting device and detecting method | |
JP5418427B2 (en) | Collision time calculation device, collision time calculation method and program | |
KR101188296B1 (en) | Weighted-based target decision method for strapdown dual mode imaging seeker and system thereof | |
JP2012008657A (en) | Apparatus and method for generating object shape | |
JP2017033556A (en) | Image processing method and electronic apparatus | |
JP2009187204A (en) | Image processing apparatus | |
KR20200096426A (en) | Moving body detecting device, moving body detecting method, and moving body detecting program | |
JP5397103B2 (en) | Face position detection device, face position detection method, and program | |
JP2022185872A (en) | Image processing device, image processing method and imaging apparatus | |
US20170039698A1 (en) | Pattern outline extraction device, pattern outline extraction method, and computer program product | |
JP6116916B2 (en) | Image detection apparatus, control program, and image detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120711 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130411 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130423 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130620 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130718 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130813 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130826 |
|
LAPS | Cancellation because of no payment of annual fees |