JP2011043922A - Device and method for recognizing traveling object, and program - Google Patents

Device and method for recognizing traveling object, and program Download PDF

Info

Publication number
JP2011043922A
JP2011043922A JP2009190474A JP2009190474A JP2011043922A JP 2011043922 A JP2011043922 A JP 2011043922A JP 2009190474 A JP2009190474 A JP 2009190474A JP 2009190474 A JP2009190474 A JP 2009190474A JP 2011043922 A JP2011043922 A JP 2011043922A
Authority
JP
Japan
Prior art keywords
image
feature
feature point
point
correlation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009190474A
Other languages
Japanese (ja)
Other versions
JP5365408B2 (en
Inventor
Tokihiko Akita
時彦 秋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2009190474A priority Critical patent/JP5365408B2/en
Publication of JP2011043922A publication Critical patent/JP2011043922A/en
Application granted granted Critical
Publication of JP5365408B2 publication Critical patent/JP5365408B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To quickly and precisely detect a traveling object, concerning a device and method for recognizing a traveling object, and a program. <P>SOLUTION: Before template matching, a feature point for matching is selected in advance from a retrieval region set in advance in an image. Then, the template matching is performed only on an image including the feature point selected in advance. Thus, it is possible to selectively perform matching only on the region assumed to have high correlation value which is obtained by matching. Therefore, it is possible to quickly and precisely detect the traveling object. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、移動体認識装置、移動体認識方法及びプログラムに関し、更に詳しくは、視野内を移動する移動体を認識する移動体認識装置、視野内を移動する移動体を認識するための移動体認識方法及びプログラムに関する。   The present invention relates to a mobile object recognition apparatus, a mobile object recognition method, and a program. More specifically, the present invention relates to a mobile object recognition apparatus that recognizes a mobile object that moves within a visual field, and a mobile object that recognizes a mobile object that moves within a visual field. The present invention relates to a recognition method and a program.

近年、自車周辺の移動体や、運転者の死角から自車に接近する移動体を検出する運転支援システムの実用化が進んでいる。この種のシステムでは、その性質上、短時間に精度よく移動体を検出する必要がある。そこで、画像処理を精度よく迅速に行うための方法が種々提案されている(例えば特許文献1乃至3参照)。   2. Description of the Related Art In recent years, driving support systems that detect a moving body around the own vehicle and a moving body approaching the own vehicle from a driver's blind spot have been put into practical use. In this type of system, it is necessary to detect a moving body with high accuracy in a short time due to its nature. Therefore, various methods for performing image processing with high accuracy and speed have been proposed (see, for example, Patent Documents 1 to 3).

特開平9−18863号公報Japanese Patent Laid-Open No. 9-18863 特開平8−030792号公報Japanese Patent Laid-Open No. 8-030792 特開平4−207790号公報JP-A-4-207790

特許文献1に記載された方法では、移動体を撮像して得られた画像が例えば、第1画像と第2画像とに分割される。そして、危険度に応じて第1画像及び第2画像のうちから一方の画像が選択され、選択された画像についてのみ画像処理が実行される。この方法を用いることにより、移動体の移動方向を短時間に検出することが可能となる。   In the method described in Patent Literature 1, an image obtained by imaging a moving body is divided into, for example, a first image and a second image. Then, one image is selected from the first image and the second image according to the degree of risk, and image processing is executed only for the selected image. By using this method, the moving direction of the moving body can be detected in a short time.

また、特許文献2に記載された方法では、移動体が移動する際に、橋の欄干やガードレールなどのように周期的に画像中に現れる障害物に起因するオプティカルフローと、移動体に起因するオプティカルフローとが識別される。この方法を用いることにより、障害物に起因するオプティカルフローを除外して、検出対象物である移動体に起因するオプティカルフローのみに基づいて、移動体の検出を行うことができる。したがって、移動体の検出に用いる情報量を少なくすることができ、結果的に迅速に移動体を検出することが可能となる。   Further, in the method described in Patent Document 2, when the moving body moves, the optical flow caused by an obstacle that periodically appears in an image such as a railing of a bridge or a guardrail, and the moving body. An optical flow is identified. By using this method, an optical flow caused by an obstacle can be excluded, and a moving object can be detected based only on the optical flow caused by the moving object that is the detection target. Therefore, the amount of information used for detecting the moving body can be reduced, and as a result, the moving body can be detected quickly.

また、特許文献3に記載された方法では、1フレーム分だけ時間の異なる画像間のオプティカルフローの中から、最もマッチ度が低いベクトルが検出される。この方法を用いることにより、最も多くの移動体の移動情報を有するベクトルのみに基づいて、移動体の検出を行うことができる。したがって、移動体の検出に用いる情報量を少なくすることができ、結果的に迅速に移動体を検出することが可能となる。   Further, in the method described in Patent Document 3, the vector with the lowest matching degree is detected from the optical flows between images that are different in time by one frame. By using this method, it is possible to detect the moving object based only on the vector having the most movement information of the moving object. Therefore, the amount of information used for detecting the moving body can be reduced, and as a result, the moving body can be detected quickly.

上述した方法それぞれは、画像処理における演算量を削減するために、演算の対象となる領域を制限するものである。しかしながら、画像間の対応する領域を探索するためには、畳み込み演算が必要となる。この、畳み込み演算は、演算量が多く、探索する領域が広いと畳み込み演算に長時間を要することになる。このため、上記3つの方法を実行しようとすると、高速な演算装置が必要となる。   Each of the above-described methods limits the area to be calculated in order to reduce the amount of calculation in image processing. However, in order to search for a corresponding region between images, a convolution operation is required. This convolution calculation has a large calculation amount, and if the search area is wide, the convolution calculation takes a long time. For this reason, when trying to execute the above three methods, a high-speed arithmetic device is required.

また、探索対象となる画像を構成する画素の輝度が低い場合や、対応する領域を構成する画素の輝度と、その周囲の領域の画素の輝度との差が小さい場合には、対応する領域を正確に探索することが困難となり、オプティカルフローに誤差が含まれることが考えられる。   In addition, when the luminance of the pixels constituting the search target image is low or when the difference between the luminance of the pixels constituting the corresponding region and the luminance of the pixels in the surrounding region is small, the corresponding region is selected. It may be difficult to search accurately, and errors may be included in the optical flow.

本発明は、上述の事情の下になされたもので、短時間に精度良く移動体を検出することができる移動体認識装置等を提供することを目的とする。   The present invention has been made under the above circumstances, and an object thereof is to provide a moving body recognition apparatus and the like that can detect a moving body with high accuracy in a short time.

上記目的を達成するために、本発明の移動体認識装置は、移動する移動体を順次撮像して得られた第1画像及び第2画像それぞれを構成する画素についての特徴量を演算する特徴量演算手段と、特徴量に基づいて、第1画像及び第2画像それぞれの特徴点を抽出する特徴点抽出手段と、第1画像の特徴点の特徴量と、第2画像の特徴点それぞれの特徴量との差分を演算し、差分が所定の範囲内となる第2画像の特徴点をそれぞれ選択する選択手段と、第1画像の特徴点と、選択された第2画像の特徴点それぞれとの相関値を演算する相関値演算手段と、第1画像の特徴点を始点とし、始点としての特徴点に対する相関値が最も高い第2画像の特徴点を終点とするオプティカルフローを生成するオプティカルフロー生成手段と、を備える。   In order to achieve the above object, the mobile object recognition apparatus of the present invention calculates a feature value for pixels constituting each of the first image and the second image obtained by sequentially imaging a moving mobile object. A calculation means, a feature point extraction means for extracting each feature point of the first image and the second image based on the feature quantity, a feature quantity of the feature point of the first image, and a feature point of each feature point of the second image A selection means for calculating a difference between the second image and a feature point of the second image in which the difference is within a predetermined range; a feature point of the first image; and a feature point of the selected second image. Correlation value calculation means for calculating a correlation value, and optical flow generation for generating an optical flow having a feature point of the first image as a start point and a feature point of the second image having the highest correlation value with respect to the feature point as the start point as an end point Means.

また、移動体認識装置は、第1画像の特徴点にそれぞれ対応する探索領域を、第2画像上にそれぞれ設定する探索領域設定手段を更に備え、選択手段は、探索領域内で第2画像の特徴点の選択を実行することとしてもよい。   The mobile object recognition apparatus further includes search area setting means for setting search areas respectively corresponding to the feature points of the first image on the second image, and the selection means includes the second image in the search area. The selection of feature points may be executed.

また、特徴点抽出手段は、特徴量の算出対象となる算出対象画素の特徴量と、算出対象画素の周囲の画素の平均輝度とに基づいて、特徴点を抽出することとしてもよい。   Further, the feature point extracting means may extract the feature points based on the feature amount of the calculation target pixel that is the target of calculation of the feature amount and the average luminance of pixels around the calculation target pixel.

また、特徴点抽出手段は、特徴量の算出対象となる算出対象画素の特徴量の、算出対象画素の周囲にある画素の平均輝度に対する割合が所定の値以上の場合に、算出対象画素に対応する特徴点を抽出することとしてもよい。   In addition, the feature point extraction unit corresponds to the calculation target pixel when the ratio of the feature quantity of the calculation target pixel that is the calculation target of the feature quantity to the average luminance of the pixels around the calculation target pixel is equal to or greater than a predetermined value. The feature points to be extracted may be extracted.

また、相関値演算手段は、第1画像の特徴点を含む画像をテンプレートとし、テンプレートと、第2画像の特徴点を含む領域内の画像との相関値を算出することとしてもよい。   The correlation value calculating means may calculate an correlation value between the template and an image in an area including the feature point of the second image using an image including the feature point of the first image as a template.

上記目的を達成するために、本発明の移動体認識方法は、移動する移動体を順次撮像して得られた第1画像及び第2画像それぞれを構成する画素についての特徴量を演算する工程と、特徴量に基づいて、第1画像及び第2画像それぞれの特徴点を抽出する工程と、第1画像の特徴点の特徴量と、第2画像の特徴点それぞれの特徴量との差分を演算し、差分が所定の範囲内となる第2画像の特徴点をそれぞれ選択する工程と、第1画像の特徴点と、選択された第2画像の特徴点それぞれとの相関値を演算する工程と、第1画像の特徴点を始点とし、始点としての特徴点に対する相関値が最も高い第2画像の特徴点を終点とするオプティカルフローを生成する工程と、を含む。   In order to achieve the above object, a moving object recognition method of the present invention includes a step of calculating feature amounts for pixels constituting each of a first image and a second image obtained by sequentially imaging moving moving objects, and Based on the feature amount, the step of extracting the feature points of the first image and the second image, and the difference between the feature amount of the feature point of the first image and the feature amount of each feature point of the second image is calculated. And selecting each of the feature points of the second image whose difference is within a predetermined range, and calculating a correlation value between each of the feature points of the first image and each of the feature points of the selected second image. Generating an optical flow having a feature point of the first image as a start point and a feature point of the second image having the highest correlation value with respect to the feature point as the start point as an end point.

上記目的を達成するために、本発明のプログラムは、コンピュータを、移動する移動体を順次撮像して得られた第1画像及び第2画像それぞれを構成する画素についての特徴量を演算する手段と、特徴量に基づいて、第1画像及び第2画像それぞれの特徴点を抽出する手段と、第1画像の特徴点の特徴量と、第2画像の特徴点それぞれの特徴量との差分を演算し、差分が所定の範囲内となる第2画像の特徴点をそれぞれ選択する手段と、第1画像の特徴点と、選択された第2画像の特徴点それぞれとの相関値を演算する手段と、第1画像の特徴点を始点とし、始点としての特徴点に対する相関値が最も高い第2画像の特徴点を終点とするオプティカルフローを生成する手段と、として機能させる。   In order to achieve the above object, a program according to the present invention comprises means for calculating a feature amount for pixels constituting each of a first image and a second image obtained by sequentially imaging a moving body. Based on the feature amount, a means for extracting the feature point of each of the first image and the second image, and the difference between the feature amount of the feature point of the first image and the feature amount of each feature point of the second image is calculated. And means for selecting each feature point of the second image within which the difference falls within a predetermined range; and means for calculating a correlation value between each feature point of the first image and each feature point of the selected second image And a means for generating an optical flow having a feature point of the first image as a start point and a feature point of the second image having the highest correlation value with respect to the feature point as the start point as an end point.

本発明によれば、短時間に精度良く移動体を検出することができる。   According to the present invention, it is possible to accurately detect a moving body in a short time.

第1の実施形態に係る移動体認識システムのブロック図である。It is a block diagram of the mobile body recognition system which concerns on 1st Embodiment. カメラの配置を概略的に示す図である。It is a figure which shows the arrangement | positioning of a camera roughly. 撮像装置によって撮像された画像を示す図(その1)である。FIG. 3 is a first diagram illustrating an image captured by an imaging device. 撮像装置によって撮像された画像を示す図(その2)である。It is FIG. (2) which shows the image imaged by the imaging device. 特徴点抽出部の動作を説明するための図(その1)である。It is FIG. (1) for demonstrating operation | movement of a feature point extraction part. 特徴点抽出部の動作を説明するための図(その2)である。It is FIG. (2) for demonstrating operation | movement of a feature point extraction part. 画像上に設定された探索領域の一例を示す図である。It is a figure which shows an example of the search area | region set on the image. 画像上に規定されたテンプレートを示す図である。It is a figure which shows the template prescribed | regulated on the image. 相関値演算部の動作を説明するための図である。It is a figure for demonstrating operation | movement of a correlation value calculating part. オプティカルフロー生成部の動作を説明するための図である。It is a figure for demonstrating operation | movement of an optical flow production | generation part. 第2の実施形態に係る移動体認識システムのブロック図である。It is a block diagram of the mobile body recognition system which concerns on 2nd Embodiment. 移動体認識装置の動作を説明するためのフローチャート(その1)である。It is a flowchart (the 1) for demonstrating operation | movement of a mobile body recognition apparatus. 移動体認識装置の動作を説明するためのフローチャート(その2)である。It is a flowchart (the 2) for demonstrating operation | movement of a mobile body recognition apparatus. 移動体認識装置の動作を説明するためのフローチャート(その3)である。It is a flowchart (the 3) for demonstrating operation | movement of a mobile body recognition apparatus.

《第1の実施形態》
以下、本発明の第1の実施形態を、図1〜図11を参照しつつ説明する。図1は本実施形態にかかる移動体認識システム10の概略的な構成を示すブロック図である。移動体認識システム10は、例えば撮像装置20によって順次撮像される画像に含まれる移動体を認識し検出するシステムである。この移動体認識システム10は、図1に示されるように、撮像装置20と、撮像装置20の視野内を移動する移動体を認識する移動体認識装置30とを有している。
<< First Embodiment >>
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing a schematic configuration of a moving object recognition system 10 according to the present embodiment. The mobile object recognition system 10 is a system that recognizes and detects a mobile object included in images sequentially captured by the imaging device 20, for example. As illustrated in FIG. 1, the moving body recognition system 10 includes an imaging device 20 and a moving body recognition device 30 that recognizes a moving body that moves within the field of view of the imaging device 20.

撮像装置20は、被写体を撮像することにより取得した画像を電気信号に変換して出力する装置である。撮像装置20は、例えば図2に示されるように、車両100の後方に取り付けられたカメラ20a介して、車両100の後方を走行する移動体としての車両を撮像し、撮像して得た画像に関する情報を移動体認識装置30へ出力する。   The imaging device 20 is a device that converts an image acquired by imaging a subject into an electrical signal and outputs the electrical signal. For example, as illustrated in FIG. 2, the imaging device 20 captures an image of a vehicle as a moving body that travels behind the vehicle 100 via a camera 20 a attached to the rear of the vehicle 100, and relates to an image obtained by imaging. Information is output to the moving body recognition apparatus 30.

例えば、撮像装置20によって、自車よりも早い速度で右車線を走行する移動体101が順次撮像されると、図3に示される画像P1、図4に示される画像P2が順次撮像される。画像P1及び画像P2に関する情報は、移動体認識装置30へ出力される。   For example, when the imaging device 20 sequentially images the moving body 101 traveling in the right lane at a speed faster than the own vehicle, the image P1 shown in FIG. 3 and the image P2 shown in FIG. 4 are sequentially imaged. Information about the image P1 and the image P2 is output to the moving body recognition apparatus 30.

図1に戻り、移動体認識装置30は、記憶部31、特徴点抽出部32、探索領域設定部33、特徴点選択部34、相関値演算部35、オプティカルフロー生成部36、グルーピング処理部37、及び移動体検出部38を含んで構成されている。   Returning to FIG. 1, the mobile object recognition device 30 includes a storage unit 31, a feature point extraction unit 32, a search region setting unit 33, a feature point selection unit 34, a correlation value calculation unit 35, an optical flow generation unit 36, and a grouping processing unit 37. , And a moving body detection unit 38.

記憶部31は、撮像装置20から順次出力される画像に関する情報を時系列的に記憶する。また、上記各部32〜38の処理結果としての情報を順次記憶する。   The storage unit 31 stores information on images sequentially output from the imaging device 20 in time series. Further, information as a processing result of each of the units 32 to 38 is sequentially stored.

特徴点抽出部32は、記憶部31に記憶された画像を構成する画素それぞれについての特徴量を算出し、この特徴量に基づいて画像に含まれる特徴点を抽出する。画像上に規定されたXY座標系で示される画素M(x、y)の特徴量f(x、y)は、画像の輝度勾配を示す関数I(x、y)を用いると下記の式(1)によって表される。   The feature point extraction unit 32 calculates a feature amount for each pixel constituting the image stored in the storage unit 31, and extracts a feature point included in the image based on the feature amount. The feature quantity f (x, y) of the pixel M (x, y) indicated in the XY coordinate system defined on the image is expressed by the following equation (1) using the function I (x, y) indicating the luminance gradient of the image: Represented by 1).

Figure 2011043922
Figure 2011043922

ただし、Ixx、Iyy、Ixyはそれぞれ下記の式(2)〜(3)によってそれぞれ表され、kは定数である。   However, Ixx, Iyy, and Ixy are respectively represented by the following formulas (2) to (3), and k is a constant.

Figure 2011043922
Figure 2011043922

Figure 2011043922
Figure 2011043922

Figure 2011043922
Figure 2011043922

特徴点抽出部32は、まず、式(1)を用いて画像を構成する画素M(x、y)に対する特徴量f(x、y)をそれぞれ算出する。次に、特徴点抽出部32は、画素M(x、y)の周囲にある画素の輝度の平均値AVG(x、y)を算出し、特徴量f(x、y)を、輝度の平均値AVG(x、y)を4乗したもので除する。特徴点抽出部32は、これにより得られた比較値V(=f(x、y)/AVG(x、y))を、予め設定された閾値と比較して、比較値Vが閾値以上の場合に、このときの画素M(x、y)を特徴点として抽出する。ここで、特徴量f(x、y)を輝度の平均値AVG(x、y)を4乗したもので除する理由は、特徴量f(x、y)を輝度に関して正規化するためである。 The feature point extraction unit 32 first calculates a feature amount f (x, y) for each pixel M (x, y) constituting the image using Expression (1). Next, the feature point extraction unit 32 calculates the average value AVG (x, y) of the brightness of the pixels around the pixel M (x, y), and calculates the feature value f (x, y) as the average brightness. Divide the value AVG (x, y) by the fourth power. The feature point extraction unit 32 compares the comparison value V (= f (x, y) / AVG (x, y) 4 ) obtained thereby with a preset threshold value, and the comparison value V is equal to or greater than the threshold value. In this case, the pixel M (x, y) at this time is extracted as a feature point. Here, the reason why the feature quantity f (x, y) is divided by the fourth power of the average luminance value AVG (x, y) is to normalize the feature quantity f (x, y) with respect to the brightness. .

図5は、画像P1から抽出された移動体101に関連する特徴点a〜aを模式的に示す図である。また、図6は、画像P2から抽出された移動体101に関連する特徴点b〜b18を模式的に示す図である。画像P1及び画像P2では、移動体101の輪郭が急峻に変化する不連続点や、移動体101を構成するパーツの形状が不連続に変化する点などが抽出される。 FIG. 5 is a diagram schematically showing feature points a 1 to a 6 related to the moving object 101 extracted from the image P1. FIG. 6 is a diagram schematically illustrating feature points b 1 to b 18 related to the moving object 101 extracted from the image P2. In the image P1 and the image P2, a discontinuous point where the outline of the moving body 101 changes sharply, a point where the shape of the parts constituting the moving body 101 changes discontinuously, and the like are extracted.

特徴点抽出部32は、特徴点の抽出が完了すると、抽出した特徴点に関する情報を記憶部31へ出力するとともに、特徴点の抽出が完了したことを探索領域設定部33へ通知する。   When the feature point extraction is completed, the feature point extraction unit 32 outputs information about the extracted feature points to the storage unit 31 and notifies the search region setting unit 33 that the feature point extraction is completed.

図1に戻り、探索領域設定部33は、順次撮像された1組の画像のうち最初に撮像された第1画像の特徴点を順次選択するとともに、選択した特徴点に対応する探索領域を、第1画像の次に撮像された第2画像に設定する。   Returning to FIG. 1, the search region setting unit 33 sequentially selects the feature points of the first image captured first among the set of images sequentially captured, and selects the search region corresponding to the selected feature points. The second image captured after the first image is set.

例えば、図7には、1組の画像P1及びP2のうち、最初に撮像された画像P1上の特徴点aに対応した探索領域Fが示されている。この探索領域Fは、画像P1上の特徴点aに対応する特徴点が含まれると予想される領域である。探索領域Fは、具体的には、画像P1上の特徴点aを終点とし画像P1が撮像される前に撮像された画像上の特徴点を始点とするオプティカルフローを用いて予想することが可能な移動体101の移動速度、移動方向などを考慮して決定することができる。探索領域設定部33は、画像P1上のすべての特徴点a〜aについての探索領域F〜F(画像P2の部分領域)を、画像P2上に設定する。 For example, FIG. 7 shows a search area F 1 corresponding to the feature point a 1 on the first image P1 of the pair of images P1 and P2. The search area F 1 is an area where a feature point corresponding to the feature point a 1 on the image P 1 is expected to be included. Specifically, the search area F 1 is predicted using an optical flow having the feature point a 1 on the image P 1 as the end point and the feature point on the image captured before the image P 1 is captured as the start point. Can be determined in consideration of the moving speed, moving direction, etc. The search area setting unit 33 sets search areas F 1 to F 6 (partial areas of the image P2) for all the feature points a 1 to a 6 on the image P1 on the image P2.

探索領域設定部33は、探索領域の設定が完了すると、探索領域に関する情報を記憶部31へ出力するとともに、探索領域の設定が完了したことを特徴点選択部34へ通知する。   When the setting of the search area is completed, the search area setting unit 33 outputs information related to the search area to the storage unit 31 and notifies the feature point selection unit 34 that the setting of the search area is completed.

図1に戻り、特徴点選択部34は、第1画像の特徴点に対応するように第2画像に設定された探索領域から、第1画像の特徴点の特徴量と同等の特徴量を有する特徴点を選択する。   Returning to FIG. 1, the feature point selection unit 34 has a feature amount equivalent to the feature amount of the feature point of the first image from the search area set in the second image so as to correspond to the feature point of the first image. Select feature points.

例えば、特徴点選択部34は、図5に示される特徴点aの特徴量と、図7に示される探索領域F内にある画像P2の4つの特徴点b,b,b,bそれぞれの特徴量を比較する。そして、特徴点aの特徴量との差分が、予め設定された閾値以下となる特徴点を選択する。特徴点選択部34は、特徴点a〜aについて設定された探索領域F〜Fからも、同様の要領で特徴点を選択する。 For example, the feature point selection unit 34 includes the feature amount of the feature point a 1 shown in FIG. 5 and the four feature points b 1 , b 3 , b 4 of the image P2 in the search area F 1 shown in FIG. , B 9 are compared. The difference between the feature quantity of the feature point a 1 selects the feature points to be smaller than the predetermined threshold value. The feature point selection unit 34 selects feature points from the search areas F 2 to F 6 set for the feature points a 2 to a 6 in the same manner.

図1に戻り、相関値演算部35は、順次撮像された1組の画像のうちの最初に撮像された第1画像の特徴点を順次選択する。そして、この選択した特徴点と、この特徴点について設定された第2画像の探索領域内から選択された特徴点との相関値を算出する。   Returning to FIG. 1, the correlation value calculation unit 35 sequentially selects feature points of the first image captured first from among a set of images sequentially captured. Then, a correlation value between the selected feature point and the feature point selected from the search area of the second image set for the feature point is calculated.

具体的には、相関値演算部35は、まず、図8に示されるように、画像P1の特徴点aを中心とする長方形の画像(画像P1の部分画像)をテンプレートTとして規定する。このテンプレートTは、M行N列のマトリクス状に配置された画素からなる画像である。また、以下の説明では、テンプレートTの座標とは、テンプレートの中心の座標をいうものとする。 Specifically, the correlation value calculation section 35, first, as shown in FIG. 8, to define a rectangular image around the feature point a 1 of the image P1 (the partial image of the image P1) as the template T 1 . The template T 1 is an image consisting of M rows and N matrix to pixels arranged in columns. In the following description, the coordinate template T 1, it is assumed to refer to the coordinates of the center of the template.

次に、相関値演算部35は、特徴点b,b,b,bのうち、特徴点選択部34によって選択された特徴点を含む画像と、テンプレートTとをマッチングさせたときの相関値Rを算出する。この相関値Rの算出は、例えば正規化相互相関を示す下記の式(5)を用いることができる。なお、I(i,j)はマッチング対象となる画像の、i行目かつj列目に位置する画素の輝度である。また、T(i,j)はテンプレートTの、i行目かつj列目に位置する画素の輝度である。また、IAVGはマッチング対象となる画像を構成する画素の輝度の平均値であり、TAVGは、テンプレートを構成する画素の輝度の平均値である。IAVG及びTAVGは下記の式(6)及び式(7)で示される。 Next, the correlation value calculation unit 35 matched the template T 1 with the image including the feature point selected by the feature point selection unit 34 among the feature points b 1 , b 3 , b 4 , and b 9 . The correlation value R is calculated. The correlation value R can be calculated using, for example, the following equation (5) indicating normalized cross-correlation. Note that I (i, j) is the luminance of the pixel located in the i-th row and the j-th column of the image to be matched. T (i, j) is the luminance of the pixel located in the i-th row and the j-th column of the template T. Further, I AVG is an average value of the luminance of the pixels constituting the image to be matched, and TAVG is an average value of the luminance of the pixels constituting the template. I AVG and T AVG are represented by the following formulas (6) and (7).

Figure 2011043922
Figure 2011043922

Figure 2011043922
Figure 2011043922

Figure 2011043922
Figure 2011043922

相関値演算部35は、テンプレートTに含まれる特徴点aと、探索領域F内に含まれる特徴点b1,b3,b4,b9のうちから選択した特徴点とを一致させたときの、テンプレートTと、このテンプレートTと重なる対象画像との相関値Rを算出する。例えば、特徴点選択部34によって、探索領域F内の特徴点bが選択された場合には、相関値演算部35は、テンプレートTの特徴点aが特徴点bに一致するように、テンプレートTを画像P2に重ねる。そして、画像P2のテンプレートTと重なった対象画像と、テンプレートTとの相関値Rを、上記式(5)に基づいて算出する。 The correlation value calculation unit 35 matches the feature point a 1 included in the template T 1 with the feature point selected from the feature points b 1, b 3, b 4, and b 9 included in the search region F 1 . , template T 1, calculates a correlation value R between the target image overlapping with the template T 1. For example, the feature point selection unit 34, when the feature point b 1 in the search area F 1 is selected, the correlation value calculation unit 35, a feature point a 1 of the template T 1 is coincident to the feature point b 1 as such, overlaying the template T 1 to the image P2. Then, the target image overlaps with the template T 1 of the image P2, a correlation value R with the template T 1, is calculated based on the equation (5).

次に、図9を参照するとわかるように、相関値演算部35は、探索領域F内に、特徴点bを中心とし、テンプレートTより大きいマッチング領域MAを規定する。そして、テンプレートTを、マッチング領域MA内で所定のピッチで移動させながら、テンプレートTと、このテンプレートTと重なる対象画像との相関値Rを、上記式(5)に基づいて順次算出する。 Next, as can be seen with reference to FIG. 9, the correlation value calculator 35 defines a matching region MA larger than the template T 1 around the feature point b 1 in the search region F 1 . Then, the template T 1, while moving at a predetermined pitch in the matching area MA, the template T 1, the correlation value R between the target image overlapping with the template T 1, sequentially based on the equation (5) is calculated To do.

相関値演算部35は、画像P1の特徴点a〜aと、特徴点a〜aそれぞれについて設定された探索領域F〜Fについても、上述と同様の処理を実行する。 The correlation value calculator 35 also performs the same processing as described above for the search points F 2 to F 6 set for the feature points a 2 to a 6 and the feature points a 2 to a 6 of the image P1.

相関値演算部35は、相関値の算出が完了すると、算出した相関値に関する情報を記憶部31へ出力するとともに、相関値の算出が完了したことをオプティカルフロー生成部36へ通知する。   When the calculation of the correlation value is completed, the correlation value calculation unit 35 outputs information on the calculated correlation value to the storage unit 31 and notifies the optical flow generation unit 36 that the calculation of the correlation value is completed.

図1に戻り、オプティカルフロー生成部36は、相関値演算部35によって算出された相関値に基づいて、第1画像の特徴点を始点とし、第2画像の特徴点或いはその近傍を終点とするオプティカルフローを生成する。   Returning to FIG. 1, based on the correlation value calculated by the correlation value calculator 35, the optical flow generator 36 uses the feature point of the first image as the start point and the feature point of the second image or its vicinity as the end point. Generate an optical flow.

例えば、オプティカルフロー生成部36は、図9において、テンプレートTと探索領域F内の画像との相関値が最も高かったときの、画像P2上のテンプレートTの位置座標(X2、Y2)を新たな特徴点として特定する。そして、位置座標(X2、Y2)を終点Eとし、特徴点aの画像P上の位置座標(X1、Y1)を始点Sとするオプティカルフローを画像P1及び画像P2に共通するXY座標系に規定する。オプティカルフロー生成部36は、上述と同様の処理を、画像P1上の特徴点a〜aについて実行し、一例として図10に示されるように、始点S〜Sと終点E〜Eとで規定される1群のオプティカルフローを生成する。 For example, the optical flow generator 36 in FIG. 9 shows the position coordinates (X2 1 , Y2) of the template T 1 on the image P2 when the correlation value between the template T 1 and the image in the search area F 1 is the highest. 1 ) is specified as a new feature point. An optical flow having the position coordinates (X2 1 , Y2 1 ) as the end point E 1 and the position coordinates (X1 1 , Y1 1 ) on the image P of the feature point a 1 as the start point S 1 is displayed on the images P1 and P2. It is defined in a common XY coordinate system. The optical flow generation unit 36 performs the same processing as described above for the feature points a 2 to a 6 on the image P1, and as shown in FIG. 10 as an example, the start points S 1 to S 6 and the end points E 1 to E 6 are performed. generating an optical flow of a group defined by the E 6.

オプティカルフロー生成部36は、オプティカルフローを生成すると、このオプティカルフローに関する情報を記憶部31へ出力するとともに、オプティカルフローの生成が完了したことをグルーピング処理部37へ通知する。   When the optical flow is generated, the optical flow generation unit 36 outputs information related to the optical flow to the storage unit 31 and notifies the grouping processing unit 37 that the generation of the optical flow is completed.

図1に戻り、グルーピング処理部37は、生成された1群のオプティカルフローのグルーピングを行う。図10に示されるように、本実施形態では説明の便宜上、移動体101に関するオプティカルフローが6本である場合について説明した。しかしながら、実際は、移動体101を撮像した画像からは、数十或いは数百の特徴点を抽出することができ、数十或いは数百本のオプティカルフローを規定することができる。   Returning to FIG. 1, the grouping processing unit 37 performs grouping of the generated group of optical flows. As shown in FIG. 10, in the present embodiment, the case where there are six optical flows related to the moving body 101 has been described for convenience of explanation. However, actually, tens or hundreds of feature points can be extracted from an image obtained by capturing the moving object 101, and tens or hundreds of optical flows can be defined.

グルーピング処理部37は、数十或いは数百本のオプティカルフローのうちから、ある程度のノイズ成分を多く含むオプティカルフローを除外し、残りのオプティカルフローをグルーピングする。例えば、移動体101が完全な直線運動をしている場合には、各オプティカルフローと一致する直線は一点(消失点)で交わるはずである。そこで、グルーピング処理部37は、オプティカルフローと一致する直線が、他のオプティカルフローと一致する直線が収束する消失点から著しく離れている場合には、このオプティカルフローを除外し、残りのオプティカルフローを同一の移動体に関連するオプティカルフローとみなしてグルーピングする。   The grouping processing unit 37 excludes optical flows including a large amount of noise components from among tens or hundreds of optical flows, and groups the remaining optical flows. For example, when the moving body 101 has a complete linear motion, the straight lines that coincide with each optical flow should intersect at one point (vanishing point). Therefore, the grouping processing unit 37 excludes the optical flow when the straight line that matches the optical flow is significantly away from the vanishing point where the straight line that matches the other optical flow converges, and the remaining optical flow is removed. Grouping is considered as an optical flow related to the same moving object.

グルーピング処理部37は、オプティカルフローのグルーピングが完了すると、グルーピングしたオプティカルフローに関する情報を記憶部31へ出力するとともに、グルーピングが完了したことを、移動体検出部38へ通知する。   When the optical flow grouping is completed, the grouping processing unit 37 outputs information on the grouped optical flows to the storage unit 31 and notifies the moving body detection unit 38 that the grouping is completed.

移動体検出部38は、グルーピングされたオプティカルフローに基づいて、自車と移動体の距離、自車と移動体の相対速度及び相対移動方向などを検出し出力する。例えば、移動体検出部38は、一群のオプティカルフローの始点の配置と、終点の配置との相違から移動体の相対速度及び相対移動方向を検出し出力する。   The moving body detection unit 38 detects and outputs a distance between the own vehicle and the moving body, a relative speed and a relative moving direction between the own vehicle and the moving body, based on the grouped optical flows. For example, the moving body detection unit 38 detects and outputs the relative speed and the relative movement direction of the moving body from the difference between the start point arrangement and the end point arrangement of the group of optical flows.

以上説明したように、本第1の実施形態では、相関値演算部35によって、画像P1の特徴点を含むテンプレートTを用いたマッチング処理が行われる前に、特徴点選択部34によって、画像P2に設定された探索領域からマッチング処理を行う対象となる特徴点が選択される。そして、特徴点選択部34によって選択された特徴点を含む画像についてのみ、テンプレートTを用いたマッチング処理が実行される。このため、マッチング処理を実行することにより得られる相関値が高いと予想される領域についてのみ、マッチング処理を実行することができ、結果的に短時間に精度よく移動体を検出することが可能となる。   As described above, in the first embodiment, before the matching process using the template T including the feature point of the image P1 is performed by the correlation value calculation unit 35, the feature point selection unit 34 performs the image P2. A feature point to be subjected to the matching process is selected from the search region set to. Then, the matching process using the template T is executed only for the image including the feature point selected by the feature point selection unit 34. For this reason, it is possible to execute the matching process only for the region where the correlation value obtained by executing the matching process is expected to be high, and as a result, it is possible to detect the moving object with high accuracy in a short time. Become.

また、本第1の実施形態では、マッチング処理を実行することにより得られる相関値が高いと予想される領域についてのみ、マッチング処理が実行される。したがって、相互に特徴量が低い画像P1の特徴点と画像P2の特徴点とが、マッチング処理の誤りによって相互に対応づけられることを回避することが可能となる。   In the first embodiment, the matching process is executed only for an area where the correlation value obtained by executing the matching process is expected to be high. Therefore, it is possible to avoid the feature points of the image P1 and the feature points of the image P2 having low mutual feature amounts from being associated with each other due to an error in the matching process.

また、本第1の実施形態では、特徴点抽出部32は、画像P1及び画像P2それぞれを構成する画素の特徴量と、特徴量の算出対象となる画素の周囲に存在する画素の平均輝度とを考慮して、画像P1及び画像P2から特徴点を抽出する。したがって、撮像された画像の明るさ、すなわち画像を構成する画素それぞれの輝度に関わらず精度よく特徴点を抽出することが可能となる。   Further, in the first embodiment, the feature point extraction unit 32 includes the feature amount of the pixels constituting each of the image P1 and the image P2, and the average luminance of the pixels existing around the pixel whose feature amount is to be calculated. In consideration of the above, feature points are extracted from the image P1 and the image P2. Therefore, it is possible to accurately extract feature points regardless of the brightness of the captured image, that is, the brightness of each pixel constituting the image.

具体的には、一般に画像中の明るい領域はコントラストが高く、特徴量が大きくなる傾向がある。一方、暗い領域ではコントラストが低く、特徴量が小さくなる傾向がある。このため、単に画素について算出した特徴量を所定の閾値と比較すると、明るい領域では、多数の特徴点が抽出され、暗い領域では少数の特徴点が抽出される結果になる。本実施形態にでは、特徴量の算出対象となる画素の周囲に存在する画素の平均輝度を考慮して、特徴量が算出されるため、撮像された画像の明るさに関わらず、適当な特徴点を抽出することが可能となる。
《第2の実施形態》
次に、本発明の第2の実施形態を、図11〜図14を参照しつつ説明する。なお、第1の実施形態と同一又は同等の構成については、同等の符号を用いるとともに、その説明を省略又は簡略する。
Specifically, in general, a bright region in an image has a high contrast and a feature amount tends to increase. On the other hand, in a dark region, the contrast is low and the feature amount tends to be small. For this reason, when the feature amount calculated for the pixel is simply compared with a predetermined threshold, a large number of feature points are extracted in a bright region, and a small number of feature points are extracted in a dark region. In the present embodiment, since the feature amount is calculated in consideration of the average luminance of the pixels existing around the pixel whose feature amount is to be calculated, an appropriate feature is obtained regardless of the brightness of the captured image. It becomes possible to extract points.
<< Second Embodiment >>
Next, a second embodiment of the present invention will be described with reference to FIGS. In addition, about the structure same or equivalent to 1st Embodiment, while using an equivalent code | symbol, the description is abbreviate | omitted or simplified.

本実施形態にかかる移動体認識システム10は、移動体認識装置30が、一般的なコンピュータ、又はマイクロコンピュータなどの装置と同様の構成によって実現されている点で、第1の実施形態にかかる移動体認識システム10と相違している。   The mobile object recognition system 10 according to the present exemplary embodiment is such that the mobile object recognition apparatus 30 is realized by the same configuration as a general computer or a device such as a microcomputer. This is different from the body recognition system 10.

図11は、移動体認識システム10の物理的な構成を示すブロック図である。図11に示されるように、移動体認識システム10は、撮像装置20と、コンピュータからなる移動体認識装置30とから構成されている。   FIG. 11 is a block diagram showing a physical configuration of the mobile object recognition system 10. As shown in FIG. 11, the moving body recognition system 10 includes an imaging device 20 and a moving body recognition device 30 including a computer.

移動体認識装置30は、CPU(Central Processing Unit)30a、主記憶部30b、補助記憶部30c、表示部30d、入力部30e、インターフェイス部30f、及び上記各部を相互に接続するシステムバス30gを含んで構成されている。   The moving body recognition device 30 includes a central processing unit (CPU) 30a, a main storage unit 30b, an auxiliary storage unit 30c, a display unit 30d, an input unit 30e, an interface unit 30f, and a system bus 30g that interconnects the above units. It consists of

CPU30aは、補助記憶部30cに記憶されているプログラムに従って、撮像装置20によって取得された画像に対して後述する処理を実行する。   CPU30a performs the process mentioned later with respect to the image acquired by the imaging device 20 according to the program memorize | stored in the auxiliary storage part 30c.

主記憶部30bは、RAM(Random Access Memory)等を含んで構成され、CPU30aの作業領域として用いられる。   The main storage unit 30b includes a RAM (Random Access Memory) and the like, and is used as a work area for the CPU 30a.

補助記憶部30cは、ROM(Read Only Memory)、磁気ディスク、半導体メモリ等の不揮発性メモリを含んで構成されている。この補助記憶部30cは、CPU30aが実行するプログラム、及び各種パラメータなどを記憶している。また、撮像装置20から出力される画像に関する情報、及びCPU30aによる処理結果などを含む情報を順次記憶する。   The auxiliary storage unit 30c includes a nonvolatile memory such as a ROM (Read Only Memory), a magnetic disk, and a semiconductor memory. The auxiliary storage unit 30c stores programs executed by the CPU 30a, various parameters, and the like. In addition, information about an image output from the imaging device 20 and information including a processing result by the CPU 30a are sequentially stored.

表示部30dは、CRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)などを含んで構成され、CPU30aの処理結果を表示する。   The display unit 30d includes a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), or the like, and displays the processing result of the CPU 30a.

入力部30eは、キーボードやマウス等のポインティングデバイスを含んで構成されている。オペレータの指示は、この入力部30eを介して入力され、システムバス30gを経由してCPU30aに通知される。   The input unit 30e includes a pointing device such as a keyboard and a mouse. The operator's instruction is input via the input unit 30e and notified to the CPU 30a via the system bus 30g.

インターフェイス部30fは、シリアルインターフェイスまたはLAN(Local Area Network)インターフェイス等を含んで構成されている。撮像装置20は、インターフェイス部30fを介してシステムバス30gに接続される。   The interface unit 30f includes a serial interface or a LAN (Local Area Network) interface. The imaging device 20 is connected to the system bus 30g via the interface unit 30f.

図12のフローチャートは、CPU30aによって実行されるプログラムの一連の処理アルゴリズムに対応している。以下、図12を参照しつつ、移動体認識装置30が実行する処理について説明する。なお、この処理は、移動体認識システム10が起動され、撮像装置20によって撮像された画像に関する情報が出力された後に実行される。また、前提として、撮像装置20からは、図5に示される画像P1、及び図6に示される画像P2が順次出力され、画像P1については、特徴点a〜aが既に抽出されているものとする。 The flowchart in FIG. 12 corresponds to a series of processing algorithms of a program executed by the CPU 30a. Hereinafter, the process performed by the mobile object recognition device 30 will be described with reference to FIG. This process is executed after the moving body recognition system 10 is activated and information related to the image captured by the imaging device 20 is output. Moreover, as a premise, from the imaging device 20, an image P1 shown in FIG. 5, and the image P2 are successively outputted as shown in FIG. 6, the image P1 is the characteristic point a 1 ~a 6 has already been extracted Shall.

まず、最初のステップS101では、CPU30aは、撮像装置20によって撮像された画像P2を構成する画素それぞれについての特徴量を算出し、この特徴量に基づいて画像P2に含まれる特徴点を抽出する。図13は、ステップS101で実行されるサブルーチン1を示す図である。CPU30aは、ステップS101での処理を、図13に示されるサブルーチン1を実行することにより実現する。   First, in the first step S101, the CPU 30a calculates a feature amount for each pixel constituting the image P2 captured by the imaging device 20, and extracts a feature point included in the image P2 based on the feature amount. FIG. 13 is a diagram showing the subroutine 1 executed in step S101. The CPU 30a implements the processing in step S101 by executing the subroutine 1 shown in FIG.

最初のステップS201では、CPU30aは、特徴量を算出する画素の座標を設定する。この座標は、撮像装置20によって撮像された画像P2上のXY座標系上に規定される。   In the first step S201, the CPU 30a sets the coordinates of the pixel for calculating the feature amount. This coordinate is defined on the XY coordinate system on the image P2 imaged by the imaging device 20.

次のステップS202では、CPU30aは、画像P2を構成する画素M(x、y)の周囲にある画素の輝度の平均値AVG(x、y)を算出する。   In the next step S202, the CPU 30a calculates an average value AVG (x, y) of the luminance of pixels around the pixel M (x, y) constituting the image P2.

次のステップS203では、CPU30aは、式(1)を用いて画素M(x、y)に対する特徴量f(x、y)をそれぞれ算出する。   In the next step S203, the CPU 30a calculates a feature quantity f (x, y) for the pixel M (x, y) using Expression (1).

次のステップS204では、CPU30aは、特徴量f(x、y)を、輝度の平均値AVG(x、y)を4乗したもので除して、比較値V(=f(x、y)/AVG(x、y))を算出する。 In the next step S204, the CPU 30a divides the feature value f (x, y) by the fourth power of the average luminance value AVG (x, y), and compares the value V (= f (x, y). / AVG (x, y) 4 ) is calculated.

次のステップS205では、CPU30aは、比較値Vが予め設定された閾値以上であるか否かを判断する。比較値Vが閾値以上である場合には、ステップS205での判断が肯定され、CPU30aは、ステップS206へ移行する。一方、比較値Vが閾値以下である場合には、ステップS205での判断が否定され、CPU30aは、ステップS207へ移行する。   In the next step S205, the CPU 30a determines whether or not the comparison value V is greater than or equal to a preset threshold value. If the comparison value V is greater than or equal to the threshold value, the determination in step S205 is affirmed, and the CPU 30a proceeds to step S206. On the other hand, if the comparison value V is less than or equal to the threshold value, the determination in step S205 is denied, and the CPU 30a proceeds to step S207.

次のステップS206では、CPU30aは、画素M(x、y)を画像P2の特徴点として抽出する。   In the next step S206, the CPU 30a extracts the pixel M (x, y) as a feature point of the image P2.

次のステップS207では、画像P2を構成する画素についての処理が完了したか否かを判断する。画素P2のすべての画素について、ステップS201〜S206までの処理が完了していない場合には、ステップS207での判断が否定され、CPU30aは、ステップS201へ戻る。   In the next step S207, it is determined whether or not the processing for the pixels constituting the image P2 is completed. When the processing from step S201 to S206 is not completed for all the pixels P2, the determination in step S207 is denied and the CPU 30a returns to step S201.

CPU30aは、ステップS201において、特徴量を算出する画素の座標を再設定し、以降、ステップS207での判断が肯定されるまで、ステップS201〜S207の処理を繰り返し実行する。これにより、図6に示されるように、画像P2からは特徴点b〜b18が抽出される。画素P2のすべての画素について、ステップS201〜S206までの処理が完了終了すると(ステップS207:Yes)、CPU30aは、サブルーチン1を終了し、次のステップS102へ移行する。 In step S201, the CPU 30a resets the coordinates of the pixel for calculating the feature amount, and thereafter repeatedly executes the processing in steps S201 to S207 until the determination in step S207 is affirmed. Thereby, as shown in FIG. 6, feature points b 1 to b 18 are extracted from the image P2. When the processes from step S201 to S206 are completed for all the pixels P2 (step S207: Yes), the CPU 30a ends the subroutine 1 and proceeds to the next step S102.

図12に戻り、次のステップS102では、CPU30aは、画像P1から抽出された特徴点a〜aにそれぞれ対応する探索領域を画像P2上に設定する。例えば、図7には、1組の画像P1及びP2のうち、最初に撮像された画像P1上の特徴点aに対応した探索領域Fが示されている。この探索領域Fは、画像P1上の特徴点aに対応する特徴点が含まれると予想される領域である。CPU30aは、画像P1上のすべての特徴点a〜aについての探索領域F〜Fを、画像P2上に設定する。 Returning to FIG. 12, in the next step S102, the CPU 30a sets search areas respectively corresponding to the feature points a 1 to a 6 extracted from the image P1 on the image P2. For example, FIG. 7 shows a search area F 1 corresponding to the feature point a 1 on the first image P1 of the pair of images P1 and P2. The search area F 1 is an area where a feature point corresponding to the feature point a 1 on the image P 1 is expected to be included. The CPU 30a sets the search areas F 1 to F 6 for all the feature points a 1 to a 6 on the image P1 on the image P2.

次のステップS103では、CPU30aは、相関値の算出を行う。図14は、ステップS103で実行されるサブルーチン2を示す図である。CPU30aは、ステップS103での処理を、図14に示されるサブルーチン2を実行することにより実現する。   In the next step S103, the CPU 30a calculates a correlation value. FIG. 14 is a diagram showing the subroutine 2 executed in step S103. The CPU 30a implements the processing in step S103 by executing the subroutine 2 shown in FIG.

最初のステップS301では、CPU30aは、画像P1の特徴点aを選択する。 In the first step S301, CPU 30a selects the feature point a 1 of the image P1.

次のステップS302では、CPU30aは、特徴点aの特徴量と、特徴点aに対応する探索領域F内にある4つの特徴点b,b,b,bそれぞれの特徴量とを比較する。そして、特徴点aの特徴量との差分が、予め設定された閾値以下となる特徴点を選択する。ここでは、例えば特徴点b及び特徴点bが選択されたものとして以下の説明を行う。 In the next step S302, CPU 30a includes a feature quantity of the feature point a 1, 4 single feature point b 1 in the search area F 1 corresponding to the feature points a 1, b 3, b 4 , b 9 , respectively, wherein Compare the amount. The difference between the feature quantity of the feature point a 1 selects the feature points to be smaller than the predetermined threshold value. Here, for example, the following description will be made assuming that the feature point b 1 and the feature point b 4 are selected.

次のステップS303では、CPU30aは、特徴点aと、探索領域F内にある4つの特徴点b,b,b,bのうちから選択した特徴点b及び特徴点bとの相関値を算出する。具体的には、CPU30aは、まず、図8に示されるように、画像P1の特徴点aを中心とする長方形の画像をテンプレートTとして規定する。次に、CPU30aは、テンプレートTに含まれる特徴点aと、探索領域F内に含まれる特徴点bとを一致させたときの、テンプレートTと、このテンプレートTと重なる対象画像との相関値Rを、上記式(5)を用いて算出する。 In the next step S303, CPU 30a includes a feature point a 1, the search area F 4 single feature point b 1 in the 1, b 3, b 4, the selected feature points b 1 and feature point b from among b 9 A correlation value with 4 is calculated. Specifically, CPU 30a, first, as shown in FIG. 8, to define a rectangular image around the feature point a 1 of the image P1 as a template T 1. Then, CPU 30a overlaps the characteristic point a 1 included in the template T 1, when matched with a feature point b 1 included in the search area F 1, the template T 1, and the template T 1 target The correlation value R 1 with the image is calculated using the above equation (5).

次のステップS304では、算出した相関値Rが最大であるか否かを判断する。算出した相関値Rが過去に算出された相関値よりも大きい場合には、ステップS304での判断が肯定され、CPU30aは、次のステップS305へ移行する。また、算出した相関値Rが過去に算出された相関値よりも小さい場合には、ステップS304での判断が否定され、CPU30aは、ステップS306へ移行する。ここでは、過去に算出さされた相関値がないため、相関値Rが最大となる。したがって、CPU30aは、次のステップS305へ移行する。 In the next step S304, it is determined whether or not the calculated correlation value R is the maximum. When the calculated correlation value R is larger than the correlation value calculated in the past, the determination in step S304 is affirmed, and the CPU 30a proceeds to next step S305. If the calculated correlation value R is smaller than the correlation value calculated in the past, the determination in step S304 is denied, and the CPU 30a proceeds to step S306. Here, because there is no correlation value calculated in the past, the correlation value R 1 is maximized. Therefore, the CPU 30a proceeds to the next step S305.

次のステップS305では、CPU30aは、特徴点aの画像P上の位置座標(X1、Y1)を始点Sとし、ステップS303におけるテンプレートTの画像P2上の位置座標(ここでは、特徴点bの座標(X2、Y2))を終点Eとするオプティカルフローを画像P1及び画像P2に共通するXY座標系に規定する。 In the next step S305, the CPU 30a uses the position coordinates (X1 1 , Y1 1 ) on the image P of the feature point a 1 as the start point S 1, and the position coordinates on the image P2 of the template T 1 in step S303 (here, prescribed in the XY coordinate system that is common to optical flow of feature points b 1 of coordinates (X2 1, Y2 1)) and the end point E 1 to the image P1 and the image P2.

次のステップS306では、CPU30aは、特徴点bの周辺領域の探索が完了したか否かを判断する。周辺領域の探索が完了していない場合には、ステップS306での判断は否定され、CPU30aは、次のステップS307へ移行する。一方、完了している場合には、ステップS306での判断は肯定され、CPU30aは、次のステップS308へ移行する。ここでは、特徴点bの周辺領域の探索が完了していないので、CPU30aは、次のステップS307へ移行する。 In the next step S306, CPU 30a determines whether the search of the peripheral region of the feature point b 1 has been completed. If the search for the peripheral area is not completed, the determination in step S306 is denied, and the CPU 30a proceeds to the next step S307. On the other hand, if it is completed, the determination in step S306 is affirmed, and the CPU 30a proceeds to the next step S308. Here, since the search for the peripheral region of the feature point b 1 is not completed, the CPU 30a proceeds to the next step S307.

次のステップS307では、CPU30aは、図9を参照するとわかるように、探索領域F内に、特徴点bを中心とし、テンプレートTより大きいマッチング領域MAを規定する。そして、この領域を内にテンプレートTと同形状で、中心が特徴点bからずれたオフセット領域を設定する。 In the next step S307, CPU 30a, as seen with reference to FIG. 9, in the search area F 1, centered on the feature point b 1, defining a template T 1 is greater than the matching area MA. Then, an offset region having the same shape as the template T 1 and having the center shifted from the feature point b 1 is set in this region.

以降、CPU30aは、ステップS303〜S307までの処理をマッチング領域MAに対して繰り返し実行する。これにより、マッチング領域MA内に順次設定されるオフセット領域に対する相関値が順次算出される。そして、マッチング領域MA全域についてのマッチングが終了すると、ステップS306での判断が肯定され、CPU30aは、次のステップS308へ移行する。なお、CPU30aは、テンプレートTとオフセット領域との相関値が、ステップS304で最大と判断された場合には、ステップS305において、このときのテンプレートTが位置する座標に対応する点を画像P2の新たな特徴点とし、オプティカルフローの終点を新たな特徴点に変更する。   Thereafter, the CPU 30a repeatedly executes the processing from steps S303 to S307 on the matching area MA. Thereby, correlation values for the offset areas sequentially set in the matching area MA are sequentially calculated. When the matching is completed for the entire matching area MA, the determination in step S306 is affirmed, and the CPU 30a proceeds to the next step S308. If the correlation value between the template T and the offset region is determined to be the maximum in step S304, the CPU 30a sets a point corresponding to the coordinates at which the template T is located in step S305 as a new image P2. The end point of the optical flow is changed to a new feature point.

次のステップS308では、CPU30aは、探索領域Fから選択された特徴点すべてについてのマッチング処理が完了したか否かを判断する。探索領域Fから選択されたすべての特徴点についてのマッチング処理が完了していない場合には、ステップS308での判断は否定される。この場合、CPU30aは、ステップS302に戻り、次の特徴点bを選択し、同様に、ステップS302〜S308までの処理を実行する。以降、CPU30aは、ステップS308での判断が肯定されるまで、ステップS302〜S308までの処理を繰り返し実行する。 In the next step S308, CPU 30a determines whether or not the matching process for all the feature points selected from the search area F 1 is completed. If the matching process for all of the feature points selected from the search area F 1 is not completed, the determination in step S308 is denied. In this case, CPU 30a returns to step S302, selects the next characteristic point b 4, similarly executes the processes of steps S302~S308. Thereafter, the CPU 30a repeatedly executes the processes from step S302 to S308 until the determination in step S308 is affirmed.

一方、探索領域Fから選択されたすべての特徴点についてのマッチング処理が完了した場合には、ステップS308での判断は肯定され、CPU30aは、次のステップS309へ移行する。 On the other hand, when the matching process for all of the feature points selected from the search area F 1 is completed, the determination in step S308 is affirmative, CPU 30a proceeds to the next step S309.

次のステップS309では、CPU30aは、画像P1の特徴点a〜aについて、ステップS302〜S309までの処理が実行されたか否かを判断する。画像P1の特徴点a〜aについての処理が完了していない場合には、ステップS301に戻り、次の特徴点を選択し、同様に、ステップS302〜S309までの処理を実行する。以降、CPU30aは、ステップS309での判断が肯定されるまで、ステップS302〜S309までの処理を繰り返し実行する。一方、画像P1の特徴点a〜aについての処理が完了した場合には、ステップS309での判断が肯定され、CPU30aは、サブルーチン2を終了し、次のステップS104に移行する。サブルーチン2が終了したときには、図10に示されるように、一群のオプティカルフローが規定された状態となっている。なお、図10には、6本の移動体101に関するオプティカルフローが示されているが、実際は、数十或いは数百本のオプティカルフローが規定される。 In the next step S309, CPU 30a, for the feature point a 1 ~a 6 images P1, it is determined whether the processing of steps S302~S309 are performed. If the processing for the feature points a 1 to a 6 of the image P1 has not been completed, the process returns to step S301, the next feature point is selected, and the processing from step S302 to S309 is executed in the same manner. Thereafter, the CPU 30a repeatedly executes the processes from step S302 to S309 until the determination in step S309 is affirmed. On the other hand, when the processing for the feature points a 1 to a 6 of the image P1 is completed, the determination in step S309 is affirmed, and the CPU 30a ends the subroutine 2 and proceeds to the next step S104. When the subroutine 2 is completed, a group of optical flows is defined as shown in FIG. In FIG. 10, optical flows related to six moving bodies 101 are shown. Actually, tens or hundreds of optical flows are defined.

図12に戻り、次のステップS104では、CPU30aは、数十或いは数百本のオプティカルフローのうちから、ある程度のノイズ成分を多く含むオプティカルフローを除外し、残りのオプティカルフローをグルーピングする。例えば、移動体101が完全な直線運動をしている場合には、各オプティカルフローと一致する直線は一点(消失点)で交わるはずである。そこで、CPU30aは、オプティカルフローと一致する直線が、他のオプティカルフローと一致する直線群が収束する消失点から著しく離れている場合には、このオプティカルフローを除外し、残りの一群のオプティカルフローを同一の移動体に関連するオプティカルフローと見なしてグルーピングする。   Returning to FIG. 12, in the next step S104, the CPU 30a excludes optical flows including a large amount of noise components from several tens or hundreds of optical flows, and groups the remaining optical flows. For example, when the moving body 101 has a complete linear motion, the straight lines that coincide with each optical flow should intersect at one point (vanishing point). Therefore, the CPU 30a excludes the optical flow when the straight line that matches the optical flow is significantly away from the vanishing point where the straight line group that matches the other optical flows converges, and the remaining group of optical flows is removed. Grouping is considered as an optical flow related to the same moving object.

次のステップS105では、CPU30aは、グルーピングされたオプティカルフローに基づいて、自車と移動体の距離、自車と移動体の相対速度及び相対移動方向などを検出し出力する。例えば、CPU30aは、一群のオプティカルフローの始点の配置と、終点の配置との相違から移動体の相対速度及び相対移動方向を検出し出力する。   In the next step S105, the CPU 30a detects and outputs the distance between the own vehicle and the moving body, the relative speed and the relative moving direction of the own vehicle and the moving body, based on the grouped optical flows. For example, the CPU 30a detects and outputs the relative speed and the relative movement direction of the moving body from the difference between the start point arrangement and the end point arrangement of the group of optical flows.

以上説明したように、本第2の実施形態では、画像P1の特徴点を含むテンプレートTを用いたマッチング処理が行われる前に、画像P2に設定された探索領域からマッチング処理を行う対象となる特徴点が選択される。そして、選択された特徴点を含む画像についてのみ、テンプレートTを用いたマッチング処理が実行される。このため、マッチング処理を実行することにより得られる相関値が高いと予想される領域についてのみ、マッチング処理を実行することができ、結果的に短時間に精度よく移動体を検出することが可能となる。   As described above, in the second embodiment, the matching process is performed from the search region set in the image P2 before the matching process using the template T including the feature point of the image P1 is performed. A feature point is selected. Then, the matching process using the template T is executed only for the image including the selected feature point. For this reason, it is possible to execute the matching process only for the region where the correlation value obtained by executing the matching process is expected to be high, and as a result, it is possible to detect the moving object with high accuracy in a short time. Become.

また、本第2の実施形態では、マッチング処理を実行することにより得られる相関値が高いと予想される領域についてのみ、マッチング処理が実行される。したがって、相互に特徴量が低い画像P1の特徴点と画像P2の特徴点とが、マッチング処理の誤りによって相互に対応づけられることを回避することが可能となる。   In the second embodiment, the matching process is executed only for an area where the correlation value obtained by executing the matching process is expected to be high. Therefore, it is possible to avoid the feature points of the image P1 and the feature points of the image P2 having low mutual feature amounts from being associated with each other due to an error in the matching process.

また、本第2の実施形態では、画像P1及び画像P2それぞれを構成する画素の特徴量と、特徴量の算出対象となる画素の周囲に存在する画素の平均輝度とを考慮して、画像P1及び画像P2から特徴点を抽出する。したがって、撮像された画像の明るさ、すなわち画像を構成する画素それぞれの輝度に関わらず精度よく特徴点を抽出することが可能となる。   In the second embodiment, the image P1 is considered in consideration of the feature amount of the pixels constituting each of the images P1 and P2 and the average luminance of the pixels existing around the pixel whose feature amount is to be calculated. Then, feature points are extracted from the image P2. Therefore, it is possible to accurately extract feature points regardless of the brightness of the captured image, that is, the brightness of each pixel constituting the image.

以上、本発明の実施形態について説明したが、本発明は上記実施形態によって限定されるものではない。   As mentioned above, although embodiment of this invention was described, this invention is not limited by the said embodiment.

例えば、上記各実施形態では、式(1)を用いて特徴量f(x、y)を算出したが、本発明はこれに限定されるものではない。例えば、特徴量は、いわゆるKLT特徴量min(λ1、λ2)であってもよい。この場合は、特徴量を上述した平均値AVG(x、y)を2乗したもので除することで比較値Vを算出することができる。なお、λ1及びλ2は、それぞれ下記の式(8)及び式(9)で示される。   For example, in each of the above embodiments, the feature amount f (x, y) is calculated using the equation (1), but the present invention is not limited to this. For example, the feature amount may be a so-called KLT feature amount min (λ1, λ2). In this case, the comparison value V can be calculated by dividing the feature amount by the square of the average value AVG (x, y) described above. Note that λ1 and λ2 are represented by the following equations (8) and (9), respectively.

Figure 2011043922
Figure 2011043922

Figure 2011043922
Figure 2011043922

なお、A〜Cは下記の式(10)で表される。ただし、Ix、Iyは、画像上の位置(x、y)における輝度I(x、y)のX軸方向及びY軸方向の勾配を示す。具体的には、下記の式(11)及び式(12)で表される。   A to C are represented by the following formula (10). Here, Ix and Iy indicate gradients in the X-axis direction and Y-axis direction of the luminance I (x, y) at the position (x, y) on the image. Specifically, it is represented by the following formula (11) and formula (12).

Figure 2011043922
Figure 2011043922

Figure 2011043922
Figure 2011043922

Figure 2011043922
Figure 2011043922

また、上記各実施形態に係る移動体認識装置30の機能は、専用のハードウェアによっても、また、通常のコンピュータシステムによっても実現することができる。   Moreover, the function of the moving body recognition apparatus 30 according to each of the above embodiments can be realized by dedicated hardware or by a normal computer system.

また、第2の実施形態において移動体認識装置30の補助記憶部30cに記憶されているプログラムは、フレキシブルディスク、CD−ROM(Compact Disk Read-Only Memory)、DVD(Digital Versatile Disk)、MO(Magneto-Optical disk)等のコンピュータで読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータにインストールすることにより、上述の処理を実行する装置を構成することとしてもよい。   In the second embodiment, the program stored in the auxiliary storage unit 30c of the moving body recognition apparatus 30 is a flexible disk, a CD-ROM (Compact Disk Read-Only Memory), a DVD (Digital Versatile Disk), an MO ( A device that executes the above-described processing may be configured by storing and distributing in a computer-readable recording medium such as a Magneto-Optical disk) and installing the program in the computer.

また、プログラムをインターネット等の通信ネットワーク上の所定のサーバ装置が有するディスク装置等に格納しておき、例えば、搬送波に重畳させて、コンピュータにダウンロード等するようにしても良い。   Further, the program may be stored in a disk device or the like included in a predetermined server device on a communication network such as the Internet, and may be downloaded onto a computer by being superimposed on a carrier wave, for example.

また、プログラムは、通信ネットワークを介して転送しながら起動実行することとしてもよい。   Further, the program may be activated and executed while being transferred via a communication network.

また、プログラムは、全部又は一部をサーバ装置上で実行させ、その処理に関する情報を通信ネットワークを介して送受信しながら、上述の画像処理を実行することとしてもよい。   The program may be executed entirely or partially on the server device, and the above-described image processing may be executed while transmitting / receiving information regarding the processing via the communication network.

なお、上述の機能を、OS(Operating System)が分担して実現する場合又はOSとアプリケーションとの協働により実現する場合等には、OS以外の部分のみを媒体に格納して配布してもよく、また、コンピュータにダウンロード等しても良い。   Note that when the above functions are realized by sharing an OS (Operating System) or when the functions are realized by cooperation between the OS and an application, only the part other than the OS may be stored in a medium and distributed. It may also be downloaded to a computer.

なお、本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施形態及び変形が可能とされるものである。また、上述した実施形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。   It should be noted that the present invention can be variously modified and modified without departing from the broad spirit and scope of the present invention. Further, the above-described embodiment is for explaining the present invention, and does not limit the scope of the present invention.

本発明の移動体認識装置、移動体認識方法及びプログラムは、移動体の認識に適している。   The mobile object recognition apparatus, mobile object recognition method, and program of the present invention are suitable for recognition of a mobile object.

10 移動体認識システム
20 撮像装置
20a カメラ
30 移動体認識装置
30a CPU
30b 主記憶部
30c 補助記憶部
30d 表示部
30e 入力部
30f インターフェイス部
30g システムバス
31 記憶部
32 特徴点抽出部
33 探索領域設定部
34 特徴点選択部
35 相関値演算部
36 オプティカルフロー生成部
37 グルーピング処理部
38 移動体検出部
100 車両
101 移動体
P1,P2 画像
〜a 特徴点
〜b18 特徴点
MA マッチング領域
F 探索領域
T テンプレート
DESCRIPTION OF SYMBOLS 10 Moving body recognition system 20 Imaging apparatus 20a Camera 30 Moving body recognition apparatus 30a CPU
30b Main storage unit 30c Auxiliary storage unit 30d Display unit 30e Input unit 30f Interface unit 30g System bus 31 Storage unit 32 Feature point extraction unit 33 Search region setting unit 34 Feature point selection unit 35 Correlation value calculation unit 36 Optical flow generation unit 37 Grouping Processing unit 38 moving object detection unit 100 vehicle 101 moving object P1, P2 image a 1 to a 6 feature points b 1 to b 18 feature points MA matching region F search region T template

Claims (7)

移動する移動体を順次撮像して得られた第1画像及び第2画像それぞれを構成する画素についての特徴量を演算する特徴量演算手段と、
前記特徴量に基づいて、前記第1画像及び前記第2画像それぞれの特徴点を抽出する特徴点抽出手段と、
前記第1画像の前記特徴点の前記特徴量と、前記第2画像の前記特徴点それぞれの前記特徴量との差分を演算し、前記差分が所定の範囲内となる前記第2画像の前記特徴点をそれぞれ選択する選択手段と、
前記第1画像の前記特徴点と、前記選択された前記第2画像の前記特徴点それぞれとの相関値を演算する相関値演算手段と、
前記第1画像の前記特徴点を始点とし、前記始点としての前記特徴点に対する前記相関値が最も高い前記第2画像の前記特徴点を終点とするオプティカルフローを生成するオプティカルフロー生成手段と、
を備える移動体認識装置。
A feature amount calculating means for calculating a feature amount for pixels constituting each of the first image and the second image obtained by sequentially capturing moving moving bodies;
Feature point extraction means for extracting feature points of the first image and the second image based on the feature amount; and
The difference between the feature amount of the feature point of the first image and the feature amount of each of the feature points of the second image is calculated, and the feature of the second image is within a predetermined range. A selection means for selecting each of the points;
Correlation value calculating means for calculating a correlation value between the feature point of the first image and each of the feature points of the selected second image;
Optical flow generation means for generating an optical flow starting from the feature point of the first image and having the feature point of the second image having the highest correlation value as the start point as the end point;
A mobile object recognition apparatus comprising:
前記第1画像の前記特徴点にそれぞれ対応する探索領域を、前記第2画像上にそれぞれ設定する探索領域設定手段を更に備え、
前記選択手段は、前記探索領域内で前記第2画像の前記特徴点の選択を実行する請求項1に記載の移動体認識装置。
Search area setting means for setting search areas respectively corresponding to the feature points of the first image on the second image;
The moving body recognition apparatus according to claim 1, wherein the selection unit performs selection of the feature point of the second image within the search area.
前記特徴点抽出手段は、前記特徴量の算出対象となる算出対象画素の前記特徴量と、前記算出対象画素の周囲の前記画素の平均輝度とに基づいて、前記特徴点を抽出する請求項1又は2に記載の移動体認識装置。   The feature point extraction unit extracts the feature points based on the feature amount of a calculation target pixel that is a target of calculation of the feature amount and an average luminance of the pixels around the calculation target pixel. Or the moving body recognition apparatus of 2. 前記特徴点抽出手段は、前記特徴量の算出対象となる前記算出対象画素の前記特徴量の、前記算出対象画素の周囲にある前記画素の平均輝度に対する割合が所定の値以上の場合に、前記算出対象画素に対応する前記特徴点を抽出する請求項3に記載の移動体認識装置。   The feature point extraction means, when the ratio of the feature quantity of the calculation target pixel that is the calculation target of the feature quantity to the average luminance of the pixels around the calculation target pixel is equal to or greater than a predetermined value, The mobile object recognition apparatus according to claim 3, wherein the feature point corresponding to the calculation target pixel is extracted. 前記相関値演算手段は、前記第1画像の前記特徴点を含む画像をテンプレートとし、
前記テンプレートと、前記第2画像の前記特徴点を含む領域内の前記画像との前記相関値を算出する請求項1乃至4のいずれか一項に記載の移動体認識装置。
The correlation value calculating means uses an image including the feature points of the first image as a template,
5. The moving object recognition apparatus according to claim 1, wherein the correlation value between the template and the image in an area including the feature point of the second image is calculated.
移動する移動体を順次撮像して得られた第1画像及び第2画像それぞれを構成する画素についての特徴量を演算する工程と、
前記特徴量に基づいて、前記第1画像及び前記第2画像それぞれの特徴点を抽出する工程と、
前記第1画像の前記特徴点の前記特徴量と、前記第2画像の前記特徴点それぞれの前記特徴量との差分を演算し、前記差分が所定の範囲内となる前記第2画像の前記特徴点をそれぞれ選択する工程と、
前記第1画像の前記特徴点と、前記選択された前記第2画像の前記特徴点それぞれとの相関値を演算する工程と、
前記第1画像の前記特徴点を始点とし、前記始点としての前記特徴点に対する前記相関値が最も高い前記第2画像の前記特徴点を終点とするオプティカルフローを生成する工程と、
を含む移動体認識方法。
A step of calculating a feature amount for pixels constituting each of the first image and the second image obtained by sequentially capturing moving moving bodies;
Extracting a feature point of each of the first image and the second image based on the feature amount;
The difference between the feature amount of the feature point of the first image and the feature amount of each of the feature points of the second image is calculated, and the feature of the second image is within a predetermined range. Selecting each of the points;
Calculating a correlation value between the feature point of the first image and each of the feature points of the selected second image;
Generating an optical flow having the feature point of the first image as a start point and the feature point of the second image having the highest correlation value with respect to the feature point as the start point as an end point;
A moving body recognition method.
コンピュータを、
移動する移動体を順次撮像して得られた第1画像及び第2画像それぞれを構成する画素についての特徴量を演算する手段と、
前記特徴量に基づいて、前記第1画像及び前記第2画像それぞれの特徴点を抽出する手段と、
前記第1画像の前記特徴点の前記特徴量と、前記第2画像の前記特徴点それぞれの前記特徴量との差分を演算し、前記差分が所定の範囲内となる前記第2画像の前記特徴点をそれぞれ選択する手段と、
前記第1画像の前記特徴点と、前記選択された前記第2画像の前記特徴点それぞれとの相関値を演算する手段と、
前記第1画像の前記特徴点を始点とし、前記始点としての前記特徴点に対する前記相関値が最も高い前記第2画像の前記特徴点を終点とするオプティカルフローを生成する手段と、
として機能させるプログラム。
Computer
Means for calculating a feature amount for pixels constituting each of the first image and the second image obtained by sequentially capturing moving moving bodies;
Means for extracting feature points of each of the first image and the second image based on the feature amount;
The difference between the feature amount of the feature point of the first image and the feature amount of each of the feature points of the second image is calculated, and the feature of the second image is within a predetermined range. Means for selecting each of the points;
Means for calculating a correlation value between the feature point of the first image and each of the feature points of the selected second image;
Means for generating an optical flow having the feature point of the first image as a start point and the feature point of the second image having the highest correlation value with respect to the feature point as the start point as an end point;
Program to function as.
JP2009190474A 2009-08-19 2009-08-19 Mobile object recognition apparatus, mobile object recognition method, and program Expired - Fee Related JP5365408B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009190474A JP5365408B2 (en) 2009-08-19 2009-08-19 Mobile object recognition apparatus, mobile object recognition method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009190474A JP5365408B2 (en) 2009-08-19 2009-08-19 Mobile object recognition apparatus, mobile object recognition method, and program

Publications (2)

Publication Number Publication Date
JP2011043922A true JP2011043922A (en) 2011-03-03
JP5365408B2 JP5365408B2 (en) 2013-12-11

Family

ID=43831321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009190474A Expired - Fee Related JP5365408B2 (en) 2009-08-19 2009-08-19 Mobile object recognition apparatus, mobile object recognition method, and program

Country Status (1)

Country Link
JP (1) JP5365408B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014010765A (en) * 2012-07-02 2014-01-20 Sumitomo Electric Ind Ltd Mobile object detector, image type sensor, and computer program
WO2014172875A1 (en) * 2013-04-25 2014-10-30 Harman International Industries, Incorporated Moving object detection
US10043276B2 (en) 2015-09-01 2018-08-07 Canon Kabushiki Kaisha Image processing method, image processing apparatus, robot apparatus, program, and recording medium
WO2018159467A1 (en) 2017-02-28 2018-09-07 Necソリューションイノベータ株式会社 Mobile entity detector, mobile entity detection method, and computer-readable recording medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5764283A (en) * 1995-12-29 1998-06-09 Lucent Technologies Inc. Method and apparatus for tracking moving objects in real time using contours of the objects and feature paths
JP2004005089A (en) * 2002-05-31 2004-01-08 Mitsubishi Electric Corp Image processor and image processing method
JP2005167657A (en) * 2003-12-03 2005-06-23 Seiko Epson Corp Image processor and image processing method
JP2008282386A (en) * 2007-05-10 2008-11-20 Honda Motor Co Ltd Object detector, object detection method, and object detection program
JP2009020800A (en) * 2007-07-13 2009-01-29 Casio Comput Co Ltd Feature-point tracking device and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5764283A (en) * 1995-12-29 1998-06-09 Lucent Technologies Inc. Method and apparatus for tracking moving objects in real time using contours of the objects and feature paths
JP2004005089A (en) * 2002-05-31 2004-01-08 Mitsubishi Electric Corp Image processor and image processing method
JP2005167657A (en) * 2003-12-03 2005-06-23 Seiko Epson Corp Image processor and image processing method
JP2008282386A (en) * 2007-05-10 2008-11-20 Honda Motor Co Ltd Object detector, object detection method, and object detection program
JP2009020800A (en) * 2007-07-13 2009-01-29 Casio Comput Co Ltd Feature-point tracking device and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014010765A (en) * 2012-07-02 2014-01-20 Sumitomo Electric Ind Ltd Mobile object detector, image type sensor, and computer program
WO2014172875A1 (en) * 2013-04-25 2014-10-30 Harman International Industries, Incorporated Moving object detection
US10043276B2 (en) 2015-09-01 2018-08-07 Canon Kabushiki Kaisha Image processing method, image processing apparatus, robot apparatus, program, and recording medium
WO2018159467A1 (en) 2017-02-28 2018-09-07 Necソリューションイノベータ株式会社 Mobile entity detector, mobile entity detection method, and computer-readable recording medium
US11062174B2 (en) 2017-02-28 2021-07-13 Nec Solution Innovators, Ltd. Mobile entity detection apparatus, mobile entity detection method, and computer-readable recording medium

Also Published As

Publication number Publication date
JP5365408B2 (en) 2013-12-11

Similar Documents

Publication Publication Date Title
US10043313B2 (en) Information processing apparatus, information processing method, information processing system, and storage medium
CN110363817B (en) Target pose estimation method, electronic device, and medium
US20070183665A1 (en) Face feature point detecting device and method
US20120106784A1 (en) Apparatus and method for tracking object in image processing system
US20210329175A1 (en) Image processing system, image processing method, and program
CN108197567B (en) Method, apparatus and computer readable medium for image processing
EP3300025A1 (en) Image processing device and image processing method
JP5365408B2 (en) Mobile object recognition apparatus, mobile object recognition method, and program
CN116071520B (en) Digital twin water affair simulation test method
JP2015138428A (en) Additional information display apparatus and additional information display program
KR20210049655A (en) Apparatus and method for generating feature maps
JP6037134B2 (en) Feature point association system, feature point association method, and program
JP5048609B2 (en) Object tracking device and program
JP2011089784A (en) Device for estimating direction of object
US9727145B2 (en) Detecting device and detecting method
JP5418427B2 (en) Collision time calculation device, collision time calculation method and program
KR101188296B1 (en) Weighted-based target decision method for strapdown dual mode imaging seeker and system thereof
JP2012008657A (en) Apparatus and method for generating object shape
JP2017033556A (en) Image processing method and electronic apparatus
JP2009187204A (en) Image processing apparatus
KR20200096426A (en) Moving body detecting device, moving body detecting method, and moving body detecting program
JP5397103B2 (en) Face position detection device, face position detection method, and program
JP2022185872A (en) Image processing device, image processing method and imaging apparatus
US20170039698A1 (en) Pattern outline extraction device, pattern outline extraction method, and computer program product
JP6116916B2 (en) Image detection apparatus, control program, and image detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130423

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130826

LAPS Cancellation because of no payment of annual fees