JP4155252B2 - Vehicle detection device - Google Patents

Vehicle detection device Download PDF

Info

Publication number
JP4155252B2
JP4155252B2 JP2004261106A JP2004261106A JP4155252B2 JP 4155252 B2 JP4155252 B2 JP 4155252B2 JP 2004261106 A JP2004261106 A JP 2004261106A JP 2004261106 A JP2004261106 A JP 2004261106A JP 4155252 B2 JP4155252 B2 JP 4155252B2
Authority
JP
Japan
Prior art keywords
vehicle
captured image
feature point
vehicle detection
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004261106A
Other languages
Japanese (ja)
Other versions
JP2006080761A (en
Inventor
秀和 西内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004261106A priority Critical patent/JP4155252B2/en
Publication of JP2006080761A publication Critical patent/JP2006080761A/en
Application granted granted Critical
Publication of JP4155252B2 publication Critical patent/JP4155252B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、自車両の周囲に存在する車両を検出する装置に関する。   The present invention relates to an apparatus for detecting a vehicle existing around a host vehicle.

カメラの撮像画像を用いて自車両の周囲に存在する車両を検出する装置が知られている。このような装置では、検出対象とする車両の明るさや形状が変化したときにも安定して検出できるようにする必要がある。特許文献1に開示される装置では、検出結果を用いて検出対象のパターンを更新して次のパターンマッチングを行うことで、明るさや形状の変化に対して安定した車両検出を行うようにしている。   There is known an apparatus for detecting a vehicle existing around a host vehicle using a captured image of a camera. In such an apparatus, it is necessary to enable stable detection even when the brightness or shape of a vehicle to be detected changes. In the apparatus disclosed in Patent Document 1, the detection target pattern is updated using the detection result, and the next pattern matching is performed to perform stable vehicle detection against changes in brightness and shape. .

特開平6−30417号公報JP-A-6-30417

特許文献1に開示される装置では、パターンマッチング以外の車両検出方法を選択できない。そこで、状況に応じて適切な車両検出方法を選択することにより、安定した車両検出を行うことができる車両検出装置が求められている。
In the device disclosed in Patent Literature 1, a vehicle detection method other than pattern matching cannot be selected. Thus, there is a need for a vehicle detection device that can perform stable vehicle detection by selecting an appropriate vehicle detection method according to the situation.

本発明による車両検出装置は、自車両の周囲の撮像画像を取得する撮像手段と、撮像画像において自車両の周囲に存在する他車両の一部分を表す特徴点の候補としての候補点を撮像画像より抽出する候補点抽出手段と、候補点抽出手段により抽出された候補点の位置または移動速度に基づいて、他車両を検出するための車両検出方法を選択する選択手段と、撮像画像に基づいて、選択手段により選択された車両検出方法を用いて、他車両を検出する車両検出手段とを備えるものである。   The vehicle detection device according to the present invention includes an imaging unit that acquires a captured image around the host vehicle, and candidate points as candidate feature points representing a part of another vehicle existing around the host vehicle in the captured image from the captured image. A candidate point extracting means for extracting; a selecting means for selecting a vehicle detection method for detecting other vehicles based on the position or moving speed of the candidate point extracted by the candidate point extracting means; and Vehicle detection means for detecting another vehicle using the vehicle detection method selected by the selection means.

本発明によれば、車両検出方法を選択し、撮像画像に基づいて、その選択された車両検出方法を用いて自車両の周囲の他車両を検出することとした。このようにしたので、状況に応じて適切な車両検出方法を選択し、安定した車両検出を行うことができる。   According to the present invention, a vehicle detection method is selected, and other vehicles around the host vehicle are detected using the selected vehicle detection method based on the captured image. Since it did in this way, the suitable vehicle detection method can be selected according to a condition, and the stable vehicle detection can be performed.

本発明の一実施形態による車両検出装置の構成を図1に示す。この車両検出装置は車両に搭載されて使用されるものであり、自車両の後方を撮像した撮像画像から他車両を検出することにより、自車両後方の他車両の存在を運転者に報知するものである。この車両検出装置は、カメラ1、画像メモリ2、マイコン3、およびモニタ4を備えている。   A configuration of a vehicle detection apparatus according to an embodiment of the present invention is shown in FIG. This vehicle detection device is mounted on a vehicle and used to notify the driver of the presence of the other vehicle behind the host vehicle by detecting the other vehicle from a captured image obtained by imaging the rear of the host vehicle. It is. The vehicle detection device includes a camera 1, an image memory 2, a microcomputer 3, and a monitor 4.

カメラ1は自車両後方を撮像するように自車両の後部に設置されており、撮像した画像を画像信号として画像メモリ2へ出力する。カメラ1には、たとえばCCDカメラ等が用いられる。画像メモリ2は、カメラ1から入力された画像信号を画像データとして記憶保持するためのフレームメモリである。画像メモリ2に記憶された画像データは、マイコン3の制御により画像フレーム単位でマイコン3に出力される。   The camera 1 is installed at the rear of the host vehicle so as to capture the rear of the host vehicle, and outputs the captured image to the image memory 2 as an image signal. As the camera 1, for example, a CCD camera or the like is used. The image memory 2 is a frame memory for storing and holding an image signal input from the camera 1 as image data. The image data stored in the image memory 2 is output to the microcomputer 3 in units of image frames under the control of the microcomputer 3.

マイコン3は、画像メモリ2からの画像データに基づいて後で説明するような処理を実行することにより、撮像画像から他車両を抽出して、その他車両の自車両に対する実空間上の距離や速度を算出する。算出された距離や速度が所定の条件を満たす場合には、マイコン3よりモニタ4を制御して、モニタ4において障害物の存在を示すためのマーカーを表示する。モニタ4は運転席付近の見やすい場所に設置されており、マーカーを表示することで他車両を障害物として運転者に認識させる。このようにして、自車両の後方を走行している他車両の存在が自車両の運転者に報知される。   The microcomputer 3 performs processing as will be described later based on the image data from the image memory 2, thereby extracting another vehicle from the captured image, and the distance and speed of the other vehicle in the real space with respect to the own vehicle. Is calculated. When the calculated distance or speed satisfies a predetermined condition, the monitor 4 is controlled by the microcomputer 3 and a marker for indicating the presence of an obstacle is displayed on the monitor 4. The monitor 4 is installed in an easy-to-view place near the driver's seat, and displays a marker to make the driver recognize the other vehicle as an obstacle. In this way, the driver of the host vehicle is notified of the presence of another vehicle traveling behind the host vehicle.

マイコン3において撮像画像から他車両を抽出する方法について説明する。このときマイコン3では、新規車両検出と車両追跡の各処理が実行される。新規車両検出処理は、新たに撮像画像中に捉えられた他車両を抽出するための処理であり、車両追跡処理は、既に撮像画像中に捉えられている他車両を追跡して抽出するための処理である。すなわち、各他車両は初めに新規車両検出処理によって撮像画像から抽出され、その後は車両追跡処理によって撮像画像から抽出される。   A method for extracting another vehicle from the captured image in the microcomputer 3 will be described. At this time, the microcomputer 3 executes new vehicle detection and vehicle tracking processes. The new vehicle detection process is a process for extracting other vehicles newly captured in the captured image, and the vehicle tracking process is for tracking and extracting other vehicles already captured in the captured image. It is processing. That is, each other vehicle is first extracted from the captured image by the new vehicle detection process, and thereafter extracted from the captured image by the vehicle tracking process.

新規車両検出処理の内容より先に説明する。新規車両検出処理では、撮像画像より抽出されたエッジ交点の中から、車両の特徴を示しており他車両の一部分を表す点を検出する。このようなエッジ交点を、以下では特徴点という。このとき対象とするエッジ交点の画面上の位置に応じて、後で説明する2種類の特徴点の検出方法のいずれかが選択されて用いられる。   The contents of the new vehicle detection process will be described before. In the new vehicle detection process, a point representing the characteristics of the vehicle and representing a part of another vehicle is detected from the edge intersections extracted from the captured image. Such an edge intersection is hereinafter referred to as a feature point. At this time, according to the position of the target edge intersection point on the screen, one of two types of feature point detection methods described later is selected and used.

なお、撮像画像からのエッジ交点の抽出は、撮像画像より縦方向のエッジ(縦エッジ)と横方向のエッジ(横エッジ)を抽出し、その縦エッジと横エッジの交点を求めることによって行われる。こうして特徴点の候補として抽出されたエッジ交点の中から、実際に他車両の一部分を表しているエッジ交点を特徴点として検出する。ここでいうエッジとは、撮像画像において物体が占めている領域の境界線を示す部分である。このエッジの抽出には、ソベルフィルタと呼ばれる周知の画像フィルタを用いた画像処理手法などを用いることができる。   In addition, the extraction of the edge intersection from the captured image is performed by extracting the vertical edge (vertical edge) and the horizontal edge (horizontal edge) from the captured image and obtaining the intersection of the vertical edge and the horizontal edge. . Of the edge intersections thus extracted as feature point candidates, an edge intersection that actually represents a part of another vehicle is detected as a feature point. The edge here is a portion indicating the boundary line of the region occupied by the object in the captured image. For this edge extraction, an image processing method using a known image filter called a Sobel filter can be used.

画面上において所定の位置より上方に位置するエッジ交点、すなわち実空間上で自車両からの距離が所定距離よりも遠いエッジ交点に対しては、特徴点の検出方法にパターンマッチング処理が用いられる。このパターンマッチング処理では、各エッジ交点の周囲の所定範囲内の画像パターンと、予め基本車両パターンとして記憶されている画像パターンとを比較し、その比較結果が所定のパターンマッチング条件を満たす場合には、該当するエッジ交点を特徴点として車両ごとに検出する。   Pattern matching processing is used as a feature point detection method for edge intersections located above a predetermined position on the screen, that is, edge intersections whose distance from the vehicle in the real space is longer than the predetermined distance. In this pattern matching process, an image pattern within a predetermined range around each edge intersection is compared with an image pattern stored in advance as a basic vehicle pattern, and the comparison result satisfies a predetermined pattern matching condition. The corresponding edge intersection is detected for each vehicle as a feature point.

一方、画面上において所定の位置より下方に位置するエッジ交点、すなわち実空間上で自車両からの距離が所定距離よりも近いエッジ交点に対しては、特徴点の検出方法にグルーピング処理が用いられる。このグルーピング処理では、画面上をほぼ同じ方向と速度で動いているエッジ交点同士、すなわち撮像画像における速度ベクトルの差が所定値以下であるエッジ交点同士をグルーピングすることにより、該当するエッジ交点を特徴点として車両ごとに検出する。このとき速度ベクトルの差に対して設定する所定値は、予め定めておくことができる。なお、エッジ交点の速度ベクトルを算出するためには、当該エッジ交点が少なくとも2フレーム以上に渡って抽出される必要がある。   On the other hand, a grouping process is used as a feature point detection method for an edge intersection located below a predetermined position on the screen, that is, an edge intersection whose distance from the host vehicle is closer than a predetermined distance in real space. . In this grouping process, the edge intersections moving in almost the same direction and speed on the screen, that is, the edge intersections in which the difference in the velocity vector in the captured image is equal to or smaller than a predetermined value are grouped, and the corresponding edge intersection is characterized. A point is detected for each vehicle. At this time, a predetermined value to be set for the speed vector difference can be determined in advance. In order to calculate the velocity vector of the edge intersection, the edge intersection needs to be extracted over at least two frames.

上記のパターンマッチング処理またはグルーピング処理により特徴点が検出されたら、各特徴点の画面上の位置に基づいて、各他車両に対応する領域(以下、車両領域という)を撮像画像中に設定する。さらに、特徴点の配置と、その特徴点に基づいて設定された車両領域は、車両ごとに車両パターンとして登録される。この車両パターンは、前述の基本車両パターンとは異なり、画像のパターンではなく特徴点の配置と車両領域の大きさによってのみ決定される。以上説明したようにして、新規車両検出処理が行われる。   When a feature point is detected by the pattern matching process or the grouping process, an area corresponding to each other vehicle (hereinafter referred to as a vehicle area) is set in the captured image based on the position of each feature point on the screen. Furthermore, the arrangement of feature points and the vehicle area set based on the feature points are registered as a vehicle pattern for each vehicle. Unlike the basic vehicle pattern described above, this vehicle pattern is determined only by the arrangement of feature points and the size of the vehicle area, not the pattern of the image. As described above, the new vehicle detection process is performed.

次に、車両追跡処理の内容について説明する。車両追跡処理は、撮像画像より抽出されたエッジ交点のうち、既に前回の画像フレームで特徴点として検出されているエッジ交点に対して行われる。このとき車両追跡処理では、撮像画像におけるエッジ交点の移動速度に応じて、次の2つの検出方法のいずれかが選択されて用いられる。エッジ交点の移動速度が遅い場合には図2に示すような検出方法を、また移動速度が速い場合には図3に示すような検出方法をそれぞれ使用する。以下、図2に示す検出方法より先に説明する。   Next, the contents of the vehicle tracking process will be described. The vehicle tracking process is performed on edge intersections that have already been detected as feature points in the previous image frame among edge intersections extracted from the captured image. At this time, in the vehicle tracking process, one of the following two detection methods is selected and used according to the moving speed of the edge intersection in the captured image. When the movement speed of the edge intersection is slow, a detection method as shown in FIG. 2 is used, and when the movement speed is fast, a detection method as shown in FIG. 3 is used. Hereinafter, the detection method shown in FIG. 2 will be described.

図2(a)は、時刻T1においてカメラ1により取得された撮像画像を示している。また、(b)は時刻T1の次の画像フレーム時(時刻T2とする)においてカメラ1により取得された撮像画像を示している。これらの撮像画像には、自車両の後方から接近してくる他車両100が撮像されている。(a)と(b)の撮像画像からは、それぞれ他車両100のエッジ交点21a、21b、21cおよび21dと、エッジ交点22a、22b、22cおよび22dが抽出されているものとする。なお、これらのエッジ交点の各々は、車両において同じ点を表すもの同士が互いに対応付けられている。たとえば、(a)のエッジ交点21aと(b)のエッジ交点22aが対応付けられている。   FIG. 2A shows a captured image acquired by the camera 1 at time T1. Further, (b) shows a captured image acquired by the camera 1 at the time of the next image frame after time T1 (referred to as time T2). In these captured images, the other vehicle 100 approaching from behind the host vehicle is captured. It is assumed that edge intersections 21a, 21b, 21c and 21d and edge intersections 22a, 22b, 22c and 22d of the other vehicle 100 are extracted from the captured images of (a) and (b), respectively. In addition, as for each of these edge intersections, those representing the same point in the vehicle are associated with each other. For example, the edge intersection 21a in (a) is associated with the edge intersection 22a in (b).

上記のように対応付けられているエッジ交点間の位置変化量を求めることによって、時刻T2における各エッジ交点の撮像画像における移動速度が求められる。たとえば、エッジ交点21aからエッジ交点22aまでの位置変化量により、時刻T2におけるエッジ交点22aの移動速度が求められる。そして、同じ車両を表すエッジ交点、すなわちエッジ交点22a〜22dについて、その移動速度の平均値が算出される。ここでは、エッジ交点22a〜22dの移動速度の平均値が予め定められた所定値以下であるものとする。   By calculating the position change amount between the edge intersections associated with each other as described above, the moving speed in the captured image of each edge intersection at time T2 is obtained. For example, the moving speed of the edge intersection 22a at time T2 is obtained from the amount of change in position from the edge intersection 21a to the edge intersection 22a. And the average value of the moving speed is calculated about the edge intersection showing the same vehicle, ie, edge intersection 22a-22d. Here, it is assumed that the average value of the moving speeds of the edge intersections 22a to 22d is equal to or less than a predetermined value.

ここで、(a)の撮像画像のエッジ交点21a〜21dは、時刻T1において他車両100の特徴点として検出されているものとする。また、これらの特徴点21a〜21dの中心に位置して各特徴点を包含できる大きさの矩形領域が、車両領域11として設定されているものとする。時刻T1において、特徴点21a〜21dと車両領域11は、(c)のように他車両100の車両パターンとして登録されている。   Here, it is assumed that the edge intersections 21a to 21d of the captured image of (a) are detected as feature points of the other vehicle 100 at time T1. In addition, it is assumed that a rectangular area that is located at the center of these feature points 21 a to 21 d and that can include each feature point is set as the vehicle area 11. At time T1, the feature points 21a to 21d and the vehicle area 11 are registered as the vehicle pattern of the other vehicle 100 as shown in (c).

上記のように時刻T2におけるエッジ交点の移動速度の平均値が所定値以下の場合は、(c)の車両パターンに基づいて、(d)に示す確率分布32a、32b、32cおよび32dよりなる車両パターン存在分布を算出する。確率分布32a〜32dは、次のようにして求められる。初めに、時刻T1における特徴点21a〜21dの相互の相対的な位置と移動速度に基づいて、時刻T2における特徴点の予測位置を求める。なお、ここで求められる予測位置は、各特徴点の相対的な位置関係を定めるものである。次に、上記の予測位置に対して、時刻T2における各特徴点の相対的な存在確率を設定する。このとき、予測位置の中心部分には最も高い存在確率を設定し、その周囲にはそれより低い存在確率を設定する。このようにして予測位置に対して存在確率が設定されることにより、確率分布32a〜32dが求められる。なお、この確率分布32a〜32dは、相互の相対的な位置と存在確率の関係を定めるものとして設定されるものであり、その位置は撮像画像に対して固定されていない。   As described above, when the average value of the moving speeds of the edge intersections at time T2 is equal to or less than the predetermined value, the vehicle including the probability distributions 32a, 32b, 32c and 32d shown in (d) based on the vehicle pattern shown in (c). Calculate pattern presence distribution. The probability distributions 32a to 32d are obtained as follows. First, the predicted position of the feature point at time T2 is obtained based on the relative position and moving speed of the feature points 21a to 21d at time T1. Note that the predicted position obtained here determines the relative positional relationship between the feature points. Next, the relative existence probability of each feature point at time T2 is set for the predicted position. At this time, the highest existence probability is set in the central portion of the predicted position, and a lower existence probability is set around it. In this way, the probability distributions 32a to 32d are obtained by setting the existence probabilities for the predicted positions. The probability distributions 32a to 32d are set so as to define the relationship between the relative positions and the existence probabilities, and the positions are not fixed with respect to the captured image.

(d)の確率分布32a〜32dは、塗りつぶされている中心部分の一定範囲において特徴点の存在確率が高く、その周辺のハッチングに示す部分では特徴点の存在確率が低いことを図示している。中心部分と周辺部分の各々における存在確率の設定値と設定範囲の大きさは、予め定められている。なお、ここでは存在分布として中心部分と周辺部分に2段階の存在確率のみが設定されている様子を図示しているが、3段階以上の存在確率を設定することにより、中心部分に近づくほど特徴点の存在確率が高く、中心部分から離れるに従って存在確率が段階的に低くなるようにしてもよい。   The probability distributions 32a to 32d in (d) illustrate that the existence probability of the feature point is high in a certain range of the filled central portion, and the existence probability of the feature point is low in the portion indicated by hatching around it. . The setting value of the existence probability and the size of the setting range in each of the central part and the peripheral part are determined in advance. Note that, here, the existence distribution is illustrated with only two levels of existence probabilities in the central part and the peripheral part. However, by setting the existence probabilities of three or more levels, the closer to the central part, the more characteristic The existence probability of the point may be high, and the existence probability may be lowered stepwise as the distance from the center portion increases.

(d)の確率分布32a〜32dが求められたら、次にこれと(b)の撮像画像により、時刻T2における特徴点を次のようにして検出する。初めに、(b)の撮像画像と(d)の存在分布32a〜32dを1画素ずつずらしながら重ね合わせたときの累積相関値をそれぞれ計算する。このとき、撮像画像のエッジ交点の部分を1、その他の部分を0と設定し、これに存在分布において設定された存在確率を乗算して得られる値を各画素について累積することにより、累積相関値が算出される。次に、このようにして算出される累積相関値が最大となるときの撮像画像と存在分布の重ね合わせ状態(重ね合わせ位置)を求め、その状態でエッジ交点と存在分布が重なっている点を求める。この点が特徴点として検出される。このような特徴点の検出方法を、特徴点形状パターンマッチングという。   When the probability distributions 32a to 32d of (d) are obtained, the feature point at time T2 is detected as follows from this and the captured image of (b). First, cumulative correlation values are calculated when the captured image of (b) and the presence distributions 32a to 32d of (d) are superimposed while being shifted one pixel at a time. At this time, an edge intersection point portion of the captured image is set to 1 and other portions are set to 0, and a value obtained by multiplying this by the existence probability set in the existence distribution is accumulated for each pixel, thereby accumulating the correlation. A value is calculated. Next, the superposition state (superposition position) of the captured image and the existence distribution when the cumulative correlation value calculated in this way becomes maximum is obtained, and the point where the edge intersection and the existence distribution overlap in that state is obtained. Ask. This point is detected as a feature point. Such a feature point detection method is called feature point shape pattern matching.

上記の特徴点形状パターンマッチングによって時刻T2における特徴点が検出されたら、その特徴点に対して車両領域を設定する。その結果、(e)に示すように、エッジ交点22a〜22dが特徴点として検出され、車両領域12が設定される。以上説明したようにして、エッジ交点の移動速度が遅い場合の車両追跡処理が行われる。   When a feature point at time T2 is detected by the above feature point shape pattern matching, a vehicle region is set for the feature point. As a result, as shown in (e), the edge intersections 22a to 22d are detected as feature points, and the vehicle region 12 is set. As described above, the vehicle tracking process when the moving speed of the edge intersection is slow is performed.

特徴点22a〜22dと車両領域12は、新たな車両パターンとして登録される。これにより、(c)の車両パターンが更新される。このようにして車両パターンを更新することにより、他車両100が自車両に対して接近または離れることによって、その撮像画像中に占める領域が撮像画像に対して拡大または縮小しても、適切な大きさの車両パターンを用いて他車両100を撮像画像から抽出できる。   The feature points 22a to 22d and the vehicle area 12 are registered as new vehicle patterns. Thereby, the vehicle pattern of (c) is updated. By updating the vehicle pattern in this manner, even if the other vehicle 100 approaches or leaves the host vehicle, the area occupied in the captured image is enlarged or reduced with respect to the captured image. The other vehicle 100 can be extracted from the captured image using the vehicle pattern.

次に、図3に示すエッジ交点の移動速度が速い場合の車両追跡処理について説明する。図3(a)と(b)は、時刻T1と次の画像フレームの時刻T2においてカメラ1により取得された撮像画像をそれぞれ示している。これらの撮像画像には、自車両の後方から接近してくる他車両100と、道路脇に静止している物体200が撮像されている。(a)の撮像画像からは、他車両100のエッジ交点23a、23b、23cおよび23dと、物体200のエッジ交点25a、25bおよび25cが抽出されている。同様に(b)の撮像画像からは、他車両100のエッジ交点24a、24b、24c、24dおよび24eと、物体200のエッジ交点26a、26bおよび26cが抽出されている。なお、これらのエッジ交点の各々は、図2の場合と同様に、車両や物体において同じ点を表すもの同士が互いに対応付けられている。たとえば、他車両100の同じ点を表す(a)のエッジ交点23aと(b)のエッジ交点24aが対応付けられ、物体200の同じ点を表す(a)のエッジ交点25aと(b)のエッジ交点26aが対応付けられている。   Next, the vehicle tracking process when the moving speed of the edge intersection shown in FIG. 3 is fast will be described. FIGS. 3A and 3B respectively show captured images acquired by the camera 1 at time T1 and time T2 of the next image frame. In these captured images, the other vehicle 100 approaching from behind the host vehicle and the object 200 stationary on the side of the road are captured. From the captured image of (a), the edge intersections 23a, 23b, 23c and 23d of the other vehicle 100 and the edge intersections 25a, 25b and 25c of the object 200 are extracted. Similarly, edge intersections 24a, 24b, 24c, 24d and 24e of the other vehicle 100 and edge intersections 26a, 26b and 26c of the object 200 are extracted from the captured image of (b). In addition, as for each of these edge intersections, what represents the same point in a vehicle or an object is mutually matched like the case of FIG. For example, the edge intersection 23a of (a) representing the same point of the other vehicle 100 and the edge intersection 24a of (b) are associated, and the edge intersection 25a of (a) representing the same point of the object 200 and the edge of (b) The intersection point 26a is associated.

図2で説明したように、対応付けられているエッジ交点間の位置変化量によって、時刻T2における各エッジ交点の撮像画像における移動速度が求められ、同じ車両のエッジ交点についてその移動速度の平均値が算出される。すなわち、他車両100のエッジ交点24a〜24dについて移動速度の平均値が算出される。ここでは、エッジ交点24a〜24dの移動速度の平均値が所定値よりも大きいものとする。なお、物体200のエッジ交点26a〜26cについては、その移動速度から車両を表す点ではないと判定され、これ以降に説明するような処理は行われない。   As described with reference to FIG. 2, the moving speed in the captured image of each edge intersection at time T2 is obtained from the amount of change in position between the associated edge intersections, and the average value of the moving speeds for the edge intersections of the same vehicle. Is calculated. That is, the average value of the moving speed is calculated for the edge intersections 24a to 24d of the other vehicle 100. Here, it is assumed that the average value of the moving speeds of the edge intersections 24a to 24d is larger than a predetermined value. Note that the edge intersections 26a to 26c of the object 200 are determined not to represent the vehicle from the moving speed, and the processes described below are not performed.

ここで、(a)の撮像画像において、上記のエッジ交点のうち他車両100のエッジ交点23a〜23dは、時刻T1において他車両100の特徴点として検出されているものとする。また、この特徴点23a〜23dに対して車両領域13が設定されているものとする。時刻T1において、特徴点23a〜23dと車両領域13は、(c)のように他車両100の車両パターンとして登録されている。この特徴点23a〜23dは、それぞれ図に矢印で示すような速度ベクトルを有しており、その速度ベクトルによって定まる方向と速度に動いているものとする。   Here, in the captured image of (a), it is assumed that the edge intersections 23a to 23d of the other vehicle 100 among the edge intersections described above are detected as feature points of the other vehicle 100 at time T1. In addition, it is assumed that the vehicle region 13 is set for the feature points 23a to 23d. At time T1, the feature points 23a to 23d and the vehicle area 13 are registered as vehicle patterns of the other vehicle 100 as shown in (c). Each of the feature points 23a to 23d has a velocity vector as indicated by an arrow in the figure, and moves in a direction and a speed determined by the velocity vector.

上記のように時刻T2におけるエッジ交点の移動速度の平均値が所定値よりも大きい場合は、(c)の車両パターンに基づいて、(d)に示す特徴点検出ベクトル50と車両パターン検出領域51よりなる車両パターン速度を算出する。特徴点検出ベクトル50は、特徴点23a〜23dがそれぞれ有している速度ベクトルの方向と大きさの各平均値により、その方向と大きさが求められる。車両パターン検出領域51は、特徴点23a〜23dの動きの履歴から、時刻T2における特徴点の予想位置の範囲を求めることにより設定される。なお、ここで設定される車両パターン検出領域51は、図2の(d)の確率分布32a〜32dとは異なり、撮像画像に対してその位置が固定されている。   As described above, when the average value of the moving speed of the edge intersection at time T2 is larger than the predetermined value, the feature point detection vector 50 and the vehicle pattern detection area 51 shown in (d) are based on the vehicle pattern of (c). The vehicle pattern speed is calculated. The direction and the magnitude of the feature point detection vector 50 are obtained from the average values of the directions and magnitudes of the velocity vectors respectively possessed by the feature points 23a to 23d. The vehicle pattern detection area 51 is set by obtaining the range of the predicted position of the feature point at time T2 from the movement history of the feature points 23a to 23d. The position of the vehicle pattern detection area 51 set here is fixed with respect to the captured image, unlike the probability distributions 32a to 32d in FIG.

(d)の特徴点検出ベクトル50と車両パターン検出領域51が求められたら、次にこれと(b)の撮像画像により、時刻T2における特徴点を検出する。このとき、(b)の撮像画像において抽出されたエッジ交点のうち、車両パターン検出領域51内に存在し、さらに特徴点検出ベクトル50に対する速度ベクトルの差が予め設定された所定値以内であるエッジ交点が、特徴点として検出される。このような特徴点の検出方法を、特徴点速度パターンマッチングという。   When the feature point detection vector 50 and the vehicle pattern detection area 51 of (d) are obtained, the feature point at time T2 is detected from this and the captured image of (b). At this time, among the edge intersections extracted in the captured image of (b), an edge that exists in the vehicle pattern detection region 51 and that has a velocity vector difference with respect to the feature point detection vector 50 within a predetermined value set in advance. Intersection points are detected as feature points. Such a feature point detection method is called feature point speed pattern matching.

上記の特徴点速度パターンマッチングによって時刻T2における特徴点が検出されたら、その特徴点に対して車両領域を設定する。その結果、(e)に示すように、エッジ交点24a〜24eが特徴点として検出され、車両領域14が設定される。以上説明したようにして、エッジ交点の移動速度が速い場合の車両追跡処理が行われる。   When a feature point at time T2 is detected by the above feature point speed pattern matching, a vehicle region is set for the feature point. As a result, as shown in (e), the edge intersections 24a to 24e are detected as feature points, and the vehicle region 14 is set. As described above, the vehicle tracking process when the moving speed of the edge intersection is fast is performed.

特徴点24a〜24eと車両領域14は、新たな車両パターンとして登録される。これにより、(c)の車両パターンが更新される。このようにして車両パターンを更新することにより、撮像画像において他車両100の見え方が変わることによりエッジ交点の位置や数が変化した場合にも、それに応じて特徴点が追加または削除された車両パターンを用いて他車両100を撮像画像から抽出できる。   The feature points 24a to 24e and the vehicle area 14 are registered as new vehicle patterns. Thereby, the vehicle pattern of (c) is updated. By updating the vehicle pattern in this way, even when the position and number of edge intersections change due to the change in the appearance of the other vehicle 100 in the captured image, the feature points are added or deleted accordingly. The other vehicle 100 can be extracted from the captured image using the pattern.

以上説明した処理のフローチャートを図4に示す。このフローチャートは、フレームレートごとに各画像フレームに対して実行されるものである。ステップS10では、後で説明する図5のフローチャートに示すエッジ交点抽出処理を行い、撮像画像よりエッジ交点を抽出する。ステップS20では、ステップS10で抽出されたエッジ交点に対して、後で説明する図6のフローチャートを実行することにより、前述したような新規車両検出処理を行う。ステップS30では、ステップS10で抽出されたエッジ交点のうち、既に前回の処理において特徴点として検出されているエッジ交点に対して、後で説明する図7のフローチャートを実行することにより、前述したような車両追跡処理を行う。ステップS30を実行した後は、図4のフローチャートを終了する。   A flowchart of the processing described above is shown in FIG. This flowchart is executed for each image frame for each frame rate. In step S10, edge intersection extraction processing shown in the flowchart of FIG. 5 described later is performed, and edge intersections are extracted from the captured image. In step S20, the new vehicle detection process as described above is performed by executing the flowchart of FIG. 6 described later on the edge intersection extracted in step S10. In step S30, among the edge intersections extracted in step S10, the edge intersections that have already been detected as feature points in the previous processing are executed by executing the flowchart of FIG. Vehicle tracking process. After step S30 is executed, the flowchart of FIG. 4 is terminated.

ステップS10で実行するエッジ交点抽出処理の内容を図5のフローチャートにより説明する。ステップS100では、画像メモリ2に記憶された画像を読み込むことにより、カメラ1による撮像画像を取得する。ステップS101では、ステップS100で取得された撮像画像より縦エッジと横エッジを抽出し、次のステップS102では、ステップS101で抽出された縦エッジと横エッジの交点を抽出する。ステップS103では、ステップS102で抽出されたエッジ交点の画面上の移動速度を算出する。この移動速度は、前述したように前回の撮像画像におけるエッジ交点からの位置変化量を求めることによって算出することができる。ステップS103を実行したら図4のステップS10を終了する。このようにして、エッジ交点抽出処理が行われる。   The contents of the edge intersection extraction process executed in step S10 will be described with reference to the flowchart of FIG. In step S100, an image captured by the camera 1 is acquired by reading an image stored in the image memory 2. In step S101, a vertical edge and a horizontal edge are extracted from the captured image acquired in step S100. In the next step S102, an intersection of the vertical edge and the horizontal edge extracted in step S101 is extracted. In step S103, the moving speed on the screen of the edge intersection extracted in step S102 is calculated. As described above, this moving speed can be calculated by obtaining the position change amount from the edge intersection in the previous captured image. If step S103 is performed, step S10 of FIG. 4 will be complete | finished. In this way, edge intersection extraction processing is performed.

次に、ステップS20で実行する新規車両検出処理の内容を図6のフローチャートにより説明する。ステップS200では、エッジ交点抽出処理によって抽出されたエッジ交点の各々に対して、そのY座標値が所定値以下であるか否かを判定する。Y座標値が所定値以下ならばステップS201へ進み、所定値よりも大きければステップS204へ進む。なお、ここでは画面上におけるエッジ交点の上下方向に対する位置をY座標値によって表すこととしており、このY座標値は画面の上端から下端に向かって大きくなるように定義されている。すなわち、Y座標値が小さいほど、そのエッジ交点は画面上において撮像画像のより上方に位置し、逆にY座標値が大きいほど、画面上において撮像画像のより下方に位置していることになる。   Next, the contents of the new vehicle detection process executed in step S20 will be described with reference to the flowchart of FIG. In step S200, it is determined whether or not the Y coordinate value of each edge intersection extracted by the edge intersection extraction process is equal to or less than a predetermined value. If the Y coordinate value is less than or equal to the predetermined value, the process proceeds to step S201, and if greater than the predetermined value, the process proceeds to step S204. Here, the position of the edge intersection on the screen in the vertical direction is represented by a Y coordinate value, and this Y coordinate value is defined to increase from the upper end to the lower end of the screen. That is, as the Y coordinate value is smaller, the edge intersection is located above the captured image on the screen, and conversely, as the Y coordinate value is larger, the edge intersection is located below the captured image on the screen. .

ステップS200からステップS201へ進んだ場合は、前述のパターンマッチング処理によって特徴点が検出される。ステップS201では、予め記憶されている基本車両パターンを読み出す。次のステップS202では、この基本車両パターンを用いてパターンマッチング処理を行うことにより、特徴点を検出する。ステップS203では、ステップS202で検出された特徴点に対して車両領域を設定し、その特徴点の配置と車両領域を車両パターンとして登録する。以上説明したようにしてパターンマッチング処理を用いて特徴点を検出した後は、図4のステップS20を終了する。このようにして、撮像画像において上方に位置するエッジ交点に対して新規車両検出処理が行われる。   When the process proceeds from step S200 to step S201, the feature point is detected by the pattern matching process described above. In step S201, a basic vehicle pattern stored in advance is read. In the next step S202, feature points are detected by performing pattern matching processing using this basic vehicle pattern. In step S203, a vehicle area is set for the feature point detected in step S202, and the arrangement of the feature point and the vehicle area are registered as a vehicle pattern. After the feature points are detected using the pattern matching process as described above, step S20 in FIG. 4 is terminated. In this way, the new vehicle detection process is performed on the edge intersection located above in the captured image.

一方、ステップS200からステップS204へ進んだ場合は、前述のグルーピング処理によって特徴点が検出される。ステップS204では、グルーピング処理を行うことにより特徴点を検出する。ステップS205では、ステップS204で検出された特徴点に対して、各グループにおける特徴点の速度と向きの平均値により、その特徴点のグループが自車両の方向に走行している車両を表すものであるか否かを判定する。このとき車両を表すものではないと判定されたグループに含まれる特徴点については、これ以降の処理より除外される。このステップS205の処理により、静止物体のエッジ交点から検出された特徴点などが除外される。ステップS206では、ステップS205で除外されなかった特徴点に対して車両領域を設定し、その特徴点の配置と車両領域を車両パターンとして登録する。以上説明したようにしてグルーピング処理を用いて特徴点を検出した後は、図4のステップS20を終了する。このようにして、撮像画像において下方に位置するエッジ交点に対して新規車両検出処理が行われる。   On the other hand, when the process proceeds from step S200 to step S204, the feature points are detected by the grouping process described above. In step S204, feature points are detected by performing grouping processing. In step S205, for the feature points detected in step S204, the average value of the speed and direction of the feature points in each group represents a vehicle in which the feature point group is traveling in the direction of the host vehicle. It is determined whether or not there is. At this time, the feature points included in the group determined not to represent the vehicle are excluded from the subsequent processing. By the processing in step S205, feature points detected from the edge intersections of the stationary object are excluded. In step S206, a vehicle area is set for the feature points not excluded in step S205, and the arrangement of the feature points and the vehicle area are registered as a vehicle pattern. After the feature points are detected using the grouping process as described above, step S20 in FIG. 4 is terminated. In this way, the new vehicle detection process is performed on the edge intersection located below in the captured image.

次に、ステップS30で実行する車両追跡処理の内容を図7のフローチャートにより説明する。ステップS300では、エッジ交点の移動速度が所定値以下であるか否かを判定する。なお、ここで判定の対象とするエッジ交点は、前述のように既に前回の処理において特徴点として検出されているエッジ交点である。エッジ交点の移動速度が所定値以下ならばステップS301へ進み、所定値よりも大きければステップS304へ進む。   Next, the contents of the vehicle tracking process executed in step S30 will be described with reference to the flowchart of FIG. In step S300, it is determined whether or not the moving speed of the edge intersection is below a predetermined value. Note that the edge intersections to be determined here are edge intersections that have already been detected as feature points in the previous processing as described above. If the moving speed of the edge intersection is less than or equal to a predetermined value, the process proceeds to step S301, and if greater than the predetermined value, the process proceeds to step S304.

ステップS300からステップS301へ進んだ場合は、図2で説明したような特徴点形状パターンマッチング処理によって特徴点が検出される。ステップS301では、図6のステップS203またはS206、あるいは前回の処理のステップS303またはS306において登録されている車両パターンに基づいて、図2(d)に示す確率分布32a〜32dのように車両パターン存在分布を算出する。ステップS302では、ステップS301で算出された車両パターン存在分布を用いて、特徴点形状パターンマッチングを行うことにより特徴点を検出する。ステップS303では、ステップS302で検出された特徴点に対して車両領域を設定し、その特徴点の配置と車両領域を車両パターンとして登録することにより、車両パターンの更新を行う。以上説明したようにして特徴点形状パターンマッチング処理を用いて特徴点を検出した後は、図4のステップS30を終了する。このようにして、移動速度が遅いエッジ交点に対して車両追跡処理が行われる。   When the process proceeds from step S300 to step S301, the feature points are detected by the feature point shape pattern matching process as described with reference to FIG. In step S301, based on the vehicle pattern registered in step S203 or S206 of FIG. 6 or step S303 or S306 of the previous process, vehicle patterns exist as shown in probability distributions 32a to 32d shown in FIG. Calculate the distribution. In step S302, feature points are detected by performing feature point shape pattern matching using the vehicle pattern presence distribution calculated in step S301. In step S303, the vehicle pattern is updated by setting a vehicle area for the feature point detected in step S302 and registering the arrangement of the feature point and the vehicle area as a vehicle pattern. After the feature points are detected using the feature point shape pattern matching process as described above, step S30 in FIG. 4 is terminated. In this way, the vehicle tracking process is performed on the edge intersection where the moving speed is slow.

一方、ステップS300からステップS304へ進んだ場合は、図3で説明したような特徴点速度パターンマッチング処理によって特徴点が検出される。ステップS304では、図6のステップS203またはS206、あるいは前回の処理のステップS303またはS306において登録されている車両パターンに基づいて、図3(d)に示す特徴点検出ベクトル50および車両パターン検出領域51のように車両パターン速度を算出する。ステップS305では、ステップS304で算出された車両パターン速度を用いて、特徴点速度パターンマッチングを行うことにより特徴点を検出する。ステップS306では、ステップS305で検出された特徴点に対して車両領域を設定し、その特徴点の配置と車両領域を車両パターンとして登録することにより、車両パターンの更新を行う。以上説明したようにして特徴点速度パターンマッチング処理を用いて特徴点を検出した後は、図4のステップS30を終了する。このようにして、移動速度が速いエッジ交点に対して車両追跡処理が行われる。   On the other hand, when the process proceeds from step S300 to step S304, the feature point is detected by the feature point speed pattern matching process as described with reference to FIG. In step S304, based on the vehicle pattern registered in step S203 or S206 of FIG. 6 or step S303 or S306 of the previous process, the feature point detection vector 50 and the vehicle pattern detection area 51 shown in FIG. The vehicle pattern speed is calculated as follows. In step S305, feature points are detected by performing feature point speed pattern matching using the vehicle pattern speed calculated in step S304. In step S306, a vehicle area is set for the feature point detected in step S305, and the vehicle pattern is updated by registering the arrangement of the feature point and the vehicle area as a vehicle pattern. After the feature points are detected using the feature point speed pattern matching process as described above, step S30 in FIG. 4 is terminated. In this way, the vehicle tracking process is performed on the edge intersection where the moving speed is fast.

以上説明したような処理が撮像画像の各画像フレームに対して行われることにより、他車両の車両領域が検出される。こうして検出された車両領域の画面上の位置に基づいて、他車両の自車両に対する実空間上の距離が算出される。また、異なる時間で取得された撮像画像間における車両領域の位置変化量に基づいて、他車両の自車両に対する実空間上の速度が算出される。そして、算出された距離や速度が所定の条件を満たす場合には、障害物の存在を示すためのマーカーがモニタ4に表示される。たとえば、距離が所定値以下であり、かつ速度が所定値以上である他車両に対して、マーカーが表示される。このようにして、自車両の後方を走行している他車両の存在が自車両の運転者に報知される。   By performing the processing as described above for each image frame of the captured image, the vehicle area of the other vehicle is detected. Based on the position of the vehicle area thus detected on the screen, the distance in real space of the other vehicle to the host vehicle is calculated. Moreover, the speed in real space with respect to the own vehicle of the other vehicle is calculated based on the positional change amount of the vehicle region between the captured images acquired at different times. When the calculated distance or speed satisfies a predetermined condition, a marker for indicating the presence of an obstacle is displayed on the monitor 4. For example, a marker is displayed for other vehicles whose distance is equal to or less than a predetermined value and whose speed is equal to or greater than a predetermined value. In this way, the driver of the host vehicle is notified of the presence of another vehicle traveling behind the host vehicle.

以上説明した実施の形態によれば、次の作用効果が得られる。
(1)カメラ1によって自車両後方の撮像画像を取得し、さらに車両検出方法を選択して、その撮像画像に基づいて、選択された車両検出方法を用いて自車両後方の他車両100を検出することとした。このようにしたので、状況に応じて適切な車両検出方法を選択し、安定した車両検出を行うことができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) A captured image behind the host vehicle is acquired by the camera 1, a vehicle detection method is further selected, and the other vehicle 100 behind the host vehicle is detected based on the captured image using the selected vehicle detection method. It was decided to. Since it did in this way, the suitable vehicle detection method can be selected according to a condition, and the stable vehicle detection can be performed.

(2)新規車両検出処理において、車両検出方法としてパターンマッチング処理(ステップS201〜203)とグルーピング処理(ステップS204〜206)のいずれかを選択して行うこととしたので、新たに撮像画像中に捉えられた他車両を確実に検出することができる。 (2) In the new vehicle detection process, since one of the pattern matching process (steps S201 to 203) and the grouping process (steps S204 to 206) is selected as the vehicle detection method, a new captured image is displayed. The captured other vehicle can be reliably detected.

(3)エッジ交点の撮像画像における画面上の位置に基づいて車両検出方法を選択することとし、具体的には、画面上においてエッジ交点が所定位置より上方に位置する場合はパターンマッチング処理を、また所定位置より下方に位置する場合はグルーピング処理を選択することとした(ステップS200)。このようにしたので、自車両に対する他車両の実空間上の距離に応じて、他車両の見え方が異なるときにも適切な車両検出方法を選択することができる。 (3) The vehicle detection method is selected based on the position on the screen in the captured image of the edge intersection. Specifically, when the edge intersection is located above a predetermined position on the screen, pattern matching processing is performed. If the position is below the predetermined position, the grouping process is selected (step S200). Since it did in this way, according to the distance in the real space of the other vehicle with respect to the own vehicle, an appropriate vehicle detection method can be selected also when the other vehicle's appearance differs.

(4)車両追跡処理において、車両検出方法として特徴点形状パターンマッチング処理(ステップS301〜303)と特徴点速度パターンマッチング処理(ステップS304〜306)のいずれかを選択して行うこととしたので、既に撮像画像中に捉えられている他車両を追跡して検出するときにも、確実に検出できる。 (4) In the vehicle tracking process, as the vehicle detection method, one of the feature point shape pattern matching process (steps S301 to 303) and the feature point speed pattern matching process (steps S304 to 306) is selected and performed. Even when another vehicle that has already been captured in the captured image is tracked and detected, it can be reliably detected.

(5)エッジ交点の撮像画像における移動速度に基づいて車両検出方法を選択することとし、具体的には、同じ車両を表すエッジ交点の移動速度の平均値が所定値以下である場合は特徴点形状パターンマッチング処理を、またその平均値が所定値より大きい場合は特徴点速度パターンマッチング処理を選択することとした(ステップS300)。このようにしたので、自車両に対する他車両の実空間上の移動速度に応じて、他車両の見え方が変化する様子が異なるときにも適切な車両検出方法を選択することができる。 (5) The vehicle detection method is selected based on the moving speed in the captured image of the edge intersection. Specifically, when the average value of the moving speed of the edge intersection representing the same vehicle is equal to or less than a predetermined value, the feature point The shape pattern matching process is selected, and if the average value is larger than the predetermined value, the feature point speed pattern matching process is selected (step S300). Since it did in this way, according to the moving speed in the real space of the other vehicle with respect to the own vehicle, when a mode that the appearance of the other vehicle changes changes, an appropriate vehicle detection method can be selected.

なお、上記の実施形態では、カメラ1を用いて自車両の後方を撮像し、その撮像画像に基づいて自車両の後方より接近してくる他車両を検出する例について説明した。しかし、本発明はこの内容に限定されるものではなく、自車両周囲の他の方向、たとえば前方や側方などを撮像し、撮像画像に基づいてその方向に存在する他車両を検出する場合にも適用できる。   In the above-described embodiment, an example has been described in which the rear side of the host vehicle is imaged using the camera 1 and another vehicle approaching from the rear side of the host vehicle is detected based on the captured image. However, the present invention is not limited to this content, and when other directions around the host vehicle, for example, the front and sides are imaged, and other vehicles existing in that direction are detected based on the captured image. Is also applicable.

上記の実施形態では、撮像手段をカメラ1によって実現し、その他の各手段をマイコン3の処理によって実現しているが、これはあくまで一例であって、本発明の特徴が損なわれない限り、各構成要素は上記実施の形態に限定されない。   In the above embodiment, the imaging means is realized by the camera 1, and the other means are realized by the processing of the microcomputer 3. However, this is merely an example, and unless the characteristics of the present invention are impaired, The components are not limited to the above embodiment.

本発明の一実施形態による車両検出装置の構成を示す図である。It is a figure which shows the structure of the vehicle detection apparatus by one Embodiment of this invention. エッジ交点の移動速度が遅い場合の車両追跡処理の内容を説明するための図である。It is a figure for demonstrating the content of the vehicle tracking process in case the moving speed of an edge intersection is slow. エッジ交点の移動速度が速い場合の車両追跡処理の内容を説明するための図である。It is a figure for demonstrating the content of the vehicle tracking process in case the moving speed of an edge intersection is quick. 他車両を検出するときに実行される処理のフローチャートである。It is a flowchart of the process performed when detecting another vehicle. エッジ交点抽出処理の内容を示すフローチャートである。It is a flowchart which shows the content of edge intersection extraction processing. 新規車両検出処理の内容を示すフローチャートである。It is a flowchart which shows the content of the new vehicle detection process. 車両追跡処理の内容を示すフローチャートである。It is a flowchart which shows the content of a vehicle tracking process.

符号の説明Explanation of symbols

1:カメラ
2:画像メモリ
3:マイコン
4:モニタ
100:他車両
1: Camera 2: Image memory 3: Microcomputer 4: Monitor 100: Other vehicle

Claims (4)

自車両の周囲の撮像画像を取得する撮像手段と、
前記撮像画像において前記自車両の周囲に存在する他車両の一部分を表す特徴点の候補としての候補点を前記撮像画像より抽出する候補点抽出手段と、
前記候補点抽出手段により抽出された候補点の位置または移動速度に基づいて、前記他車両を検出するための車両検出方法を選択する選択手段と、
前記撮像画像に基づいて、前記選択手段により選択された車両検出方法を用いて、前記他車両を検出する車両検出手段とを備えることを特徴とする車両検出装置。
Imaging means for acquiring a captured image around the host vehicle;
Candidate point extraction means for extracting candidate points as candidate feature points representing a part of another vehicle existing around the host vehicle in the captured image from the captured image;
Selection means for selecting a vehicle detection method for detecting the other vehicle based on the position or moving speed of the candidate point extracted by the candidate point extraction means ;
A vehicle detection apparatus comprising: vehicle detection means for detecting the other vehicle using a vehicle detection method selected by the selection means based on the captured image .
請求項1の車両検出装置において、
前記選択手段は、画面上において前記候補点が所定位置よりも上方に位置する場合は、前記車両検出方法としてパターンマッチング処理を選択し、画面上において前記候補点が前記所定位置よりも下方に位置する場合は、前記車両検出方法としてグルーピング処理を選択し、
前記車両検出手段は、
(1)前記選択手段によりパターンマッチング処理が選択された場合、前記候補点の周囲の所定範囲内の画像パターンと予め記憶されている画像パターンとの比較結果に基づいて、前記候補点の中から前記特徴点を検出し、
検出された特徴点の位置に基づいて前記他車両に対応する車両領域を前記撮像画像中に設定することにより、前記他車両を検出し、
(2)前記選択手段によりグルーピング処理が選択された場合、前記候補点のうち前記撮像画像における速度ベクトルの差が予め定められた所定値以下である候補点同士をグルーピングすることにより、前記候補点の中から前記特徴点を検出し、
検出された特徴点の位置に基づいて前記車両領域を前記撮像画像中に設定することにより、前記他車両を検出することを特徴とする車両検出装置。
The vehicle detection device according to claim 1 ,
The selection means selects a pattern matching process as the vehicle detection method when the candidate point is positioned above a predetermined position on the screen, and the candidate point is positioned below the predetermined position on the screen. If so, select the grouping process as the vehicle detection method,
The vehicle detection means includes
(1) When a pattern matching process is selected by the selection unit, based on a comparison result between an image pattern within a predetermined range around the candidate point and an image pattern stored in advance, the candidate point is selected from the candidate points. Detecting the feature points;
Detecting the other vehicle by setting a vehicle area corresponding to the other vehicle in the captured image based on the position of the detected feature point;
(2) When the grouping process is selected by the selection unit, the candidate points are grouped with each other among the candidate points that have a velocity vector difference in the captured image that is equal to or less than a predetermined value. Detecting the feature points from
A vehicle detection device that detects the other vehicle by setting the vehicle region in the captured image based on the position of the detected feature point.
請求項1または2の車両検出装置において、
前記選択手段は、同じ車両を表す候補点の移動速度の平均値が所定値以下である場合は、前記車両検出方法として特徴点形状パターンマッチング処理を選択し、前記平均値が前記所定値よりも大きい場合は、前記車両検出方法として特徴点速度パターンマッチング処理を選択し、
前記車両検出手段は、
(1)前記選択手段により特徴点形状パターンマッチング処理が選択された場合、過去に検出された複数の特徴点の相互の相対的な位置と移動速度に基づいて、前記複数の特徴点の現在における相互の相対的な存在確率を設定し、
設定された存在確率に基づいて前記候補点の中から前記特徴点を検出し、
検出された特徴点の位置に基づいて前記他車両に対応する車両領域を前記撮像画像中に設定することにより、前記他車両を検出し、
(2)前記選択手段により特徴点速度パターンマッチング処理が選択された場合、過去に検出された複数の特徴点がそれぞれ有する前記撮像画像における速度ベクトルの方向と大きさの各平均値に基づいて、特徴点検出ベクトルを算出し、
前記複数の特徴点の現在における予想位置の範囲に基づいて、車両パターン検出領域を前記撮像画像中に設定し、
前記車両パターン検出領域内に存在し、さらに前記特徴点検出ベクトルに対する速度ベクトルの差が予め設定された所定値以内である候補点を求めることにより、前記候補点の中から前記特徴点を検出し、
検出された特徴点の位置に基づいて前記他車両に対応する車両領域を前記撮像画像中に設定することにより、前記他車両を検出することを特徴とする車両検出装置。
In the vehicle detection device according to claim 1 or 2 ,
When the average value of the moving speeds of candidate points representing the same vehicle is equal to or less than a predetermined value, the selection unit selects a feature point shape pattern matching process as the vehicle detection method, and the average value is less than the predetermined value. If larger, select the feature point speed pattern matching process as the vehicle detection method,
The vehicle detection means includes
(1) When the feature point shape pattern matching process is selected by the selection unit, based on the relative positions and movement speeds of the plurality of feature points detected in the past, Set the relative existence probability of each other,
Detecting the feature point from the candidate points based on a set existence probability;
Detecting the other vehicle by setting a vehicle area corresponding to the other vehicle in the captured image based on the position of the detected feature point;
(2) When the feature point speed pattern matching process is selected by the selection unit, based on each average value of the direction and the size of the speed vector in the captured image respectively possessed by a plurality of feature points detected in the past , Calculate feature point detection vector,
Based on the current expected position range of the plurality of feature points, a vehicle pattern detection area is set in the captured image,
The feature point is detected from the candidate points by obtaining a candidate point that exists in the vehicle pattern detection region and that has a velocity vector difference with respect to the feature point detection vector within a predetermined value. ,
A vehicle detection apparatus for detecting the other vehicle by setting a vehicle area corresponding to the other vehicle in the captured image based on the position of the detected feature point.
請求項1〜3のいずれか一項に記載の車両検出装置において、In the vehicle detection device according to any one of claims 1 to 3,
前記選択手段は、新たに前記撮像画像中に捉えられた他車両を検出する際には、前記候補点の位置に基づいて、前記車両検出方法としてパターンマッチング処理またはグルーピング処理のいずれかを選択し、既に前記撮像画像中に捉えられている他車両を追跡する際には、前記候補点の移動速度に基づいて、前記車両検出方法として特徴点形状パターンマッチング処理または特徴点速度パターンマッチング処理のいずれかを選択することを特徴とする車両検出装置。When the selection unit newly detects another vehicle captured in the captured image, the selection unit selects either the pattern matching process or the grouping process as the vehicle detection method based on the position of the candidate point. When tracking other vehicles already captured in the captured image, either the feature point shape pattern matching process or the feature point speed pattern matching process is used as the vehicle detection method based on the moving speed of the candidate point. A vehicle detection device characterized by selecting the above.
JP2004261106A 2004-09-08 2004-09-08 Vehicle detection device Expired - Fee Related JP4155252B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004261106A JP4155252B2 (en) 2004-09-08 2004-09-08 Vehicle detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004261106A JP4155252B2 (en) 2004-09-08 2004-09-08 Vehicle detection device

Publications (2)

Publication Number Publication Date
JP2006080761A JP2006080761A (en) 2006-03-23
JP4155252B2 true JP4155252B2 (en) 2008-09-24

Family

ID=36159867

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004261106A Expired - Fee Related JP4155252B2 (en) 2004-09-08 2004-09-08 Vehicle detection device

Country Status (1)

Country Link
JP (1) JP4155252B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4533936B2 (en) * 2008-02-01 2010-09-01 日立オートモティブシステムズ株式会社 Image processing apparatus and vehicle detection apparatus including the same
JP4702569B2 (en) * 2008-09-30 2011-06-15 マツダ株式会社 Image processing apparatus for vehicle
JP4840472B2 (en) * 2009-04-15 2011-12-21 トヨタ自動車株式会社 Object detection device
CN102396002B (en) 2009-04-15 2015-07-08 丰田自动车株式会社 Object detection device
JP5772321B2 (en) * 2011-07-12 2015-09-02 アイシン精機株式会社 Vehicle detection device, vehicle detection method, and program
JP7192229B2 (en) 2018-03-26 2022-12-20 株式会社デンソー DETECTION APPARATUS, DETECTION METHOD, AND COMPUTER PROGRAM
CN115667988A (en) 2020-05-20 2023-01-31 京瓷株式会社 Electronic device, control method for electronic device, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3307335B2 (en) * 1998-07-22 2002-07-24 日本電気株式会社 Vehicle region detection device and vehicle region verification method
JP3920535B2 (en) * 2000-06-12 2007-05-30 株式会社日立製作所 Vehicle detection method and vehicle detection device
JP2003317106A (en) * 2002-04-26 2003-11-07 Nissan Motor Co Ltd Travel path recognition device
JP2004007174A (en) * 2002-05-31 2004-01-08 Toshiba Corp Image processing system, image processing method and image processing program

Also Published As

Publication number Publication date
JP2006080761A (en) 2006-03-23

Similar Documents

Publication Publication Date Title
KR102202343B1 (en) Method for capturing objects in the surrounding area of a vehicle by predicting the motion of an object, a camera system, and a vehicle
JP4957807B2 (en) Moving object detection apparatus and moving object detection program
JP6390671B2 (en) Image processing apparatus and image processing method
JP5258859B2 (en) Runway estimation apparatus and program
JP5267596B2 (en) Moving body detection device
US20150367781A1 (en) Lane boundary estimation device and lane boundary estimation method
JP6139465B2 (en) Object detection device, driving support device, object detection method, and object detection program
JP5146446B2 (en) MOBILE BODY DETECTION DEVICE, MOBILE BODY DETECTING PROGRAM, AND MOBILE BODY DETECTING METHOD
CN108352070B (en) Moving object tracking method, moving object tracking device, and program
CN112078571B (en) Automatic parking method, automatic parking equipment, storage medium and automatic parking device
CN111417960B (en) Information processing device, information processing method, and program
US11776277B2 (en) Apparatus, method, and computer program for identifying state of object, and controller
JP2008262333A (en) Road surface discrimination device and road surface discrimination method
JP6439757B2 (en) Image processing apparatus and image processing method
JP6152261B2 (en) Car parking frame recognition device
JP4155252B2 (en) Vehicle detection device
CN108629225A (en) A kind of vehicle checking method based on several subgraphs and saliency analysis
JP2014106739A (en) In-vehicle image processing device
JP5407920B2 (en) Lighting color identification device and program
JP6299651B2 (en) Image processing device
JP2018092354A (en) Object detection apparatus and method for detecting objects
JP2017182139A (en) Determination apparatus, determination method, and determination program
CN110619254B (en) Target tracking method and device based on disparity map and terminal
JP5176523B2 (en) Moving body detection apparatus, moving body detection method, and moving body detection program
JP2012108665A (en) Lane mark recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080617

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080630

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110718

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4155252

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120718

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120718

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130718

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees