JP2008151659A - Object detector - Google Patents

Object detector Download PDF

Info

Publication number
JP2008151659A
JP2008151659A JP2006340293A JP2006340293A JP2008151659A JP 2008151659 A JP2008151659 A JP 2008151659A JP 2006340293 A JP2006340293 A JP 2006340293A JP 2006340293 A JP2006340293 A JP 2006340293A JP 2008151659 A JP2008151659 A JP 2008151659A
Authority
JP
Japan
Prior art keywords
image
distance information
detection apparatus
object detection
preceding vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006340293A
Other languages
Japanese (ja)
Inventor
Yasushi Takahashi
靖 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP2006340293A priority Critical patent/JP2008151659A/en
Publication of JP2008151659A publication Critical patent/JP2008151659A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To allow successive calculation of distance information even when an object is lost during stereo range finding. <P>SOLUTION: A first range finding part 6 performs stereo matching between images of a right and left pair photographed by a stereo camera 2 to perform range finding by detecting parallax with respect to the same object. A second range finding part 7 performs stereo matching based on a luminance difference to detect the parallax to cope with such a case that reliability of the range finding images generated by the first range finding part 6 is deteriorated due to deviation in sensitivity balance between the stereo photographed images of the right and left pair caused by backlight or the like. The range finding by the first range finding part 6 and the range finding by the second range finding part 7 are selectively switched so as to be input to a recognition processing part 10 so that the successive range finding is allowed against the degradation of environmental conditions such as those in the backlight. The deterioration of recognition reliability due to change in environmental conditions is prevented thereby. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、ステレオカメラで撮像した画像を処理して物体を検出する物体検出装置に関する。   The present invention relates to an object detection device that detects an object by processing an image captured by a stereo camera.

従来、画像による物体検出の技術として、ステレオカメラで対象物を異なる位置から撮像した複数の画像間の相関を求め、同一物体に対する視差からステレオカメラの取り付け位置や焦点距離等のカメラパラメータを用いて三角測量の原理により距離を求める、いわゆるステレオ法を用いた物体検出の技術が知られており、自動車等の車両に適用して車外環境を認識し、先行車との車間距離制御や障害物との衝突回避制御に利用されている。   Conventionally, as a technique for object detection based on an image, a correlation between a plurality of images obtained by capturing an object from different positions with a stereo camera is obtained, and a camera parameter such as a stereo camera mounting position and a focal length is used from a parallax for the same object. An object detection technique that uses the so-called stereo method to determine the distance based on the principle of triangulation is known.It can be applied to vehicles such as automobiles to recognize the environment outside the vehicle, and to control the distance between vehicles and obstacles. Is used for collision avoidance control.

例えば、特許文献1には、単眼カメラとレーダとの組み合わせ、或いはステレオカメラを用いて車外環境を認識する技術に関して、ステレオ画像中の縦エッジペアに基づく領域を基準パターンとして記憶し、縦エッジが検出されない場合、物体をロストしたとして、基準パターンを用いたパターンマッチングによって物体の検知(追跡)を行う技術が開示されている。
特開2005−38407号公報
For example, Patent Document 1 stores a region based on a vertical edge pair in a stereo image as a reference pattern and detects a vertical edge regarding a technology for recognizing an environment outside a vehicle using a combination of a monocular camera and a radar or a stereo camera. If not, a technique is disclosed in which an object is detected (tracked) by pattern matching using a reference pattern, assuming that the object has been lost.
JP 2005-38407 A

特許文献1の技術では、ステレオカメラによる画像中に縦エッジを検出できなくなった場合、すなわち物体をロストした場合には、テンプレートマッチングによって物体を検知する手法に切換えている。しかしながら、テンプレートマッチングでは、物体の存在の有無を検知することはできても物体の距離情報は得られないため、障害物の回避制御や先行車の追跡による追従制御を続行することは困難であり、安全を確保する上では不十分である。   In the technique of Patent Document 1, when a vertical edge cannot be detected in an image by a stereo camera, that is, when an object is lost, the technique is switched to a method of detecting an object by template matching. However, template matching can detect the presence or absence of an object, but cannot obtain object distance information, so it is difficult to continue obstacle avoidance control and tracking control by tracking the preceding vehicle. It is not enough to ensure safety.

本発明は上記事情に鑑みてなされたもので、ステレオ測距中に物体をロストしても継続的に距離情報を算出可能とすることのできる物体検出装置を提供することを目的としている。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an object detection apparatus capable of continuously calculating distance information even if an object is lost during stereo ranging.

上記目的を達成するため、本発明による物体検出装置は、一対の画像を取得するステレオカメラと、上記一対の画像同士で輝度値が互いに対応する領域を探索して上記一対の画像に写しだされる物体の距離情報を演算する第1の距離情報演算手段と、上記一対の画像のそれぞれにおける所定の画素について隣接する画素との輝度差を算出するとともに、該輝度差が上記一対の画像同士で対応する領域を探索して上記物体の距離情報を演算する第2の距離情報演算手段と、上記第1の距離情報演算手段による上記物体をロストした際、上記第2の距離情報演算手段によって演算される距離情報を選択する選択手段とを備えることを特徴とする。   In order to achieve the above object, an object detection apparatus according to the present invention searches a pair of images for a stereo camera that acquires a pair of images and searches for a region in which the brightness values correspond to each other between the pair of images. Calculating a luminance difference between the first distance information calculating means for calculating the distance information of the object and the adjacent pixels for the predetermined pixel in each of the pair of images, and the luminance difference between the pair of images. A second distance information calculating means for searching the corresponding area and calculating the distance information of the object; and the second distance information calculating means when the object is lost by the first distance information calculating means. Selection means for selecting the distance information to be displayed.

本発明による物体検出装置は、ステレオ測距中に物体をロストしても継続的に距離情報を算出可能とすることができ、物体検出に基づく各種制御の制御性及び信頼性を向上することが可能となる。   The object detection device according to the present invention can continuously calculate distance information even if an object is lost during stereo ranging, and can improve the controllability and reliability of various controls based on object detection. It becomes possible.

以下、図面を参照して本発明の実施の形態を説明する。図1〜図12は本発明の実施の一形態に係り、図1は先行車追従制御システムの構成図、図2は物体検出装置のブロック図、図3は逆光時の左右画像の輝度分布を模式的に示す説明図、図4は輝度差分後の左右画像の輝度分布を模式的に示す説明図、図5は追跡破綻判定の説明図、図6は先行車位置修正における左右反転の概念を示す説明図、図7は先行車位置の修正を示す説明図、図8は先行車位置の修正結果を示す説明図、図9は先行車認識処理のフローチャート、図10は先行車追跡処理のフローチャート、図11はロスト判定処理のフローチャート、図12は先行車追従制御処理のフローチャートである。   Embodiments of the present invention will be described below with reference to the drawings. 1 to 12 relate to an embodiment of the present invention, FIG. 1 is a block diagram of a preceding vehicle tracking control system, FIG. 2 is a block diagram of an object detection device, and FIG. 3 is a luminance distribution of left and right images during backlighting. FIG. 4 schematically illustrates the luminance distribution of the left and right images after luminance difference, FIG. 5 illustrates the tracking failure determination, and FIG. 6 illustrates the concept of left / right inversion in the preceding vehicle position correction. FIG. 7 is an explanatory diagram showing correction of the preceding vehicle position, FIG. 8 is an explanatory diagram showing the correction result of the preceding vehicle position, FIG. 9 is a flowchart of the preceding vehicle recognition process, and FIG. 10 is a flowchart of the preceding vehicle tracking process. FIG. 11 is a flowchart of the lost determination process, and FIG. 12 is a flowchart of the preceding vehicle follow-up control process.

本発明の物体検出装置は、ステレオカメラで撮像した画像間の感度バランスが悪化した場合においても、継続した距離情報の取得を可能とするものであり、例えば、車両の障害物回避制御や先行車の追跡による車間距離制御等に適用することができる。本形態においては、図1に示すように、車両1に、ステレオカメラ2と、ステレオカメラ2で撮像した画像をステレオ処理して、物体の距離情報を主とする外界環境認識を行うステレオ画像認識装置5とを物体検出装置として搭載し、ステレオ画像認識装置5に、各種車両制御装置を接続して先行車追従制御システムを構成する例について説明する。   The object detection device of the present invention enables continuous distance information acquisition even when the sensitivity balance between images captured by a stereo camera deteriorates. For example, the obstacle detection control of a vehicle and the preceding vehicle It can be applied to the inter-vehicle distance control by tracking the vehicle. In this embodiment, as shown in FIG. 1, stereo image recognition is performed on a vehicle 1 by performing stereo processing on a stereo camera 2 and an image captured by the stereo camera 2 and recognizing the external environment mainly using object distance information. The example which mounts the apparatus 5 as an object detection apparatus, connects various vehicle control apparatuses to the stereo image recognition apparatus 5, and comprises a preceding vehicle follow-up control system is demonstrated.

ステレオカメラ2は、CCDやCMOS等のイメージセンサを有する複数台のカメラからなり、対象物を異なる視点から撮像する。本形態においては、ステレオカメラ2として、シャッタースピード可変で互いに同期した左右2台のカメラ2a,2bを互いの光軸が略平行となるように所定の基線長(光軸間隔)で機械的に固定し、車両1の前部に設置している。   The stereo camera 2 includes a plurality of cameras having image sensors such as a CCD and a CMOS, and images a target object from different viewpoints. In this embodiment, as the stereo camera 2, two left and right cameras 2a and 2b synchronized with each other with variable shutter speed are mechanically mechanically with a predetermined base line length (optical axis interval) so that their optical axes are substantially parallel to each other. It is fixed and installed at the front of the vehicle 1.

また、車両制御装置としては、ステレオ画像認識装置5から外界環境認識情報を受取り、この外界環境認識結果に基づいて車両制御を統括する中央制御装置20に、エンジン出力を制御するエンジン制御装置21、ブレーキを制御するブレーキ制御装置22、先行車への追突危険性や異常発生時に音声出力やディスプレイ表示等による警報を発して運転者の注意を喚起する警報装置23が接続されている。   Further, as the vehicle control device, an engine control device 21 that receives the external environment recognition information from the stereo image recognition device 5 and controls the engine output to the central control device 20 that controls the vehicle control based on the external environment recognition result, A brake control device 22 that controls the brake and an alarm device 23 that alerts the driver by issuing a warning by voice output, display display, or the like when a rear-end collision risk or abnormality occurs in the preceding vehicle are connected.

中央制御装置20は、ステレオ画像認識装置5からの外界環境認識結果として、先行車と自車との距離及び速度、先行車をロストしたときのロスト情報等を受取り、エンジン出力を制御するためのスロットル開度指令、制動力を制御するための目標減速度、警報コマンド等を生成し、それぞれ、エンジン制御装置21,ブレーキ制御装置22,警報装置23に出力する。   The central controller 20 receives the distance and speed between the preceding vehicle and the host vehicle, the lost information when the preceding vehicle is lost, and the like as a result of the external environment recognition from the stereo image recognition device 5 and controls the engine output. A throttle opening command, a target deceleration for controlling the braking force, an alarm command, and the like are generated and output to the engine control device 21, the brake control device 22, and the alarm device 23, respectively.

ステレオ画像認識装置5における外界環境認識は、ステレオカメラ2で撮像した一対の画像を処理して自車周辺に存在する先行車や障害物等の物体までの距離を算出する距離情報の取得を基本としており、距離情報を取得するための2つの測距部を有している。すなわち、図2に示すように、ステレオ画像認識装置5は、互いに異なる処理で物体の三次元測距を並行して実施する第1測距部6と第2測距部7とを備え、更に、追跡処理部8、測距選択部9、認識処理部10を備えている。   The recognition of the external environment in the stereo image recognition device 5 is based on acquisition of distance information for processing a pair of images captured by the stereo camera 2 and calculating a distance to an object such as a preceding vehicle or an obstacle existing around the own vehicle. And has two distance measuring units for acquiring distance information. That is, as shown in FIG. 2, the stereo image recognition device 5 includes a first distance measuring unit 6 and a second distance measuring unit 7 that perform three-dimensional distance measurement of an object in parallel by different processes, and further A tracking processing unit 8, a distance measurement selection unit 9, and a recognition processing unit 10.

第1測距部6は、本発明における第1の距離情報算出手段に相当し、ステレオ処理に不都合のない条件下での通常の測距を行うものであり、ステレオカメラ2で撮像した左右一対の画像間のステレオマッチングを行って同一物体に対する視差を検出することで測距を行う。   The first distance measuring unit 6 corresponds to the first distance information calculating means in the present invention, and performs normal distance measurement under conditions that do not inconvenience stereo processing. The distance is measured by performing stereo matching between the images and detecting the parallax with respect to the same object.

また、第2測距部7は、本発明における第2の第1の距離情報算出手段に相当し、逆光等によりステレオ撮像した左右一対の画像間の感度バランスに狂いが生じ、第1測距部6で生成される距離画像の信頼性が低下した場合に対処するものである。以下に説明するように、第2測距部7は、輝度バランスのズレの影響を回避したステレオマッチングを行うことにより、視差を検出する。   The second distance measuring unit 7 corresponds to the second first distance information calculating means in the present invention, and the sensitivity balance between the pair of left and right images captured in stereo by backlight or the like is distorted, and the first distance measuring unit 7 This is to deal with a case where the reliability of the distance image generated by the unit 6 is lowered. As will be described below, the second distance measuring unit 7 detects the parallax by performing stereo matching that avoids the influence of the luminance balance shift.

第1測距部6による測距と第2測距部7による測距は、本発明における選択手段に相当する追跡処理部8及び測距選択部9により選択的に切換えられて認識処理部10に入力され、逆光時のような環境条件の悪化に対しても継続的な測距を可能として、環境条件の変化による認識信頼性の低下を防止することができる。   The distance measurement by the first distance measurement unit 6 and the distance measurement by the second distance measurement unit 7 are selectively switched by the tracking processing unit 8 and the distance measurement selection unit 9 corresponding to the selection means in the present invention, and the recognition processing unit 10. Thus, continuous distance measurement can be performed even when the environmental conditions are deteriorated such as in backlight, and the recognition reliability can be prevented from deteriorating due to changes in the environmental conditions.

第1測距部6におけるステレオマッチングは、例えば、周知の領域探索法を用いて左右画像間の相関を評価する。すなわち、ステレオカメラ2の一方の画像を基準画像、他方の画像を比較画像として、基準画像内の或る1つの点の周囲に小領域(ブロック)を設定し、比較画像内の或る点の周囲に同じ大きさの小領域を設け、比較画像上でブロックをずらしながら互いのブロックの相関演算を行うことで、対応点を探索する。   The stereo matching in the first distance measuring unit 6 evaluates the correlation between the left and right images using, for example, a well-known region search method. That is, with one image of the stereo camera 2 as a reference image and the other image as a comparison image, a small region (block) is set around a certain point in the reference image, and a certain point in the comparison image is Corresponding points are searched for by providing a small region of the same size around and performing a correlation calculation of the blocks while shifting the blocks on the comparison image.

この相関演算における評価関数としては、基準画像のブロックと比較画像のブロックとの間のピクセル値(一般的に、各画素の輝度値)の差分(絶対値)の総和(SAD;Sum of Absolute Difference)を用いる。SADによる評価関数の値は、シティブロック距離と称されるものであり、ブロック間の相関が高い程(類似している程)、シティブロック距離の値が小さくなり、シティブロック距離が最小値を取るブロック間の水平方向のシフト量により、視差が与えられる。   As an evaluation function in this correlation calculation, a sum (SAD: Sum of Absolute Difference) of differences (absolute values) of pixel values (generally luminance values of the respective pixels) between the block of the reference image and the block of the comparison image is used. ) Is used. The value of the evaluation function by SAD is called city block distance. The higher the correlation between blocks (the more similar), the smaller the value of the city block distance, and the minimum city block distance. Parallax is given by the amount of horizontal shift between the blocks to be taken.

シティブロック距離CBは、画像平面上の位置を、水平方向をi座標、垂直方向をj座標とする直交座標で定義し、互いの相関度を探索するブロックを、i×j(i=0〜n,j=0〜n)の探索ブロックとするとき、以下の(1)式に示すように、基準画像の探索ブロックmain(i,j)と比較画像の探索ブロックsub(i,j)とのSAD値を、i軸上を所定のシフト値ずつずらしながら演算することにより得られる。
CB=Σ│main(i,j)−sub(i,j)│…(1)
尚、探索ブロック(小領域)間のステレオマッチングについての詳細は、本出願人の特許第3167752号に詳述されている。
The city block distance CB defines a position on the image plane as an orthogonal coordinate in which the horizontal direction is i-coordinate and the vertical direction is j-coordinate. n, j = 0 to n), the reference image search block main (i, j) and the comparison image search block sub (i, j), as shown in the following equation (1): The SAD value is calculated by shifting the SAD value on the i-axis by a predetermined shift value.
CB = Σ | main (i, j) -sub (i, j) | ... (1)
Details of stereo matching between search blocks (small regions) are described in detail in Japanese Patent No. 3167775 of the present applicant.

以上のSAD演算では、例えば4×4画素の探索ブロックを対象として、基準画像の探索ブロック(以下、「メインブロック」と記載する)に対して比較画像の探索ブロック(以下、「サブブロック」と記載する)の位置を水平線上を1画素ずつずらしながらSAD演算を行うと、シティブロック距離が最小値C0となる点がメインブロックとサブブロックとの相関度が最も高い対応位置(一致点)として求められる。   In the above SAD calculation, for example, for a search block of 4 × 4 pixels, a reference image search block (hereinafter referred to as “main block”) is compared with a comparison image search block (hereinafter referred to as “sub block”). When the SAD calculation is performed while shifting the position of (described) one pixel at a time on the horizontal line, the point where the city block distance is the minimum value C0 is the corresponding position (matching point) having the highest degree of correlation between the main block and the sub-block. Desired.

この一致点におけるメインブロックとサブブロックとの1画素単位のズレ量(水平方向のメインブロックの位置imとサブブロックの位置isとの差)が視差として与えられる。この視差すなわちズレ量は、画像座標系の対応する位置の輝度値に置き換えられて画像形態の距離画像として生成され、距離画像が有する距離情報を用いて実空間での距離を得ることができる。   The amount of shift in units of one pixel between the main block and the sub block at this coincidence point (the difference between the position im of the main block in the horizontal direction and the position is of the sub block) is given as parallax. This parallax, that is, the amount of deviation is replaced with the luminance value at the corresponding position in the image coordinate system and is generated as a distance image in the form of an image, and the distance in real space can be obtained using the distance information of the distance image.

この場合、画像小領域の中には、目的対象とする先行車以外の部分(背景の電柱や木、手前の白線等)も含まれているため、先行車とは異なる誤った視差が入る可能性がある。従って、各画像小領域に対する視差データを大きい順に並べ、所定比率(例えば、25%)より大きい側のデータと小さい側のデータは特異点として除外する。そして、残ったデータ(中央の50%)について平均値を算出し、これを先行車の視差とする。   In this case, the small area of the image includes parts other than the target preceding vehicle (background telephone poles, trees, white line in front, etc.). There is sex. Therefore, the parallax data for each small image region is arranged in descending order, and data on the side larger than a predetermined ratio (for example, 25%) and data on the smaller side are excluded as singular points. Then, an average value is calculated for the remaining data (50% in the center), and this is used as the parallax of the preceding vehicle.

一方、第2測距部7におけるステレオマッチングは、第1測距部6でステレオ画像処理が正常になされているときの撮像元画像をテンプレート画像として記憶しておき、このテンプレート画像から撮像画像に対してマッチング領域を設定し、このマッチング領域の隣り合う画素の輝度の差分を用いてステレオマッチングを行う。   On the other hand, in stereo matching in the second distance measuring unit 7, the original image when the stereo image processing is normally performed in the first distance measuring unit 6 is stored as a template image, and the template image is converted into the captured image. On the other hand, a matching area is set, and stereo matching is performed using the luminance difference between adjacent pixels in the matching area.

例えば、ステレオカメラ2の撮像面に太陽光が入射して逆光となった場合、左画像・右画像の輝度値を模式的に表すと、図3に示すような分布となる。図3におけるグラフの横軸は横方向の座標、縦軸は画像上の横線を引いた位置における輝度値であり、図3(a)に示す左画像と図3(b)に示す右画像とでは、太陽光の入射等により左右の感度バランスが大きく崩れ、左右の輝度オフセットが生じている。このため、輝度のSAD演算によりステレオ処理を実施しても、正常にマッチングすることは困難である。   For example, when sunlight enters the imaging surface of the stereo camera 2 and becomes backlit, the luminance values of the left image and the right image are schematically represented as shown in FIG. The horizontal axis of the graph in FIG. 3 is the horizontal coordinate, the vertical axis is the luminance value at the position where the horizontal line on the image is drawn, and the left image shown in FIG. 3A and the right image shown in FIG. In this case, the left and right sensitivity balance is greatly broken due to the incidence of sunlight and the like, and a left and right luminance offset is generated. For this reason, even if stereo processing is performed by SAD calculation of luminance, it is difficult to perform normal matching.

しかしながら、左右の輝度にオフセットが有るものの、輝度の変動する様子には共通性があり、隣り合う画素の輝度の差分(ある画素の輝度値−その右の画素の輝度値)をグラフ化すると、図4に示すようになり、図4(a)に示す左画像の輝度差分と図4(b)に示す右画像の輝度差分は、同様に変化していることがわかる。従って、左右それぞれの画像について輝度差分をとり、この輝度差分に対して、前述のSAD値を算出すれば、ステレオ撮像した画像間に輝度オフセットが生じても、必要な精度を確保しながら視差を検出することができる。   However, although there is an offset in the left and right luminances, there is a commonality in how the luminance fluctuates, and when the difference in luminance between adjacent pixels (luminance value of a certain pixel−luminance value of the right pixel) is graphed, As shown in FIG. 4, it can be seen that the luminance difference of the left image shown in FIG. 4A and the luminance difference of the right image shown in FIG. Therefore, if the luminance difference is calculated for each of the left and right images, and the SAD value described above is calculated for the luminance difference, the parallax can be obtained while ensuring the necessary accuracy even if a luminance offset occurs between the stereo images. Can be detected.

第1測距部6による測距と第2の測距部7による測距との切換えは、追跡処理部8において、注目物体の追跡(先行車の追跡)におけるロストの有無によって判断される。ロストがない状態では、より精度の高い第1測距部6で算出された距離情報が測距選択部9によって選択され、認識処理部10に入力される。一方、ロストが発生したと判断されると、第2測距部7で算出された距離情報が測距選択部9によって選択され、認識処理部10に入力される。   Switching between the distance measurement by the first distance measurement unit 6 and the distance measurement by the second distance measurement unit 7 is determined by the tracking processing unit 8 based on the presence or absence of lost in tracking the object of interest (tracking the preceding vehicle). When there is no lost, distance information calculated by the first distance measuring unit 6 with higher accuracy is selected by the distance measuring selecting unit 9 and input to the recognition processing unit 10. On the other hand, if it is determined that the lost has occurred, the distance information calculated by the second distance measuring unit 7 is selected by the distance measuring selection unit 9 and input to the recognition processing unit 10.

追跡処理部8における先行車の追跡処理は、第1測距部6によるステレオ画像処理が正常に実行されているときに距離画像によって認識した先行車に対応する右又は左のカメラ画像を切り出し、先行車のテンプレート画像として毎フレーム毎に記憶・保持する。そして、逆光等による左右画像間の輝度バランスが崩れたときに、テンプレート画像を用いて左右画像内を検索することで先行車に対応する画像上の位置を特定し、第2測距部7による輝度差分のステレオマッチングを行う。   The tracking process of the preceding vehicle in the tracking processing unit 8 cuts out the right or left camera image corresponding to the preceding vehicle recognized by the distance image when the stereo image processing by the first distance measuring unit 6 is normally executed, It is stored and held for each frame as a template image of the preceding vehicle. Then, when the luminance balance between the left and right images is lost due to backlight or the like, the position on the image corresponding to the preceding vehicle is specified by searching the left and right images using the template image, and the second distance measuring unit 7 Perform stereo matching of luminance differences.

尚、先行車のテンプレート画像は、縮小画像として記憶・保持することで、メモリ容量及び演算負荷を低減し、処理の高速化を図ることができる。   Note that the template image of the preceding vehicle is stored and held as a reduced image, so that the memory capacity and calculation load can be reduced and the processing speed can be increased.

検索の手法としては、従来から知られている様々な手法、例えば、残差逐次検定法や相互相関係数による方法(「画像解析ハンドブック」:東京大学出版会、監修 高木幹雄・下田陽久、1991年参照)を採用することができる。以下に、これらの手法による検索の概要を説明する。   As a search method, various conventionally known methods such as a residual successive test method and a method using a cross-correlation coefficient (“Image Analysis Handbook”: The University of Tokyo Press, Mikio Takagi, Yoshihisa Shimoda, 1991 Year reference). The outline of the search by these methods will be described below.

A.残差逐次検定法
先行車画像をテンプレート画像とし、検索する画像内を上下にスキャンする。テンプレート画像と検索画像のSAD値を、以下の(2)式により算出し、SADの最小値を得た検索画像内の位置に今回の先行車が存在すると判定する。尚、以下の式中におけるΣjは、j=0〜Nj-1についての総和を取ることを表し、Σiは、i=0〜Ni-1についての総和を取ることを表すものとする。
R(a,b)= ΣjΣi|I(a,b)(i,j)−T(i,j)|…(2)
但し、 a:検索画像内の横方向座標
b:検索画像内縦方向座標
R(a,b):座標(a,b)におけるSAD値
Nj:検索範囲の広さ(縦方向画素数)
Ni:検索範囲の広さ(横方向画素数)
j:テンプレート画像内縦方向座標(縦方向画素数)
i:テンプレート画像内横方向座標(横方向画素数)
I(a,b)(i,j):座標(a+i,b+j)における検索画像の輝度値
T(i,j):座標(i,j)におけるテンプレート画像の輝度値
この残差逐次検定法では、SADの加算の途中で加算値が有る閾値を超えたら画像の重ね合わせがずれていると判断して加算を中断し、次の座標(a,b)に移る。これにより処理時間を短縮することができる。
A. Residual sequential test method The preceding vehicle image is used as a template image, and the image to be searched is scanned up and down. The SAD values of the template image and the search image are calculated by the following equation (2), and it is determined that the current preceding vehicle exists at the position in the search image where the minimum value of SAD is obtained. In the following equations, Σj represents that a sum is obtained for j = 0 to Nj−1, and Σi represents a sum for i = 0 to Ni−1.
R (a, b) = ΣjΣi | I (a, b) (i, j) −T (i, j) | ... (2)
Where a: horizontal coordinate in the search image
b: Vertical coordinate in search image
R (a, b): SAD value at coordinates (a, b)
Nj: Wide search range (number of vertical pixels)
Ni: Wide search range (number of horizontal pixels)
j: Vertical coordinate in the template image (vertical pixel count)
i: Horizontal coordinate in template image (number of horizontal pixels)
I (a, b) (i, j): luminance value of the search image at coordinates (a + i, b + j)
T (i, j): Brightness value of template image at coordinates (i, j) In this residual sequential test method, if the added value exceeds a threshold value in the middle of SAD addition, the overlay of images is shifted. Judgment is made, and addition is interrupted, and it moves to the next coordinate (a, b). Thereby, processing time can be shortened.

B.相互相関係数による方法
残差逐次検定法と同様に検索範囲内をスキャンするが、SAD値の代わりに相互相関係数を用い、その最大値を取る位置に今回の先行車が存在すると判定する。相互相関係数は、以下の(3)式により算出する。
C(a,b)=ΣjΣi{I(a,b)(i,j)−Iave}{T(i,j)−Tave}/√(Iσ・Tσ)…(3)
但し、 C(a,b):座標(a,b)における相互相関係数
Iave:検索画像の該当範囲内の輝度平均値
Tave:テンプレート画像の輝度平均値
Iσ:検索画像の該当範囲内の輝度分散値
Tσ:テンプレート画像の輝度分散値
尚、元画像上で先行車の画像を追跡する場合、時間とともに輝度オフセットが変化する問題があるが、前述したと同様の輝度差分を算出し、輝度差分に対して残差逐次検定法や相関係数による方法を行うことにより、追跡を有効的に行うことができる。
B. Cross-correlation coefficient method The search range is scanned in the same way as the residual sequential test method, but the cross-correlation coefficient is used instead of the SAD value, and it is determined that the preceding vehicle is present at the position where the maximum value is obtained. . The cross correlation coefficient is calculated by the following equation (3).
C (a, b) = ΣjΣi {I (a, b) (i, j) −Iave} {T (i, j) −Tave} / √ (Iσ · Tσ) (3)
Where C (a, b): cross-correlation coefficient at coordinates (a, b)
Iave: Average brightness value within the corresponding range of the search image
Tave: Average brightness of template image
Iσ: luminance dispersion value within the corresponding range of the search image
Tσ: brightness dispersion value of template image Note that when tracking the image of the preceding vehicle on the original image, there is a problem that the brightness offset changes with time. In addition, tracking can be performed effectively by performing a residual sequential test method or a method using a correlation coefficient.

以上の残差逐次検定法或いは相互相関係数による方法であっても、処理がうまくいかずに先行車でない画像を先行車と誤判定する可能性がある。従って、このような場合にも確実に追跡の破綻を検出するため、以下の(a)或いは(b)に説明する手法により、追跡破綻を判定する。   Even with the above-described residual sequential test method or cross-correlation coefficient method, there is a possibility that an image that is not a preceding vehicle is erroneously determined as a preceding vehicle because processing is not successful. Accordingly, in order to reliably detect the tracking failure even in such a case, the tracking failure is determined by the method described in (a) or (b) below.

(a)残差逐次検定法における追跡破綻の判定
前述の(2)式により、先行車位置及びその周辺でのSAD値R(a,b)を算出し、SADの谷の深さが閾値より浅ければ追跡が破綻したと判定する。SADの谷の深さは、以下の(4)式に示すように、SAD平均値RaveとSAD値R(a,b)との差分のSAD平均値Raveに対する比率として計算される信頼性パラメータSAD_reliabilityで評価する。
SAD_reliability={Rave−R(a,b)}/Rave…(4)
但し、Rave:座標(a,b)の画素を取り囲む周辺画素のSAD値の平均値
SAD平均値Raveは、例えば、上下左右の4画素を使用する場合、以下の(5)式、或いは(6)式によって算出することができる。
Rave=R(a-1,b)+R(a,b-1)+R(a+1,b)+R(a,b+1)+R(a,b)…(5)
Rave=R(a-1,b)+R(a,b-1)+R(a+1,b)+R(a,b+1)…(6)
信頼性パラメータSAD_reliabilityは、0〜1の範囲の値を取り、大きいほど信頼性が高いと判断される。すなわち、テンプレート画像と検索画像とのマッチングが正常に行われた場合には、図5(a)に示すように、SAD値R(a,b)に極小点が出現し、平均値Raveに対する差分の比率が大きくなるが、先行車と自車との間に他の車両が割込んだ場合等には、図5(b)に示すように、SAD値R(a,b)の変化が小さくなり、平均値Raveに対する差分の比率が小さくなる。従って、例えば閾値を0.4としたとき、SAD_reliability≦0.4では、追跡破綻と判定する。
(A) Judgment of tracking failure in residual sequential test method The SAD value R (a, b) at the preceding vehicle position and its surroundings is calculated by the above-mentioned equation (2), and the depth of the SAD valley is calculated from the threshold value. If it is shallow, it is determined that tracking has failed. The depth of the SAD valley is a reliability parameter SAD_reliability calculated as a ratio of the difference between the SAD average value Rave and the SAD value R (a, b) to the SAD average value Rave as shown in the following equation (4). Evaluate with.
SAD_reliability = {Rave−R (a, b)} / Rave (4)
However, Rave: average value of SAD values of peripheral pixels surrounding the pixel of coordinates (a, b) The SAD average value Rave is, for example, the following equation (5) or (6) ) Equation.
Rave = R (a-1, b) + R (a, b-1) + R (a + 1, b) + R (a, b + 1) + R (a, b) (5)
Rave = R (a-1, b) + R (a, b-1) + R (a + 1, b) + R (a, b + 1) (6)
The reliability parameter SAD_reliability takes a value in the range of 0 to 1, and it is determined that the reliability is higher as it is larger. That is, when the template image and the search image are normally matched, a minimum point appears in the SAD value R (a, b) as shown in FIG. The ratio of the SAD value R (a, b) is small as shown in FIG. 5 (b) when another vehicle interrupts between the preceding vehicle and the own vehicle. Thus, the ratio of the difference with respect to the average value Rave becomes small. Therefore, for example, when the threshold value is 0.4, it is determined that tracking failure occurs when SAD_reliability ≦ 0.4.

(b)相互相関係数による方法における追跡破綻の判定
前述の(3)式により先行車位置及びその周辺での相互相関係数を算出し、相互相関係数の山の高さが低ければ、追跡が破綻したと判定する。
(B) Judgment of tracking failure in the method using the cross-correlation coefficient The cross-correlation coefficient at the preceding vehicle position and its surroundings is calculated by the above-described equation (3), and if the peak of the cross-correlation coefficient is low, Judge that tracking has failed.

また、以上の処理におけるテンプレート画像(先行車画像)は、左右の元画像のうちの一方を選定するわけであるが、左右何れの画像が適しているかは、SADの有効性を示す(4)式の信頼性パラメータSAD_reliabilityを用いて判定し、この値が大きい方の画像(左右いずれか)を先行車画像として選定する。例えば、左画像から検索した先行車範囲の信頼性パラメータSAD_reliabilityが0.3で、右画像から検索した先行車範囲の信頼性パラメータSAD_reliabilityが0.7の場合、信頼性パラメータSAD_reliabilityの計算値が右画像の方が大きいため、右画像を以後の処理でメイン画像として使用する。   In addition, the template image (preceding vehicle image) in the above processing selects one of the left and right original images. The right or left image is suitable indicates the effectiveness of SAD (4). The determination is made using the reliability parameter SAD_reliability of the equation, and the image with the larger value (either left or right) is selected as the preceding vehicle image. For example, when the reliability parameter SAD_reliability of the preceding vehicle range searched from the left image is 0.3 and the reliability parameter SAD_reliability of the preceding vehicle range searched from the right image is 0.7, the calculated value of the reliability parameter SAD_reliability is right Since the image is larger, the right image is used as the main image in the subsequent processing.

更に、選択した先行車画像の範囲は、正確に先行車を切り出さずに上下左右にずれる場合がある。上下にずれても大きな問題は生じないが、左右にずれて先行車の輪郭が含まれないと、以降で行う視差の算出で使用するエッジの強度が弱まり、距離精度が低下してしまう。そこで自動車の左右対称性を利用し、先行車位置を修正する。   Furthermore, the range of the selected preceding vehicle image may be shifted vertically and horizontally without accurately cutting out the preceding vehicle. Even if it deviates up and down, no major problem will occur, but if it deviates left and right and does not include the contour of the preceding vehicle, the strength of the edge used in the subsequent parallax calculation will be weakened and the distance accuracy will be reduced. Therefore, the position of the preceding vehicle is corrected using the left-right symmetry of the car.

すなわち、図6に示すように、メイン画像における先行車の輪郭の左端が欠けていた場合、位置修正前のメイン画像から右半分を抽出し、これを左右反転する。そして、前述の残差逐次検定法により、左右反転した画像をメイン画像上で検索し、マッチングする位置を特定する。次に、マッチング位置の信頼性を、前述の信頼性パラメータSAD_reliabilityにより評価し、信頼性パラメータSAD_reliabilityの値が閾値を超えていた場合には、左右反転画像によるマッチングが成功したと判断し、先行車画像を修正する。   That is, as shown in FIG. 6, when the left end of the contour of the preceding vehicle in the main image is missing, the right half is extracted from the main image before position correction, and this is reversed horizontally. Then, the left-right inverted image is searched on the main image by the above-described residual sequential test method, and the matching position is specified. Next, the reliability of the matching position is evaluated by the above-described reliability parameter SAD_reliability. If the value of the reliability parameter SAD_reliability exceeds the threshold value, it is determined that the matching by the left-right inverted image is successful, and the preceding vehicle Correct the image.

先行車画像の修正に際しては、図7に示すように、右半分、左半分の中心位置に合わせ、中心を移動することで、画像の幅は変えないようにしつつ、左半分・右半分の中心に修正後の先行車画像の中心が一致するように、先行車画像を修正する。図7においては、白抜きの枠が修正前の領域を示し、黒枠が修正後の領域を示している。   When correcting the preceding vehicle image, as shown in FIG. 7, the center of the left half and the right half are adjusted while moving the center in accordance with the center position of the right half and the left half so that the width of the image is not changed. The preceding vehicle image is corrected so that the center of the corrected preceding vehicle image coincides with. In FIG. 7, a white frame indicates a region before correction, and a black frame indicates a region after correction.

これにより、図8に示すように、先行車の左端が含まれていなかった修正前の先行車画像が先行車全体の輪郭を表す先行車画像に修正され、以降は、この先行車画像をテンプレート画像として用い、ステレオ撮像した左右画像内を検索して先行車に対応する画像上の位置を特定し、輝度差分によるステレオマッチングを行う。   As a result, as shown in FIG. 8, the preceding vehicle image before correction, which did not include the left end of the preceding vehicle, is corrected to the preceding vehicle image representing the outline of the entire preceding vehicle. The image is used as an image, and the left and right images taken in stereo are searched to identify the position on the image corresponding to the preceding vehicle, and stereo matching is performed by the luminance difference.

ここで、第2測距部7におけるテンプレート画像を用いた先行車領域のマッチングと、第1測距部6における通常の小領域によるステレオマッチングとを比較すると、テンプレート画像を用いたステレオマッチングは、目的対象のマッチングに使用するデータ数が多くなるため、ミスマッチングの可能性が低く、輝度バランスの崩れたステレオ画像に対しても有効に視差を検出することができるが、得られる視差データが限られるため、統計処理が困難であり、通常の小領域によるステレオマッチングに比較すると、高精度は期待できない。   Here, when the matching of the preceding vehicle region using the template image in the second distance measuring unit 7 and the stereo matching by the normal small region in the first distance measuring unit 6 are compared, the stereo matching using the template image is: Since the number of data used for matching target objects increases, the possibility of mismatching is low, and it is possible to detect parallax effectively even for stereo images with an unbalanced luminance balance, but the obtained parallax data is limited. Therefore, statistical processing is difficult, and high accuracy cannot be expected as compared with normal stereo matching using a small area.

一方、通常の小領域によるステレオマッチングは、データ数が小領域の数だけ得られるので統計処理による精度の向上を図ることができ、統計処理による特異点除去によりミスマッチングを除外することができるが、精度を上げるためには小領域の大きさ/数を増やす必要があり、増やし過ぎると処理時間が長くなる。   On the other hand, since stereo matching with normal small regions can obtain the number of data as many as the number of small regions, accuracy can be improved by statistical processing, and mismatching can be excluded by removing singular points by statistical processing. In order to increase the accuracy, it is necessary to increase the size / number of small areas.

以上の第1測距部6或いは第2測距部7からの距離画像データは、測距選択部9を介して選択的に認識処理部10に送られる。認識処理部10は、距離画像内から同一距離データの密集箇所を抽出することにより、先行車を認識する。この先行車認識においては、距離画像データを用いて先行車までの距離を算出し、距離のフレーム間差分を取ることにより先行車の速度を算出するとともに、先行車の追跡処理におけるロスト判定結果をロスト判定フラグとして中央制御装置20に出力される。   The distance image data from the first distance measuring section 6 or the second distance measuring section 7 is selectively sent to the recognition processing section 10 via the distance measuring selection section 9. The recognition processing unit 10 recognizes the preceding vehicle by extracting a crowded portion of the same distance data from the distance image. In the preceding vehicle recognition, the distance to the preceding vehicle is calculated using the distance image data, the speed of the preceding vehicle is calculated by taking the inter-frame difference in the distance, and the lost determination result in the preceding vehicle tracking process is calculated. The lost determination flag is output to the central controller 20.

中央制御装置20は、認識処理部10からのデータに基づき、エンジン制御装置21やブレーキ制御装置22を介してスロットル・ブレーキを動作させ、車間距離を目標値に保つ。また、距離・速度データから先行車への追突の危険が有る場合は、警報装置23を介して車間距離警報を発する。   Based on the data from the recognition processing unit 10, the central control device 20 operates the throttle / brake via the engine control device 21 and the brake control device 22 to maintain the inter-vehicle distance at the target value. Further, when there is a danger of a rear-end collision with the preceding vehicle from the distance / speed data, an inter-vehicle distance alarm is issued via the alarm device 23.

次に、以上の処理を適用した先行車追従制御システムにおける先行車追従制御について、図9〜図12のフローチャートを用いて説明する。この先行車追従制御は、ステレオ画像認識装置5における図9〜図11の先行車認識及び追跡処理と、中央制御装置20における図12の先行車追従制御処理とによって実現される。   Next, the preceding vehicle following control in the preceding vehicle following control system to which the above processing is applied will be described with reference to the flowcharts of FIGS. The preceding vehicle follow-up control is realized by the preceding vehicle recognition and tracking process of FIGS. 9 to 11 in the stereo image recognition device 5 and the preceding vehicle follow-up control process of FIG.

[先行車認識処理]
先ず、ステレオ画像認識装置5側の処理として、図9に示す画像処理シーケンスについて説明する。この画像処理シーケンスでは、最初のステップS1において、ステレオカメラ2で自車前方を撮像し、左右の画像データを取得する。次いで、ステップS2へ進み、第1測距部6による通常のステレオ処理を第1ステレオ処理として実行し、距離画像データを生成する。続くステップS3では、第1ステレオ処理で生成した距離画像の認識処理を行い、実空間座標での物体データを検出し、ステップS4で、追跡データフラグが「挿入中」を示しているか否かを調べる。
[Previous vehicle recognition processing]
First, the image processing sequence shown in FIG. 9 will be described as processing on the stereo image recognition device 5 side. In this image processing sequence, in the first step S1, the front of the host vehicle is imaged by the stereo camera 2 to acquire left and right image data. Next, the process proceeds to step S2, in which normal stereo processing by the first distance measuring unit 6 is executed as first stereo processing, and distance image data is generated. In subsequent step S3, recognition processing of the distance image generated in the first stereo processing is performed to detect object data in real space coordinates. In step S4, it is determined whether or not the tracking data flag indicates “inserting”. Investigate.

追跡データフラグは、並行して実施される先行車追跡処理で生成される物体の追跡データを、第1ステレオ処理で得られた物体データに追加中であることを示す「挿入中」と、第1ステレオ処理で正常に先行車を捕捉しており、追跡データが必要としないことを示す「挿入中止」との何れかに設定されるものである。   The tracking data flag is “inserting” indicating that the tracking data of the object generated by the preceding vehicle tracking process performed in parallel is being added to the object data obtained by the first stereo process, This is set to one of “cancel insertion” indicating that the preceding vehicle is normally captured in one stereo process and the tracking data is not required.

ステレオカメラ2で撮像した画像に逆光等による輝度バランスの狂いが生じていない場合や、先行車と自車との間に他の割込み車両がなく、先行車を順調に捕捉できている場合には、追跡データフラグは「挿入中止」に設定されており、ステップS4からステップS5へ進んでロスト発生を示すフラグを参照する。このロスト発生を示すフラグは、図11に示すロスト判定処理によって設定されるものであり、ロスト判定処理については後述する。   If the image captured by the stereo camera 2 is not out of brightness balance due to backlight, etc., or if there is no other interrupting vehicle between the preceding vehicle and the own vehicle, the preceding vehicle can be captured smoothly. The tracking data flag is set to “cancel insertion”, and the process proceeds from step S4 to step S5 to refer to the flag indicating the occurrence of lost. The flag indicating the occurrence of lost is set by the lost determination process shown in FIG. 11, and the lost determination process will be described later.

ステップS5におけるフラグ参照の結果、ロストが発生していない場合には、ステップS5からステップS8へ進んで追跡データフラグを「挿入中止」に設定し、ステップS10で物体データから先行車を選択して処理を抜ける。ロストが発生していない状態では、第1ステレオ処理で取得した物体データから、自車線上の最近距離に存在する物体を先行車として選択することになる。   As a result of referring to the flag in step S5, if no loss has occurred, the process proceeds from step S5 to step S8, the tracking data flag is set to “cancel insertion”, and the preceding vehicle is selected from the object data in step S10. Exit processing. In a state where no loss has occurred, an object existing at the closest distance on the own lane is selected as the preceding vehicle from the object data acquired by the first stereo process.

一方、ステップS5におけるフラグ参照の結果、ロストが発生している場合には、ステップS5からステップS6へ進んで追跡データフラグを「挿入中」に設定し、ステップS7で物体へのデータ追加を中止するか否かを判断する。物体データ追加中止と判断する条件は、通常は以下の(1)に示す先行車を再捕捉した場合であるが、その他、以下に説明する(2)〜(4)の条件下においても、物体データ追加中止と判断する。   On the other hand, if lost as a result of referring to the flag in step S5, the process proceeds from step S5 to step S6, the tracking data flag is set to “inserting”, and data addition to the object is stopped in step S7. Judge whether to do. The condition for determining that object data addition is to be stopped is usually when the preceding vehicle shown in (1) below is re-acquired, but in addition, the object is also subject to the conditions (2) to (4) described below. It is determined that data addition has been canceled.

(1)先行車の再捕捉による物体データ追加中止
一旦ロストが発生した場合には、追跡処理で生成した物体のデータをフレーム毎に追加し続ける。しかし、次フレーム以降で第1ステレオ処理の距離画像による認識物体の中に追跡処理で生成した物体と同一物体と考えられる物体が有った場合には、第1ステレオ処理による距離画像認識が正常状態に復元したと判断し、物体データの追加を中止する。
(1) Canceling object data addition due to re-acquisition of a preceding vehicle Once lost occurs, object data generated by the tracking process is continuously added for each frame. However, if there is an object that is considered to be the same object as the object generated by the tracking process among the recognized objects by the distance image of the first stereo process in the next frame or later, the distance image recognition by the first stereo process is normal. It is determined that the state has been restored, and the addition of object data is stopped.

同一物体の判定は、例えば、第1ステレオ処理の距離画像による認識物体と、追跡処理で生成した物体が同一物体である確率を、各々の距離及び左右方向位置から算出し、この確率が閾値を越えるものが有れば、同一物体が存在すると判定する。尚、この同一物体判定の詳細については、本出願人による特開2004−037239号公報に詳述されている。   For example, the same object is determined by calculating the probability that the recognized object based on the distance image of the first stereo process and the object generated by the tracking process are the same object from each distance and the horizontal position, and this probability is set to a threshold value. If there is something that exceeds, it is determined that the same object exists. Details of the same object determination are described in detail in Japanese Patent Application Laid-Open No. 2004-037239 by the present applicant.

(2)追跡信頼性の低下による物体データ追加中止
追跡の信頼性を表す評価値を導入し、ロスト発生時に初期値として所定の値(例えば、100点)を設定する。追跡の信頼性が低いと考えられる現象が生じる毎に、評価値を減算していき、0点に達したら追跡が破綻したものとみなして以後の物体データの追加を中止する。信頼性評価値の減算条件は、以下の(2-1)〜(2-6)に示す通りである。
(2) Canceling addition of object data due to lowering of tracking reliability An evaluation value representing tracking reliability is introduced, and a predetermined value (for example, 100 points) is set as an initial value when a loss occurs. Every time a phenomenon that is considered to have low tracking reliability occurs, the evaluation value is subtracted, and when the score reaches 0, the tracking is considered to have failed and the subsequent addition of object data is stopped. The subtraction conditions for the reliability evaluation value are as shown in the following (2-1) to (2-6).

(2-1)前述の(4)式で算出した信頼性パラメータSAD_reliabilityの値が閾値より小さいとき、信頼性評価値を減算する。 (2-1) When the value of the reliability parameter SAD_reliability calculated by the above equation (4) is smaller than the threshold value, the reliability evaluation value is subtracted.

(2-2)前述の(3)式の相互相関係数による方法に従い、前回までの先行車画像と今回の先行車画像の相互相関係数を算出し、算出した相互相関係数が閾値以下となった場合、信頼性評価値を減算する。 (2-2) Calculate the cross-correlation coefficient between the preceding preceding vehicle image and the current preceding vehicle image according to the method using the cross-correlation coefficient in the above equation (3), and the calculated cross-correlation coefficient is below the threshold value. If it becomes, the reliability evaluation value is subtracted.

(2-3)追跡処理で先行車と特定された位置が検索範囲の境界線上(検索範囲の上下左右の一番端)となった場合、正しくマッチングできていない可能性が高いと考え、信頼性を減算する。 (2-3) If the position identified as the preceding vehicle in the tracking process is on the boundary of the search range (the top, bottom, left, or right end of the search range) Subtract gender.

(2-4)追跡処理で先行車とされた物体の画面内位置が処理フレーム毎に左右に動いている(位置が暴れている)場合、左右位置・上下位置の分散値を数フレームにわたって観測し、分散が閾値を越えたときに信頼性評価値を減算する。 (2-4) When the position in the screen of the object that has been set as the preceding vehicle in the tracking process moves to the left and right for each processing frame (the position is violent), the variance values of the left and right positions and the vertical position are observed over several frames. When the variance exceeds the threshold, the reliability evaluation value is subtracted.

(2-5)追跡処理で導出した追跡車までの距離算出結果が処理フレーム毎に大きく変動している(距離が暴れている)場合、距離の分散値を数フレームにわたって観測し、分散が閾値を越えたときに信頼性評価値を減算する。 (2-5) When the calculation result of the distance to the tracking vehicle derived in the tracking process fluctuates greatly every processing frame (the distance is violent), the dispersion value of the distance is observed over several frames, and the dispersion is a threshold value. The reliability evaluation value is subtracted when exceeding.

(2-6)追跡処理で先行車と特定された位置に、距離画像認識による距離データが生じており、且つ、その距離が距離の再算出結果と大きく異なり、同一位置で異なる距離を生じた距離データの個数が閾値より多い場合、追跡処理と距離画像が矛盾していると判断し、信頼性評価値を減算する。 (2-6) Distance data by distance image recognition has occurred at the position identified as the preceding vehicle in the tracking process, and the distance is significantly different from the recalculation result of the distance, resulting in a different distance at the same position. When the number of distance data is larger than the threshold, it is determined that the tracking process and the distance image are contradictory, and the reliability evaluation value is subtracted.

(3)夜間走行による物体データ追加中止
逆光によるロストの場合は距離画像が乱れていても単眼画像の追跡処理が有効な場合が多いが、夜間は様々な周囲の灯火の光により単眼画像による追跡処理が困難となる。夜間に追跡処理の破綻による誤制動等の問題の発生を防止するため、夜間には追跡機能を停止し、物体データの追加を中止する。夜間であることの検出は、例えば、露光時間に対する画面内平均輝度の関係を活用して実施する。すなわち、露光時間を長くして画面内平均輝度を計測し、平均輝度が閾値以下であれば、夜間と判定する。
(3) Canceling addition of object data due to night driving In the case of lost due to backlighting, tracking processing of a monocular image is often effective even if the distance image is disturbed, but at night, tracking with a monocular image is performed by the light of various surrounding lights. Processing becomes difficult. In order to prevent problems such as false braking due to the failure of tracking processing at night, the tracking function is stopped at night and the addition of object data is stopped. For example, the detection of nighttime is performed by utilizing the relationship between the average luminance in the screen and the exposure time. That is, the exposure time is lengthened and the average luminance within the screen is measured. If the average luminance is equal to or less than the threshold value, it is determined that the night.

(4)追加物体の非選択による物体データ追加中止
後述するように、追跡処理で生成される物体の追跡データは、第1ステレオ処理で検出した物体データに追加され、これらのデータを合わせた中から先行車が抽出・選択される。この追跡処理による追跡物体が先行車に選択されなかった場合、追跡物体は車線外に出たか、または、より近傍に距離画像認識による物体が存在すると判断し、追跡処理による物体の追加は、次のフレーム以降は中止とする。
(4) Object data addition stop by non-selection of additional object As will be described later, the tracking data of the object generated by the tracking process is added to the object data detected by the first stereo process, and these data are combined. The preceding car is extracted and selected from. If the tracking object by this tracking process is not selected as the preceding vehicle, it is determined that the tracking object has gone out of the lane or that there is an object by distance image recognition in the vicinity. The frame after the frame is canceled.

以上により、ステップS7で物体データの追加中止と判断した場合、前述のステップS8で追跡データフラグを「挿入中止」に設定し、ステップS10で物体データから先行車を選択して今回の処理を抜ける。一方、ステップS7で物体データの追加を中止しないと判断した場合には、ステップS7からステップS9へ進んで第1ステレオ処理で検出した物体データに追跡データを追加し、ステップS10で物体データから先行車を選択して処理を抜ける。この場合には、第1ステレオ処理で生成された距離画像認識による検出物体と、追跡処理による追跡物体とを合わせた中から、自車線上の最近距離に存在する物体を先行車として選択することになる。   As described above, when it is determined in step S7 that the addition of object data is to be stopped, the tracking data flag is set to “insertion stop” in step S8 described above, and the preceding vehicle is selected from the object data in step S10, and the current process is exited. . On the other hand, if it is determined in step S7 that the addition of object data is not to be stopped, the process proceeds from step S7 to step S9 to add tracking data to the object data detected in the first stereo process, and in step S10, the object data is preceded. Select a car and exit the process. In this case, the object existing at the closest distance on the own lane is selected as the preceding vehicle from the combination of the detected object by the distance image recognition generated by the first stereo process and the tracked object by the tracking process. become.

その後、ロスト状態が継続している状態から先行車を再捕捉(或いは追跡信頼性が低下)すると、ステップS4の追跡データフラグ参照で「挿入中」となってステップS7へ進み、ステップ7で物体データの追加中止と判断される。そして、ステップS8で追跡データフラグが「挿入中止」に設定され、ステップS10で第1ステレオ処理の物体データによる先行車選択へ復帰する。   Thereafter, when the preceding vehicle is re-captured (or the tracking reliability is lowered) from the state where the lost state is continued, “insertion” is made with reference to the tracking data flag in step S4, and the process proceeds to step S7. It is determined that the addition of data is stopped. In step S8, the tracking data flag is set to “cancel insertion”, and in step S10, the process returns to the selection of the preceding vehicle based on the object data of the first stereo process.

以上の画像処理と並行して、図10に示す先行車追跡処理、図11に示すロスト判定処理が実行される。尚、前述したように、本形態においては、夜間時、先行車追跡処理は停止される。   In parallel with the image processing described above, the preceding vehicle tracking process shown in FIG. 10 and the lost determination process shown in FIG. 11 are executed. As described above, in this embodiment, the preceding vehicle tracking process is stopped at night.

[先行車追跡処理]
図10の先行車追跡処理では、最初のステップS11において、ステレオカメラ2で撮像した左右の元画像データを取得し、テンプレート画像(先行車画像)として適している方の画像を選定して記憶・保存する。画像の選定は、前述したように、(4)式の信頼性パラメータSAD_reliabilityを用いて判定する。
[Previous vehicle tracking process]
In the preceding vehicle tracking process of FIG. 10, in the first step S11, the left and right original image data captured by the stereo camera 2 is acquired, and the image suitable for the template image (the preceding vehicle image) is selected and stored. save. As described above, the selection of an image is determined using the reliability parameter SAD_reliability of the equation (4).

次に、ステップS12へ進み、前回、先行車が有ったか否か(認識されていたか否か)を調べる。その結果、先行車が有った場合には、ステップS13で先行車追跡処理を行う。この先行車追跡処理においては、保存した元画像から先行車に対応する位置を切出し、必要に応じてマッチングの信頼性を評価しながら先行車位置の修正を行うが、計算処理の時間を短縮するために、追跡を行う画像データの間引き処理を行い、間引いてデータ数の少なくなった画像に対して追跡処理を行う。この場合、先行車が近づいたり遠ざかったりすることにより画像上の先行車の大きさが変化するが、大きさが変化しても追跡処理を可能とするため、間引きを行うときの間引き率を調整し、テンプレート画像と先行車の画面上の画素数を概ね一致させる。   Next, it progresses to step S12 and it is investigated whether there was any preceding vehicle last time (whether it was recognized). As a result, if there is a preceding vehicle, a preceding vehicle tracking process is performed in step S13. In this preceding vehicle tracking process, the position corresponding to the preceding vehicle is cut out from the stored original image, and the preceding vehicle position is corrected while evaluating the matching reliability as necessary, but the calculation processing time is reduced. Therefore, thinning processing of image data to be tracked is performed, and tracking processing is performed on an image whose data number is reduced by thinning. In this case, the size of the preceding vehicle on the image changes as the preceding vehicle approaches or moves away. However, in order to enable tracking processing even if the size changes, the thinning rate is adjusted when thinning is performed. Then, the number of pixels on the screen of the template image and the preceding vehicle is made to substantially match.

その後、ステップS14へ進み、先行車のテンプレート画像を用い、ステップS11で取得した左右画像に対して第2測距部7によるステレオ処理を第2ステレオ処理として実施し、距離画像を生成して追跡物体を検出して今回の処理を抜ける。第2ステレオ処理は、前述したように、先行車画像に対応する画像上の位置を残差逐次検定法をにより検索し、先行車領域に対して輝度差分によるステレオマッチングを行う処理であり、逆光によるロスト発生時にも、有効に先行車を追跡することができる。   Thereafter, the process proceeds to step S14, and the stereo process by the second distance measuring unit 7 is performed as the second stereo process on the left and right images acquired in step S11 using the template image of the preceding vehicle, and the distance image is generated and tracked. The object is detected and the current process is exited. As described above, the second stereo process is a process of searching for a position on the image corresponding to the preceding vehicle image by the residual sequential test method, and performing stereo matching by the luminance difference with respect to the preceding vehicle region. It is possible to track the preceding vehicle effectively even when the lost due to.

一方、ステップS12において、前回、先行車が無かった場合には、ステップS12からステップS15へ進み、追跡データフラグを「挿入中止」に設定して今回の処理を抜ける。この「挿入中止」のフラグ設定により、前述の図9の先行車認識処理において、第1ステレオ処理による通常の先行車検出が実施される。   On the other hand, if there is no preceding vehicle in step S12, the process proceeds from step S12 to step S15, the tracking data flag is set to “cancel insertion”, and the current process is exited. With this “insertion stop” flag setting, normal preceding vehicle detection by the first stereo process is performed in the preceding vehicle recognition process of FIG. 9 described above.

尚、第2ステレオ処理で生成した距離画像は、その認識信頼性が評価され、認識信頼性が高ければ、追跡に使用するテンプレート画像を更新し、認識信頼性が低ければ、テンプレート画像に従来のデータを保持したままとする。距離画像認識の信頼性の低下は、例えば、認識物体の幅により評価する。   The distance image generated by the second stereo process is evaluated for its recognition reliability. If the recognition reliability is high, the template image used for tracking is updated. If the recognition reliability is low, the conventional template image is added to the template image. Keep the data retained. The reduction in the reliability of the distance image recognition is evaluated by, for example, the width of the recognized object.

[ロスト判定処理]
次に、図11のロスト判定処理について説明する。このロスト判定処理では、先ず、ステップS21において、ロスト発生を調べるためのフラグを0に初期設定する。このフラグ=0の設定は、ロスト発生を意味している。次いで、ステップS22で、物体の個数をカウントするカウンタkを0に初期設定し、ステップS23へ進む。
[Lost judgment processing]
Next, the lost determination process of FIG. 11 will be described. In this lost determination process, first, in step S21, a flag for checking the occurrence of lost is initialized to 0. Setting this flag = 0 means the occurrence of lost. Next, in step S22, a counter k for counting the number of objects is initialized to 0, and the process proceeds to step S23.

ステップS23では、今回検出した物体の位置Xobj[k]が前回の先行車位置Xtargetに対して横方向で設定値ΔXの範囲内にあり(Xtarget−ΔX<Xobj[k]<Xtarget+ΔX)、且つ距離方向で設定値ΔZの範囲内にある(Xtarget−ΔX<Xobj[k]<Xtarget+ΔX)条件が成立するか否かを調べる。   In step S23, the position Xobj [k] of the object detected this time is within the set value ΔX in the horizontal direction with respect to the previous preceding vehicle position Xtarget (Xtarget−ΔX <Xobj [k] <Xtarget + ΔX), and the distance It is checked whether or not a condition (Xtarget−ΔX <Xobj [k] <Xtarget + ΔX) that is within the set value ΔZ in the direction is satisfied.

そして、ステップS23において、上述の条件が成立せず、前回の先行車近傍に物体が検出されない場合は、ロストとしてステップS25へジャンプし、ステップS25でカウンタkをインクリメントする。一方、上述の条件が成立する場合、すなわち、前回の先行車位置に近い位置に、今回も物体が検出された場合には、ステップS23からステップS24へ進んでフラグを1に設定した後、ステップS25でカウンタkをインクリメントする。   In step S23, if the above condition is not satisfied and no object is detected in the vicinity of the previous preceding vehicle, the process jumps to step S25 as lost and increments the counter k in step S25. On the other hand, if the above condition is satisfied, that is, if an object is detected again at a position close to the previous preceding vehicle position, the process proceeds from step S23 to step S24 and the flag is set to 1. In S25, the counter k is incremented.

ステップS25に続くステップS26では、カウンタkが、判定対象とする物体の個数に達したか否かを調べる。そして、k<物体個数の場合には、ステップS26からステップS23へ戻って次の対象物体についての位置関係を調べ、k≧物体個数の場合、ステップS26からステップS27へ進んでフラグを参照し、フラグが1か否かを調べる。   In step S26 following step S25, it is checked whether or not the counter k has reached the number of objects to be determined. If k <the number of objects, the process returns from step S26 to step S23 to check the positional relationship with respect to the next target object. If k ≧ the number of objects, the process proceeds from step S26 to step S27 to refer to the flag. Check whether the flag is 1 or not.

その結果、フラグが1である場合には、ステップS28で前回の先行車が存在すると判定して今回の処理を抜け、フラグが0の場合、ステップS29で、前回の先行車が消滅(ロスト)したと判定して今回の処理を抜ける。   As a result, if the flag is 1, it is determined in step S28 that the previous preceding vehicle is present and the current process is exited. If the flag is 0, the previous preceding vehicle disappears (lost) in step S29. It is determined that the process has been completed and the current process is exited.

[先行車追従制御処理]
以上のロストが発生した場合、中央制御装置20から警報装置23を介して認識性能低下の警報が出力され、運転者に対して注意を喚起するが、先行車追従制御は継続し、前触れなく追従走行が切れて運転者の対処が遅れることが防止される。また、通常の距離画像認識(第1ステレオ処理による認識)で再度先行車を認識したことを判定した場合にも、認識性能復元の通知をドライバーに対して出力しつつ制御を継続する。次に、図12の先行車追従制御処理について説明する。
[Leading vehicle tracking control process]
When the above loss occurs, the central controller 20 outputs a warning of recognition performance deterioration via the alarm device 23 and alerts the driver, but the preceding vehicle follow-up control continues and follows without any precautions. It is possible to prevent the driver from coping with the delay in driving. Even when it is determined that the preceding vehicle has been recognized again by normal distance image recognition (recognition by the first stereo process), the control is continued while outputting the recognition performance restoration notification to the driver. Next, the preceding vehicle follow-up control process in FIG. 12 will be described.

この先行車追従制御処理では、最初のステップS31において、画像認識によって検出された先行車が有るか否かを調べる。そして、先行車が無い場合には、本処理を終了し、先行車が有る場合、ステップS32へ進み、ステレオ画像認識装置5において第1ステレオ処理による通常の距離画像認識が行われているか、ロスト発生による追跡処理が行われているかを調べる。   In this preceding vehicle follow-up control process, it is checked in the first step S31 whether there is a preceding vehicle detected by image recognition. If there is no preceding vehicle, the present process is terminated. If there is a preceding vehicle, the process proceeds to step S32, and whether or not the normal distance image recognition by the first stereo processing is performed in the stereo image recognition device 5 is lost. Investigate whether the occurrence tracking process is performed.

その結果、通常の距離画像認識がなされている場合には、ステップS33〜S35による制御処理を実行し、追跡処理が行われている場合、ステップS36〜S39の制御処理を実行する。   As a result, when normal distance image recognition is performed, the control process by steps S33 to S35 is executed, and when the tracking process is performed, the control process of steps S36 to S39 is executed.

通常の距離画像認識が行われている場合のステップS33〜S35について説明する。ステップS33では、距離画像認識による先行車の距離・速度データを読込むと、距離データをフィルタ処理し、追従走行で用いる距離データのバラツキを平滑化する。   Steps S33 to S35 when normal distance image recognition is performed will be described. In step S33, when the distance / speed data of the preceding vehicle by the distance image recognition is read, the distance data is filtered, and the variation of the distance data used in the follow-up running is smoothed.

この場合、通常の距離画像認識時のフィルタリングと追跡処理時の距離データのフィルタリングとは、それぞれのフィルタリング特性を変え、通常の距離画像認識時の距離データのバラツキと、追跡処理時の距離データのバラツキとの差を吸収する。例えば、通常の距離画像認識時には、5回の移動平均を用いて距離データをフィルタリングし、追跡処理時には、10回の移動平均を用いて距離データをフィルタリングする。   In this case, filtering at the time of normal distance image recognition and filtering of distance data at the time of tracking processing change the respective filtering characteristics, and dispersion of distance data at the time of normal distance image recognition and distance data at the time of tracking processing Absorbs the difference from variation. For example, distance data is filtered using a moving average of 5 times during normal distance image recognition, and distance data is filtered using a moving average of 10 times during tracking processing.

次に、ステップS34では、先行車の距離・速度データから自車の目標減速度とスロットル開度を計算し、ステップS35で、目標減速度、スロットル開度に、それぞれリミッタをかけ、ブレーキ制御装置22,エンジン制御装置21に制御指令を出力する。これらのリミッタは、認識性能低下時に対処するためのものであり、目標減速度にリミッタをかけて目標減速の最大値を制限し、緩ブレーキとすることにより、誤認識によるブレーキ不時作動の影響を小さくし、また、スロットル開度に対してリミッタをかけることにより、加速度の最大値を制限して誤認識による加速の影響を小さくする。   Next, in step S34, the target deceleration and throttle opening of the host vehicle are calculated from the distance / speed data of the preceding vehicle, and in step S35, the target deceleration and the throttle opening are respectively limited, and the brake control device. 22, output a control command to the engine control device 21. These limiters are for coping with the recognition performance degradation. Limiting the target deceleration to limit the maximum value of the target deceleration and setting the slow brake, the effect of the emergency operation of the brake due to misrecognition. By limiting the throttle opening, the maximum acceleration value is limited to reduce the effect of acceleration due to misrecognition.

この場合においても、通常の距離画像認識時と追跡処理時とは、認識性能の差に応じて、それぞれのリミッタ特性を変え、例えば、通常の距離画像認識時には、目標減速度を0.2GMAXとし、追跡処理時には、目標減速度を0.1GMAXとする。   Even in this case, during normal distance image recognition and tracking processing, each limiter characteristic is changed according to the difference in recognition performance. For example, during normal distance image recognition, the target deceleration is set to 0.2 GMAX. During the tracking process, the target deceleration is set to 0.1 GMAX.

次に、ステップS36〜S39の追跡処理について説明する。ステップS36では、追跡処理で得られた先行車の距離・速度データを読込み、距離データをフィルタ処理し、追従走行で用いる距離データのバラツキを平滑化する(例えば、10回の移動平均によるフィルタリング)。   Next, the tracking process in steps S36 to S39 will be described. In step S36, the distance / speed data of the preceding vehicle obtained by the tracking process is read, the distance data is filtered, and the variation of the distance data used for the follow-up driving is smoothed (for example, filtering by 10 moving averages). .

続くステップS37では、先行車の距離・速度データから自車の目標減速度とスロットル開度を計算し、ステップS38で、目標減速度、スロットル開度に、それぞれ、追跡処理用のリミッタをかける。前述したように、追跡処理時には、認識性能が相対的に低くなるため、通常の距離画像認識時よりもリミッタの効果を強くし、例えば、目標減速度のリミッタを0.1GMAXとする。   In the subsequent step S37, the target deceleration and throttle opening of the host vehicle are calculated from the distance / speed data of the preceding vehicle, and in step S38, the target deceleration and the throttle opening are respectively applied with limiters for tracking processing. As described above, since the recognition performance is relatively low during the tracking process, the effect of the limiter is made stronger than that during normal distance image recognition. For example, the target deceleration limiter is set to 0.1 GMAX.

ステップS38で目標減速度、スロットル開度にリミッタをかけ、ブレーキ制御装置22,エンジン制御装置21に制御指令を出力した後は、ステップS39で追跡制御の制御中止を判断する。この制御中止の判断は、例えば、運転者に対して警報を発していても或時間が経過すると忘れる可能性を考慮し、認識性能低下が一定時間継続した場合、制御中止と判断して制御を打ち切る。但し、減速をかけている最中は、減速度が閾値より小さいときのみ制御を打ち切る。   After limiting the target deceleration and throttle opening in step S38 and outputting control commands to the brake control device 22 and the engine control device 21, it is determined in step S39 that the tracking control is stopped. For example, the determination of the stop of the control is performed in consideration of the possibility of forgetting the driver for a certain period of time even if a warning is issued. abort. However, during deceleration, control is discontinued only when the deceleration is smaller than the threshold value.

以上のように、本実施の形態においては、ステレオカメラ2で撮像した一対の左右画像の感度バランスが崩れ、通常のステレオ処理が困難な状況となって物体をロストしても、左右画像の一方とテンプレート画像とから物体の追跡を行い、その追跡結果に基づくステレオ処理に切換えるため、継続的に距離情報を取得することができ、車両制御に適用した場合にも、制御性を向上するとともに信頼性を向上することができる。   As described above, in this embodiment, the sensitivity balance between the pair of left and right images captured by the stereo camera 2 is lost, and even if the object is lost due to a situation in which normal stereo processing is difficult, one of the left and right images is lost. Since the object is tracked from the template image and switched to the stereo processing based on the tracking result, distance information can be continuously acquired, and even when applied to vehicle control, controllability is improved and reliability is improved. Can be improved.

しかも、通常のステレオ処理で物体検出ができていたときに物体の画像を保持しておき、これを元画像上で追跡するので演算負荷が小さく、誤追跡を回避して信頼性の高いシステムを構築することができる。   In addition, when an object is detected by normal stereo processing, an object image is stored and tracked on the original image, so the calculation load is small and a highly reliable system is avoided by avoiding mistracking. Can be built.

先行車追従制御システムの構成図Configuration diagram of the preceding vehicle tracking control system 物体検出装置のブロック図Block diagram of object detection device 逆光時の左右画像の輝度分布を模式的に示す説明図Explanatory diagram schematically showing the luminance distribution of the left and right images during backlighting 輝度差分後の左右画像の輝度分布を模式的に示す説明図Explanatory diagram schematically showing the luminance distribution of the left and right images after luminance difference 追跡破綻判定の説明図Illustration of tracking failure judgment 先行車位置修正における左右反転の概念を示す説明図Explanatory drawing showing the concept of left-right reversal in leading vehicle position correction 先行車位置の修正を示す説明図Explanatory drawing showing the correction of the preceding vehicle position 先行車位置の修正結果を示す説明図Explanatory drawing showing the correction result of the preceding vehicle position 先行車認識処理のフローチャートFlow chart of preceding vehicle recognition process 先行車追跡処理のフローチャートFlow chart of preceding vehicle tracking process ロスト判定処理のフローチャートLost determination process flowchart 先行車追従制御処理のフローチャートFlow chart of preceding vehicle following control process

符号の説明Explanation of symbols

1 車両
2 ステレオカメラ
5 ステレオ画像認識装置
6 第1測距部
7 第2測距部
8 追跡処理部
9 測距選択部
10 認識処理部
DESCRIPTION OF SYMBOLS 1 Vehicle 2 Stereo camera 5 Stereo image recognition apparatus 6 1st ranging part 7 2nd ranging part 8 Tracking process part 9 Distance selection part 10 Recognition process part

Claims (18)

一対の画像を取得するステレオカメラと、
上記一対の画像同士で輝度値が互いに対応する領域を探索して上記一対の画像に写しだされる物体の距離情報を演算する第1の距離情報演算手段と、
上記一対の画像のそれぞれにおける所定の画素について隣接する画素との輝度差を算出するとともに、該輝度差が上記一対の画像同士で対応する領域を探索して上記物体の距離情報を演算する第2の距離情報演算手段と、
上記第1の距離情報演算手段による上記物体をロストした際、上記第2の距離情報演算手段によって演算される距離情報を選択する選択手段と
を備えることを特徴とする物体検出装置。
A stereo camera that acquires a pair of images;
A first distance information calculating means for calculating a distance information of an object shown in the pair of images by searching a region in which the luminance values correspond to each other in the pair of images;
Calculating a luminance difference between adjacent pixels of a predetermined pixel in each of the pair of images and calculating a distance information of the object by searching for a region corresponding to the luminance difference between the pair of images; Distance information calculation means,
An object detection apparatus comprising: selection means for selecting distance information calculated by the second distance information calculation means when the object is lost by the first distance information calculation means.
上記第2の距離情報演算算手段は、
上記一対の画像の何れかとテンプレート画像との所定領域における互いの相関を求め、該相関に基づいて同一物体を追跡した追跡処理で得られる領域で上記一対の画像同士の対応する領域を探索することを特徴とする請求項1記載の物体検出装置。
The second distance information calculation means is:
Finding a correlation between a pair of images and a template image in a predetermined region, and searching for a corresponding region between the pair of images in a region obtained by tracking processing that tracks the same object based on the correlation. The object detection apparatus according to claim 1.
上記テンプレート画像として、
前回撮像した上記一対の画像との上記相関の大きい方の画像を選定することを特徴とする請求項2記載の物体検出装置。
As the above template image,
The object detection apparatus according to claim 2, wherein an image having a larger correlation with the pair of images captured last time is selected.
上記相関を、残差逐次検定法により求めることを特徴とする請求項2又は3記載の物体検出装置。   4. The object detection apparatus according to claim 2, wherein the correlation is obtained by a residual successive test method. 上記相関を、相互相関係数により求めることを特徴とする請求項2又は3記載の物体検出装置。   4. The object detection apparatus according to claim 2, wherein the correlation is obtained from a cross-correlation coefficient. 前回のフレーム処理で算出した物体の近傍の設定範囲内に、今回のフレーム処理で物体が検出されないとき、上記ロストが発生したと判断することを特徴とする請求項1記載の物体検出装置。   2. The object detection apparatus according to claim 1, wherein when the object is not detected by the current frame processing within the set range near the object calculated by the previous frame processing, it is determined that the lost has occurred. 上記相関に基づく評価パラメータを用いて上記追跡処理の信頼性を判断することを特徴とする請求項2記載の物体検出装置。   The object detection apparatus according to claim 2, wherein the reliability of the tracking process is determined using an evaluation parameter based on the correlation. 上記追跡処理の領域を、上記物体の形状の対称性を利用して修正することを特徴とする請求項2記載の物体検出装置。   The object detection apparatus according to claim 2, wherein the tracking processing area is corrected using symmetry of the shape of the object. 上記物体の候補領域の一部を取り出して反転し、反転した画像を元の画像上でマッチングして上記対称性のある中心位置を特定することを特徴とする請求項8記載の物体検出装置。   9. The object detection apparatus according to claim 8, wherein a part of the candidate region of the object is extracted and inverted, and the inverted image is matched with the original image to identify the symmetrical center position. 上記追跡処理の信頼性を、フレーム間の上記物体の位置の分散値によって判断することを特徴とする請求項2記載の物体検出装置。   The object detection apparatus according to claim 2, wherein the reliability of the tracking process is determined by a variance value of the position of the object between frames. 上記追跡処理の信頼性を、フレーム間の上記物体の上記距離情報の分散値によって判断することを特徴とする請求項2記載の物体検出装置。   The object detection apparatus according to claim 2, wherein the reliability of the tracking process is determined by a variance value of the distance information of the object between frames. 上記追跡処理の信頼性を、同一位置での上記距離情報における異なるデータの個数によって判断することを特徴とする請求項2記載の物体検出装置。   3. The object detection apparatus according to claim 2, wherein the reliability of the tracking process is determined by the number of different data in the distance information at the same position. 上記追跡処理を、画像データを間引いた画像に対して行うことを特徴とする請求項2記載の物体検出装置。   The object detection apparatus according to claim 2, wherein the tracking process is performed on an image obtained by thinning image data. 上記画像データの間引き率を調整し、上記テンプレート画像と上記物体の画面上の画素数を概ね一致させることを特徴とする請求項13記載の物体検出装置。   The object detection apparatus according to claim 13, wherein the thinning rate of the image data is adjusted so that the number of pixels on the screen of the template image and the object is approximately the same. 上記テンプレート画像を、上記距離情報の信頼性に応じて更新することを特徴とする請求項2記載の物体検出装置。   The object detection apparatus according to claim 2, wherein the template image is updated according to the reliability of the distance information. 上記距離情報の信頼性を、認識物体の幅によって評価することを特徴とする請求項2記載の物体検出装置。   The object detection apparatus according to claim 2, wherein the reliability of the distance information is evaluated based on a width of the recognized object. 上記第1の距離情報演算手段によって演算される距離情報と、上記第2の距離情報演算手段によって演算される距離情報とに対して、互いに特性の異なるフィルタ処理を行い、データのバラツキの差を吸収することを特徴とする請求項1記載の物体検出装置。   The distance information calculated by the first distance information calculating means and the distance information calculated by the second distance information calculating means are subjected to filtering processes having different characteristics from each other, and the difference in data variation is determined. The object detection apparatus according to claim 1, wherein the object detection apparatus absorbs the object. 上記距離情報に基づいて車両の先行車追従制御を実行し、上記第1の距離情報演算手段によって演算される距離情報に基づく制御量と、上記第2の距離情報演算手段によって演算される距離情報に基づく制御量とに対して、認識性能の差に応じて特性の異なるリミッタをかけることを特徴とする請求項1記載の物体検出装置。   The preceding vehicle follow-up control of the vehicle is executed based on the distance information, the control amount based on the distance information calculated by the first distance information calculating means, and the distance information calculated by the second distance information calculating means The object detection apparatus according to claim 1, wherein a limiter having different characteristics is applied to the control amount based on the difference according to the difference in recognition performance.
JP2006340293A 2006-12-18 2006-12-18 Object detector Pending JP2008151659A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006340293A JP2008151659A (en) 2006-12-18 2006-12-18 Object detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006340293A JP2008151659A (en) 2006-12-18 2006-12-18 Object detector

Publications (1)

Publication Number Publication Date
JP2008151659A true JP2008151659A (en) 2008-07-03

Family

ID=39653971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006340293A Pending JP2008151659A (en) 2006-12-18 2006-12-18 Object detector

Country Status (1)

Country Link
JP (1) JP2008151659A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012207468A (en) * 2011-03-30 2012-10-25 Lixil Corp Automatic water supply equipment
JP2013186902A (en) * 2012-03-07 2013-09-19 Ricoh Co Ltd Vehicle detection method and apparatus
JP2014522589A (en) * 2011-05-31 2014-09-04 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method for defining the pitching of a camera incorporated in a vehicle and method for controlling the light emission of at least one headlight of a vehicle
WO2015119301A1 (en) * 2014-02-05 2015-08-13 Ricoh Company, Limited Image processing device, device control system, and computer-readable storage medium
JP2016095229A (en) * 2014-11-14 2016-05-26 株式会社リコー Parallax value derivation device, movable body, robot, parallax value production method, and program
CN106210556A (en) * 2016-08-05 2016-12-07 深圳市金立通信设备有限公司 A kind of photographic method and terminal
JP2018071979A (en) * 2016-10-24 2018-05-10 キヤノン株式会社 Distance detector and distance detection method
JP2020204842A (en) * 2019-06-14 2020-12-24 株式会社デンソー Information processing device and drive supporting system
US20210284151A1 (en) * 2020-03-11 2021-09-16 Subaru Corporation Vehicle exterior environment recognition apparatus

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59197816A (en) * 1983-04-25 1984-11-09 Nippon Denso Co Ltd Inter-vehicle distance detecting device
JPH04313014A (en) * 1991-04-09 1992-11-05 Mitsubishi Electric Corp Car interval inspecting device
JPH06265322A (en) * 1993-03-11 1994-09-20 Canon Inc Method for detecting parallax error from a plurality of images
JPH07301523A (en) * 1994-05-06 1995-11-14 Nippon Soken Inc Distance measuring instrument
JPH0894353A (en) * 1994-09-26 1996-04-12 Yazaki Corp Around vehicle monitoring device
JPH09265538A (en) * 1996-03-29 1997-10-07 Matsushita Electric Works Ltd Automatic tracking device
JPH10143799A (en) * 1996-11-13 1998-05-29 Nissan Motor Co Ltd Preceding vehicle following device
JPH1151644A (en) * 1997-08-05 1999-02-26 Honda Motor Co Ltd Distance measuring instrument for vehicle
JPH11252587A (en) * 1998-03-03 1999-09-17 Matsushita Electric Ind Co Ltd Object tracking device
JP2000207695A (en) * 1999-01-13 2000-07-28 Fuji Heavy Ind Ltd Device for monitoring outside of vehicle
JP2002023045A (en) * 2000-07-12 2002-01-23 Canon Inc Measuring device and camera
JP2002323301A (en) * 2001-04-26 2002-11-08 Fujitsu Ltd Object position measurement device
JP2004112144A (en) * 2002-09-17 2004-04-08 Nissan Motor Co Ltd Front car tracking system and method for tracking front car
JP2005038407A (en) * 2003-07-01 2005-02-10 Nissan Motor Co Ltd Apparatus of identifying outside world for vehicle
JP2005086626A (en) * 2003-09-10 2005-03-31 Matsushita Electric Ind Co Ltd Wide area monitoring device
JP2006012013A (en) * 2004-06-29 2006-01-12 Seiwa Electric Mfg Co Ltd Mobile object tracking device

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59197816A (en) * 1983-04-25 1984-11-09 Nippon Denso Co Ltd Inter-vehicle distance detecting device
JPH04313014A (en) * 1991-04-09 1992-11-05 Mitsubishi Electric Corp Car interval inspecting device
JPH06265322A (en) * 1993-03-11 1994-09-20 Canon Inc Method for detecting parallax error from a plurality of images
JPH07301523A (en) * 1994-05-06 1995-11-14 Nippon Soken Inc Distance measuring instrument
JPH0894353A (en) * 1994-09-26 1996-04-12 Yazaki Corp Around vehicle monitoring device
JPH09265538A (en) * 1996-03-29 1997-10-07 Matsushita Electric Works Ltd Automatic tracking device
JPH10143799A (en) * 1996-11-13 1998-05-29 Nissan Motor Co Ltd Preceding vehicle following device
JPH1151644A (en) * 1997-08-05 1999-02-26 Honda Motor Co Ltd Distance measuring instrument for vehicle
JPH11252587A (en) * 1998-03-03 1999-09-17 Matsushita Electric Ind Co Ltd Object tracking device
JP2000207695A (en) * 1999-01-13 2000-07-28 Fuji Heavy Ind Ltd Device for monitoring outside of vehicle
JP2002023045A (en) * 2000-07-12 2002-01-23 Canon Inc Measuring device and camera
JP2002323301A (en) * 2001-04-26 2002-11-08 Fujitsu Ltd Object position measurement device
JP2004112144A (en) * 2002-09-17 2004-04-08 Nissan Motor Co Ltd Front car tracking system and method for tracking front car
JP2005038407A (en) * 2003-07-01 2005-02-10 Nissan Motor Co Ltd Apparatus of identifying outside world for vehicle
JP2005086626A (en) * 2003-09-10 2005-03-31 Matsushita Electric Ind Co Ltd Wide area monitoring device
JP2006012013A (en) * 2004-06-29 2006-01-12 Seiwa Electric Mfg Co Ltd Mobile object tracking device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012207468A (en) * 2011-03-30 2012-10-25 Lixil Corp Automatic water supply equipment
JP2014522589A (en) * 2011-05-31 2014-09-04 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method for defining the pitching of a camera incorporated in a vehicle and method for controlling the light emission of at least one headlight of a vehicle
JP2013186902A (en) * 2012-03-07 2013-09-19 Ricoh Co Ltd Vehicle detection method and apparatus
WO2015119301A1 (en) * 2014-02-05 2015-08-13 Ricoh Company, Limited Image processing device, device control system, and computer-readable storage medium
US10489664B2 (en) 2014-02-05 2019-11-26 Ricoh Company, Limited Image processing device, device control system, and computer-readable storage medium
JP2016095229A (en) * 2014-11-14 2016-05-26 株式会社リコー Parallax value derivation device, movable body, robot, parallax value production method, and program
CN106210556A (en) * 2016-08-05 2016-12-07 深圳市金立通信设备有限公司 A kind of photographic method and terminal
JP2018071979A (en) * 2016-10-24 2018-05-10 キヤノン株式会社 Distance detector and distance detection method
JP2020204842A (en) * 2019-06-14 2020-12-24 株式会社デンソー Information processing device and drive supporting system
JP7196781B2 (en) 2019-06-14 2022-12-27 株式会社デンソー Information processing device and driving support system
US20210284151A1 (en) * 2020-03-11 2021-09-16 Subaru Corporation Vehicle exterior environment recognition apparatus
US11748967B2 (en) * 2020-03-11 2023-09-05 Subaru Corporation Vehicle exterior environment recognition apparatus

Similar Documents

Publication Publication Date Title
JP2008151659A (en) Object detector
EP2919197B1 (en) Object detection device and object detection method
JP5421072B2 (en) Approaching object detection system
US10246038B2 (en) Object recognition device and vehicle control system
JP4753765B2 (en) Obstacle recognition method
EP2928178B1 (en) On-board control device
CN103359119B (en) Drive assistance device
US11087146B2 (en) Lane-line recognizing apparatus
JP6158779B2 (en) Image processing device
JP4556798B2 (en) Image processing device
JP2008039491A (en) Stereo image processing apparatus
JP4937933B2 (en) Outside monitoring device
JP5054612B2 (en) Approaching object detection device and approaching object detection method
JP2003098424A (en) Range finder based on image processing
JP6722084B2 (en) Object detection device
US10853692B2 (en) Vicinity supervising device and method for supervising vicinity of vehicle
JP6204844B2 (en) Vehicle stereo camera system
US20230169776A1 (en) Driver assistance apparatus, a vehicle, and a method of controlling the same
JP2017102634A (en) Image processing apparatus and image processing system
JP2014067320A (en) Stereo camera device
WO2019013253A1 (en) Detection device
US9430707B2 (en) Filtering device and environment recognition system
JP6429101B2 (en) Image determination apparatus, image processing apparatus, image determination program, image determination method, moving object
JP6877636B2 (en) In-vehicle camera device
JP4204818B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120529