JP4558758B2 - Obstacle recognition device for vehicles - Google Patents

Obstacle recognition device for vehicles Download PDF

Info

Publication number
JP4558758B2
JP4558758B2 JP2007122473A JP2007122473A JP4558758B2 JP 4558758 B2 JP4558758 B2 JP 4558758B2 JP 2007122473 A JP2007122473 A JP 2007122473A JP 2007122473 A JP2007122473 A JP 2007122473A JP 4558758 B2 JP4558758 B2 JP 4558758B2
Authority
JP
Japan
Prior art keywords
vehicle
obstacle
output
image processing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007122473A
Other languages
Japanese (ja)
Other versions
JP2008276689A (en
Inventor
知子 今田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2007122473A priority Critical patent/JP4558758B2/en
Publication of JP2008276689A publication Critical patent/JP2008276689A/en
Application granted granted Critical
Publication of JP4558758B2 publication Critical patent/JP4558758B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

この発明は、車両に搭載され、自車に対する周辺物体の相対位置や相対速度を計測するセンサと、周辺を撮像する画像センサを用いて、障害物を認識する車両用障害物認識装置に関するものである。   The present invention relates to an obstacle recognition device for a vehicle that is mounted on a vehicle and recognizes an obstacle using a sensor that measures the relative position and relative speed of a surrounding object with respect to the vehicle and an image sensor that captures the periphery. is there.

車両に搭載される車両の自動走行制御装置や衝突被害軽減装置などでは、自車に対する周辺物体の相対位置や相対速度を計測するセンサ単体で構成された従来のシステムの性能向上のため、画像センサとフュージョンするものが増えてきている。
このようなシステムでは、両センサの出力する結果が異なるケースが発生するため、従来のシステムの性能を維持しつつ、フュージョンによる効果を得ることが必要である。
特に、安価で構成可能な単眼カメラを画像センサとして用いるものでは、立体物の識別が困難であるため、フュージョンに関する技術は重要になってくる。
In order to improve the performance of conventional systems that consist of a single sensor that measures the relative position and relative speed of surrounding objects relative to the host vehicle, such as an automatic travel control device and collision damage mitigation device mounted on a vehicle, an image sensor There is an increasing number of fusions.
In such a system, there are cases where the results output by the two sensors are different. Therefore, it is necessary to obtain the effect of fusion while maintaining the performance of the conventional system.
In particular, when a monocular camera that can be configured at low cost is used as an image sensor, it is difficult to identify a three-dimensional object.

自車に対する周辺物体の相対位置や相対速度を計測するセンサと、単眼カメラとのフュージョン技術に関するものには、例えば、特許文献1に示すように、レーザーレーダの検出結果による車両候補群と、カメラの先行車認識結果による先行車両に相当する矩形領域を比較し、レーザーレーダの検出結果による車両候補群と、単眼カメラの先行車認識結果による先行車両に相当する矩形領域が重なる部分を先行車の存在する領域と判断するものがある。
または、特許文献2に示すように、レーザーレーダで検出した車両幅と、カメラの先行車認識により検出した車両幅のうち、短い方を選択するものがある。
For example, as disclosed in Patent Document 1, a vehicle candidate group based on a detection result of a laser radar, a camera, and the like relating to a fusion technique between a sensor for measuring the relative position and relative speed of a peripheral object with respect to the own vehicle and a monocular camera. The rectangular area corresponding to the preceding vehicle based on the preceding vehicle recognition result of the preceding vehicle is compared, and the portion where the vehicle candidate group based on the detection result of the laser radar overlaps the rectangular area corresponding to the preceding vehicle based on the preceding vehicle recognition result of the monocular camera is Some are judged to exist.
Or as shown in patent document 2, there exists a thing which selects the shorter one among the vehicle width detected by the laser radar, and the vehicle width detected by the preceding vehicle recognition of the camera.

特開平08−329393号公報(第2〜3頁、図1)Japanese Patent Laid-Open No. 08-329393 (pages 2 and 3, FIG. 1) 特開2006−240454号公報(第5〜11頁、図1)JP-A-2006-240454 (pages 5-11, FIG. 1)

しかしながら、特許文献1、2では、単眼カメラが立体物を認識できないために、物体同士が重なった場合や、対象が停止物である場合の検出が非常に困難で、誤検出を起こしやすいという問題がある。
このため、折角、単眼カメラシステムを加味しても、レーザーレーダやミリ波レーダなどのセンサ単体で構成するシステムに対し、衝突被害軽減装置などにおいては、制御介入が適切に行われない場合があり、不要な制御介入(誤作動)が発生する場合がある。
また、特許文献2によれば、常に、レーザーレーダで検出した車両幅とカメラの先行車認識により検出した車両幅のうち、短い方を選択するために、カメラによる検出結果が誤った場合で、レーザーレーダが正しく検出しているような場合(例えば、カメラが後方ウインドウやナンバープレートなど車両の一部をエッジとして選択している場合)に、制御介入が遅れる可能性がある。
However, in Patent Documents 1 and 2, since a monocular camera cannot recognize a three-dimensional object, it is very difficult to detect when objects overlap each other or when a target is a stationary object, and erroneous detection is likely to occur. There is.
For this reason, even when taking into account turning points and monocular camera systems, control intervention may not be performed properly in collision damage mitigation devices, etc., compared to systems consisting of single sensors such as laser radar and millimeter wave radar. Unnecessary control intervention (malfunction) may occur.
Further, according to Patent Document 2, in order to select the shorter one of the vehicle width detected by the laser radar and the vehicle width detected by the preceding vehicle recognition of the camera, When the laser radar is correctly detecting (for example, when the camera selects a part of the vehicle such as a rear window or a license plate as an edge), the control intervention may be delayed.

この発明は、上述のような課題を解決するためになされたものであり、自車の周辺の物体の相対位置や相対速度を計測するセンサと、単眼カメラとを用いる場合にも、障害物を認識することができる車両用障害物認識装置を得ることを目的にしている。   The present invention has been made in order to solve the above-described problems. Even when a sensor for measuring the relative position or relative speed of an object around the own vehicle and a monocular camera are used, an obstacle is removed. An object of the present invention is to obtain an obstacle recognition device for a vehicle that can be recognized.

この発明に係わる車両用障害物認識装置においては、車両に搭載され、車両に対する障害物を認識する車両用障害物認識装置において、車両の周辺の物体を検知する検知センサ、この検知センサの出力に基づいて、車両と物体との相対位置および相対速度を演算する物体情報演算手段、車両の周辺画像を撮像する画像センサ、この画像センサにより撮像された画像を取得する画像取得手段、物体情報演算手段の出力に基づき、画像取得手段によって取得された画像を処理する画像処理手段、車両の運転状態を検出する車両情報取得手段、物体情報演算手段及び車両情報取得手段の出力により、物体が車両の障害となる可能性を判定する障害物判定手段、及び物体情報演算手段の出力に基づき、画像処理手段の出力が有効かどうかを判定する有効性判定手段を備え、障害物判定手段は、有効性判定手段の出力に応じて、画像処理手段の出力を障害物の判定に用いるとともに、有効性判定手段は、物体情報演算手段の出力に基づき、物体の走行状態を推定する走行状態推定手段を有し、走行状態推定手段により、物体の走行状態として、車両の先行物体のさらに前方の物体の一部が検出されている状態であると推定された場合には、有効でないと判定するものである。 In the vehicle obstacle recognition device according to the present invention, the vehicle obstacle recognition device that is mounted on a vehicle and recognizes an obstacle against the vehicle, a detection sensor that detects an object around the vehicle, and an output of the detection sensor. Based on object information calculating means for calculating the relative position and relative speed between the vehicle and the object, an image sensor for picking up an image around the vehicle, an image acquiring means for acquiring an image picked up by this image sensor, and an object information calculating means The image processing means for processing the image acquired by the image acquisition means, the vehicle information acquisition means for detecting the driving state of the vehicle, the object information calculation means, and the output of the vehicle information acquisition means determining obstacle determining means likely to be, and on the basis of the output of the object information calculating means, determining chromatic whether output is enabled or the image processing unit Comprising sex determination hand stage, the obstacle determining unit, in accordance with the output of the validity determining means, with using the output of the image processing means for determination of the obstacle, the validity determining means, the output of the object information calculating means And a traveling state estimation unit that estimates the traveling state of the object, and the traveling state estimation unit detects a part of the object further ahead of the preceding object of the vehicle as the traveling state of the object. If it is estimated, it is determined that it is not effective .

この発明は、以上説明したように、車両に搭載され、車両に対する障害物を認識する車両用障害物認識装置において、車両の周辺の物体を検知する検知センサ、この検知センサの出力に基づいて、車両と物体との相対位置および相対速度を演算する物体情報演算手段、車両の周辺画像を撮像する画像センサ、この画像センサにより撮像された画像を取得する画像取得手段、物体情報演算手段の出力に基づき、画像取得手段によって取得された画像を処理する画像処理手段、車両の運転状態を検出する車両情報取得手段、物体情報演算手段及び車両情報取得手段の出力により、物体が車両の障害となる可能性を判定する障害物判定手段、及び物体情報演算手段の出力に基づき、画像処理手段の出力が有効かどうかを判定する有効性判定手段を備え、障害物判定手段は、有効性判定手段の出力に応じて、画像処理手段の出力を障害物の判定に用いるとともに、有効性判定手段は、物体情報演算手段の出力に基づき、物体の走行状態を推定する走行状態推定手段を有し、走行状態推定手段により、物体の走行状態として、車両の先行物体のさらに前方の物体の一部が検出されている状態であると推定された場合には、有効でないと判定するので、検知センサ単体による検知性能は維持しつつ、画像処理手段の利用が有効なときの検知性能を高めるとともに、画像処理手段の利用が適切でないときに画像処理手段の出力を用いることによる誤動作を低減することができる。

As described above, the present invention is a vehicle obstacle recognition device that is mounted on a vehicle and recognizes an obstacle against the vehicle, based on a detection sensor that detects an object around the vehicle, based on the output of the detection sensor, Object information calculation means for calculating the relative position and relative speed between the vehicle and the object, an image sensor for picking up an image around the vehicle, an image acquisition means for acquiring an image picked up by the image sensor, and an output of the object information calculation means Based on the output of the image processing means for processing the image acquired by the image acquisition means, the vehicle information acquisition means for detecting the driving state of the vehicle, the object information calculation means, and the output of the vehicle information acquisition means, the object may become an obstacle to the vehicle. determining obstacle determining means sex, and on the basis of the output of the object information calculating means, Bei validity determination means to determine whether the output of the image processing means is enabled , The obstacle determining unit, in accordance with the output of the validity determining means, with using the output of the image processing means for determination of the obstacle, the validity determining means based on the output of the object information calculating means, the object traveling state of When the travel state estimation means estimates that a part of the object further ahead of the preceding object of the vehicle is detected as the travel state of the object by the travel state estimation means since judged to be invalid, while maintaining detection performance by the detection sensor alone, to increase the detection performance when use of the image processing means is enabled, the output of the image processing means when the use of the image processing unit is not appropriate Malfunctions caused by the use of can be reduced.

実施の形態1.
以下、図面を参照しながら、この発明の実施の形態1に係る車両用障害物認識装置について説明する。
図1は、この発明の実施の形態1による車両用障害物認識装置の概略構成を示すブロック図である。
図1において、車両用障害物認識装置100は、ミリ波レーダ110、カメラ120、CPU130、警報装置140、自動制御装置150、車速センサ160、ヨーレートセンサ170から構成される。
ミリ波レーダ110(検知センサ)は、ミリ波レーダの周辺物体からの反射波を受信して、自車前方方向に存在する車両、ガードレール等の障害物を検出する。
カメラ120(映像センサ)は、自車前方を撮像する単眼カメラである。
車速センサ160、ヨーレートセンサ170は、自車の車速、ヨーレートを検出する。
なお、ここでは、2センサのみを記載したが、ウィンカやハンドル角など、自車の挙動を判定するのに必要なその他のセンサを用いても良い。
警報装置140は、CPU130からの指令等により、自車の障害となる障害物が存在することを運転者に知らせるための警報を発生する。ここでは、警報装置としたが、表示装置で構成してもよい。
自動制御装置150は、CPU130からの指令等により、例えば、ブレーキ制御、スロットル制御、ATシフト制御等の制御信号を出力する。
Embodiment 1 FIG.
Hereinafter, the vehicle obstacle recognition apparatus according to Embodiment 1 of the present invention will be described with reference to the drawings.
1 is a block diagram showing a schematic configuration of a vehicle obstacle recognition apparatus according to Embodiment 1 of the present invention.
In FIG. 1, the vehicle obstacle recognition device 100 includes a millimeter wave radar 110, a camera 120, a CPU 130, an alarm device 140, an automatic control device 150, a vehicle speed sensor 160, and a yaw rate sensor 170.
The millimeter wave radar 110 (detection sensor) receives reflected waves from surrounding objects of the millimeter wave radar and detects obstacles such as vehicles and guardrails existing in the forward direction of the host vehicle.
The camera 120 (video sensor) is a monocular camera that images the front of the vehicle.
The vehicle speed sensor 160 and the yaw rate sensor 170 detect the vehicle speed and yaw rate of the host vehicle.
Although only two sensors are described here, other sensors necessary for determining the behavior of the vehicle, such as a blinker and a steering wheel angle, may be used.
The alarm device 140 generates an alarm for notifying the driver that there is an obstacle that becomes an obstacle of the host vehicle, based on a command from the CPU 130 or the like. Here, although it was set as the alarm device, you may comprise with a display apparatus.
The automatic control device 150 outputs control signals such as brake control, throttle control, and AT shift control, for example, according to commands from the CPU 130.

CPU130は、ミリ波レーダ110からの物体情報を演算する物体情報演算手段131と、カメラ120によって撮像された画像を取得する画像取得手段132と、車速センサ160及びヨーレートセンサ170からの車両情報(車両の運転状態を示す情報)を取得する車両情報取得手段133と、物体情報演算手段131及び画像取得手段132及び車両情報取得手段133によって取得された情報により画像を処理する画像処理手段134と、物体情報演算手段131及び車両情報取得手段133及び画像処理手段134からの出力情報により障害物を判定する障害物判定手段135と、警報装置 140に警報を出力する警報手段136と、判定された障害物を回避する障害物回避手段137と、物体情報の有効性を判断する有効性判断手段138を有している。
なお、1つのCPU130で、すべての処理を実施することとしたが、画像取得手段132、画像処理手段134は、カメラ120内に含めるか、もしくは専用の装置を設ける構成としても良い。また、物体情報演算手段131は、ミリ波レーダ110内に含めるか、もしくは専用の装置を設ける構成としても良い。
また、ミリ波レーダ110に代えて、レーザーレーダを用いる構成としても良い。
The CPU 130 includes object information calculation means 131 that calculates object information from the millimeter wave radar 110, image acquisition means 132 that acquires an image captured by the camera 120, and vehicle information (vehicles) from the vehicle speed sensor 160 and the yaw rate sensor 170. Vehicle information acquisition means 133 that acquires information on the driving state of the vehicle), image processing means 134 that processes an image with information acquired by the object information calculation means 131, image acquisition means 132, and vehicle information acquisition means 133, and object Obstacle determination means 135 that determines an obstacle based on output information from the information calculation means 131, vehicle information acquisition means 133, and image processing means 134, alarm means 136 that outputs an alarm to the alarm device 140, and the determined obstacle Obstacle avoiding means 137 for avoiding the object and the validity judgment for judging the validity of the object information A cutting means 138 is provided.
Although all processing is performed by one CPU 130, the image acquisition unit 132 and the image processing unit 134 may be included in the camera 120 or provided with a dedicated device. Further, the object information calculation unit 131 may be included in the millimeter wave radar 110 or may be provided with a dedicated device.
Further, instead of the millimeter wave radar 110, a laser radar may be used.

図2は、この発明の実施の形態1による車両用障害物認識装置のミリ波レーダおよびカメラの車両への取付け例を示す外観図である。
図2において、ミリ波レーダ110は、車両200のフロントバンパー等に取り付けられ、車両前方の周辺物体からの反射波を取得する。カメラ120は、車両200の室内、ルームミラー近辺に取り付けられ、車両前方周囲の状況を撮影する。
ここでは、説明のため、ミリ波レーダ110及びカメラ120を目立つように記載してあるが、本来は車両において外観を損ねないように取り付けられるべきものである。
FIG. 2 is an external view showing an example of mounting of the millimeter wave radar and camera on the vehicle by the vehicle obstacle recognition apparatus according to Embodiment 1 of the present invention.
In FIG. 2, the millimeter wave radar 110 is attached to a front bumper or the like of the vehicle 200, and acquires a reflected wave from a peripheral object in front of the vehicle. The camera 120 is attached to the interior of the vehicle 200, in the vicinity of the rearview mirror, and photographs the situation around the front of the vehicle.
Here, for the sake of explanation, the millimeter wave radar 110 and the camera 120 are shown conspicuously, but they should be attached so as not to impair the appearance of the vehicle.

図3は、この発明の実施の形態1による車両用障害物認識装置の処理を示すフローチャートである。
図4は、この発明の実施の形態1による車両用障害物認識装置の画像処理手段の処理を示すフローチャートである。
FIG. 3 is a flowchart showing processing of the vehicle obstacle recognition apparatus according to Embodiment 1 of the present invention.
FIG. 4 is a flowchart showing the processing of the image processing means of the vehicle obstacle recognition apparatus according to Embodiment 1 of the present invention.

図5は、この発明の実施の形態1による車両用障害物認識装置の画像処理手段の画像例を示す図である。
図5において、画像例300には、座標301は自車と移動体との相対位置を示す画像座標P(i)である。座標302は、自車と停止物との相対位置を示す座標P(j)である。領域303は移動体の検出領域R(i)、領域304は停止物の検出領域R(j)である。
FIG. 5 is a diagram showing an image example of the image processing means of the vehicle obstacle recognition apparatus according to Embodiment 1 of the present invention.
In FIG. 5, in the image example 300, a coordinate 301 is an image coordinate P (i) indicating a relative position between the own vehicle and the moving body. A coordinate 302 is a coordinate P (j) indicating a relative position between the own vehicle and the stopped object. An area 303 is a moving object detection area R (i), and an area 304 is a stationary object detection area R (j).

図6は、この発明の実施の形態1による車両用障害物認識装置の画像処理手段のエッジ候補抽出を説明する図である。
図6において、ヒストグラム310は、検出領域303、304内において、画像水平方向に走査し検出したエッジ検出点を画像の垂直方向にヒストグラムをとった結果である。エッジ候補311は、さらにその結果のうち所定値以上のピーク点であるエッジ候補を抽出した結果である。エッジ312、313は、確定したエッジである。
FIG. 6 is a diagram for explaining edge candidate extraction of the image processing means of the vehicle obstacle recognition apparatus according to Embodiment 1 of the present invention.
In FIG. 6, a histogram 310 is a result of taking a histogram in the vertical direction of the image of edge detection points scanned and detected in the horizontal direction of the image in the detection areas 303 and 304. The edge candidate 311 is a result of further extracting edge candidates that are peak points of a predetermined value or more from the result. The edges 312 and 313 are determined edges.

図7は、この発明の実施の形態1による車両用障害物認識装置の画像処理手段のラップ量を説明する図である。
図7において、ラップ量401は、自車200と検出物体400の幅方向の重なりに相当する大きさである。
FIG. 7 is a view for explaining the wrap amount of the image processing means of the vehicle obstacle recognition apparatus according to Embodiment 1 of the present invention.
In FIG. 7, the lap amount 401 is a size corresponding to the overlap in the width direction between the own vehicle 200 and the detection object 400.

図8は、この発明の実施の形態1による車両用障害物認識装置の障害物判定手段の処理を示すフローチャートである。
図9は、この発明の実施の形態1による車両用障害物認識装置の障害物判定手段の回避及び警報閾値を説明する図である。
図9(a)は、ラップ量Lに比例して回避閾値THcが大きくなる図、図9(b)は、ラップ量Lに比例して警報閾値THwが大きくなる図である。
FIG. 8 is a flowchart showing the processing of the obstacle determination means of the vehicle obstacle recognition apparatus according to Embodiment 1 of the present invention.
FIG. 9 is a diagram for explaining avoidance of the obstacle determination means and the alarm threshold value of the obstacle recognition apparatus for a vehicle according to Embodiment 1 of the present invention.
FIG. 9A is a diagram in which the avoidance threshold value THc increases in proportion to the lap amount L, and FIG. 9B is a diagram in which the alarm threshold value THw increases in proportion to the lap amount L.

図10は、この発明の実施の形態1による車両用障害物認識装置の有効性判定手段を説明する図である。
図10において、ガードレール500が示されている。
FIG. 10 is a diagram for explaining the effectiveness determining means of the vehicle obstacle recognizing device according to the first embodiment of the present invention.
In FIG. 10, a guardrail 500 is shown.

次に、実施の形態1における車両用障害物認識装置の動作について説明する。
ミリ波レーダ110は、ミリ波レーダの周辺物体からの反射波を受信して、自車前方方向に存在する車両、ガードレール等の障害物を検出する。検出した結果は、CPU130へ出力される。カメラ120は、自車前方を撮像し、撮像された画像は、画像取得手段132を介して、CPU130に取り込まれる。車速センサ160、ヨーレートセンサ170は、自車の車速、ヨーレートをCPU130に出力する。
Next, the operation of the vehicle obstacle recognition apparatus in the first embodiment will be described.
The millimeter wave radar 110 receives reflected waves from surrounding objects of the millimeter wave radar, and detects obstacles such as a vehicle and a guardrail existing in the forward direction of the host vehicle. The detected result is output to the CPU 130. The camera 120 captures the front of the vehicle, and the captured image is captured by the CPU 130 via the image acquisition unit 132. The vehicle speed sensor 160 and the yaw rate sensor 170 output the vehicle speed and yaw rate of the host vehicle to the CPU 130.

CPU130では、図3に示すように、車両情報取得手段133、物体情報演算手段131が実行され、続いて画像取得手段132、画像処理手段134が実行される。さらに、有効性判定手段138、その出力を基に、障害物判定手段135が実行される。
障害物判定手段135の実行後は、障害物判定手段135の結果に応じて、警報手段136、または警報手段136及び障害物回避手段137が実行される。
警報対象、回避対象がなければ、何もせずに終了する。
As shown in FIG. 3, the CPU 130 executes vehicle information acquisition means 133 and object information calculation means 131, and then executes image acquisition means 132 and image processing means 134. Further, the obstacle determination unit 135 is executed based on the effectiveness determination unit 138 and its output.
After the execution of the obstacle determination unit 135, the alarm unit 136 or the alarm unit 136 and the obstacle avoidance unit 137 are executed according to the result of the obstacle determination unit 135.
If there is no alarm target or avoidance target, the process ends without doing anything.

以下に各手段の処理について説明する。
車両情報取得手段133では、自車の車速、ヨーレート等の情報を車速センサ160、ヨーレートセンサ170より取得する。
物体情報演算手段131では、ミリ波レーダ110の出力より、検出物体との相対距離、相対横位置、相対速度、検出物体が移動物か停止物かの判定を行う。
ここで、物体情報演算手段131の出力は、移動体Mv(i)={相対距離Dis、相対横位置Ltp、相対速度Vr}と停止物St(j)={相対距離Dis、相対横位置Ltp、相対速度Vr}とする。i、jは0から始まる整数で、物体毎に付与する。
画像取得手段132では、カメラ120より、画像処理手段134に用いる所定領域の画像を取得する。ここでいう所定領域は、カメラが有する画像データの全データであってもよいし、物体情報演算手段131の出力に基づいて設定してもよい。
画像処理手段134では、物体情報演算手段131の出力に基づいて、所定の画像処理を行う。
本実施の形態1では、画像処理手段134は、検出物体のエッジを検出し、その結果から、自車とのラップ量を算出する。
The processing of each means will be described below.
The vehicle information acquisition unit 133 acquires information such as the vehicle speed and yaw rate of the host vehicle from the vehicle speed sensor 160 and the yaw rate sensor 170.
The object information calculation unit 131 determines, based on the output of the millimeter wave radar 110, the relative distance to the detected object, the relative lateral position, the relative speed, and whether the detected object is a moving object or a stopped object.
Here, the output of the object information calculation means 131 is that the moving body Mv (i) = {relative distance Dis, relative lateral position Ltp, relative speed Vr} and stationary object St (j) = {relative distance Dis, relative lateral position Ltp. , Relative speed Vr}. i and j are integers starting from 0 and given to each object.
The image acquisition unit 132 acquires an image of a predetermined area used for the image processing unit 134 from the camera 120. The predetermined area referred to here may be all image data of the camera, or may be set based on the output of the object information calculation means 131.
The image processing unit 134 performs predetermined image processing based on the output of the object information calculation unit 131.
In the first embodiment, the image processing unit 134 detects the edge of the detected object, and calculates the amount of lap with the own vehicle from the result.

次に、図4を用いて、画像処理手段の処理を説明する。
画像処理手段134では、まず、物体情報演算手段131の出力に基づき、検出領域設定手段S01により、各移動体または停止物のエッジを検出するための検出領域を設定する。検出領域は、例えば、図5のように、物体情報演算手段131で得られた自車と移動体との相対位置を画像座標P(i)、停止物との相対位置を座標変換したP(j)に変換し、車両1台分の高さ及び幅に所定のマージンを付加した領域R(i)、R(j)とする
Next, the processing of the image processing means will be described with reference to FIG.
In the image processing unit 134, first, based on the output of the object information calculation unit 131, a detection region for detecting the edge of each moving body or stationary object is set by the detection region setting unit S 01. For example, as shown in FIG. 5, the detection area includes image coordinates P (i) for the relative position between the vehicle and the moving object obtained by the object information calculation unit 131, and P ( j) to obtain regions R (i) and R (j) in which a predetermined margin is added to the height and width of one vehicle.

続いて、エッジ検出手段S02により、各移動体または停止物に対する検出領域内の垂直エッジ成分を検出し、さらに検出した結果からエッジ候補を抽出する。
図6のヒストグラム310は、検出領域303、304内において、画像水平方向に走査し検出したエッジ検出点を画像の垂直方向にヒストグラムをとった結果、エッジ候補311は、さらにその結果のうち所定値以上のピーク点であるエッジ候補を抽出した結果である。
Subsequently, the edge detection means S02 detects vertical edge components in the detection region for each moving object or stationary object, and further extracts edge candidates from the detected result.
The histogram 310 in FIG. 6 is obtained by taking a histogram in the vertical direction of the image of edge detection points detected by scanning in the horizontal direction of the image in the detection areas 303 and 304. As a result, the edge candidate 311 further includes a predetermined value among the results. This is a result of extracting edge candidates that are the above peak points.

エッジ確定手段S03では、エッジ検出手段S02の検出の結果から、含まれるノイズ成分を除き、各検出物体のエッジ位置を確定する。エッジの確定には、例えば、検出領域内のエッジ候補点の位置を考慮し、検出物体の対称性、またはパターンマッチング等を利用することが考えられる。これにより、例えば、エッジ候補のペアが、エッジ312、313として確定される。   In the edge determination unit S03, the noise position included in the detection result of the edge detection unit S02 is removed, and the edge position of each detected object is determined. For the determination of the edge, for example, it is conceivable to use the symmetry of the detected object or pattern matching in consideration of the position of the edge candidate point in the detection region. Thereby, for example, a pair of edge candidates is determined as the edges 312 and 313.

幅検出手段S04では、エッジ確定手段S03の結果から、検出物体の幅を検出する。幅検出結果は、移動体Mv(i)={相対距離Dis、相対横位置Ltp、相対速度Vr、幅W}と停止物St(j)={相対距離Dis、相対横位置Ltp、相対速度Vr、幅W}の情報として、付加する。エッジ検出ができなかった物体に対しては、幅W=NULLを付加する。   In the width detection unit S04, the width of the detected object is detected from the result of the edge determination unit S03. The width detection results are: moving body Mv (i) = {relative distance Dis, relative lateral position Ltp, relative speed Vr, width W} and stationary object St (j) = {relative distance Dis, relative lateral position Ltp, relative speed Vr. , Width W} is added as information. A width W = NULL is added to an object for which edge detection could not be performed.

ラップ量演算手段S05では、エッジ確定手段S03の結果にヨーレートから推定される道路曲率を考慮し、自車の進行方向を判定した結果を加味し、各検出物体と自車とのラップ量Lを算出する。
ラップ量401は、図7に示すような、自車200と検出物体400の幅方向の重なりに相当する大きさである。ラップ量401は、移動体Mv(i)={相対距離Dis、相対横位置Ltp、相対速度Vr、幅W、ラップ量L}と停止物St(j)={相対距離Dis、相対横位置Ltp、相対速度Vr、幅W、ラップ量L}の情報として、付加する。エッジ検出ができなかった物体に対しては、ラップL=NULLを付加する。
ここでは、物体情報演算手段131の結果すべてに対して実施することとするが、予め、自車の障害となる可能性のある物体を、物体情報演算手段131にて絞り込んだ上、画像処理手段134を実施してもよい。
The lap amount calculation means S05 considers the road curvature estimated from the yaw rate in the result of the edge determination means S03, and considers the result of determining the traveling direction of the own vehicle, and calculates the lap amount L between each detected object and the own vehicle. calculate.
The lap amount 401 has a size corresponding to the overlap in the width direction of the host vehicle 200 and the detection object 400 as shown in FIG. The lap amount 401 includes the moving body Mv (i) = {relative distance Dis, relative lateral position Ltp, relative speed Vr, width W, lap amount L} and stationary object St (j) = {relative distance Dis, relative lateral position Ltp. , Relative speed Vr, width W, lap amount L} are added. A lap L = NULL is added to an object for which edge detection could not be performed.
Here, the processing is performed for all the results of the object information calculation unit 131. However, the object information calculation unit 131 narrows down objects that may be an obstacle of the host vehicle in advance, and then the image processing unit. 134 may be implemented.

次に、有効性判定手段138の働きについて説明する。
まず、有効性判定手段138を持たない場合、つまり画像処理手段134に続き、障害物判定手段135を実施する場合について説明する。
図8の障害物判定手段135では、まず、障害物候補選定手段S11において、移動体Mv(i)、停止物St(j)の情報から、エッジ検出ができなかった物体、すなわち幅W=NULLの物体、もしくは、幅Wが広すぎる場合など、道路上の物体である可能性が低いと判断される場合は、障害物である可能性は低いとして、障害物判定フラグFo=NULLを移動体Mv(i)={相対距離Dis、相対横位置Ltp、相対速度Vr、幅W、ラップ量L、障害物判定フラグFo}と停止物St(j)={相対距離Dis、相対横位置Ltp、相対速度Vr、幅W、ラップ量L、障害物判定フラグFo}の情報として、付加する。その他の物体に対しては、障害物判定フラグFo=1を付加する。
Next, the function of the validity determination unit 138 will be described.
First, the case where the effectiveness determination unit 138 is not provided, that is, the case where the obstacle determination unit 135 is implemented following the image processing unit 134 will be described.
In the obstacle determination unit 135 of FIG. 8, first, in the obstacle candidate selection unit S11, an object whose edge cannot be detected from the information of the moving body Mv (i) and the stop St (j), that is, the width W = NULL. If the possibility of being an object on the road is low, such as when the width W is too wide, the obstacle determination flag Fo = NULL is set as a moving object. Mv (i) = {relative distance Dis, relative lateral position Ltp, relative speed Vr, width W, lap amount L, obstacle determination flag Fo} and stop St (j) = {relative distance Dis, relative lateral position Ltp, The information is added as information on the relative speed Vr, the width W, the lap amount L, and the obstacle determination flag Fo}. For other objects, an obstacle determination flag Fo = 1 is added.

続いて、衝突予測時間演算手段S12を実施する。衝突予測時間TTCは、移動物Mv(i)、停止物St(j)における相対距離DIS、相対速度Vrより、式1にて算出できる。
TTC=Dis/Vr ・・・・・ 式1
衝突予測時間TTCは、移動体Mv(i)={相対距離Dis、相対横位置Ltp、相
対速度Vr、幅W、ラップ量L、障害物判定フラグFo、衝突予測時間TTC}と停止物St(j)={相対距離Dis、相対横位置Ltp、相対速度Vr、幅W、ラップ量L、障害物判定フラグFo、衝突予測時間TTC}の情報として、付加する。
Subsequently, the collision prediction time calculation means S12 is performed. The predicted collision time TTC can be calculated by Equation 1 from the relative distance DIS and the relative speed Vr of the moving object Mv (i) and the stopped object St (j).
TTC = Dis / Vr Equation 1
The predicted collision time TTC is the moving body Mv (i) = {relative distance Dis, relative lateral position Ltp, relative speed Vr, width W, lap amount L, obstacle determination flag Fo, predicted collision time TTC} and stationary object St ( j) = {information as relative distance Dis, relative lateral position Ltp, relative speed Vr, width W, lap amount L, obstacle determination flag Fo, collision prediction time TTC}.

回避対象判定手段S13では、衝突予測時間TTCが所定の回避閾値THcを下回る場合に回避対象と判定する。ここで、回避閾値THcは、各検出対象におけるラップ量Lに応じて可変とし、例えば図9(a)に示すように、ラップ量Lに比例して、回避閾値THcも大きくする。
回避対象があれば、警報手段136を実行して運転者に自車の障害となる障害物があることを知らせるとともに、障害物回避手段137を実行して、障害物を回避する方向へ自車の制御を行う。
回避対象がなければ、警報対象判定手段S14へ移行する。
The avoidance target determination unit S13 determines that the target is an avoidance target when the predicted collision time TTC is less than a predetermined avoidance threshold value THc. Here, the avoidance threshold value THc is variable according to the lap amount L in each detection target, and the avoidance threshold value THc is also increased in proportion to the lap amount L as shown in FIG.
If there is an avoidance target, the warning means 136 is executed to notify the driver that there is an obstacle that is an obstacle to the own vehicle, and the obstacle avoiding means 137 is executed to avoid the obstacle. Control.
If there is no avoidance target, the process proceeds to alarm target determination means S14.

警報対象判定手段S14では、衝突予測時間TTCが所定の警報閾値THwを下回る場合に警報対象と判定する。ここで、警報閾値THwは、各検出対象におけるラップ量Lに応じて可変とし、例えば図9(b)に示すように、ラップ量Lに比例して、警報閾値THwも大きくする。
警報対象があれば、警報手段136を実行して、運転者に自車の障害となる障害物があることを知らせる。
警報対象がなければ、障害物判定手段135を終了する。
図9に示すように、ラップ量に比例して回避閾値及び警報閾値を大きくすることで、ラップ量の大きい衝突の危険度が高い物体に対して、警報・制御介入を早める。
The alarm target determination means S14 determines that the target is an alarm when the predicted collision time TTC is below a predetermined alarm threshold THw. Here, the alarm threshold value THw is variable according to the lap amount L in each detection target. For example, as shown in FIG. 9B, the alarm threshold value THw is also increased in proportion to the lap amount L.
If there is an alarm target, the alarm means 136 is executed to notify the driver that there is an obstacle that is an obstacle to the vehicle.
If there is no alarm target, the obstacle determination means 135 is terminated.
As shown in FIG. 9, by increasing the avoidance threshold value and the alarm threshold value in proportion to the lap amount, the alarm / control intervention is advanced for an object with a large lap amount and a high risk of collision.

ここで警報手段136は、警報装置140を用いて、障害物のあることを音で運転者に知らせる。図1には記載していないが、表示装置を用いて、カメラ120の画像もしくは模式的な図を提供しても良い。
障害物回避手段137は、自動制御装置150を介して、ブレーキ、ATシフト、スロットル制御等を行い、自車を障害物を回避する方向へ制御する。また、これとともに、運転者もしくは乗員を保護するための、シートベルトまたはエアバッグ展開等の制御を行ってもよい。
Here, the warning means 136 uses the warning device 140 to notify the driver that there is an obstacle with a sound. Although not described in FIG. 1, an image or a schematic diagram of the camera 120 may be provided using a display device.
The obstacle avoiding means 137 performs brake, AT shift, throttle control, etc. via the automatic control device 150, and controls the host vehicle in a direction to avoid the obstacle. Further, along with this, control such as seat belt or airbag deployment for protecting the driver or the occupant may be performed.

次に、有効性判定手段138を持つ場合を説明する。
ステレオカメラ等の奥行きが検出できるセンサであれば、車両とガードレールなどの背景物の区別が可能であるが、実施の形態1のような単眼カメラを用いて画像処理を行う場合には、非常に困難である。
特に、道路上での移動体は、車両または二輪車の可能性が高く、単眼カメラでも精度良く検出できるが、停止物は、背景や停止車両、ガードレールなど、様々な物があり、誤検出する可能性が非常に高い。例えば、図10に示すような、ガードレール500は、ガードレールであることが区別できず、ガードレールの一部を停止物体のエッジと判断する可能性がある。
有効性判定手段138を持たない場合には、前述したように、障害物判定手段135の障害物候補選定手段S11において、エッジ検出ができなかった物体、もしくは、幅Wが広すぎる場合など、道路上の物体である可能性が低いと判断される場合は、障害物である可能性は低いとして除外するが、図10のようなケースの場合には、除外できない可能性が高い。
従って、このような場合、警報対象または回避対象であると判断され、不要な警報または制動がかかり、ミリ波レーダ単体システムの性能が維持できなくなる。特に、実施の形態1のように、ラップ量に応じて警報・制御介入を早めるような場合には、誤検出による誤作動の影響が非常に大きくなる。
Next, a case where the validity determination unit 138 is provided will be described.
A sensor capable of detecting depth such as a stereo camera can distinguish between a vehicle and a background object such as a guard rail. However, when performing image processing using a monocular camera as in the first embodiment, Have difficulty.
In particular, moving objects on the road are likely to be vehicles or two-wheeled vehicles and can be detected with high accuracy even with a monocular camera, but there are various objects such as backgrounds, stopped vehicles, guardrails, etc., which can be erroneously detected. The nature is very high. For example, the guard rail 500 as shown in FIG. 10 cannot be distinguished from being a guard rail, and there is a possibility that a part of the guard rail is determined as the edge of the stop object.
In the case where the validity determination means 138 is not provided, as described above, the obstacle candidate selection means S11 of the obstacle determination means 135 cannot detect the edge or the road W is too wide. If it is determined that the possibility of being an upper object is low, it is excluded because the possibility of being an obstacle is low, but in the case of FIG. 10, there is a high possibility that it cannot be excluded.
Therefore, in such a case, it is determined that the target is an alarm target or an avoidance target, an unnecessary alarm or braking is applied, and the performance of the millimeter wave radar single system cannot be maintained. In particular, when the alarm / control intervention is advanced according to the lap amount as in the first embodiment, the influence of malfunction due to erroneous detection becomes very large.

このため、有効性判定手段138では、物体情報演算手段131の出力に基づいて、検出した物体ごとに、障害物判定手段135において、画像処理手段134の出力を加味することが有効か無効かを判定する。
実施の形態1においては、前述した通り、単眼カメラによる画像処理では、誤検出する可能性の高い停止物であれば無効と判断し、移動体であれば有効と判断する。
無効と判断された物体に対しては、有効性物判定フラグFv=NULLを移動体Mv(i)={相対距離Dis、相対横位置Ltp、相対速度Vr、幅W、ラップ量L、障害物判定フラグFo、有効性判定フラグFv}と停止物St(j)={相対距離Dis、相対横位置Ltp、相対速度Vr、幅W、ラップ量L、障害物判定フラグFo、有効性判定フラグFv}の情報として、付加する。有効と判定された物体に対しては、有効性判定フラグFv=1と設定する。
Therefore, the validity determination unit 138 determines whether it is valid or invalid to consider the output of the image processing unit 134 in the obstacle determination unit 135 for each detected object based on the output of the object information calculation unit 131. judge.
In the first embodiment, as described above, in the image processing by the monocular camera, it is determined to be invalid if it is a stationary object that is highly likely to be erroneously detected, and it is determined to be valid if it is a moving object.
For an object determined to be invalid, the validity object determination flag Fv = NULL is set to the moving body Mv (i) = {relative distance Dis, relative lateral position Ltp, relative speed Vr, width W, lap amount L, obstacle. Determination flag Fo, effectiveness determination flag Fv} and stationary object St (j) = {relative distance Dis, relative lateral position Ltp, relative speed Vr, width W, lap amount L, obstacle determination flag Fo, effectiveness determination flag Fv } Is added as information. The validity determination flag Fv = 1 is set for an object determined to be valid.

また、有効性判定手段138をもつ場合は、
回避対象判定手段S13、および警報判定手段S14を以下のように変更する。
回避判定手段S13では、衝突予測時間TTCが所定の回避閾値THcを下回る場合に回避対象と判定する。ここで、有効性判定フラグFv=1の場合には、回避閾値THcは各検出対象におけるラップ量Lに応じて可変とし、例えば図9(a)に示すように、ラップ量Lに比例して、回避閾値THcも大きくする。但し、有効性判定フラグFv=NULLの場合には、回避閾値THcは所定の固定閾値Cを用いて判定する。
回避対象があれば、警報手段136を実行して運転者に自車の障害となる障害物があることを知らせるとともに、障害物回避手段137を実行して、障害物を回避する方向へ自車の制御を行う。
回避対象がなければ、警報対象判定手段S14へ移行する。
In addition, in the case of having the validity determination means 138,
The avoidance target determination unit S13 and the alarm determination unit S14 are changed as follows.
In the avoidance determination means S13, it is determined as an avoidance target when the predicted collision time TTC is less than a predetermined avoidance threshold THc. Here, when the effectiveness determination flag Fv = 1, the avoidance threshold value THc is variable according to the lap amount L in each detection target, and is proportional to the lap amount L as shown in FIG. The avoidance threshold THc is also increased. However, when the validity determination flag Fv = NULL, the avoidance threshold THc is determined using a predetermined fixed threshold C.
If there is an avoidance target, the warning means 136 is executed to notify the driver that there is an obstacle that is an obstacle to the own vehicle, and the obstacle avoiding means 137 is executed to avoid the obstacle. Control.
If there is no avoidance target, the process proceeds to alarm target determination means S14.

警報対象判定手段S14では、衝突予測時間TTCが所定の警報閾値THwを下回る場合に警報対象と判定する。ここで、有効性判定フラグFv=1の場合には、警報閾値THwは各検出対象におけるラップ量Lに応じて可変とし、例えば図9(b)に示すように、ラップ量Lに比例して、警報閾値THwも大きくする。但し、有効性判定フラグFv=NULLの場合には、警報閾値THwは所定の固定閾値Wを用いて判定する。
警報対象があれば、警報手段136を実行して、運転者に自車の障害となる障害物があることを知らせる。
警報対象がなければ、障害物判定手段135を終了する。
図9に示すようにラップ量に比例して閾値を大きくすることで、ラップ量の大きい衝突の危険度が高い物体に対して、警報・制御介入を早める。
The alarm target determination means S14 determines that the target is an alarm when the predicted collision time TTC is below a predetermined alarm threshold THw. Here, when the validity determination flag Fv = 1, the alarm threshold value THw is variable according to the lap amount L in each detection target, and is proportional to the lap amount L, for example, as shown in FIG. The alarm threshold value THw is also increased. However, when the validity determination flag Fv = NULL, the warning threshold THw is determined using a predetermined fixed threshold W.
If there is an alarm target, the alarm means 136 is executed to notify the driver that there is an obstacle that is an obstacle to the vehicle.
If there is no alarm target, the obstacle determination means 135 is terminated.
As shown in FIG. 9, by increasing the threshold value in proportion to the lap amount, warning / control intervention is accelerated for an object with a large lap amount and a high risk of collision.

実施の形態1によれば、単眼カメラによる画像処理では誤検出する可能性の高い停止物に対しては、従来のミリ波レーダ単体システムの性能を維持しつつ、移動体に対しては警報・制御介入を早めることができ、カメラとフュージョンしたことによる効果を得ることができる。   According to the first embodiment, for a stationary object that is highly likely to be erroneously detected in the image processing by the monocular camera, while maintaining the performance of the conventional millimeter wave radar single system, an alarm / Control intervention can be accelerated, and the effect of fusion with the camera can be obtained.

実施の形態2.
以下、図面を参照しながら、この発明の実施の形態2について説明する。
図11は、この発明の実施の形態2による車両用障害物認識装置の概略構成を示すブロック図である。
図11において、100、110、120、130〜138、140、150は図1におけるものと同一のものである。図11では、CPU130で、画像処理手段134の後段に信頼性判定手段139を設け、この信頼性判定手段139の出力を障害物判定手段135に入力させている。
なお、ミリ波レーダ、およびカメラの車両への取付け例は、図2と同じである。
Embodiment 2. FIG.
The second embodiment of the present invention will be described below with reference to the drawings.
FIG. 11 is a block diagram showing a schematic configuration of a vehicle obstacle recognition apparatus according to Embodiment 2 of the present invention.
In FIG. 11, reference numerals 100, 110, 120, 130 to 138, 140, and 150 are the same as those in FIG. In FIG. 11, the CPU 130 is provided with a reliability determination unit 139 subsequent to the image processing unit 134, and the output of the reliability determination unit 139 is input to the obstacle determination unit 135.
The example of mounting the millimeter wave radar and the camera to the vehicle is the same as that in FIG.

図12は、この発明の実施の形態2による車両用障害物認識装置の処理を示すフローチャートである。
図13は、この発明の実施の形態2による車両用障害物認識装置の信頼性判定手段の処理を示すフローチャートである。
FIG. 12 is a flowchart showing processing of the vehicle obstacle recognition apparatus according to Embodiment 2 of the present invention.
FIG. 13 is a flowchart showing the processing of the reliability determination means of the vehicle obstacle recognition apparatus according to Embodiment 2 of the present invention.

次に、信頼性判定手段139を有する実施の形態2による車両用障害物認識装置の動作について説明する。但し、実施の形態1と同様の部分は説明を省略する。
図12において、CPU130では、車両情報取得手段133、物体情報演算手段131が実行され、続いて画像取得手段132、画像処理手段134が実行される。さらに、有効性判定手段138、信頼性判定手段139、その出力を基に、障害物判定手段135が実行される。
障害物判定手段135の実行後は、障害物判定手段135の結果、警報対象となる障害物が有と判定されれば、警報手段136が、さらに回避対象となる障害物が有と判定されれば、障害物回避手段137が実行される。
警報対象、回避対象がなければ、何もせずに終了する。
Next, the operation of the vehicle obstacle recognition apparatus according to the second embodiment having the reliability determination unit 139 will be described. However, the description of the same parts as those in Embodiment 1 is omitted.
In FIG. 12, the CPU 130 executes vehicle information acquisition means 133 and object information calculation means 131, and then executes image acquisition means 132 and image processing means 134. Further, the obstacle determination unit 135 is executed based on the effectiveness determination unit 138, the reliability determination unit 139, and the output thereof.
After execution of the obstacle determination means 135, if the obstacle determination means 135 determines that there is an obstacle to be alarmed, the alarm means 136 further determines that there is an obstacle to be avoided. In this case, the obstacle avoiding means 137 is executed.
If there is no alarm target or avoidance target, the process ends without doing anything.

次に、信頼性判定手段139について、図13を用いて説明する。
信頼性判定手段139では、各移動体、および停止物の時系列データにより信頼性を判定する。
図13で、まず、検出安定性確認手段S21にて、すでに保持している過去の所定時間内にミリ波レーダ110で検出された移動体、停止物の情報と、今回演算された情報とを比較する。
比較した結果、保持している情報と同じ物体であると判定されれば、各情報がもつ安定性判定用カウンタをインクリメントとする。
保持情報で、新規情報に同じ物体がないと判定されれば、安定性判定用カウンタをデクリメントする。ここで、カウンタが0になった場合は、情報を削除する。
新規情報で、保持情報に同じ物体がないと判定されれば、新規情報として保持する。
Next, the reliability determination unit 139 will be described with reference to FIG.
The reliability determination means 139 determines the reliability based on the time-series data of each moving object and the stationary object.
In FIG. 13, first, the detection stability confirmation unit S21 stores the information on the moving body and the stationary object detected by the millimeter wave radar 110 within the past predetermined time and the information calculated this time. Compare.
As a result of comparison, if it is determined that the object is the same as the stored information, the stability determination counter of each information is incremented.
If it is determined in the holding information that there is no same object in the new information, the stability determination counter is decremented. Here, when the counter reaches 0, the information is deleted.
If the new information determines that there is no same object in the stored information, the new information is stored.

安定性判定手段S22では、検出安定性確認手段S21でインクリメントされたカウンタを所定の閾値と比較し、閾値以上であれば、安定して検出できているとして、信頼性が高いと判断する。
所定の閾値に満たない場合は、安定した検出ができていないとして、信頼性が低いと判定する。
信頼性が低いと判断された物体に対しては、信頼性判定フラグFr=NULLを移動体Mv(i)={相対距離Dis、相対横位置Ltp、相対速度Vr、幅W、ラップ量L、障害物判定フラグFo、有効性判定フラグFv、信頼性判定フラグFr}と停止物St(j)={相対距離Dis、相対横位置Ltp、相対速度Vr、幅W、ラップ量L、障害物判定フラグFo、有効性判定フラグFv、信頼性判定フラグFr}の情報として、付加する。信頼性が高いと判定された物体に対しては、信頼性判定フラグFv=1と設定する。
In the stability determination means S22, the counter incremented in the detection stability confirmation means S21 is compared with a predetermined threshold, and if it is equal to or greater than the threshold, it is determined that the detection is stable and it is determined that the reliability is high.
If the predetermined threshold value is not reached, it is determined that the reliability is low because stable detection is not possible.
For an object determined to have low reliability, the reliability determination flag Fr = NULL is set to the moving body Mv (i) = {relative distance Dis, relative lateral position Ltp, relative speed Vr, width W, lap amount L, Obstacle determination flag Fo, validity determination flag Fv, reliability determination flag Fr} and stationary object St (j) = {relative distance Dis, relative lateral position Ltp, relative speed Vr, width W, lap amount L, obstacle determination The information is added as information of the flag Fo, the validity determination flag Fv, and the reliability determination flag Fr}. For an object determined to have high reliability, the reliability determination flag Fv = 1 is set.

実施の形態2における障害物判定手段135のフローチャートは図8と同様である。
実施の形態2では、回避対象判定手段S13および警報対象判定手段S14において、実施の形態1に対し、以下のように変更を加える。
The flowchart of the obstacle determination means 135 in the second embodiment is the same as that in FIG.
In the second embodiment, the following changes are made to the first embodiment in the avoidance target determination unit S13 and the alarm target determination unit S14.

回避判定手段S13では、衝突予測時間TTCが所定の回避閾値THcを下回る場合に回避対象と判定する。ここで、有効性判定フラグFv=1でかつ信頼性判定フラグFr=1の場合には、回避閾値THcは各検出対象におけるラップ量Lに応じて可変とし、例えば図9(a)に示すように、ラップ量Lに比例して、回避閾値THcも大きくする。但し、有効性判定フラグFv=1またはNULLで、信頼性判定フラグFr=NULL、有効性判定フラグFv=NULLで信頼性判定フラグFr=1の場合には、回避閾値THcは
所定の固定閾値Cを用いて判定する。
回避対象があれば、警報手段136を実行して運転者に自車の障害となる障害物があることを知らせるとともに、障害物回避手段137を実行して、障害物を回避する方向へ自車の制御を行う。
回避対象がなければ、警報対象判定手段S14へ移行する。
In the avoidance determination means S13, it is determined as an avoidance target when the predicted collision time TTC is less than a predetermined avoidance threshold THc. Here, when the validity determination flag Fv = 1 and the reliability determination flag Fr = 1, the avoidance threshold THc is variable according to the lap amount L of each detection target, for example, as shown in FIG. In addition, the avoidance threshold value THc is also increased in proportion to the lap amount L. However, if the validity determination flag Fv = 1 or NULL, the reliability determination flag Fr = NULL, the validity determination flag Fv = NULL and the reliability determination flag Fr = 1, the avoidance threshold THc is a predetermined fixed threshold C Determine using.
If there is an avoidance target, the warning means 136 is executed to notify the driver that there is an obstacle that is an obstacle to the own vehicle, and the obstacle avoiding means 137 is executed to avoid the obstacle. Control.
If there is no avoidance target, the process proceeds to alarm target determination means S14.

警報対象判定手段S14では、衝突予測時間TTCが所定の警報閾値THwを下回る場合に警報対象と判定する。ここで有効性判定フラグFv=1またはNULLでかつ信頼性判定フラグFr=1の場合には、警報閾値THwは各検出対象におけるラップ量Lに応じて可変とし、例えば図9(b)に示すように、ラップ量Lに比例して、警報閾値THwも大きくする。但し、有効性判定フラグFv=1またはNULLでかつ信頼性判定フラグFr=NULLの場合には、警報閾値THwは所定の固定閾値Wを用いて判定する。
警報対象があれば、警報手段136を実行して運転者に自車の障害となる障害物があることを知らせる。
警報対象がなければ、障害物判定手段135を終了する。
図9に示すように、ラップ量に比例して閾値を大きくすることで、ラップ量の大きい衝突の危険度が高い物体に対して、警報・制御介入を早める。
The alarm target determination means S14 determines that the target is an alarm when the predicted collision time TTC is below a predetermined alarm threshold THw. Here, when the validity determination flag Fv = 1 or NULL and the reliability determination flag Fr = 1, the alarm threshold value THw is variable according to the lap amount L of each detection target, for example, as shown in FIG. Thus, the alarm threshold value THw is also increased in proportion to the lap amount L. However, when the validity determination flag Fv = 1 or NULL and the reliability determination flag Fr = NULL, the alarm threshold THw is determined using a predetermined fixed threshold W.
If there is an alarm target, the alarm means 136 is executed to notify the driver that there is an obstacle that is an obstacle to the vehicle.
If there is no alarm target, the obstacle determination means 135 is terminated.
As shown in FIG. 9, by increasing the threshold value in proportion to the lap amount, warning / control intervention is accelerated for an object with a large lap amount and a high risk of collision.

実施の形態2によれば、単眼カメラによる画像処理では誤検出する可能性の高い停止物に対しては、従来のミリ波レーダ単体システムの性能を維持しつつ、移動体に対しては警報・制御介入を早めることができ、カメラとフュージョンしたことによる効果を得ることができる。
さらに、単眼カメラによる画像処理では誤検出する可能性の高い停止物に対しても、信頼性が高い場合には、警報によって、運転者に早めに情報提供することができ、カメラとフュージョンしたことによる効果を得ることができる。
According to the second embodiment, for a stationary object that is highly likely to be erroneously detected in the image processing by the monocular camera, while maintaining the performance of the conventional millimeter wave radar single system, an alarm / Control intervention can be accelerated, and the effect of fusion with the camera can be obtained.
Furthermore, even if there is a high possibility of a stationary object that is likely to be erroneously detected by image processing with a single-lens camera, it is possible to provide information to the driver early by an alarm if it is highly reliable. The effect by can be acquired.

実施の形態3.
以下、図面を参照しながら、この発明の実施の形態3について説明する。
図14は、この発明の実施の形態3による車両用障害物認識装置の概略構成を示すブロック図である。
図14において、100、110、120、130〜138、140、150は図1におけるものと同一のものである。図14では、有効性判断手段138に、先々行車と先行車が一部重なったような走行状態であることを推定する走行状態推定手段138aを設けている。
Embodiment 3 FIG.
The third embodiment of the present invention will be described below with reference to the drawings.
FIG. 14 is a block diagram showing a schematic configuration of a vehicle obstacle recognition apparatus according to Embodiment 3 of the present invention.
In FIG. 14, reference numerals 100, 110, 120, 130 to 138, 140, 150 are the same as those in FIG. In FIG. 14, the validity determination means 138 is provided with a traveling state estimation means 138a for estimating that the traveling state is such that the preceding vehicle and the preceding vehicle partially overlap each other.

図15は、この発明の実施の形態3による車両用障害物認識装置の有効性判定手段の割込み車との重なりによる誤検出を説明する図である。
図15において、割込み車601に対する検出領域320に対して、エッジ検出を行うことにより、先行車600との重なり321により、エッジを誤検出する可能性がある。
FIG. 15 is a diagram for explaining the erroneous detection due to the overlap with the interrupting vehicle of the validity judging means of the vehicle obstacle recognizing device according to Embodiment 3 of the present invention.
In FIG. 15, by performing edge detection on the detection area 320 for the interrupting vehicle 601, there is a possibility that an edge is erroneously detected due to the overlap 321 with the preceding vehicle 600.

図16は、この発明の実施の形態3による車両用障害物認識装置の有効性判定手段の二輪車の誤検出を説明する図である。
図16において、二輪車701に対する検出領域320に対して、エッジ検出を行うことにより、先々行車700との重なり321により、二輪車ではなく先々行車のエッジを誤検出する可能性がある。
FIG. 16 is a diagram for explaining erroneous detection of a two-wheeled vehicle by the effectiveness determining means of the vehicle obstacle recognition apparatus according to Embodiment 3 of the present invention.
In FIG. 16, by performing edge detection on the detection region 320 for the two-wheeled vehicle 701, there is a possibility that the edge of the first-coming vehicle instead of the two-wheeled vehicle is erroneously detected due to the overlap 321 with the first-first vehicle 700.

実施の形態3のミリ波レーダの車両への取付け例を示す外観図は、実施の形態1と同様である。
以下では、実施の形態1と同様の部分は説明を省略し、実施の形態3おける有効性判定手段138について説明する。
An external view showing an example of mounting the millimeter wave radar of the third embodiment to a vehicle is the same as that of the first embodiment.
Hereinafter, description of the same parts as those in the first embodiment will be omitted, and the validity determination unit 138 in the third embodiment will be described.

ステレオカメラ等の奥行きが検出できるセンサであれば、車両とガードレールなどの背景物の他、先々行車と先行車の一部が重なるような場合にも先行車の検出が可能であるが、実施の形態3のような単眼カメラを用いて画像処理を行う場合には、非常に困難である。
特に、先々行車がない場合や先々行車と先行車が完全に重なり、先行車しか見えない場合は、単眼カメラでも精度良く検出できるが、先々行車と先行車が一部重なった場合は、誤検知する可能性が非常に高い。
例えば、誤検知する可能性が高い例には、以下に示すような4つの例があげられる。
(A)先行車が存在する場合に、割込み車が発生した場合
(B)先々行車が存在する場合に、先行車の車線変更が発生した場合
(C)先々行車が存在する場合に、先行車が二輪車である場合
(D)先々行車が存在する場合に、先行車が先々行車に対し、幅方向にオフセットをしている場合(先々行車が存在する場合に、先行車の幅方向の横位置が先々行車に対してずれた状態)
If it is a sensor that can detect the depth of a stereo camera or the like, in addition to the background object such as the vehicle and the guardrail, it is possible to detect the preceding vehicle even when the preceding vehicle and a part of the preceding vehicle overlap, It is very difficult to perform image processing using a monocular camera as in Form 3.
In particular, when there is no preceding vehicle, or when the preceding vehicle and the preceding vehicle are completely overlapped and only the preceding vehicle is visible, it can be detected with a single camera, but if the preceding vehicle and the preceding vehicle partially overlap, a false detection is detected. Very likely to do.
For example, the following four examples can be given as examples where the possibility of erroneous detection is high.
(A) When there is a preceding vehicle, when an interrupting vehicle occurs (B) When there is a preceding vehicle, when a lane change of the preceding vehicle occurs (C) When there is a preceding vehicle, the preceding vehicle (D) When a preceding vehicle is present, the preceding vehicle is offset in the width direction with respect to the preceding vehicle (when there is a preceding vehicle, the lateral position of the preceding vehicle in the width direction) Is the state that is deviated from the vehicle ahead)

(A)(B)(D)の例の場合、
画像処理手段134では、図15に示すように、割込み車601に対する検出領域320に対してエッジ検出を行うことにより、先行車600との重なり321により、エッジを誤検出する可能性がある。
(C)の例の場合、
画像処理手段134では、図16に示すように、二輪車701に対する検出領域320に対してエッジ検出を行うことにより、先々行車700との重なり321により、二輪車ではなく先々行車のエッジを誤検出する可能性がある。
(A) (B) (D)
As shown in FIG. 15, the image processing unit 134 may detect an edge erroneously due to the overlap 321 with the preceding vehicle 600 by performing edge detection on the detection region 320 for the interrupting vehicle 601.
In the case of (C),
As shown in FIG. 16, the image processing means 134 can detect the edge of the preceding vehicle instead of the two-wheeled vehicle by detecting the edge of the detection region 320 for the two-wheeled vehicle 701 by overlapping 321 with the preceding vehicle 700. There is sex.

図8の障害物判定手段135の障害物候補選定手段S11において、エッジ検出ができなかった物体、もしくは、幅Wが広すぎる場合など、道路上の物体である可能性が低いと判断される場合は、障害物である可能性が低いとして除外するが、図15、図16のようなケースの場合には、除外できない可能性が高い。
従って、このような場合、警報対象または回避対象であると判断され、不要な警報または制動がかかり、ミリ波レーダ単体システムの性能が維持できなくなる。特に、本実施の形態3のように、ラップ量に応じて警報・制御介入を早めるような場合には、誤検出による誤作動の影響が非常に大きくなる。
When the obstacle candidate selection unit S11 of the obstacle determination unit 135 of FIG. 8 determines that the possibility of being an object on the road is low, such as an object for which edge detection could not be performed, or when the width W is too wide. Are excluded because they are unlikely to be obstacles, but in the case of FIGS. 15 and 16, there is a high possibility that they cannot be excluded.
Therefore, in such a case, it is determined that the target is an alarm target or an avoidance target, an unnecessary alarm or braking is applied, and the performance of the millimeter wave radar single system cannot be maintained. In particular, when the alarm / control intervention is advanced according to the lap amount as in the third embodiment, the influence of malfunction due to erroneous detection becomes very large.

このため、有効性判定手段138では、物体情報演算手段131の出力に基づいて、検出した物体ごとに、障害物判定手段135での処理に画像処理手段134の出力を加味することが有効か無効かを判定する。
実施の形態3においては、前述した通り、有効性判定手段138に、単眼カメラによる画像処理では誤検出する可能性の高い先々行車と先行車が一部重なったような走行状態であることを推定する走行状態推定手段138aを設け、先々行車と先行車が一部重なったような走行状態であることが推定されれば無効と判断し、それ以外であれば有効と判断する。
無効と判断された物体に対しては、有効性物判定フラグFv=NULLを移動体Mv(i)={相対距離Dis、相対横位置Ltp、相対速度Vr、幅W、ラップ量L、障害物判定フラグFo、有効性判定フラグFv}と停止物St(j)={相対距離Dis、相対横位置Ltp、相対速度Vr、幅W、ラップ量L、障害物判定フラグFo、有効性判定フラグFv}の情報として、付加する。有効と判定された物体に対しては、有効性判定フラグFv=1と設定する。
For this reason, in the validity determination unit 138, it is effective or invalid to add the output of the image processing unit 134 to the processing in the obstacle determination unit 135 for each detected object based on the output of the object information calculation unit 131. Determine whether.
In the third embodiment, as described above, it is estimated that the validity determination unit 138 is in a traveling state in which a preceding vehicle and a preceding vehicle partially overlap each other, which are likely to be erroneously detected by image processing with a monocular camera. The travel state estimating means 138a is provided, and if it is estimated that the travel state is such that the preceding vehicle and the preceding vehicle partially overlap each other, it is determined to be invalid, and otherwise it is determined to be valid.
For an object determined to be invalid, the validity object determination flag Fv = NULL is set to the moving body Mv (i) = {relative distance Dis, relative lateral position Ltp, relative speed Vr, width W, lap amount L, obstacle. Determination flag Fo, effectiveness determination flag Fv} and stationary object St (j) = {relative distance Dis, relative lateral position Ltp, relative speed Vr, width W, lap amount L, obstacle determination flag Fo, effectiveness determination flag Fv } Is added as information. The validity determination flag Fv = 1 is set for an object determined to be valid.

実施の形態3によれば、図15に示すように、先々行車と先行車が一部重なったような
走行状態である場合にも、従来のミリ波レーダ単体システムの性能を維持しつつ、その他の走行状態に対しては警報・制御介入を早めることができ、カメラとフュージョンしたことによる効果を得ることができる。
According to the third embodiment, as shown in FIG. 15, even when the traveling vehicle and the preceding vehicle partially overlap each other, while maintaining the performance of the conventional millimeter wave radar single system, Alarm / control intervention can be accelerated with respect to the driving state of the vehicle, and the effect of fusion with the camera can be obtained.

実施の形態4.
以下、図面を参照しながら、この発明の実施の形態4について説明する。
図17は、この発明の実施の形態4による車両用障害物認識装置の有効性判定手段の無効と判断する相対位置を説明する図である。
図17において、検出対象350に対する誤検出領域351が示されている。
Embodiment 4 FIG.
Embodiment 4 of the present invention will be described below with reference to the drawings.
FIG. 17 is a diagram for explaining the relative position at which it is determined that the validity determination means of the obstacle recognition device for a vehicle according to Embodiment 4 of the present invention is invalid.
In FIG. 17, an erroneous detection area 351 for the detection target 350 is shown.

図18は、この発明の実施の形態4による車両用障害物認識装置の有効性判定手段の誤検出を説明する図である。
図18において、実際の車両340の検出点は、車両の中心位置であるべきだが、検出点341のように車両の端部になる場合がある。この場合、画像処理手段134における検出領域342のように検出領域が設定される。
実施の形態4の構成、ミリ波レーダの車両への取付け例は、実施の形態1と同様である。
FIG. 18 is a diagram for explaining the erroneous detection of the effectiveness determination means of the vehicle obstacle recognition apparatus according to Embodiment 4 of the present invention.
In FIG. 18, the actual detection point of the vehicle 340 should be the center position of the vehicle, but there may be an end portion of the vehicle like the detection point 341. In this case, a detection area is set like the detection area 342 in the image processing means 134.
The configuration of the fourth embodiment and the example of mounting the millimeter wave radar to the vehicle are the same as those of the first embodiment.

次に、実施の形態4おける有効性判定手段138について説明する。
ミリ波レーダ110は、機械的または電気的にスキャンされて、検出対象を検出するため、横位置検出精度は一般的に、相対距離に応じて悪くなる。
従って、例えば、図18に示すように、実際の車両340の検出点は、検出点341のように車両340の端部になる場合がある。この場合、画像処理手段134では検出領域342のように検出領域が設定される。
このような場合には、カメラ画像処理により、背景物やその他の車両などを検出対象と判定し、さらに悪影響を及ぼす可能性が高い。
Next, the effectiveness determination means 138 in Embodiment 4 will be described.
Since the millimeter wave radar 110 is mechanically or electrically scanned to detect a detection target, the lateral position detection accuracy generally deteriorates according to the relative distance.
Therefore, for example, as shown in FIG. 18, the actual detection point of the vehicle 340 may be the end of the vehicle 340 like the detection point 341. In this case, the image processing unit 134 sets a detection area like the detection area 342.
In such a case, the background image or other vehicle is determined as a detection target by camera image processing, and there is a high possibility of further adverse effects.

このため、有効性判定手段138は、物体情報演算手段131の出力に基づいて、検出した物体ごとに、障害物判定手段135で画像処理手段134の出力を加味することが有効か無効かを判定する。
実施の形態4では、前述した通り、ミリ波レーダ110が誤検出する可能性の高い相対位置に、検出物体が存在する場合には、無効と判断し、それ以外であれば有効と判断する。
無効と判断する相対位置は、例えば、図17に示すような、検出対象350に対する誤検出領域351である。
無効と判断された物体に対しては、有効性物判定フラグFv=NULLを移動体Mv(i)={相対距離Dis、相対横位置Ltp、相対速度Vr、幅W、ラップ量L、障害物判定フラグFo、有効性判定フラグFv}と停止物St(j)={相対距離Dis、相対横位置Ltp、相対速度Vr、幅W、ラップ量L、障害物判定フラグFo、有効性判定フラグFv}の情報として、付加する。有効と判定された物体に対しては、有効性判定フラグFv=1と設定する。
Therefore, the validity determination unit 138 determines, based on the output of the object information calculation unit 131, whether it is valid or invalid to add the output of the image processing unit 134 by the obstacle determination unit 135 for each detected object. To do.
In the fourth embodiment, as described above, if a detected object is present at a relative position where the millimeter wave radar 110 is likely to be erroneously detected, it is determined to be invalid, and otherwise, it is determined to be valid.
The relative position determined to be invalid is, for example, an erroneous detection region 351 with respect to the detection target 350 as shown in FIG.
For an object determined to be invalid, the validity object determination flag Fv = NULL is set to the moving body Mv (i) = {relative distance Dis, relative lateral position Ltp, relative speed Vr, width W, lap amount L, obstacle. Determination flag Fo, effectiveness determination flag Fv} and stationary object St (j) = {relative distance Dis, relative lateral position Ltp, relative speed Vr, width W, lap amount L, obstacle determination flag Fo, effectiveness determination flag Fv } Is added as information. The validity determination flag Fv = 1 is set for an object determined to be valid.

実施の形態4によれば、図17に示すように、ミリ波レーダが誤検出する可能性の高い相対位置に検出物体が存在し、カメラ画像処理によるさらなる悪影響が懸念される場合にも、従来のミリ波レーダ単体システムの性能を維持しつつ、その他の走行状態に対しては警報・制御介入を早めることができ、カメラとフュージョンしたことによる効果を得ることができる。   According to the fourth embodiment, as shown in FIG. 17, even when a detection object exists at a relative position where the millimeter wave radar is likely to be erroneously detected and there is a concern about further adverse effects due to camera image processing, While maintaining the performance of the single millimeter wave radar system, it is possible to speed up alarm and control intervention for other driving conditions, and to obtain the effect of being fused with the camera.

実施の形態5.
以下、図面を参照しながら、この発明の実施の形態5について説明する。
図19は、この発明の実施の形態5による車両用障害物認識装置の画像処理手段の処理を
示すフローチャートである。
実施の形態5の構成、及びミリ波レーダの車両への取付け例は、実施の形態1と同様である。
実施の形態5では、実施の形態4における画像処理手段および障害物判定手段を以下のように変更したものである。
Embodiment 5 FIG.
Embodiment 5 of the present invention will be described below with reference to the drawings.
FIG. 19 is a flowchart showing processing of the image processing means of the vehicle obstacle recognition apparatus according to Embodiment 5 of the present invention.
The configuration of the fifth embodiment and the example of mounting the millimeter wave radar to the vehicle are the same as those of the first embodiment.
In the fifth embodiment, the image processing means and the obstacle determination means in the fourth embodiment are changed as follows.

画像処理手段134では、物体情報演算手段131の出力に基づいて、所定の画像処理を行う。
実施の形態5では、画像処理手段134は、検出物体を車両、二輪車、歩行者、その他に識別するものとする。
The image processing unit 134 performs predetermined image processing based on the output of the object information calculation unit 131.
In the fifth embodiment, the image processing unit 134 identifies the detected object as a vehicle, a two-wheeled vehicle, a pedestrian, or the like.

次に、図19を用いて、画像処理手段134の処理について説明する。
まず、物体情報演算手段131の結果に基づき、検出領域設定手段S01により、各移動体または停止物に対し、画像処理を施すための検出領域を設定する。検出領域は、例えば、物体情報演算手段131で得られた自車と移動体との相対位置を画像座標P(i)、停止物との相対位置を座標変換したP(j)に変換し、検出対象の中で最も大きい車両の1台分の高さおよび幅に所定のマージンを付加した領域R(i)、R(j)とする。
Next, the processing of the image processing unit 134 will be described with reference to FIG.
First, based on the result of the object information calculation means 131, the detection area setting means S01 sets a detection area for performing image processing on each moving body or stationary object. For example, the detection area converts the relative position between the vehicle and the moving body obtained by the object information calculation unit 131 into image coordinates P (i), and the relative position between the stationary object and P (j) obtained by coordinate conversion. Regions R (i) and R (j) are obtained by adding a predetermined margin to the height and width of one of the largest vehicles among the detection targets.

続いて、検出対象識別手段S52により、各移動体または停止物が車両、二輪車、歩行者、その他であることを、例えば、パターンマッチングを用いて識別する。
検出対象の識別結果は、移動体Mv(i)={相対距離Dis、相対横位置Ltp、相対速度Vr、検出対象ID}と停止物St(j)={相対距離Dis、相対横位置Ltp、相対速度Vr、検出対象ID}の情報として、付加する。検出対象が識別できなかった物体に対しては、検出対象ID=NULLを付加する。
Subsequently, the detection target identification unit S52 identifies that each moving body or stop is a vehicle, a two-wheeled vehicle, a pedestrian, or the like using, for example, pattern matching.
The identification result of the detection target is that the moving body Mv (i) = {relative distance Dis, relative lateral position Ltp, relative speed Vr, detection target ID} and stationary object St (j) = {relative distance Dis, relative lateral position Ltp, It is added as information of relative speed Vr, detection target ID}. A detection target ID = NULL is added to an object whose detection target cannot be identified.

実施の形態5における障害物判定手段135のフローチャートは図8と同一である。
ただし、実施の形態5では、図8の回避対象判定手段S13および警報対象判定手段S14において、実施の形態4に対し、以下のように変更を加える。
The flowchart of the obstacle determination means 135 in the fifth embodiment is the same as that in FIG.
However, in the fifth embodiment, the following changes are made to the fourth embodiment in the avoidance target determination means S13 and the alarm target determination means S14 of FIG.

回避対象判定手段S13では、衝突予測時間TTCが所定の回避閾値THcを下回る場合に回避対象と判定する。ここで、有効性判定フラグFv=1の場合には、回避閾値THcは検出対象毎に設定された所定の固定閾値C(ID)を用いて判定する。但し、有効性判定フラグFv=NULLの場合には、回避閾値THcは、検出対象が車両である場合の所定の固定閾値C(ID)を用いて判定する。
回避対象があれば、警報手段136を実行して、運転者に自車の障害となる障害物があることを知らせるとともに、障害物回避手段137を実行して、障害物を回避する方向へ自車の制御を行う。
回避対象がなければ、警報対象判定手段S14へ移行する。
The avoidance target determination unit S13 determines that the target is an avoidance target when the predicted collision time TTC is less than a predetermined avoidance threshold value THc. Here, when the effectiveness determination flag Fv = 1, the avoidance threshold THc is determined using a predetermined fixed threshold C (ID) set for each detection target. However, when the validity determination flag Fv = NULL, the avoidance threshold THc is determined using a predetermined fixed threshold C (ID) when the detection target is a vehicle.
If there is an avoidance target, the warning means 136 is executed to inform the driver that there is an obstacle that is an obstacle to the vehicle, and the obstacle avoidance means 137 is executed to avoid the obstacle. Control the car.
If there is no avoidance target, the process proceeds to alarm target determination means S14.

警報対象判定手段S14では、衝突予測時間TTCが、所定の警報閾値THwを下回る場合に警報対象と判定する。ここで、有効性判定フラグFv=1の場合には、警報閾値THwは検出対象毎に設定された所定の固定閾値W(ID)を用いて判定する。但し、有効性判定フラグFv=NULLの場合には、警報閾値THwは検出対象が車両である場合の所定の固定閾値W(ID)を用いて判定する。
警報対象があれば、警報手段136を実行して運転者に自車の障害となる障害物があることを知らせる。
警報対象がなければ、障害物判定手段135を終了する。
ここで、固定閾値C(ID)、W(ID)は、歩行者>二輪車>車両またはその他の順に大きくなるものとする。これにより、歩行者や二輪車など、衝突時の被害軽減効果を大きくしたい対象に対して、警報・制御介入を早めることができる。
The alarm target determination unit S14 determines that the target is an alarm when the predicted collision time TTC is below a predetermined alarm threshold THw. Here, when the validity determination flag Fv = 1, the alarm threshold THw is determined using a predetermined fixed threshold W (ID) set for each detection target. However, when the validity determination flag Fv = NULL, the alarm threshold THw is determined using a predetermined fixed threshold W (ID) when the detection target is a vehicle.
If there is an alarm target, the alarm means 136 is executed to notify the driver that there is an obstacle that is an obstacle to the vehicle.
If there is no alarm target, the obstacle determination means 135 is terminated.
Here, it is assumed that the fixed thresholds C (ID) and W (ID) increase in the order of pedestrian> two-wheeled vehicle> vehicle or other. As a result, warning / control intervention can be expedited for an object such as a pedestrian or a motorcycle that wants to increase the damage reduction effect at the time of collision.

実施の形態5によれば、検出対象を識別し、検出対象毎に警報・制御介入のタイミングを可変とするシステムにおいて、検出対象の誤検出があった場合にも、従来のミリ波レーダ単体システムの性能を維持しつつ、カメラとフュージョンしたことによる効果を得ることができる。   According to the fifth embodiment, in a system in which a detection target is identified and the timing of alarm / control intervention is variable for each detection target, even if a detection target is erroneously detected, the conventional millimeter wave radar single system While maintaining the performance of the camera, the effect of the fusion with the camera can be obtained.

この発明の実施の形態1による車両用障害物認識装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the obstruction recognition apparatus for vehicles by Embodiment 1 of this invention. この発明の実施の形態1による車両用障害物認識装置のミリ波レーダおよびカメラの車両への取付け例を示す外観図である。It is an external view which shows the example of attachment to the vehicle of the millimeter wave radar and camera of the obstruction recognition apparatus for vehicles by Embodiment 1 of this invention. この発明の実施の形態1による車両用障害物認識装置の処理を示すフローチャートである。It is a flowchart which shows the process of the obstacle recognition apparatus for vehicles by Embodiment 1 of this invention. この発明の実施の形態1による車両用障害物認識装置の画像処理手段の処理を示すフローチャートである。It is a flowchart which shows the process of the image processing means of the obstacle recognition apparatus for vehicles by Embodiment 1 of this invention. この発明の実施の形態1による車両用障害物認識装置の画像処理手段の画像例を示す図である。It is a figure which shows the example of an image of the image processing means of the obstacle recognition apparatus for vehicles by Embodiment 1 of this invention. この発明の実施の形態1による車両用障害物認識装置の画像処理手段のエッジ候補抽出を説明する図である。It is a figure explaining edge candidate extraction of the image processing means of the obstacle recognition device for vehicles by Embodiment 1 of this invention. この発明の実施の形態1による車両用障害物認識装置の画像処理手段のラップ量を説明する図である。It is a figure explaining the amount of laps of the image processing means of the obstacle recognition device for vehicles by Embodiment 1 of this invention. この発明の実施の形態1による車両用障害物認識装置の障害物判定手段の処理を示すフローチャートである。It is a flowchart which shows the process of the obstacle determination means of the obstacle recognition apparatus for vehicles by Embodiment 1 of this invention. この発明の実施の形態1による車両用障害物認識装置の障害物判定手段の回避及び警報閾値を説明する図である。It is a figure explaining the avoidance of the obstacle determination means of the obstacle recognition apparatus for vehicles by Embodiment 1 of this invention, and an alarm threshold value. この発明の実施の形態1による車両用障害物認識装置の有効性判定手段を説明する図である。It is a figure explaining the effectiveness determination means of the obstacle recognition apparatus for vehicles by Embodiment 1 of this invention. この発明の実施の形態2による車両用障害物認識装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the obstruction recognition apparatus for vehicles by Embodiment 2 of this invention. この発明の実施の形態2による車両用障害物認識装置の処理を示すフローチャートである。It is a flowchart which shows the process of the obstacle recognition apparatus for vehicles by Embodiment 2 of this invention. この発明の実施の形態2による車両用障害物認識装置の信頼性判定手段の処理を示すフローチャートである。It is a flowchart which shows the process of the reliability determination means of the obstruction recognition apparatus for vehicles by Embodiment 2 of this invention. この発明の実施の形態3による車両用障害物認識装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the obstruction recognition apparatus for vehicles by Embodiment 3 of this invention. この発明の実施の形態3による車両用障害物認識装置の有効性判定手段の割込み車との重なりによる誤検出を説明する図である。It is a figure explaining the misdetection by the overlap with the interruption vehicle of the effectiveness determination means of the obstacle recognition apparatus for vehicles by Embodiment 3 of this invention. この発明の実施の形態3による車両用障害物認識装置の有効性判定手段の二輪車の誤検出を説明する図である。It is a figure explaining the erroneous detection of the two-wheeled vehicle of the effectiveness determination means of the obstacle recognition apparatus for vehicles by Embodiment 3 of this invention. この発明の実施の形態4による車両用障害物認識装置の有効性判定手段の無効と判断する相対位置を説明する図である。It is a figure explaining the relative position judged to be invalid of the effectiveness determination means of the obstacle recognition apparatus for vehicles by Embodiment 4 of this invention. この発明の実施の形態4による車両用障害物認識装置の有効性判定手段の誤検出を説明する図である。It is a figure explaining the erroneous detection of the effectiveness determination means of the obstruction recognition apparatus for vehicles by Embodiment 4 of this invention. この発明の実施の形態5による車両用障害物認識装置の画像処理手段の処理を示すフローチャートである。It is a flowchart which shows the process of the image process means of the obstruction recognition apparatus for vehicles by Embodiment 5 of this invention.

符号の説明Explanation of symbols

100 車両用障害物認識装置
110 ミリ波レーダ
120 カメラ
130 CPU
140 警報装置
150 自動制御装置
160 車速センサ
170 ヨーレートセンサ
131 物体検出手段
132 画像取得手段
133 画像処理手段
134 車両情報取得手段
135 障害物判定手段
136 警報手段
137 障害物回避手段
138 有効性判定手段
138a 走行状態推定手段
139 信頼性判定手段
100 vehicle obstacle recognition device 110 millimeter wave radar 120 camera 130 CPU
140 alarm device 150 automatic control device 160 vehicle speed sensor 170 yaw rate sensor 131 object detection means 132 image acquisition means 133 image processing means 134 vehicle information acquisition means 135 obstacle determination means 136 alarm means 137 obstacle avoidance means 138 effectiveness determination means 138a travel State estimation means 139 Reliability determination means

Claims (8)

車両に搭載され、上記車両に対する障害物を認識する車両用障害物認識装置において、
上記車両の周辺の物体を検知する検知センサ、
この検知センサの出力に基づいて、上記車両と上記物体との相対位置および相対速度を演算する物体情報演算手段、
上記車両の周辺画像を撮像する画像センサ、
この画像センサにより撮像された画像を取得する画像取得手段、
上記物体情報演算手段の出力に基づき、上記画像取得手段によって取得された画像を処理する画像処理手段、
車両の運転状態を検出する車両情報取得手段、
上記物体情報演算手段及び上記車両情報取得手段の出力により、上記物体が上記車両の障害となる可能性を判定する障害物判定手段、
及び上記物体情報演算手段の出力に基づき、画像処理手段の出力が有効かどうかを判定する有効性判定手段を備え、
上記障害物判定手段は、上記有効性判定手段の出力に応じて、上記画像処理手段の出力を障害物の判定に用いるとともに、
上記有効性判定手段は、上記物体情報演算手段の出力に基づき、上記物体の走行状態を推定する走行状態推定手段を有し、上記走行状態推定手段により、上記物体の走行状態として、上記車両の先行物体のさらに前方の物体の一部が検出されている状態であると推定された場合には、有効でないと判定することを特徴とする車両用障害物認識装置。
In a vehicle obstacle recognition device that is mounted on a vehicle and recognizes an obstacle to the vehicle,
A detection sensor for detecting objects around the vehicle,
Object information calculation means for calculating the relative position and relative speed between the vehicle and the object based on the output of the detection sensor;
An image sensor that captures an image around the vehicle,
Image acquisition means for acquiring an image captured by the image sensor;
Image processing means for processing the image acquired by the image acquisition means based on the output of the object information calculation means;
Vehicle information acquisition means for detecting the driving state of the vehicle;
Obstacle determining means for determining the possibility that the object becomes an obstacle to the vehicle by the outputs of the object information calculating means and the vehicle information acquiring means,
And validity determination means for determining whether the output of the image processing means is valid based on the output of the object information calculation means,
The obstacle determining means uses the output of the image processing means for determining an obstacle according to the output of the effectiveness determining means,
The effectiveness determination means includes travel state estimation means for estimating a travel state of the object based on an output of the object information calculation means, and the travel state estimation means determines the travel state of the object as the travel state of the object. An obstacle recognition apparatus for a vehicle, characterized in that when it is estimated that a part of an object further ahead of a preceding object is detected, the vehicle is not valid.
上記走行状態推定手段により推定された上記物体の走行状態には、先行車が存在する場合に、割込み車が発生した状態が含まれることを特徴とする請求項記載の車両用障害物認識装置。 The running state of the running condition the object estimated by the estimating means, when the preceding vehicle is present, vehicular obstacle recognition system according to claim 1, characterized in that it contains a state in which the interrupt vehicle is generated . 上記走行状態推定手段により推定された上記物体の走行状態には、先々行車が存在する場合に、先行車が車線変更した状態が含まれることを特徴とする請求項記載の車両用障害物認識装置。 The running state of the running condition the object estimated by the estimating means, when there is wherever line vehicle, the preceding vehicle vehicular obstacle recognition according to claim 1, characterized in that it includes a state changing lane apparatus. 上記走行状態推定手段により推定された上記物体の走行状態には、先々行車が存在する場合に、先行車が二輪車である状態が含まれることを特徴とする請求項記載の車両用障害物認識装置。 The running condition of the object estimated by the running state estimating means, when there is wherever line vehicle, the preceding vehicle vehicular obstacle recognition according to claim 1, wherein the contained state is motorcycle apparatus. 上記走行状態推定手段により推定された上記物体の走行状態には、先々行車が存在する場合に、先行車の幅方向の横位置が先々行車に対してずれた状態が含まれることを特徴とする請求項記載の車両用障害物認識装置。 The traveling state of the object estimated by the traveling state estimating means includes a state in which the lateral position in the width direction of the preceding vehicle is deviated from the preceding vehicle when the preceding vehicle exists. The obstacle recognition apparatus for a vehicle according to claim 1 . 上記物体情報演算手段の出力の時系列データに基づき、上記画像処理手段の出力の信頼性を判定する信頼性判定手段を備え、
上記障害物判定手段は、上記有効性判定手段の出力及び上記信頼性判定手段の出力に応じて、上記画像処理手段の出力を障害物の判定に用いることを特徴とする請求項〜請求項のいずれかに記載の車両用障害物認識装置。
Based on the time-series data of the output of the object information calculation means, comprising reliability determination means for determining the reliability of the output of the image processing means,
The obstacle determining means, in accordance with the output of the output and the reliability judging means of the validity determining unit, according to claim 1 claims, characterized in that used for the determination of the obstacle the output of said image processing means The obstacle recognition apparatus for a vehicle according to any one of 5 .
上記画像処理手段は、上記車両と上記物体との重なりの大きさであるラップ量を検出するものであることを特徴とする請求項1〜請求項のいずれかに記載の車両用障害物認識装置。 The vehicle obstacle recognition according to any one of claims 1 to 6 , wherein the image processing means detects a lap amount which is a size of an overlap between the vehicle and the object. apparatus. 上記画像処理手段は、上記物体を、車両及び歩行者を含む複数の種類に識別するものであることを特徴とする請求項1〜請求項のいずれかに記載の車両用障害物認識装置。 The vehicle obstacle recognition apparatus according to any one of claims 1 to 6 , wherein the image processing means identifies the object into a plurality of types including a vehicle and a pedestrian.
JP2007122473A 2007-05-07 2007-05-07 Obstacle recognition device for vehicles Active JP4558758B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007122473A JP4558758B2 (en) 2007-05-07 2007-05-07 Obstacle recognition device for vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007122473A JP4558758B2 (en) 2007-05-07 2007-05-07 Obstacle recognition device for vehicles

Publications (2)

Publication Number Publication Date
JP2008276689A JP2008276689A (en) 2008-11-13
JP4558758B2 true JP4558758B2 (en) 2010-10-06

Family

ID=40054539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007122473A Active JP4558758B2 (en) 2007-05-07 2007-05-07 Obstacle recognition device for vehicles

Country Status (1)

Country Link
JP (1) JP4558758B2 (en)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5379543B2 (en) * 2009-04-09 2013-12-25 日立オートモティブシステムズ株式会社 Automobile external recognition device
JP4858574B2 (en) * 2009-05-19 2012-01-18 トヨタ自動車株式会社 Object detection device
WO2011036807A1 (en) * 2009-09-28 2011-03-31 トヨタ自動車株式会社 Object detection device and object detection method
CN102696060B (en) * 2009-12-08 2015-01-07 丰田自动车株式会社 Object detection apparatus and object detection method
JP5484123B2 (en) * 2010-02-26 2014-05-07 三菱電機株式会社 Vehicle obstacle detection device
KR101722258B1 (en) * 2010-07-30 2017-04-10 (주)엠아이웨어 Method of calculating distance between cars
JP2012089114A (en) * 2010-09-24 2012-05-10 Toyota Motor Corp Obstacle recognition device
JP5655497B2 (en) * 2010-10-22 2015-01-21 トヨタ自動車株式会社 Obstacle recognition device and obstacle recognition method
US8831849B2 (en) * 2012-02-13 2014-09-09 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for traffic signal recognition
JP6047891B2 (en) * 2012-03-01 2016-12-21 日産自動車株式会社 Vehicle travel control device
JP5806647B2 (en) * 2012-07-12 2015-11-10 本田技研工業株式会社 Object recognition device
WO2014033957A1 (en) * 2012-09-03 2014-03-06 トヨタ自動車株式会社 Collision determination device and collision determination method
JP5812064B2 (en) * 2012-11-22 2015-11-11 株式会社デンソー Target detection device
JP6349640B2 (en) * 2013-07-31 2018-07-04 日産自動車株式会社 Information providing apparatus and method
US10192122B2 (en) 2014-08-21 2019-01-29 Mitsubishi Electric Corporation Driving assist apparatus, driving assist method, and non-transitory computer readable recording medium storing program
JP6356585B2 (en) 2014-11-28 2018-07-11 株式会社デンソー Vehicle travel control device
JP6519253B2 (en) * 2015-03-18 2019-05-29 横浜ゴム株式会社 Driving support device
CN108140309B (en) 2015-11-20 2020-12-08 三菱电机株式会社 Driving support device, driving support system, and driving support method
JP6551283B2 (en) * 2016-04-01 2019-07-31 株式会社デンソー Vehicle control device, vehicle control method
JP6462630B2 (en) 2016-05-24 2019-01-30 株式会社デンソー Target detection device
JP6673178B2 (en) * 2016-12-14 2020-03-25 株式会社デンソー Vehicle control device and vehicle control method
JP7135796B2 (en) * 2018-11-30 2022-09-13 トヨタ自動車株式会社 Server device, server control method, server control program, vehicle, vehicle control method, and vehicle control program
JP2021064159A (en) * 2019-10-14 2021-04-22 株式会社デンソー Obstacle detector
JP2022037779A (en) * 2020-08-25 2022-03-09 トヨタ自動車株式会社 Road obstacle detection apparatus, road obstacle detection method, and program
CN112507874B (en) * 2020-12-10 2023-02-21 上海芯翌智能科技有限公司 Method and device for detecting motor vehicle jamming behavior
CN113341414A (en) * 2021-04-22 2021-09-03 惠州市德赛西威汽车电子股份有限公司 Chassis scratch prevention system and chassis scratch prevention method based on millimeter wave radar

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084377A (en) * 1999-09-14 2001-03-30 Mitsubishi Electric Corp Picture processor
JP2004053278A (en) * 2002-07-16 2004-02-19 Nissan Motor Co Ltd Front vehicle tracking system and front vehicle tracking method
JP2004148991A (en) * 2002-10-30 2004-05-27 Nissan Motor Co Ltd Outside acknowledging device for vehicle
JP2005202878A (en) * 2004-01-19 2005-07-28 Toyota Motor Corp Object detector
JP2005329779A (en) * 2004-05-19 2005-12-02 Daihatsu Motor Co Ltd Method and device for recognizing obstacle
JP2006315570A (en) * 2005-05-13 2006-11-24 Nissan Motor Co Ltd Operation auxiliary device for vehicle and vehicle equipped with the same
JP2006347252A (en) * 2005-06-14 2006-12-28 Honda Motor Co Ltd Travel safety device for vehicle

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084377A (en) * 1999-09-14 2001-03-30 Mitsubishi Electric Corp Picture processor
JP2004053278A (en) * 2002-07-16 2004-02-19 Nissan Motor Co Ltd Front vehicle tracking system and front vehicle tracking method
JP2004148991A (en) * 2002-10-30 2004-05-27 Nissan Motor Co Ltd Outside acknowledging device for vehicle
JP2005202878A (en) * 2004-01-19 2005-07-28 Toyota Motor Corp Object detector
JP2005329779A (en) * 2004-05-19 2005-12-02 Daihatsu Motor Co Ltd Method and device for recognizing obstacle
JP2006315570A (en) * 2005-05-13 2006-11-24 Nissan Motor Co Ltd Operation auxiliary device for vehicle and vehicle equipped with the same
JP2006347252A (en) * 2005-06-14 2006-12-28 Honda Motor Co Ltd Travel safety device for vehicle

Also Published As

Publication number Publication date
JP2008276689A (en) 2008-11-13

Similar Documents

Publication Publication Date Title
JP4558758B2 (en) Obstacle recognition device for vehicles
CN107408345B (en) Method and device for determining presence of target object
US11086011B2 (en) Target detection device
CN107430822B (en) Object detection device and object detection method
US9460627B2 (en) Collision determination device and collision mitigation device
JP4788778B2 (en) Deviation warning device and deviation warning program
CN109891262B (en) Object detecting device
US20200023837A1 (en) Collision detection device
US9102329B2 (en) Tracking control apparatus
US20190012920A1 (en) Driving assistance device and driving assistance method
CN107408346B (en) Vehicle control device and vehicle control method
JP2012089114A (en) Obstacle recognition device
US11351997B2 (en) Collision prediction apparatus and collision prediction method
JP2006284293A (en) Device and method for detecting target for car
JP6669090B2 (en) Vehicle control device
JP6432538B2 (en) Collision prediction device
US10996317B2 (en) Object detection apparatus and object detection method
WO2017065158A1 (en) Vehicle control method and device
JP2008037361A (en) Obstacle recognition device
KR20200115640A (en) A system and method for detecting the risk of collision between a vehicle and a secondary object located in a lane adjacent to the vehicle when changing lanes
JP5655297B2 (en) Object detection device, vehicle safety system equipped with object detection device
JP5083172B2 (en) Collision prediction device
WO2018070335A1 (en) Movement detection device, movement detection method
WO2011036807A1 (en) Object detection device and object detection method
JP2009298362A (en) Lane departure warning device of vehicle

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100721

R151 Written notification of patent or utility model registration

Ref document number: 4558758

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130730

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250