JP7152848B2 - External environment recognition device - Google Patents

External environment recognition device Download PDF

Info

Publication number
JP7152848B2
JP7152848B2 JP2017195283A JP2017195283A JP7152848B2 JP 7152848 B2 JP7152848 B2 JP 7152848B2 JP 2017195283 A JP2017195283 A JP 2017195283A JP 2017195283 A JP2017195283 A JP 2017195283A JP 7152848 B2 JP7152848 B2 JP 7152848B2
Authority
JP
Japan
Prior art keywords
radar
reflection
area
vehicle
scanning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017195283A
Other languages
Japanese (ja)
Other versions
JP2019066447A (en
Inventor
輝 由川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2017195283A priority Critical patent/JP7152848B2/en
Publication of JP2019066447A publication Critical patent/JP2019066447A/en
Application granted granted Critical
Publication of JP7152848B2 publication Critical patent/JP7152848B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本発明は、レーダを用いて自車両周辺の車両等の認識を行う車外環境認識装置に関する。 The present invention relates to an external environment recognition device that uses radar to recognize vehicles and the like around the vehicle.

近年、車両においては、走行環境を認識し、自車両の走行情報を検出して操舵制御や加減速制御を協調して実行し、自動運転を行えるようにした、車両の走行制御蔵置についての様々な技術が提案され実用化されている。 In recent years, in vehicles, various driving control devices have been developed that enable autonomous driving by recognizing the driving environment, detecting the driving information of the own vehicle, and executing steering control and acceleration/deceleration control in cooperation with each other. techniques have been proposed and put into practical use.

このような走行制御装置に用いられる車外環境認識装置においては、複数のレーダにより、先行車、並走車、及び、後続車等を含む各種物体(立体物)を検出するための技術が知られている。このような複数のレーダを用いた物体検出において、2つのレーダの走査領域が重なり合う重畳領域での同一物体判定や位置情報等の取得精度を向上させるための技術として、例えば、特許文献1には、走査領域の一部が重なり合う2つのレーダのうちの一方のレーダで検出した物体の位置(物体の代表点の位置)に基づいて当該物体の進路に範囲を設定し、該範囲内に他方のレーダで検出した物体位置が含まれる場合に、一方のレーダで検出した物体と他方のレーダで検出した物体とが同一物体であると判定する技術が開示されている。 In the vehicle external environment recognition device used in such a travel control device, a technique for detecting various objects (three-dimensional objects) including a preceding vehicle, a parallel running vehicle, and a following vehicle using a plurality of radars is known. ing. In such object detection using a plurality of radars, for example, Patent Document 1 describes a technique for improving the accuracy of determining the same object in an overlapping area where the scanning areas of two radars overlap and acquiring position information. , based on the position of the object (the position of the representative point of the object) detected by one of the two radars whose scanning areas partially overlap, a range is set for the course of the object, and the other radar is set within the range. A technique is disclosed for determining that an object detected by one radar and an object detected by the other radar are the same object when the position of an object detected by radar is included.

特開2007-232594号公報JP 2007-232594 A

しかしながら、レーダの走査領域内における走査方向の端部領域では、物体からの反射点の検出位置にバラツキが生じやすい傾向にある。従って、上述の特許文献1に開示された技術のように、各レーダで検出した反射点をそのまま用いて物体検出を行った場合、2つのレーダの端部領域が重なり合う重畳領域に存在する立体物を精度良く検出することが困難な場合がある。 However, in end regions in the scanning direction within the scanning region of the radar, the detection positions of the reflection points from the object tend to vary. Therefore, when object detection is performed using the reflection points detected by each radar as is, as in the technique disclosed in the above-mentioned Patent Document 1, a three-dimensional object existing in the overlapping area where the edge areas of the two radars overlap. can be difficult to detect accurately.

本発明は上記事情に鑑みてなされたもので、2つのレーダの走査領域が重なる領域に存在する立体物についても精度良く検出することができる車外環境認識装置を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an external environment recognition system capable of accurately detecting three-dimensional objects existing in an area where two radar scanning areas overlap.

本発明の一態様による車外環境認識装置は、予め設定された第1の走査領域内において第1のレーダ波を水平方向に走査させ、前記第1のレーダ波が立体物で反射した第1の反射波を受信して前記立体物上の複数の第1の反射点を検出する第1のレーダ手段と、前記第1の走査領域の一端側の一部領域に対して他端側の一部領域が重畳するよう予め設定された第2の走査領域内において第2のレーダ波を水平方向に走査させ、前記第2のレーダ波が立体物で反射した第2の反射波を受信して前記立体物上の複数の第2の反射点を検出する第2のレーダ手段と、前記第1の走査領域と前記第2の走査領域とが重畳する重畳領域内において、前記第1のレーダ手段による前記第1の走査領域のうち前記第1の反射点の検出精度が他の領域よりも低下する前記第1のレーダ波の走査方向の端部領域であって、且つ、前記第1の走査領域の前記一端側に設定された第1の除外領域内に存在する前記第1の反射点を除外する第1の反射点除外手段と、前記重畳領域内において、前記第2のレーダ手段による前記第2の走査領域のうち前記第2の反射点の検出精度が他の領域よりも低下する前記第2のレーダ波の走査方向の端部領域であって、且つ、前記第2の走査領域の前記他端側に設定された第2の除外領域内に存在する前記第2の反射点を除外する第2の反射点除外手段と、除外されていない複数の前記第1の反射点及び複数の前記第2の反射点に基づき、互いに近接する反射点列からなる反射点群を形成し、前記反射点群毎に前記立体物の代表点を算出する代表点算出手段と、を備えたものである。 A vehicle exterior environment recognition apparatus according to an aspect of the present invention scans a preset first scanning region in a horizontal direction with a first radar wave, and the first radar wave reflects off a three-dimensional object. first radar means for receiving reflected waves and detecting a plurality of first reflection points on the three-dimensional object; A second radar wave is horizontally scanned within a second scanning region preset so that the regions overlap each other, and the second radar wave receives a second reflected wave reflected by a three-dimensional object to receive the second radar means for detecting a plurality of second reflection points on a three-dimensional object, and in an overlapping area where the first scanning area and the second scanning area overlap, the first radar means An edge area in the scanning direction of the first radar wave in which detection accuracy of the first reflection point is lower than that of other areas in the first scanning area, and the first scanning area. a first reflection point exclusion means for excluding the first reflection points existing in a first exclusion area set on the one end side of the second radar means in the overlapping area; 2 scanning regions, the second scanning region is an end region in the scanning direction of the second radar wave in which the detection accuracy of the second reflection point is lower than that of the other regions , and second reflection point exclusion means for excluding the second reflection points existing in a second exclusion area set on the other end side; a plurality of the first reflection points not excluded and a plurality of the reflection points and representative point calculation means for forming a reflection point group consisting of a series of reflection points adjacent to each other based on the second reflection points, and calculating a representative point of the three-dimensional object for each reflection point group. is.

本発明の車外環境認識装置によれば、2つのレーダの走査領域が重なる領域に存在する立体物についても精度良く検出することができる。 According to the vehicle exterior environment recognition device of the present invention, it is possible to accurately detect a three-dimensional object existing in an area where the scanning areas of two radars overlap.

車両用運転支援装置の構成図Configuration diagram of vehicle driving support device 車載カメラ及び各レーダの走査領域を示す説明図Explanatory diagram showing the scanning area of the vehicle-mounted camera and each radar 右前側方レーダの走査領域内において検出された反射点を示す説明図Explanatory diagram showing reflection points detected within the scanning area of the right front side radar 右後側方レーダの走査領域内において検出された反射点を示す説明図Explanatory diagram showing reflection points detected within the scanning area of the right rear side radar 2つのレーダを用いた立体物認識ルーチンを示すフローチャート(その1)Flowchart showing a three-dimensional object recognition routine using two radars (Part 1) 2つのレーダを用いた立体物認識ルーチンを示すフローチャート(その2)Flowchart showing a three-dimensional object recognition routine using two radars (Part 2) 重複領域において検出された乗用車の反射点を示す説明図Explanatory diagram showing reflection points of a passenger car detected in the overlapping area 重畳領域の反射点を選定した後の乗用車の反射点群を示す説明図Explanatory drawing showing reflection point cloud of passenger car after selection of reflection points in superimposed area 重畳領域を含む2つのレーダの走査領域において検出された大型トレーラの反射点を示す説明図Explanatory diagram showing reflection points of a large trailer detected in two radar scanning areas including an overlapping area 重畳領域の反射点を選定した後の大型トレーラの反射点群を示す説明図Explanatory drawing showing reflection point cloud of large trailer after selection of reflection points in superimposed area キャリアカーの側面図Carrier car side view 重畳領域を含む2つのレーダの走査領域において検出されたキャリアカーの反射点を示す説明図Explanatory diagram showing reflection points of carrier cars detected in two radar scanning areas including an overlapping area 重畳領域の反射点を選定した後のキャリアカーの反射点群を示す説明図Explanatory drawing showing the reflection point group of the carrier car after selecting the reflection points of the superimposed area

以下、図面を参照して本発明の形態を説明する。図面は本発明の一実施形態に係り、図1は車両用運転支援装置の構成図、図2は車載カメラ及び各レーダの走査領域を示す説明図、図3は右前側方レーダの走査領域内において検出された反射点を示す説明図、図4は右後側方レーダの走査領域内において検出された反射点を示す説明図、図5,6は2つのレーダを用いた立体物認識ルーチンを示すフローチャート、図7は重複領域において検出された乗用車の反射点を示す説明図、図8は重畳領域の反射点を選定した後の乗用車の反射点群を示す説明図、図9は重畳領域を含む2つのレーダの走査領域において検出された大型トレーラの反射点を示す説明図、図10は重畳領域の反射点を選定した後の大型トレーラの反射点群を示す説明図、図11はキャリアカーの側面図、図12は重畳領域を含む2つのレーダの走査領域において検出されたキャリアカーの反射点を示す説明図、図13は重畳領域の反射点を選定した後のキャリアカーの反射点群を示す説明図である。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The drawings relate to one embodiment of the present invention, FIG. 1 is a configuration diagram of a vehicle driving support system, FIG. 2 is an explanatory diagram showing the scanning area of an on-vehicle camera and each radar, and FIG. Fig. 4 is an explanatory diagram showing reflection points detected in the scanning area of the right rear side radar, Figs. 5 and 6 show a three-dimensional object recognition routine using two radars 7 is an explanatory diagram showing the reflection points of the passenger car detected in the overlapping area, FIG. 8 is an explanatory diagram showing the group of reflection points of the passenger car after selecting the reflection points in the overlapping area, and FIG. FIG. 10 is an explanatory diagram showing the reflection points of the large trailer detected in the two radar scanning areas, FIG. 12 is an explanatory diagram showing the reflection points of the carrier car detected in the two radar scanning areas including the overlapping area, and FIG. 13 is the reflection point group of the carrier car after selecting the reflection points in the overlapping area. It is an explanatory view showing .

図1に示す車両用運転支援装置2は、自動車等の車両(自車両)1(図2参照)に搭載されている。この車両用運転支援装置2は、運転支援制御ユニット11、エンジン制御ユニット(以下「E/G_ECU」と称す)12、パワーステアリング制御ユニット(以下「PS_ECU」と称する)13、ブレーキ制御ユニット(以下「BK_ECU」と称する)14等の各制御ユニットを備え、これら各制御ユニット11~14が、CAN(Controller Area Network)等の車内通信回線15を通じて接続されている。尚、各ユニット11~14はCPU、ROM、RAMなどを備えたマイクロコンピュータにより構成されており、ROMにはシステム毎に設定されている動作を実現するための制御プログラムが記憶されている。 A vehicle driving support device 2 shown in FIG. 1 is mounted in a vehicle (self-vehicle) 1 (see FIG. 2) such as an automobile. This vehicle driving support device 2 includes a driving support control unit 11, an engine control unit (hereinafter referred to as "E/G_ECU") 12, a power steering control unit (hereinafter referred to as "PS_ECU") 13, a brake control unit (hereinafter referred to as " BK_ECU”) 14, etc. These control units 11 to 14 are connected through an in-vehicle communication line 15 such as a CAN (Controller Area Network). Each of the units 11 to 14 is composed of a microcomputer having a CPU, ROM, RAM, etc. The ROM stores a control program for realizing operations set for each system.

運転支援制御ユニット11の入力側には、後述する車外環境認識装置30の演算ユニット31が接続されている。演算ユニット31は、車外環境に関する情報として、例えば、自車両1が走行する車線(走行車線)、走行車線に隣接する車線(隣接車線)、及び、走行車線を走行する先行車や隣接車線を走行する並走車等に関する情報を含む各種情報を認識し、これらの認識情報を運転支援制御ユニット11に出力する。 An input side of the driving support control unit 11 is connected to an arithmetic unit 31 of an external environment recognition device 30, which will be described later. The arithmetic unit 31, as the information about the environment outside the vehicle, for example, the lane in which the own vehicle 1 travels (traveling lane), the lane adjacent to the traveling lane (adjacent lane), and the preceding vehicle traveling in the traveling lane and the adjacent lane. It recognizes various kinds of information including information about a parallel running vehicle, etc., and outputs this recognition information to the driving support control unit 11 .

また、運転支援制御ユニット11の入力側には、自車両1の車速(自車速)Vを検出する車速センサ35、自車両1に作用するヨーレートγを検出するヨーレートセンサ36、及び、自動運転スイッチ21等の各種センサ・スイッチ類が接続されている。さらに、運転支援制御ユニット11の出力側には、報知手段22が接続されている。 Further, on the input side of the driving support control unit 11, there are a vehicle speed sensor 35 for detecting the vehicle speed (own vehicle speed) V of the own vehicle 1, a yaw rate sensor 36 for detecting the yaw rate γ acting on the own vehicle 1, and an automatic operation switch. Various sensors and switches such as 21 are connected. Furthermore, a notification means 22 is connected to the output side of the driving support control unit 11 .

自動運転スイッチ21は、インストルメントパネルやステアリングハンドル等、運転者の操作可能な位置に設けられており、通常運転(スイッチOFF)と自動運転(スイッチON)とを任意に選択するとともに、ACC運転時のセット車速の設定、及び、自動運転時における運転モードを追従制御モード或いは追越制御モードの何れかに設定することができる。 The automatic operation switch 21 is provided at a position that can be operated by the driver, such as the instrument panel or the steering wheel. It is possible to set the set vehicle speed at the time and set the driving mode during automatic driving to either the follow-up control mode or the overtaking control mode.

そして、自動運転における運転モードとして追従制御モードが選択されると、運転支援制御ユニット11は、E/G_ECU12、PS_ECU13、及び、BK_ECU14の制御を通じて、追従制御を行う。すなわち、走行車線の前方に先行車が存在しない場合には、運転支援制御ユニット11は、自車速Vをセット車速に維持して走行車線を走行させる定速制御を行う。また、走行車線の前方に先行車が存在する場合、運転支援制御ユニット11は、車間距離を所定に維持して先行車に追従させる追従制御を行う。この場合において、先行車の車速が自車両1のセット車速以下の場合であっても、運転支援制御ユニット11は、先行車を追い越すことなく追従制御を継続する。 Then, when the follow-up control mode is selected as the operation mode in automatic driving, the driving support control unit 11 performs follow-up control through control of the E/G_ECU 12, PS_ECU 13, and BK_ECU 14. That is, when there is no preceding vehicle in the driving lane, the driving support control unit 11 performs constant speed control to maintain the vehicle speed V at the set vehicle speed and drive in the driving lane. Further, when there is a preceding vehicle ahead of the driving lane, the driving support control unit 11 performs follow-up control to keep the vehicle-to-vehicle distance at a predetermined distance and follow the preceding vehicle. In this case, even if the vehicle speed of the preceding vehicle is equal to or lower than the set vehicle speed of the own vehicle 1, the driving support control unit 11 continues follow-up control without overtaking the preceding vehicle.

一方、追越制御モードが選択された場合、運転支援制御ユニット11は、基本的には上述の定速制御或いは追従制御を行い、先行車の車速が自車両1のセット車速よりも所定に遅い場合に、自車両1のセット車速を維持すべく、追越制御を実行する。 On the other hand, when the overtaking control mode is selected, the driving support control unit 11 basically performs the above-described constant speed control or following control, and the vehicle speed of the preceding vehicle is slower than the set vehicle speed of the host vehicle 1 by a predetermined amount. In this case, overtaking control is executed to maintain the set vehicle speed of the own vehicle 1 .

但し、先行車の車速が自車両1のセット車速よりも所定に遅い場合であっても、隣接車線に並走車等が存在する場合、或いは、隣接車線にさらに隣接する車線から隣接車線に車線変更する車両等が存在する場合、運転支援制御ユニット11は追越制御をキャンセルする。或いは、先行車の車速が自車両1のセット車速よりも所定に遅い場合であって、隣接車線に並走車等が存在する場合、或いは、隣接車線にさらに隣接する車線から隣接車線に車線変更する車両等が存在する場合、運転支援制御ユニット11は、自車速を一時的に減速させ、並走車等が所定距離前方まで移動するのを待って、追越制御を実行する。 However, even if the vehicle speed of the preceding vehicle is slower than the set vehicle speed of the own vehicle 1, if there is a parallel running vehicle or the like in the adjacent lane, or if there is a lane further adjacent to the adjacent lane to the adjacent lane. If there is a vehicle or the like to be changed, the driving support control unit 11 cancels the overtaking control. Alternatively, when the vehicle speed of the preceding vehicle is slower than the set vehicle speed of the own vehicle 1 and there is a parallel running vehicle or the like in the adjacent lane, or when the lane is changed from the lane further adjacent to the adjacent lane to the adjacent lane. If there is a vehicle or the like on the other side, the driving support control unit 11 temporarily decelerates the own vehicle speed, waits for the parallel running vehicle or the like to move a predetermined distance ahead, and then executes overtaking control.

報知手段22は、運転者に自動運転の開始、中断などを点滅表示、文字表示、音声等で報知するもので、表示ランプ、表示器、スピーカ等で構成されている。 The notification means 22 notifies the driver of the start or suspension of automatic driving by flashing display, character display, sound, etc., and is composed of a display lamp, a display, a speaker, and the like.

E/G_ECU12の出力側には、スロットルアクチュエータ17が接続されている。このスロットルアクチュエータ17は、エンジンのスロットルボディに設けられている電子制御スロットルのスロットル弁を開閉動作させるものであり、E/G_ECU12からの駆動信号によりスロットル弁を開閉動作させて吸入空気流量を調整することで、所望のエンジン出力を発生させる。 A throttle actuator 17 is connected to the output side of the E/G_ECU 12 . The throttle actuator 17 opens and closes the throttle valve of an electronically controlled throttle provided in the throttle body of the engine, and adjusts the intake air flow rate by opening and closing the throttle valve according to a drive signal from the E/G_ECU 12. By doing so, a desired engine output is generated.

PS_ECU13の出力側には、電動パワステモータ18が接続されている。この電動パワステモータ18はステアリング機構にモータの回転力で操舵トルクを付与するものであり、自動運転では、PS_ECU13からの駆動信号により電動パワステモータ18を制御動作させることで、現在の走行車線の走行を維持させる車線維持制御、及び自車両1を隣接車線へ移動させる車線変更制御(追越制御等のための車線変更制御)が実行される。 An electric power steering motor 18 is connected to the output side of the PS_ECU 13 . This electric power steering motor 18 applies a steering torque to the steering mechanism by the rotational force of the motor. and lane change control (lane change control for overtaking control, etc.) for moving the host vehicle 1 to the adjacent lane.

BK_ECU14の出力側には、ブレーキアクチュエータ19が接続されている。このブレーキアクチュエータ19は、各車輪に設けられているブレーキホイールシリンダに対して供給するブレーキ油圧を調整するもので、BK_ECU14からの駆動信号によりブレーキアクチュエータ19が駆動されると、ブレーキホイールシリンダにより各車輪に対してブレーキ力が発生し、強制的に減速される。 A brake actuator 19 is connected to the output side of the BK_ECU 14 . The brake actuator 19 adjusts the brake hydraulic pressure supplied to the brake wheel cylinder provided for each wheel. A braking force is generated against the vehicle, forcing deceleration.

次に、車外環境認識装置30の構成について、具体的に説明する。 Next, the configuration of the vehicle exterior environment recognition device 30 will be specifically described.

車外環境認識装置30は、演算ユニット31の入力側に、車載カメラ32と、ナビゲーション装置33と、レーダ手段としての複数のレーダ34(左前側方レーダ34lf、右前側方レーダ34rf、左後側方レーダ34lr、及び、右後側方レーダ34rr)と、車速センサ35と、ヨーレートセンサ36と、が接続されて要部が構成されている。 The external environment recognition device 30 includes an on-vehicle camera 32, a navigation device 33, and a plurality of radars 34 (a left front side radar 34lf, a right front side radar 34rf, a left rear side radar 34rf, and a left rear side radar 34rf). A radar 34lr, a right rear side radar 34rr), a vehicle speed sensor 35, and a yaw rate sensor 36 are connected to form a main part.

車載カメラ32は、例えば、メインカメラ32aとサブカメラ32bとを有するステレオカメラである。これらメインカメラ32aとサブカメラ32bは、例えば、自車両1のキャビン前部において車幅方向(左右方向)に所定の間隔を隔てて固定され、走行方向前方の所定領域A1(図2参照)を左右の異なる視点からステレオ撮像することが可能となっている。 The vehicle-mounted camera 32 is, for example, a stereo camera having a main camera 32a and a sub-camera 32b. These main camera 32a and sub-camera 32b are, for example, fixed in the front part of the cabin of the vehicle 1 with a predetermined interval in the vehicle width direction (left-right direction), and cover a predetermined area A1 (see FIG. 2) ahead in the traveling direction. Stereo imaging is possible from different left and right viewpoints.

この車載カメラ32において撮像された左右の画像データの処理は、例えば、以下のように行われる。すなわち、演算ユニット31は、先ず、メインカメラ32aとサブカメラ32bで撮像した自車両の進行方向の1組の画像対に対し、対応する位置のずれ量から距離情報を求め、距離画像を生成する。そして、演算ユニット31は、生成した距離画像等に基づいて、白線、道路に沿って存在するガードレール、縁石等の側壁、及び、立体物(種別、距離、速度、自車両との相対速度、先行車情報等)等の認識を行い、これらの認識データを運転支援制御ユニット11に出力する。 The left and right image data captured by the in-vehicle camera 32 are processed, for example, as follows. That is, the arithmetic unit 31 first obtains distance information from the displacement amount of the corresponding positions for a pair of images taken by the main camera 32a and the sub camera 32b in the traveling direction of the own vehicle, and generates a distance image. . Then, based on the generated distance image, etc., the arithmetic unit 31 detects side walls such as white lines, guardrails along the road, curbs, etc., and three-dimensional objects (type, distance, speed, relative speed to the own vehicle, preceding vehicle information, etc.), etc., and outputs these recognition data to the driving support control unit 11. FIG.

白線の認識において、演算ユニット31は、白線は道路面と比較して高輝度であるという知得に基づき、道路の幅方向の画素の輝度変化を評価して、画像平面における左右の白線候補点の位置を画像平面上で特定する。この白線候補点の実空間上の位置(x,y,z)は、画像平面上の位置(i,j)とこの位置に関して算出された視差(すなわち、距離情報)とに基づいて、周知の座標変換式により算出される。自車両の位置を基準に設定された実空間の座標系は、例えば、メインカメラ32aの中央真下の道路面を原点Oとし、車幅方向をX軸、車高方向をY軸、車長方向をZ軸として定義される。そして、実空間の座標系に変換された各白線候補点は、例えば、互いに近接する点列毎にグループ化され、最小自乗法等を用いて二次曲線(白線近似線)に近似される。ここで、本実施形態において、演算ユニット31は、自車両1の走行車線に隣接する隣接車線、隣接車線にさらに隣接する車線、及び、対向車線等(以下、隣接車線等という)が存在する場合には、当該隣接車線等を区画する白線についても認識する。すなわち、本実施形態の左右白線認識では、自車の走行車線を区画する白線のみならず、隣接車線等を区画する白線についても別途認識が行われる。 In recognizing a white line, the arithmetic unit 31 evaluates the brightness change of pixels in the width direction of the road based on the knowledge that the white line has a higher brightness than the road surface, and calculates the left and right white line candidate points in the image plane. is located on the image plane. The position (x, y, z) of this white line candidate point on the real space is obtained by a known It is calculated by a coordinate conversion formula. The real space coordinate system set based on the position of the own vehicle has, for example, the road surface directly below the center of the main camera 32a as the origin O, the vehicle width direction as the X axis, the vehicle height direction as the Y axis, and the vehicle length direction. is defined as the Z-axis. Then, each white line candidate point converted into the coordinate system of the real space is grouped by, for example, a series of points that are close to each other, and approximated to a quadratic curve (white line approximation line) using the least squares method or the like. Here, in this embodiment, if there are adjacent lanes adjacent to the driving lane of the host vehicle 1, lanes further adjacent to the adjacent lanes, and oncoming lanes (hereinafter referred to as adjacent lanes, etc.), the arithmetic unit 31 Also recognize the white lines that separate the adjacent lanes. That is, in the left and right white line recognition of the present embodiment, not only the white lines that separate the driving lanes of the vehicle, but also the white lines that separate adjacent lanes and the like are separately recognized.

また、側壁や立体物の認識において、演算ユニット31は、距離画像上のデータと、予め記憶しておいた3次元的な側壁データ、立体物データ等の枠(ウインドウ)とを比較し、道路に沿って延在するガードレール、縁石等の側壁データを抽出するとともに、立体物を、自動車、二輪車、歩行者、電柱等その他の立体物に分類して抽出する。立体物データの抽出において、演算ユニット31は、それぞれの自車両との距離(相対距離)の時間的変化の割合から自車両との相対速度を演算し、この相対速度と自車速Vとを加算することにより各々の立体物の速度を算出する。この際、特に、車両として分類された立体物は、その速度から、自車両の前方方向を正として、速度が略0の車両は停止車両、速度が正(自車両と同じ方向に進む車両)で自車両に最も近い車両は先行車、速度が負の車両(自車両に向かってくる車両)は対向車として分類して認識される。 In recognizing side walls and three-dimensional objects, the arithmetic unit 31 compares the data on the distance image with pre-stored three-dimensional side wall data, three-dimensional object data, and other frames (windows) to determine the road surface. Along with extracting side wall data such as guardrails and curbs extending along the road, three-dimensional objects are extracted by classifying them into other three-dimensional objects such as automobiles, two-wheeled vehicles, pedestrians, and utility poles. In extracting the three-dimensional object data, the arithmetic unit 31 calculates the relative speed with respect to the own vehicle from the rate of temporal change in the distance (relative distance) from each own vehicle, and adds this relative speed and the own vehicle speed V. By doing so, the velocity of each three-dimensional object is calculated. At this time, in particular, three-dimensional objects classified as vehicles, based on their speed, assume that the forward direction of the own vehicle is positive. , the vehicle closest to the own vehicle is classified as a preceding vehicle, and a vehicle with a negative speed (a vehicle approaching the own vehicle) is classified and recognized as an oncoming vehicle.

ナビゲーション装置33は、地図情報(サプライヤデータ、及び、所定に更新されたデータ)を記憶する地図データベースと、ナビゲーション機能を実現するための経路情報を生成するナビECUと、を備えて構成されている(何れも図示せず)。 The navigation device 33 includes a map database that stores map information (supplier data and predetermined updated data), and a navigation ECU that generates route information for realizing a navigation function. (none shown).

地図データベースには、ノードデータ、施設データ等の道路地図を構成するのに必要な情報が記憶されている。ノードデータは、地図画像を構成する道路の位置及び形状に関するものであり、例えば道路(車線)の幅方向中心点、道路の分岐点(交差点)を含む道路上の点(ノード点)の座標(緯度、経度)、当該ノード点が含まれる道路の方向、種別(例えば、高速道路、幹線道路、市道といった情報)、当該ノード点における道路のタイプ(直線区間、円弧区間(円弧曲線部)、クロソイド曲線区間(緩和曲線部))及びカーブ曲率(或いは、半径)のデータが含まれている。 The map database stores information necessary for constructing a road map, such as node data and facility data. The node data relates to the position and shape of the roads that make up the map image. latitude, longitude), the direction and type of the road that includes the node point (for example, information such as highway, arterial road, city road), the type of road at the node point (straight section, arc section (arc curve section), Clothoid curve section (segmentation curve portion)) and curve curvature (or radius) data are included.

そして、ナビEUCは、例えば、GPS(Global Positioning System)衛星からの電波信号を受信して取得した自車両1の位置情報(緯度、経度)、車速センサ35から取得した自車速V、及び、地磁気センサ或いはジャイロセンサ等から取得した自車両1の移動方向情報等に基づいて地図データ上における自車位置等を特定し、自車両1の走行車線、及び、隣接車線等の各種情報を認識することが可能となっている。 Then, the navigation ECU, for example, receives radio signals from GPS (Global Positioning System) satellites and acquires the position information (latitude and longitude) of the own vehicle 1, the own vehicle speed V acquired from the vehicle speed sensor 35, and the geomagnetism Identifying the position of the vehicle 1 on the map data based on the moving direction information of the vehicle 1 obtained from a sensor or a gyro sensor, etc., and recognizing various information such as the driving lane of the vehicle 1 and adjacent lanes. is possible.

左前側方レーダ34lf及び右前側方レーダ34rfは、例えば、ミリ波レーダであり、フロントバンパの左右側部に各々配設されている。これら左前側方レーダ34lf及び右前側方レーダ34rfは、上述した車載カメラ32からの画像では認識することの困難な自車両1の左右斜め前方及び側方の領域(走査領域Alf,Arf(図2参照))を監視する。 The left front side radar 34lf and the right front side radar 34rf are millimeter wave radars, for example, and are arranged on the left and right sides of the front bumper, respectively. The front left side radar 34lf and the front right side radar 34rf scan areas (scanning areas Alf, Arf (see FIG. 2 ))).

左後側方レーダ34lr及び右後側方レーダ34rrは、例えば、ミリ波レーダであり、リヤバンパの左右側部に各々配設されている。これら左後側方レーダ34lr及び右後側方レーダ34rrは、上述した左前側方レーダ34lf及び右前側方レーダ34rfでは監視することのできない自車両1の側方から後方にかけての領域(走査領域Alr,Arr(図2参照))を監視する。 The left rear side radar 34lr and the right rear side radar 34rr are millimeter wave radars, for example, and are arranged on the left and right sides of the rear bumper, respectively. These left rear side radar 34lr and right rear side radar 34rr scan an area (scanning area Alr , Arr (see FIG. 2)).

すなわち、各レーダ3434lf,34rf,34lr,34rrは、それぞれ、レーダ波を水平方向に走査させ、当該レーダ波が物体で反射した反射波を受信することにより、並走車や後続車等の立体物をレーダオブジェクト(レーダOBJ)として検出するための複数の反射点Rlf,Rrf,Rlr,Rrr(より具体的には、自車両1と反射点との相対位置情報)を検出する。 That is, each of the radars 3434lf, 34rf, 34lr, and 34rr scans the radar wave in the horizontal direction, and receives the reflected wave of the radar wave reflected by the object, thereby detecting a three-dimensional object such as a parallel running vehicle or a following vehicle. is detected as a radar object (radar OBJ).

この場合において、例えば、並走車等の立体物の反射点Rを途切れなく検出するため、左後側方レーダ34lrと左前側方レーダ34lfとは、走査領域Alrの一端側(先端側)の一部領域と走査領域Alfの他端側(後端側)の一部領域とが互いに重なり合う重畳領域Aslを形成するように設定されている。同様に、右後側方レーダ34rrと右前側方レーダ34rfとは、走査領域Arrの一端側(先端側)の一部領域と走査領域Arfの他端側(後端側)の一部領域とが互いに重なり合う重畳領域Asrを形成するように設定されている。 In this case, for example, in order to continuously detect the reflection point R of a three-dimensional object such as a parallel running vehicle, the left rear side radar 34lr and the left front side radar 34lf are positioned at one end side (tip side) of the scanning area Alr. The partial area and the partial area on the other end side (rear end side) of the scanning area Alf are set to overlap each other to form an overlapping area Asl. Similarly, the right rear side radar 34rr and the right front side radar 34rf are divided into a partial area on one end side (front end side) of the scanning area Arr and a partial area on the other end side (rear end side) of the scanning area Arf. are set so as to form an overlapping region Asr in which are overlapped with each other.

これらの各レーダ34によってそれぞれ検出された複数の反射点Rが入力されると、演算ユニット31は、反射点Rの分布を、予め設定された条件に基づき、同一の立体物からの反射された可能性が高い反射点R毎にグループ化する。すなわち、演算ユニット31は、互いに近接する反射点Rの点列を、それぞれ反射点群としてグループ化する。そして、演算ユニット31は、グループ化された反射点群毎にレーダOBJを検出し、検出したレーダOBJの代表点(立体物の代表点)Pを算出するとともに、自車両1と代表点Pとの相対速度、代表点Pの移動量(対地位置の変化量)、及び、代表点Pの加速度等の各種情報を並走車両や後続車両等の立体物情報として演算する。 When a plurality of reflection points R detected by each radar 34 are input, the arithmetic unit 31 calculates the distribution of the reflection points R based on preset conditions. Each reflection point R having a high probability is grouped. That is, the arithmetic unit 31 groups the point sequences of the reflection points R that are close to each other as a reflection point group. Then, the arithmetic unit 31 detects the radar OBJ for each group of grouped reflection points, calculates the representative point (representative point of the three-dimensional object) P of the detected radar OBJ, and , the amount of movement of the representative point P (amount of change in position with respect to the ground), and the acceleration of the representative point P are calculated as three-dimensional object information such as vehicles running in parallel and following vehicles.

この場合において、例えば、図3,4に示すように、各レーダ34で検出される複数の反射点Rは、基本的には、車体面等の立体物面に沿って検出されるものであるが、走査領域A内における走査方向の端部領域においては検出位置にバラツキが生じ易く、実際の立体物面とは異なる位置に反射点Rが検出されやすい傾向にある。そこで、演算ユニット31は、このような端部領域が含まれる重畳領域As内において、各レーダ34の端部領域にて検出された反射点Rを除外した上で、立体物の代表点Pを算出する。 In this case, for example, as shown in FIGS. 3 and 4, the plurality of reflection points R detected by each radar 34 are basically detected along a three-dimensional object surface such as a vehicle body surface. However, the detection position tends to vary in the end regions in the scanning direction within the scanning region A, and the reflection point R tends to be detected at a position different from the actual three-dimensional object surface. Therefore, the arithmetic unit 31 removes the reflection point R detected in the edge area of each radar 34 in the overlapping area As including such an edge area, and then extracts the representative point P of the three-dimensional object. calculate.

以下、右後側方レーダ34rrを第1のレーダ手段、右前側方レーダ34rfを第2のレーダ手段とし、さらに、右後側方レーダ34rrの走査領域Arrを第1の走査領域、右前側方レーダ34rfの走査領域Arfを第2の走査領域とした場合を例に説明する。 Hereinafter, the right rear side radar 34rr will be referred to as the first radar means, the right front side radar 34rf will be referred to as the second radar means, and the scanning area Arr of the right rear side radar 34rr will be referred to as the first scanning area. A case where the scanning area Arf of the radar 34rf is set as the second scanning area will be described as an example.

この場合、例えば、右後側方レーダ34rrの走査領域Arrと右前側方レーダ34rfとの重畳領域Asrには、その先端側(一端側)の一部領域が右後側方レーダ34rrにより検出された反射点R(反射点Rrr)を除外するための第1の除外領域Ae1として設定され、その基端側(他端側)の一部領域が右前側方レーダ34rfにより検出された反射点R(反射点Rrf)を除外するための第2の除外領域Ae2として設定されている。そして、演算ユニット31は、第1の除外領域Ae1内に存在する反射点Rrrを除外するとともに、第2の除外領域Ae2内に存在する反射点Rrfを除外し、除外されていない反射点Rrr及び反射点Rrfに基づいて立体物(レーダOBJ)の代表点Pを算出する。 In this case, for example, in the overlapping region Asr of the scanning region Arr of the right rear side radar 34rr and the right front side radar 34rf, a partial region on the tip side (one end side) is detected by the right rear side radar 34rr. The reflection point R (reflection point Rrr) is set as a first exclusion area Ae1 for excluding the reflection point R (reflection point Rrr) detected by the right front side radar 34rf. It is set as a second exclusion area Ae2 for excluding (reflection point Rrf). Then, the arithmetic unit 31 excludes the reflection points Rrr that exist within the first exclusion area Ae1, excludes the reflection points Rrf that exist within the second exclusion area Ae2, and removes the reflection points Rrr and A representative point P of the three-dimensional object (radar OBJ) is calculated based on the reflection point Rrf.

さらに、演算ユニット31は、離れた位置において検出された2つのレーダOBJの代表点Pの挙動が一致する場合には、これらレーダOBJが同一の立体物を表すものであると判断して代表点Pを統合することにより、最終的なレーダOBJの代表点Pを設定する。 Furthermore, when the behavior of the representative points P of two radar OBJs detected at distant positions matches, the arithmetic unit 31 determines that these radar OBJs represent the same three-dimensional object, and determines that the representative points P By integrating P, the representative point P of the final radar OBJ is set.

ここで、右後側方レーダ34rr及び右前側方レーダ34rfの取付位置や走査角度等を調整することにより、第1の除外領域Ae1と第2の除外領域Ae2は、重畳領域Asrを略等分割するように設定されていることが望ましい。 Here, by adjusting the mounting positions and scanning angles of the right rear side radar 34rr and the right front side radar 34rf, the first exclusion area Ae1 and the second exclusion area Ae2 divide the overlapping area Asr substantially equally. It should be set so that

このように、本実施形態において、演算ユニット31は、第1の反射点除外手段、第2の反射点除外手段、及び、代表点算出手段としての各機能を実現する。 Thus, in this embodiment, the arithmetic unit 31 implements the functions of first reflection point exclusion means, second reflection point exclusion means, and representative point calculation means.

次に、右後側方レーダ34rr及び右前側方レーダ34rfによって検出された反射点Rrr,Rrfに基づく立体物認識処理について、図5,6に示す立体物認識ルーチンのフローチャートに従って説明する。 Next, three-dimensional object recognition processing based on the reflection points Rrr and Rrf detected by the right rear side radar 34rr and the right front side radar 34rf will be described with reference to the flowchart of the three-dimensional object recognition routine shown in FIGS.

このルーチンは演算ユニット31において設定時間毎に繰り返し実行されるものであり、ルーチンがスタートすると、演算ユニット31は、先ず、ステップS101において、右後側方レーダ34rr及び右前側方レーダ34rfによって検出された反射点R(反射点Rrr,Rrf)のうち、互いに近接する反射点Rの点列を、それぞれ反射点群としてグループ化する。これにより、例えば、図7に示す例では、重複領域Asr内に存在する立体物(車両)については反射点Rrrと反射点Rrfとが混在する反射点群が形成され、走査領域Arr内のみに存在する立体物(車両)については反射点Rrrのみからなる反射点群が形成される。 This routine is repeatedly executed in the arithmetic unit 31 at set time intervals. When the routine starts, the arithmetic unit 31 is first detected by the right rear side radar 34rr and the right front side radar 34rf in step S101. Among the reflection points R (reflection points Rrr and Rrf), the point sequences of the reflection points R that are close to each other are grouped as a reflection point group. As a result, for example, in the example shown in FIG. 7, a reflection point group including reflection points Rrr and reflection points Rrf is formed for a three-dimensional object (vehicle) existing within the overlapping area Asr, and only within the scanning area Arr. A reflection point group consisting of only reflection points Rrr is formed for an existing three-dimensional object (vehicle).

ステップS101からステップS102に進むと、演算ユニット31は、ステップS101においてグループ化した反射点群のうち、代表点Pの算出処理が行われていない未処理の反射点群が存在するか否かを調べる。 When the process proceeds from step S101 to step S102, the arithmetic unit 31 determines whether or not there is an unprocessed reflection point group for which the representative point P calculation processing has not been performed among the reflection point groups grouped in step S101. investigate.

そして、ステップS102において、未処理の反射点群が存在しないと判定した場合、演算ユニット31は、ステップS110に進む。 Then, when it is determined in step S102 that there is no unprocessed reflection point group, the arithmetic unit 31 proceeds to step S110.

一方、ステップS102において、未処理の反射点群が存在すると判定した場合、演算ユニット31は、ステップS103に進み、未処理の反射点群の中から新たな1つの反射点群を抽出した後、ステップS104に進む。 On the other hand, if it is determined in step S102 that there is an unprocessed reflection point group, the arithmetic unit 31 proceeds to step S103, extracts a new reflection point group from the unprocessed reflection point group, The process proceeds to step S104.

ステップS103からステップS104に進むと、演算ユニット31は、現在抽出されている反射点群が重複領域Asrを含む領域に存在しているか否かを調べる。 When proceeding from step S103 to step S104, the arithmetic unit 31 checks whether or not the currently extracted reflection point group exists in an area including the overlapping area Asr.

そして、ステップS104において、反射点群が重複領域Asrを含む領域に存在していないと判定した場合、演算ユニット31は、ステップS106に進む。 Then, when it is determined in step S104 that the reflection point group does not exist in the region including the overlapping region Asr, the arithmetic unit 31 proceeds to step S106.

一方、ステップS104において、反射点群が重複領域Asrを含む領域に存在していると判定した場合、演算ユニット31は、ステップS105に進み、反射点Rの除外処理を行う。 On the other hand, if it is determined in step S104 that the group of reflection points exists in the region including the overlapping region Asr, the arithmetic unit 31 proceeds to step S105 and performs exclusion processing of the reflection point R.

すなわち、演算ユニット31は、第1の除外領域Ae1内に反射点Rrrが存在する場合、当該反射点Rrrは検出精度の低い反射点であるとして反射点群から除外する。また、演算ユニット31は、第2の除外領域Ae2内に反射点Rrfが存在する場合、当該反射点Rrfは検出精度の低い反射点であるとして反射点群から除外する。 That is, when the reflection point Rrr exists in the first exclusion area Ae1, the arithmetic unit 31 excludes the reflection point Rrr from the reflection point group as a reflection point with low detection accuracy. Further, when the reflection point Rrf exists in the second exclusion area Ae2, the calculation unit 31 excludes the reflection point Rrf from the reflection point group as a reflection point with low detection accuracy.

これにより、右後側方レーダ34rrの走査領域Arr内における一端側の端部領域において検出された反射点Rrrが除外されると共に、右前側方レーダ34rfの走査領域Arf内における他端側の端部領域において検出された反射点Rrfが除外される。 As a result, the reflection point Rrr detected in the end region on the one end side in the scanning region Arr of the right rear lateral radar 34rr is excluded, and the other end in the scanning region Arf of the right front lateral radar 34rf is excluded. Reflection points Rrf detected in partial regions are excluded.

なお、このように第1の除外領域Ae1内の反射点Rrrを除外した場合であっても、当該第1の除外領域Ae1内に立体物が存在する場合には、右前側方レーダ34rfによって同一立体物の反射点Rrfが精度良く検出されているため、当該領域内において反射点Rの連続性が途切れることはない。同様に、第2の除外領域Ae2内の反射点Rrfを除外した場合であっても、当該第2の除外領域Ae2内に立体物が存在する場合には、右後側方レーダ34rrによって同一立体物の反射点Rrrが精度良く検出されているため、当該領域内において反射点Rの連続性が途切れることはない。 Even when the reflection point Rrr in the first exclusion area Ae1 is excluded in this way, if a three-dimensional object exists in the first exclusion area Ae1, the right front side radar 34rf detects the same Since the reflection point Rrf of the three-dimensional object is detected with high accuracy, the continuity of the reflection point R is not interrupted within the region. Similarly, even if the reflection point Rrf within the second exclusion area Ae2 is excluded, if a three-dimensional object exists within the second exclusion area Ae2, the right rear side radar 34rr detects the same three-dimensional object. Since the reflection point Rrr of the object is detected with high accuracy, the continuity of the reflection point R is not interrupted within the region.

ステップS104或いはステップS105からステップS106に進むと、演算ユニット31は、現在選択されている反射点群を直線近似する。すなわち、演算ユニット31は、反射点群に対して周知のハフ変換等を行うことにより、立体物の反射面を近似する直線を求める。 When proceeding from step S104 or step S105 to step S106, the arithmetic unit 31 linearly approximates the currently selected reflection point group. That is, the arithmetic unit 31 obtains a straight line that approximates the reflecting surface of the three-dimensional object by performing a well-known Hough transform or the like on the reflecting point group.

ステップS106からステップS107に進むと、演算ユニット31は、直線近似した立体物の反射面の代表点Pを算出する。この場合、演算ユニット31は、例えば、自車両1に設定された原点O(メインカメラ32aの中央真下の道路面)をから最も近い近似直線上の点を代表点Pとして設定する(図8参照)。 When proceeding from step S106 to step S107, the arithmetic unit 31 calculates a representative point P of the reflecting surface of the linearly approximated three-dimensional object. In this case, the arithmetic unit 31 sets, for example, the point on the approximate straight line that is closest to the origin O (the road surface just below the center of the main camera 32a) set on the host vehicle 1 as the representative point P (see FIG. 8). ).

ステップS107からステップS108に進むと、演算ユニット31は、今回算出した代表点Pに対応する代表点が前回の処理においても算出されているか否か、すなわち、今回検出されたレーダOBJと同じレーダOBJが前回も検出されている否かを調べる。 When the process proceeds from step S107 to step S108, the arithmetic unit 31 determines whether or not the representative point corresponding to the representative point P calculated this time was also calculated in the previous process, i.e., the same radar OBJ as the radar OBJ detected this time. is also detected last time.

そして、ステップS108において、今回算出した代表点Pに対応する代表点が前回算出されていないと判定した場合、演算ユニット31は、ステップS102に戻る。 Then, when it is determined in step S108 that the representative point corresponding to the representative point P calculated this time has not been calculated last time, the arithmetic unit 31 returns to step S102.

一方、ステップS108において、今回算出した代表点Pに対応する代表点が前回算出されていると判定した場合、演算ユニット31は、ステップS109に進み、自車両1の移動量及び代表点Pの変化量等に基づき、自車両1と立体物(代表点P)との相対速度、立体物(代表点P)の対地移動量、立体物(代表点P)の加速度等を演算した後、ステップS102に戻る。 On the other hand, if it is determined in step S108 that the representative point corresponding to the representative point P calculated this time has been calculated last time, the arithmetic unit 31 proceeds to step S109 to After calculating the relative speed between the own vehicle 1 and the three-dimensional object (representative point P), the amount of ground movement of the three-dimensional object (representative point P), the acceleration of the three-dimensional object (representative point P), etc. based on the amount, etc., step S102 back to

ステップS102からステップS110に進むと、演算ユニット31は、今回、複数の代表点Pが算出されているか否かを調べる。 When proceeding from step S102 to step S110, the arithmetic unit 31 checks whether or not a plurality of representative points P have been calculated this time.

そして、ステップS110において、複数の代表点Pが算出されていないと判定した場合、演算ユニット31は、そのままルーチンを抜ける。 Then, when it is determined in step S110 that a plurality of representative points P have not been calculated, the arithmetic unit 31 exits the routine as it is.

一方、ステップS110において、複数の代表点Pが算出されていると判定した場合、演算ユニット31は、ステップS111に進み、今回検出されている各代表点Pをペアとする代表点組のパターンのうち、後述する一致判定を行っていない未処理の代表点組があるか否かを調べる。 On the other hand, if it is determined in step S110 that a plurality of representative points P have been calculated, the arithmetic unit 31 proceeds to step S111 to create a representative point set pattern paired with each representative point P detected this time. Among them, it is checked whether or not there is an unprocessed representative point set that has not been subjected to match determination, which will be described later.

そして、ステップS111において、未処理の代表点組がないと判定した場合、演算ユニット31は、そのままルーチンを抜ける。 Then, if it is determined in step S111 that there is no unprocessed representative point set, the arithmetic unit 31 exits the routine as it is.

一方、ステップS111において、未処理の代表点組があると判定した場合、演算ユニット31は、未処理の代表点組の中から新たな1組の代表点組を抽出した後、ステップS113に進む。 On the other hand, if it is determined in step S111 that there is an unprocessed representative point set, the arithmetic unit 31 extracts a new set of representative point sets from the unprocessed representative point sets, and then proceeds to step S113. .

ステップS112からステップS113に進むと、演算ユニット31は、代表点組を構成する2つの代表点Pの自車両1に対する各相対速度が一致するか否かを調べる。 When proceeding from step S112 to step S113, the arithmetic unit 31 checks whether or not the relative velocities of the two representative points P forming the representative point set with respect to the host vehicle 1 match.

そして、ステップS113において、2つの代表点Pの各相対速度が一致しないと判定した場合、演算ユニット31は、2つの代表点Pに係る各立体物は異なる立体物である可能性が高いと判断して、ステップS111に戻る。 If it is determined in step S113 that the relative velocities of the two representative points P do not match, the arithmetic unit 31 determines that the three-dimensional objects related to the two representative points P are highly likely to be different three-dimensional objects. Then, the process returns to step S111.

一方、ステップS113において、2つの代表点Pの各相対速度が一致すると判定した場合、演算ユニット31は、ステップS114に進み、2つの代表点Pの各移動量が一致するか否かを調べる。 On the other hand, if it is determined in step S113 that the relative velocities of the two representative points P match, the arithmetic unit 31 proceeds to step S114 to check whether the movement amounts of the two representative points P match.

そして、ステップS114において、2つの代表点Pの各移動量が一致しないと判定した場合、演算ユニット31は、2つの代表点Pに係る各立体物は異なる立体物である可能性が高いと判断して、ステップS111に戻る。 If it is determined in step S114 that the movement amounts of the two representative points P do not match, the arithmetic unit 31 determines that the three-dimensional objects related to the two representative points P are highly likely to be different three-dimensional objects. Then, the process returns to step S111.

一方、ステップS114において、2つの代表点Pの各移動量が一致すると判定した場合、演算ユニット31は、ステップS115に進み、2つの代表点の加速度が一致するか否かを調べる。 On the other hand, if it is determined in step S114 that the movement amounts of the two representative points P match, the arithmetic unit 31 proceeds to step S115 to check whether the accelerations of the two representative points match.

そして、ステップS115において、2つの代表点Pの各加速度が一致しないと判定した場合、演算ユニット31は、2つの代表点に係る各立体物(レーダOBJ)は異なる立体物である可能性が高いと判断して、ステップS111に戻る。 Then, when it is determined in step S115 that the accelerations of the two representative points P do not match, the arithmetic unit 31 determines that the three-dimensional objects (radar OBJ) related to the two representative points are highly likely to be different three-dimensional objects. Then, the process returns to step S111.

一方、ステップS115において、2つの代表点Pの各加速度が一致すると判定した場合、演算ユニット31は、2つの代表点に係る各立体物は同一の立体物であると判断してステップS116に進み、2つの代表点Pを新たな代表点Pとして統合した後、ステップS111に戻る。 On the other hand, if it is determined in step S115 that the accelerations of the two representative points P match, the arithmetic unit 31 determines that the three-dimensional objects related to the two representative points are the same three-dimensional object, and proceeds to step S116. , two representative points P are integrated as a new representative point P, and then the process returns to step S111.

なお、具体的な説明は省略するが、左後側方レーダ34lrを第1のレーダ手段、左前側方レーダ34lfを第2のレーダ手段とし、さらに、左後側方レーダ34lrの走査領域Alrを第1の走査領域、左前側方レーダ34lfの走査領域Alfを第2の走査領域とした場合等についても同様の処理を行うことが可能である。 Although a detailed description is omitted, the left rear side radar 34lr is the first radar means, the left front side radar 34lf is the second radar means, and the scanning area Alr of the left rear side radar 34lr is The same processing can be performed when the first scanning area and the scanning area Alf of the left front side radar 34lf are used as the second scanning area.

このような実施形態によれば、右後側方レーダ34rrの走査領域Arrと右前側方レーダ34rfの走査領域Arfとが重畳する重畳領域Asr内の一端側(先端側)に設定された第1の除外領域Ae1内に存在する反射点Rrrを除外すると共に、重畳領域Asr内の他端側(基端側)に設定された第2の除外領域Ae2内に存在する反射点Rrfを除外し、除外されていない反射点Rrr及び反射点Rrfに基づいて立体物(レーダオブジェクト)の代表点Pを算出することにより、2つのレーダの走査領域が重なる領域に存在する立体物についても精度良く検出することができる。 According to this embodiment, the first radar set on one end side (front end side) in the overlapping region Asr where the scanning region Arr of the right rear lateral radar 34rr and the scanning region Arf of the right front lateral radar 34rf overlap each other while excluding the reflection point Rrr existing within the exclusion area Ae1 of and excluding the reflection point Rrf existing within the second exclusion area Ae2 set on the other end side (base end side) of the overlapping area Asr, By calculating the representative point P of the three-dimensional object (radar object) based on the non-excluded reflection point Rrr and reflection point Rrf, the three-dimensional object present in the area where the two radar scanning areas overlap can also be accurately detected. be able to.

すなわち、走査領域Arrの端部領域に対応する第1の除外領域Ae1及び走査領域Arfの端部領域に対応する第2の除外領域Ae2が互いに重畳しない状態にて重畳領域Asr内に配置されるよう右後側方レーダ34rr及び右前側方レーダ34rfのセッティングを行い、第1の除外領域Ae1内の反射点Rrrを除外すると共に第2の除外領域Ae2内の反射点Rrfを除外することにより、重畳領域Asr内に立体物が存在する場合にも、反射点R(反射点Rrr及び反射点Rrf)の連続性を損なうことなく、信頼性の低い反射点Rを的確に除外することができる。従って、右後側方レーダ34rr及び右前側方レーダ34rfの走査領域Arr及び走査領域Arfの重畳領域Asr内に存在する立体物についても精度良く検出することができる。 That is, the first exclusion area Ae1 corresponding to the edge area of the scanning area Arr and the second exclusion area Ae2 corresponding to the edge area of the scanning area Arf are arranged in the overlapping area Asr without overlapping each other. By setting the right rear side radar 34rr and the right front side radar 34rf as follows to exclude the reflection point Rrr in the first exclusion area Ae1 and the reflection point Rrf in the second exclusion area Ae2, Even when a three-dimensional object exists within the superimposed region Asr, the reflection points R with low reliability can be accurately excluded without impairing the continuity of the reflection points R (reflection points Rrr and Rrf). Therefore, it is possible to accurately detect a three-dimensional object existing within the scanning area Arr of the right rear side radar 34rr and the right front side radar 34rf and the overlapping area Asr of the scanning area Arf.

この場合において、例えば、図7,8に示す乗用車等の立体物のみならず、図9,10に示す大型トレーラ等のように重畳領域Asrを横切る大型の立体物についても、反射点Rを連続的に精度良く検出することができるため、的確な認識を行うことができる。 In this case, for example, not only a three-dimensional object such as a passenger car shown in FIGS. 7 and 8 but also a large three-dimensional object such as a large trailer shown in FIGS. Therefore, accurate recognition can be performed.

一方、例えば、図11に示すようにキャリアカー等においては、荷台における骨格部分ではレーダを反射しづらく、反射可能範囲が車体の前後に分かれて存在するため、反射点群が分かれて形成される場合があるが(図12参照)、このような場合にも、個別に算出した立体物の代表点Pを統合することにより(統合後の代表点を図13中に「P’」として図示)、1つの立体物として的確な認識を行うことができる。 On the other hand, for example, as shown in FIG. 11, in a carrier car or the like, it is difficult for the frame portion of the carrier to reflect the radar, and since the reflective range exists separately in the front and rear of the vehicle body, the reflection point groups are formed separately. Although there are cases (see FIG. 12), even in such a case, by integrating the representative points P of the three-dimensional objects calculated individually (the representative points after integration are shown as “P′” in FIG. 13) , can be accurately recognized as one three-dimensional object.

この場合において、例えば、隣接車線等において、2台の車両のうちの後続車がオートクルーズ走行等によって先行車に追従走行している場合、自車両1と各代表点Pとの相対速度の比較、及び、各代表点Pの対地移動量の比較のみによる一致判定では、2つの代表点Pに係る立体物が同一の立体物であるか否かの判断が困難な場合があるが、各代表点Pの加速度の比較による一致判定を加えることにより、2つの代表点Pに係る立体物が同一の立体物であるか否かを的確に判断することができる。すなわち、後続車が先行車に追従走行している場合にも、後続車は先行車の挙動を待って応答するため、先行車と後続車とでは必ず加速度が変化するタイミング等にズレが生じることに着目し、各代表点Pの加速度の比較による一致判定を加えることにより、2つの代表点Pに係る立体物が同一の立体物であるか否かを的確に判断することができる。 In this case, for example, when the following vehicle of the two vehicles is following the preceding vehicle by auto-cruising or the like in an adjacent lane, the relative speeds of the own vehicle 1 and each representative point P are compared. , and the match determination based only on the comparison of the amount of ground movement of each representative point P, it may be difficult to determine whether or not the three-dimensional object related to the two representative points P is the same three-dimensional object. By adding matching judgment by comparing the acceleration of the point P, it is possible to accurately judge whether or not the three-dimensional objects related to the two representative points P are the same three-dimensional object. In other words, even if the following vehicle is following the preceding vehicle, the following vehicle waits for the behavior of the preceding vehicle and responds, so there is always a gap in the timing of changes in acceleration between the preceding and following vehicles. By focusing on and adding matching determination by comparing the acceleration of each representative point P, it is possible to accurately determine whether or not the three-dimensional object related to two representative points P is the same three-dimensional object.

なお、本発明は、以上説明した各実施形態に限定されることなく、種々の変形や変更が可能であり、それらも本発明の技術的範囲内である。 The present invention is not limited to the embodiments described above, and various modifications and changes are possible, which are also within the technical scope of the present invention.

例えば、上述の実施形態においては、第1の除外領域と第2の除外領域が重畳領域を等分割するように各レーダの取付位置や走査角度等を設定した構成の一例について説明したが、本発明はこれに限定されるものではなく、例えば、用いるレーダの種類や車両状況、検知する対象等に応じて、重複領域内において第1,第2の除外領域が占める割合を不等に設定することも可能である。 For example, in the above-described embodiment, an example of a configuration in which the mounting positions and scanning angles of the respective radars are set so that the first exclusion area and the second exclusion area equally divide the overlapping area has been described. The invention is not limited to this. For example, the proportions of the first and second exclusion areas within the overlapping area are set unequal according to the type of radar used, vehicle conditions, objects to be detected, etc. is also possible.

1 … 車両(自車両)
2 … 車両用運転支援装置
11 … 運転支援制御ユニット
12 … エンジン制御ユニット
13 … パワーステアリング制御ユニット
14 … ブレーキ制御ユニット
15 … 車内通信回線
17 … スロットルアクチュエータ
18 … 電動パワステモータ
19 … ブレーキアクチュエータ
21 … 自動運転スイッチ
22 … 報知手段
30 … 車外環境認識装置
31 … 演算ユニット(第1の反射点除外手段、第2の反射点除外手段、代表点算出手段)
32 … 車載カメラ
32a … メインカメラ
32b … サブカメラ
33 … ナビゲーション装置
34lf … 左前側方レーダ
34lr … 左後側方レーダ
34rf … 右前側方レーダ(第2のレーダ手段)
34rr … 右後側方レーダ(第1のレーダ手段)
35 … 車速センサ
36 … ヨーレートセンサ
Ae1 … 第1の除外領域
Ae2 … 第2の除外領域
Alf … 走査領域
Alr … 走査領域
Arf … 走査領域
Arr … 走査領域
As(Asl,Asr) … 重畳領域
P … 代表点
R(Rlf,Rrf,Rlr,Rrr) … 反射点
1 … vehicle (own vehicle)
2 ... vehicle driving support device 11 ... driving support control unit 12 ... engine control unit 13 ... power steering control unit 14 ... brake control unit 15 ... in-vehicle communication line 17 ... throttle actuator 18 ... electric power steering motor 19 ... brake actuator 21 ... automatic Operation switch 22... Notifying means 30... External environment recognition device 31... Calculation unit (first reflection point exclusion means, second reflection point exclusion means, representative point calculation means)
32... In-vehicle camera 32a... Main camera 32b... Sub camera 33... Navigation device 34lf... Left front side radar 34lr... Left rear side radar 34rf... Right front side radar (second radar means)
34rr ... right rear side radar (first radar means)
35... Vehicle speed sensor 36... Yaw rate sensor Ae1... First exclusion area Ae2... Second exclusion area Alf... Scanning area Alr... Scanning area Arf... Scanning area Arr... Scanning area As (Asl, Asr)... Superimposed area P... Representative Point R (Rlf, Rrf, Rlr, Rrr) … Reflection point

Claims (2)

予め設定された第1の走査領域内において第1のレーダ波を水平方向に走査させ、前記第1のレーダ波が立体物で反射した第1の反射波を受信して前記立体物上の複数の第1の反射点を検出する第1のレーダ手段と、
前記第1の走査領域の一端側の一部領域に対して他端側の一部領域が重畳するよう予め設定された第2の走査領域内において第2のレーダ波を水平方向に走査させ、前記第2のレーダ波が立体物で反射した第2の反射波を受信して前記立体物上の複数の第2の反射点を検出する第2のレーダ手段と、
前記第1の走査領域と前記第2の走査領域とが重畳する重畳領域内において、前記第1のレーダ手段による前記第1の走査領域のうち前記第1の反射点の検出精度が他の領域よりも低下する前記第1のレーダ波の走査方向の端部領域であって、且つ、前記第1の走査領域の前記一端側に設定された第1の除外領域内に存在する前記第1の反射点を除外する第1の反射点除外手段と、
前記重畳領域内において、前記第2のレーダ手段による前記第2の走査領域のうち前記第2の反射点の検出精度が他の領域よりも低下する前記第2のレーダ波の走査方向の端部領域であって、且つ、前記第2の走査領域の前記他端側に設定された第2の除外領域内に存在する前記第2の反射点を除外する第2の反射点除外手段と、
除外されていない複数の前記第1の反射点及び複数の前記第2の反射点に基づき、互いに近接する反射点列からなる反射点群を形成し、前記反射点群毎に前記立体物の代表点を算出する代表点算出手段と、を備えたことを特徴とする車外環境認識装置。
A preset first scanning area is horizontally scanned with a first radar wave, and a first reflected wave reflected by the three-dimensional object is received by the first radar wave. first radar means for detecting a first reflection point of
horizontally scanning a second radar wave in a second scanning region preset so that a partial region on the other end side overlaps a partial region on the one end side of the first scanning region; second radar means for receiving a second reflected wave of the second radar wave reflected by a three-dimensional object and detecting a plurality of second reflection points on the three-dimensional object;
In an overlapping area where the first scanning area and the second scanning area overlap, the detection accuracy of the first reflection point in the first scanning area by the first radar means is a different area. The first edge region in the scanning direction of the first radar wave that is lower than the a first reflection point exclusion means for excluding reflection points;
Within the superimposed area, an end portion in the scanning direction of the second radar wave where detection accuracy of the second reflection point in the second scanning area by the second radar means is lower than in other areas . a second reflection point exclusion means for excluding the second reflection points existing within a second exclusion area set on the other end side of the second scanning area;
Based on the plurality of the first reflection points and the plurality of the second reflection points that are not excluded , a reflection point group composed of a series of reflection points that are adjacent to each other is formed, and the three-dimensional object is formed for each of the reflection point groups . and a representative point calculation means for calculating a representative point of the vehicle exterior environment recognition device.
前記代表点算出手段は、前記代表点が複数存在する場合であって、挙動が一致する前記代表点の組合せが存在する場合には、前記代表点の組合せを統合することを特徴とする請求項1に記載の車外環境認識装置。 3. The representative point calculation means integrates the combination of the representative points when there are a plurality of the representative points and when there is a combination of the representative points with matching behavior. 1. The vehicle exterior environment recognition device according to 1.
JP2017195283A 2017-10-05 2017-10-05 External environment recognition device Active JP7152848B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017195283A JP7152848B2 (en) 2017-10-05 2017-10-05 External environment recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017195283A JP7152848B2 (en) 2017-10-05 2017-10-05 External environment recognition device

Publications (2)

Publication Number Publication Date
JP2019066447A JP2019066447A (en) 2019-04-25
JP7152848B2 true JP7152848B2 (en) 2022-10-13

Family

ID=66340613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017195283A Active JP7152848B2 (en) 2017-10-05 2017-10-05 External environment recognition device

Country Status (1)

Country Link
JP (1) JP7152848B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022057334A (en) 2020-09-30 2022-04-11 株式会社Subaru Moving object detection device for vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005257510A (en) 2004-03-12 2005-09-22 Alpine Electronics Inc Another car detection device and method
JP2005300353A (en) 2004-04-12 2005-10-27 Mitsubishi Electric Corp Radar system
JP2006058230A (en) 2004-08-23 2006-03-02 Mitsubishi Electric Corp Radar system
JP2015078925A (en) 2013-10-17 2015-04-23 株式会社デンソー Periphery monitoring device and periphery monitoring system
JP2016114581A (en) 2014-12-18 2016-06-23 株式会社東芝 Radar system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005257510A (en) 2004-03-12 2005-09-22 Alpine Electronics Inc Another car detection device and method
JP2005300353A (en) 2004-04-12 2005-10-27 Mitsubishi Electric Corp Radar system
JP2006058230A (en) 2004-08-23 2006-03-02 Mitsubishi Electric Corp Radar system
JP2015078925A (en) 2013-10-17 2015-04-23 株式会社デンソー Periphery monitoring device and periphery monitoring system
JP2016114581A (en) 2014-12-18 2016-06-23 株式会社東芝 Radar system

Also Published As

Publication number Publication date
JP2019066447A (en) 2019-04-25

Similar Documents

Publication Publication Date Title
US9074906B2 (en) Road shape recognition device
CN108706009B (en) Vehicle travel control system
JP6627153B2 (en) Vehicle control device, vehicle control method, and program
JP5094658B2 (en) Driving environment recognition device
US10643474B2 (en) Vehicle control device, vehicle control method, and recording medium
US11634150B2 (en) Display device
US20190146519A1 (en) Vehicle control device, vehicle control method, and storage medium
CN109466542B (en) Vehicle control device, vehicle control method, and storage medium
US20190283754A1 (en) Vehicle control device, vehicle control method, and storage medium
JP6485915B2 (en) Road lane marking recognition device, vehicle control device, road lane marking recognition method, and road lane marking recognition program
US20190283802A1 (en) Vehicle control device, vehicle control method, and storage medium
US11505193B2 (en) Vehicle control apparatus, vehicle control method, and storage medium
US11009589B2 (en) Vehicle exterior environment recognition apparatus
US11433888B2 (en) Driving support system
JP2019096161A (en) Vehicle controller, vehicle control method, and program
JP7152848B2 (en) External environment recognition device
US20220309804A1 (en) Vehicle control device, vehicle control method, and storage medium
US11932283B2 (en) Vehicle control device, vehicle control method, and storage medium
US11760345B2 (en) Vehicle traveling control apparatus
JP2020051943A (en) Stereo camera device for vehicles
US11993202B2 (en) Vehicle light distribution control apparatus
US11801838B2 (en) Vehicle control device, vehicle control method, and storage medium
US20240017662A1 (en) Vehicle light distribution control apparatus
WO2023054655A1 (en) Preceding vehicle determination system
US20220306150A1 (en) Control device, control method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200928

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220930

R150 Certificate of patent or registration of utility model

Ref document number: 7152848

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150