JP2011164989A - Apparatus for determining unstable state - Google Patents

Apparatus for determining unstable state Download PDF

Info

Publication number
JP2011164989A
JP2011164989A JP2010027910A JP2010027910A JP2011164989A JP 2011164989 A JP2011164989 A JP 2011164989A JP 2010027910 A JP2010027910 A JP 2010027910A JP 2010027910 A JP2010027910 A JP 2010027910A JP 2011164989 A JP2011164989 A JP 2011164989A
Authority
JP
Japan
Prior art keywords
position information
vehicle
distance
detection
surrounding vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010027910A
Other languages
Japanese (ja)
Inventor
Kyoichi Abe
恭一 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2010027910A priority Critical patent/JP2011164989A/en
Publication of JP2011164989A publication Critical patent/JP2011164989A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an unstable-state determination device that enhances accuracy in determining unstable-state of a vehicle around a vehicle without narrowing a detection area of the vehicle around the vehicle. <P>SOLUTION: The unstable-state determination device 70 includes: a first computing means 20 that obtains a first position information (distance, lateral position) of the vehicles around the vehicle, the information being detected by a first detection means 20; a second computing means 30 that obtains a second position information (distance, lateral position) of the vehicles around the vehicle, the information being detected by a second detection means 30 whose detection principle is different from that of the first detection means 20; an integrated computing means 74 that obtains integrated position information (distance, lateral position) of the vehicles around the vehicle by integrating the first and second position information; a selection means 75 that selects any of the first and second position information and the integrated position information based on the location of the vehicles around the vehicle; and a determination means 76 that determines an unstable-state of the vehicles around the vehicle, based on temporal change of the selected position information (distance, lateral position). <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、周辺車両のふらつき判定を行うふらつき判定装置に関するものである。   The present invention relates to a wobble determination device that performs a wobble determination of surrounding vehicles.

特許文献1には、先行車両のふらつき(不安定度)判定を行うふらつき判定装置(車両走行状態検出装置)を備え、この判定結果に応じて運転支援を行う運転支援装置(車両走行制御装置)が開示されている。ふらつき判定装置では、CCDカメラによって自車両前方の画像を撮像して画像処理を行うことによって、先行車両の水平方向の横位置を検出する。そして、このふらつき判定装置では、先行車両の横位置を時間的に追ってその変化パターンを検出し、この変化パターンから先行車両のふらつきを判断する。   Patent Document 1 includes a wobbling determination device (vehicle running state detection device) that performs a wobbling (unstable degree) determination of a preceding vehicle, and a driving support device (vehicle driving control device) that performs driving support according to the determination result. Is disclosed. The wobbling determination device detects the horizontal position of the preceding vehicle in the horizontal direction by capturing an image ahead of the host vehicle with a CCD camera and performing image processing. In this wobbling determination device, the change pattern is detected by following the lateral position of the preceding vehicle in time, and the wobbling of the preceding vehicle is determined from this change pattern.

特開2004−220348号公報JP 2004-220348 A

しかしながら、先行車両の横位置の変化のみによるふらつき判定では、判定精度が低い。この点に関し、横位置の変化に加えて、先行車両の前後方向の縦位置の変化、すなわち、自車両と先行車両との距離の変化に基づいてふらつき判定を行うことによって、ふらつき判定の精度を高めることが考えられる。   However, in the wobbling determination based only on the change in the lateral position of the preceding vehicle, the determination accuracy is low. In this regard, in addition to the change in the horizontal position, by performing the wobble determination based on the change in the vertical position of the preceding vehicle in the front-rear direction, that is, the change in the distance between the host vehicle and the preceding vehicle, It can be raised.

しかしながら、カメラによる検出では、横位置の検出精度は比較的高いものの、先行車両との距離の検出精度は低い。この点に関し、カメラに代えてミリ波レーダを用いることが考えられる。ところが、ミリ波レーダによる検出では、先行車両との距離の検出精度は比較的高いものの、横方向の検出精度は低い。そのため、先行車両のふらつき検出の精度を高めることが困難であった。   However, in the detection by the camera, the detection accuracy of the lateral position is relatively high, but the detection accuracy of the distance from the preceding vehicle is low. In this regard, it is conceivable to use a millimeter wave radar instead of the camera. However, in the detection by the millimeter wave radar, the detection accuracy of the distance to the preceding vehicle is relatively high, but the detection accuracy in the lateral direction is low. For this reason, it has been difficult to improve the accuracy of detection of wobbling of the preceding vehicle.

この点に関し、本願発明者らは、センサフュージョンという手法を考案している。センサフュージョンとは、検出原理の異なる2つのセンサ、例えばミリ波レーダとカメラとを用い、ミリ波レーダで検出した高精度の先行車両との距離とカメラで検出した高精度の先行車両の横位置とを融合(フュージョン)する手法である。これにより、先行車両との距離と先行車両の横位置とを共に高精度に検出することが可能となる。   In this regard, the inventors have devised a technique called sensor fusion. Sensor fusion uses two sensors with different detection principles, for example, a millimeter wave radar and a camera. The distance from the highly accurate preceding vehicle detected by the millimeter wave radar and the lateral position of the highly accurate preceding vehicle detected by the camera. It is a technique to fuse (fusion). As a result, both the distance from the preceding vehicle and the lateral position of the preceding vehicle can be detected with high accuracy.

しかしながら、ミリ波レーダによる検出では、水平方向の分解能とアンテナの大きさの制約から、一般に水平方向の検出範囲が狭く、カメラによる検出では、画像精度や解像度、測距方式の関係から、一般に検出距離が短いので、センサフュージョンによる検出が可能な範囲は狭かった。   However, detection by millimeter wave radar generally has a narrow horizontal detection range due to limitations in horizontal resolution and antenna size, and detection by camera generally detects from the relationship between image accuracy, resolution, and ranging method. Since the distance is short, the range that can be detected by sensor fusion is narrow.

そこで、本発明は、周辺車両の検出範囲を狭めることなく、周辺車両のふらつき判定の精度を高めることが可能なふらつき判定装置を提供することを目的としている。   In view of the above, an object of the present invention is to provide a wobbling determination device that can increase the accuracy of wobbling determination of surrounding vehicles without narrowing the detection range of the surrounding vehicles.

本発明のふらつき判定装置は、第1の検出手段によって検出された周辺車両の第1の位置情報として周辺車両との距離及び周辺車両の横方向位置を求める第1の演算手段と、第1の検出手段と異なる検出原理を用いる第2の検出手段によって検出された周辺車両の第2の位置情報として周辺車両との距離及び周辺車両の横方向位置を求める第2の演算手段と、第1及び第2の位置情報を融合することによって周辺車両の融合位置情報として周辺車両との距離及び周辺車両の横方向位置を求める融合演算手段と、周辺車両の存在位置に基づいて、第1及び第2の位置情報、並びに融合位置情報のうちの何れかの位置情報を選択する選択手段と、選択手段によって選択された位置情報における周辺車両との距離及び周辺車両の横方向位置それぞれの時間的変動に基づいて、周辺車両のふらつき判定を行う判定手段と、を備える。   The wobble determination device according to the present invention includes a first calculation unit that obtains a distance to a surrounding vehicle and a lateral position of the surrounding vehicle as first position information of the surrounding vehicle detected by the first detecting unit, Second computing means for determining a distance to the surrounding vehicle and a lateral position of the surrounding vehicle as second position information of the surrounding vehicle detected by the second detecting means using a detection principle different from the detecting means; Based on the fusion calculation means for obtaining the distance to the surrounding vehicle and the lateral position of the surrounding vehicle as the fused position information of the surrounding vehicle by fusing the second position information, the first and second Selection means for selecting any one of the position information and the fusion position information, the distance to the surrounding vehicle in the position information selected by the selection means, and the lateral position of the surrounding vehicle, respectively Based on the temporal variation comprises a judging means for performing wobble determination around the vehicle, a.

このふらつき判定装置によれば、融合演算手段によって、第1の検出手段によって検出された第1の位置情報と第2の検出手段によって検出された第2の位置情報とを融合することによって、検出精度が高い周辺車両との距離と検出精度が高い周辺車両の横方向位置とを有する融合位置情報を求めることができる。したがって、判定手段によって、この融合位置情報における周辺車両との距離の時間的変動及び周辺車両の横方向位置の時間的変動に基づいて周辺車両のふらつき判定を行うことにより、周辺車両のふらつき判定の精度を高めることができる。   According to the fluctuation determination device, detection is performed by fusing the first position information detected by the first detection means and the second position information detected by the second detection means by the fusion calculation means. It is possible to obtain the fusion position information having the distance to the surrounding vehicle with high accuracy and the lateral position of the surrounding vehicle with high detection accuracy. Therefore, the determination unit performs the wobble determination of the surrounding vehicle by performing the wobble determination of the surrounding vehicle based on the temporal variation of the distance to the surrounding vehicle and the temporal variation of the lateral position of the surrounding vehicle in the fusion position information. Accuracy can be increased.

更に、このふらつき判定装置によれば、周辺車両の存在位置が第1及び第2の検出手段のうちの一方の検出手段の検出不可能領域内である場合には、すなわち、融合位置情報を求めることができない場合には、選択手段によって、他方の検出手段の位置情報を選択することができる。したがって、融合位置情報を求めることができない場合であっても、判定手段によって、第1及び第2の検出手段のうちの何れかの位置情報における周辺車両との距離の時間的変動及び周辺車両の横方向位置の時間的変動に基づいて周辺車両のふらつき判定を行うことができる。故に、このふらつき判定装置によれば、周辺車両の検出範囲を狭めることがない。   Further, according to this wobble determination device, when the position of the surrounding vehicle is within the undetectable area of one of the first and second detection means, that is, the fusion position information is obtained. If this is not possible, the position information of the other detection means can be selected by the selection means. Therefore, even when the fusion position information cannot be obtained, the determination means causes the time variation of the distance to the surrounding vehicle in the position information of any one of the first and second detection means and the surrounding vehicle. Based on the temporal variation of the lateral position, it is possible to perform the wobble determination of the surrounding vehicle. Therefore, according to this wobble determination device, the detection range of surrounding vehicles is not narrowed.

上記した前記融合演算手段は、前記第1の検出手段による距離の検出精度±ZX1及び横方向位置の検出精度±ZY1、前記第2の検出手段による距離の検出精度±ZX2及び横方向位置の検出精度±ZY2に基づいて、前記第1の位置情報における前記周辺車両との距離X及び前記周辺車両の横方向位置Y、前記第2の位置情報における前記周辺車両との距離X及び前記周辺車両の横方向位置Yである場合に、下式によって融合位置情報における前記周辺車両との距離X及び前記周辺車両の横方向位置Yを求めることが好ましい。
=(ZX2×X+ZX1×X)/(ZX1+ZX2
=(ZY2×Y+ZY1×Y)/(ZY1+ZY2
The above fusion calculation means includes distance detection accuracy ± Z X1 and lateral position detection accuracy ± Z Y1 by the first detection means, distance detection accuracy ± Z X2 and lateral direction by the second detection means. based on the detection accuracy ± Z Y2 position, lateral position Y 1 of the first distance X 1 and the peripheral vehicle and the peripheral vehicle in the position information, the distance between the adjacent vehicle in the second location in the case of X 2 and the peripheral vehicle is lateral position Y 2, it is preferable to determine the lateral position Y 3 of the distance X 3 and the peripheral vehicle and the peripheral vehicle in the fusion position information by the following equation.
X 3 = (Z X2 × X 1 + Z X1 × X 2 ) / (Z X1 + Z X2 )
Y 3 = (Z Y2 × Y 1 + Z Y1 × Y 2) / (Z Y1 + Z Y2)

これによれば、上記したように、検出精度が高い周辺車両との距離と検出精度が高い周辺車両の横方向位置とを有する融合位置情報を求めることができる。   According to this, as described above, it is possible to obtain the fusion position information having the distance to the surrounding vehicle with high detection accuracy and the lateral position of the surrounding vehicle with high detection accuracy.

上記した第1の検出手段はレーダであり、上記した第2の検出手段はカメラであることが好ましい。   Preferably, the first detecting means is a radar, and the second detecting means is a camera.

レーダによる検出では、周辺車両との距離の検出精度が比較的高く、カメラによる検出では、横方向位置の検出精度が比較的高い。したがって、これによれば、融合演算手段によって、レーダによる検出精度が高い周辺車両との距離とカメラによる検出精度が高い周辺車両の横方向位置とを融合した融合位置情報を求めることができる。   In the detection by the radar, the detection accuracy of the distance to the surrounding vehicle is relatively high, and in the detection by the camera, the detection accuracy of the lateral position is relatively high. Therefore, according to this, it is possible to obtain fusion position information obtained by fusing the distance from the surrounding vehicle with high detection accuracy by the radar and the lateral position of the surrounding vehicle with high detection accuracy by the camera.

また、上記した第1の検出手段はミリ波レーダであり、上記した第2の検出手段はレーザレーダであってもよい。   Further, the first detection unit described above may be a millimeter wave radar, and the second detection unit described above may be a laser radar.

レーザレーダでは、ミリ波レーダと比較して波長が短いので、横方向位置の検出精度が比較的高い。したがって、これによれば、融合演算手段によって、ミリ波レーダによる検出精度が高い周辺車両との距離とレーザレーダによる検出精度が高い周辺車両の横方向位置とを融合した融合位置情報を求めることができる。   Since the laser radar has a shorter wavelength than the millimeter wave radar, the lateral position detection accuracy is relatively high. Therefore, according to this, the fusion position information obtained by fusing the distance from the surrounding vehicle with high detection accuracy by the millimeter wave radar and the lateral position of the surrounding vehicle with high detection accuracy by the laser radar can be obtained by the fusion calculation means. it can.

上記した選択手段は、周辺車両が第1及び第2の検出手段の検出可能範囲内に存在する場合には融合位置情報を選択し、周辺車両が第1の検出手段の検出可能範囲外に存在する場合には第2の位置情報を選択し、周辺車両が第2の検出手段の検出可能範囲外に存在する場合には第1の位置情報を選択することが好ましい。   The selecting means selects the fusion position information when the surrounding vehicle is within the detectable range of the first and second detecting means, and the surrounding vehicle is outside the detectable range of the first detecting means. In this case, it is preferable to select the second position information, and to select the first position information when the surrounding vehicle is outside the detectable range of the second detection means.

これによれば、上記したように、融合位置情報を求めることができない場合であっても、判定手段によって、第1及び第2の検出手段のうちの何れかの位置情報における周辺車両との距離の時間的変動及び周辺車両の横方向位置の時間的変動に基づいて周辺車両のふらつき判定を行うことができるので、周辺車両の検出範囲を狭めることがない。   According to this, as described above, even if the fusion position information cannot be obtained, the distance from the surrounding vehicle in the position information of any one of the first and second detection means is determined by the determination means. Since the wobble determination of the surrounding vehicle can be performed based on the temporal variation of the vehicle and the temporal variation of the lateral position of the surrounding vehicle, the detection range of the surrounding vehicle is not narrowed.

上記したふらつき判定装置は、選択手段の選択結果、第1及び第2の検出手段の検出精度に基づいて、判定手段によるふらつき判定の信頼度を求める信頼度算出手段を更に備えることが好ましい。   The above-described wobbling determination device preferably further includes a reliability calculation unit that obtains the reliability of the wobbling determination by the determination unit based on the selection result of the selection unit and the detection accuracy of the first and second detection units.

上記したように、前記第1及び第2の検出手段によって検出された第1及び第2の位置情報、並びに融合位置情報の検出精度が異なるので、選択手段によってこれらの何れを選択するかによって判定手段による周辺車両のふらつき判定の精度が異なる。そこで、選択手段の選択結果及び第1及び第2の検出手段の検出精度に基づいて、判定手段によるふらつき判定の信頼度を求めることにより、判定手段によるふらつき判定に加えてその信頼度をも考慮した適切な運転支援を行うことが可能となる。   As described above, since the detection accuracy of the first and second position information detected by the first and second detection means and the fusion position information are different, determination is made depending on which of these is selected by the selection means. The accuracy of the determination of the wobbling of surrounding vehicles by the means is different. Therefore, by determining the reliability of the wobbling determination by the determining unit based on the selection result of the selecting unit and the detection accuracy of the first and second detecting units, the reliability is also considered in addition to the wobbling determination by the determining unit. It is possible to provide appropriate driving assistance.

本発明によれば、周辺車両の検出範囲を狭めることなく、周辺車両のふらつき判定の精度を高めることができる。   ADVANTAGE OF THE INVENTION According to this invention, the precision of the wobble determination of a surrounding vehicle can be improved, without narrowing the detection range of a surrounding vehicle.

本実施形態に係る運転支援装置及び本発明の実施形態に係るふらつき判定装置を示す図である。It is a figure which shows the driving assistance apparatus which concerns on this embodiment, and the wobble determination apparatus which concerns on embodiment of this invention. 図1に示すミリ波レーダ及びステレオカメラの検出範囲を示す図である。It is a figure which shows the detection range of the millimeter wave radar and stereo camera which are shown in FIG. 本発明の実施形態に係るふらつき判定装置によるふらつき判定処理を示すフローチャートである。It is a flowchart which shows the wobble determination process by the wobble determination apparatus which concerns on embodiment of this invention.

以下、図面を参照して本発明の好適な実施形態について詳細に説明する。なお、各図面において同一又は相当の部分に対しては同一の符号を附すこととする。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals.

図1は、本実施形態に係る運転支援装置を示す図である。図1に示す運転支援装置1は、車両センサ10と、ミリ波レーダ(第1の検出手段、第1の演算手段)20と、ステレオカメラ(第2の検出手段、第2の演算手段)30と、電子制御ユニット(以下、ECU:Electronic Control Unitという。)40と、各種アクチュエータ50と、報知部60とを備える。   FIG. 1 is a diagram illustrating a driving support apparatus according to the present embodiment. A driving assistance apparatus 1 shown in FIG. 1 includes a vehicle sensor 10, a millimeter wave radar (first detection means, first calculation means) 20, and a stereo camera (second detection means, second calculation means) 30. And an electronic control unit (hereinafter referred to as an ECU: Electronic Control Unit) 40, various actuators 50, and a notification unit 60.

車両センサ10は、自車両の速度、加速度(減速度)、ヨーレート、ステアリングホイール操舵角、ブレーキペダル踏量、アクセルペダル踏量などを検出する。車両センサ10は、検出した各信号をECU40へ送信する。   The vehicle sensor 10 detects the speed, acceleration (deceleration), yaw rate, steering wheel steering angle, brake pedal depression amount, accelerator pedal depression amount, and the like of the host vehicle. The vehicle sensor 10 transmits each detected signal to the ECU 40.

ミリ波レーダ20は、ミリ波帯の電波を利用して物体を検出するためのレーダである。ミリ波レーダ20は、自車両の前側の中央に取り付けられる。ミリ波レーダ20では、ミリ波帯の電波を自車両の前方へ向けて送信し、前方車両などの物体表面で反射された電波を受信する。この信号に基づいて、ミリ波レーダ20は、第1の演算手段として機能し、先行車両の有無や、先行車両と自車両との距離及び相対速度、並びに自車両に対する先行車両の横位置などの位置情報を求める。そして、ミリ波レーダ20は、検出された先行車両をレーダ物標と設定し、求めた位置情報をレーダ物標に設定し(レーダ物標設定処理)、ECU40へ送信する。   The millimeter wave radar 20 is a radar for detecting an object using millimeter wave radio waves. The millimeter wave radar 20 is attached to the front center of the host vehicle. The millimeter wave radar 20 transmits a millimeter wave band radio wave toward the front of the host vehicle, and receives a radio wave reflected on the surface of an object such as the front vehicle. Based on this signal, the millimeter wave radar 20 functions as a first calculation means, such as the presence or absence of a preceding vehicle, the distance and relative speed between the preceding vehicle and the host vehicle, and the lateral position of the preceding vehicle with respect to the host vehicle. Find location information. Then, the millimeter wave radar 20 sets the detected preceding vehicle as a radar target, sets the obtained position information as a radar target (radar target setting process), and transmits it to the ECU 40.

ステレオカメラ30は、2台のCCDカメラからなり、2台のCCDカメラが水平方向に所定間隔離間されて配置されている。ステレオカメラ30も、自車両の前側の中央に取り付けられる。ステレオカメラ30は、第2の演算手段として機能し、2つのCCDカメラで撮像した左右のステレオ画像のデータに基づいて、先行車両の有無や、先行車両と自車両との距離及び相対速度、並びに自車両に対する先行車両の横位置などの位置情報を求める。そして、ステレオカメラ30は、検出された先行車両をステレオ画像物標と設定し、求めた位置情報をステレオ画像物標に設定し(ステレオ画像物標設定処理)、ECU40へ送信する。   The stereo camera 30 includes two CCD cameras, and the two CCD cameras are arranged at a predetermined interval in the horizontal direction. The stereo camera 30 is also attached to the front center of the host vehicle. The stereo camera 30 functions as a second computing means, and based on the left and right stereo image data captured by the two CCD cameras, the presence or absence of the preceding vehicle, the distance and relative speed between the preceding vehicle and the host vehicle, and Position information such as the lateral position of the preceding vehicle with respect to the host vehicle is obtained. Then, the stereo camera 30 sets the detected preceding vehicle as a stereo image target, sets the obtained position information as a stereo image target (stereo image target setting process), and transmits it to the ECU 40.

ECU40は、演算を行うCPU(Central Processing Unit)、CPUに各処理を実行させるためのプログラム等を記憶するROM(ReadOnly Memory)、演算結果などの各種データを記憶するRAM(Random Access Memory)などから構成されている。このような構成により、ECU40には、ふらつき判定ECU(ふらつき判定装置)70と運転支援ECU80とが構築されている。なお、本実施形態では、ふらつき判定ECU70及び運転支援ECU80が一つのECU40で構成される一例を示すが、ふらつき判定ECU70と運転支援ECU80とは別々のECUで構成されてもよい。   The ECU 40 includes a CPU (Central Processing Unit) that performs calculations, a ROM (Read Only Memory) that stores programs for causing the CPU to execute each process, a RAM (Random Access Memory) that stores various data such as calculation results, and the like. It is configured. With such a configuration, the ECU 40 is configured with a wobbling determination ECU (light wobbling determination device) 70 and a driving support ECU 80. In this embodiment, an example in which the wobbling determination ECU 70 and the driving support ECU 80 are configured by one ECU 40 is shown, but the wobbling determination ECU 70 and the driving support ECU 80 may be configured by separate ECUs.

ふらつき判定ECU70は、ミリ波レーダ20による検出結果、ステレオカメラ30による検出結果、及び、これらの検出結果のセンサフュージョンに基づいて、前方車両のふらつき判定を行う。また、ふらつき判定ECU70は、ミリ波レーダ20及びステレオカメラ30の検出精度に基づいて、ふらつき判定の信頼度を求める。   The wobbling determination ECU 70 performs the wobbling determination of the forward vehicle based on the detection result by the millimeter wave radar 20, the detection result by the stereo camera 30, and the sensor fusion of these detection results. Further, the wobbling determination ECU 70 determines the reliability of the wobbling determination based on the detection accuracy of the millimeter wave radar 20 and the stereo camera 30.

運転支援ECU80は、車両センサ10によって検出された各種情報に基づいて、スロットルアクチュエータやブレーキアクチュエータなどの各種アクチュエータ50を制御して、ACC(Adaptive Cruise Control)走行制御を行うものである。又は、運転支援ECU80は、ディスプレイによる画像表示報知や、スピーカ又はブザー等による音声報知などの報知部60を制御して、ドライバに安全な運転操作を誘導するものである。運転支援ECU80は、ふらつき判定ECU70のふらつき判定結果及びその信頼度に基づいて、例えば、各種アクチュエータ50を制御して、ACC走行制御において車間距離を空ける制御を行ったり、ACC走行制御のキャンセルを行ったりする。又は、運転支援ECU80は、報知部60を制御して、ドライバに安全な運転操作を誘導する。   The driving support ECU 80 controls various actuators 50 such as a throttle actuator and a brake actuator based on various information detected by the vehicle sensor 10 and performs ACC (Adaptive Cruise Control) traveling control. Alternatively, the driving support ECU 80 controls the notification unit 60 such as an image display notification by a display or a voice notification by a speaker or a buzzer to guide a safe driving operation to the driver. The driving support ECU 80 controls, for example, various actuators 50 based on the wobbling determination result of the wobbling determination ECU 70 and the reliability thereof, and performs control to increase the inter-vehicle distance in ACC travel control, or cancels ACC travel control. Or Alternatively, the driving support ECU 80 controls the notification unit 60 to guide a safe driving operation to the driver.

次に、本発明の実施形態に係るふらつき判定ECU(ふらつき判定装置)70について説明する。ふらつき判定ECU70は、照合部73と、フュージョン演算部(融合演算部)74と、選択部75と、判定部76と、信頼度算出部77とを備える。   Next, a description will be given of the wobbling determination ECU (wobble determination device) 70 according to the embodiment of the present invention. The fluctuation determination ECU 70 includes a matching unit 73, a fusion calculation unit (fusion calculation unit) 74, a selection unit 75, a determination unit 76, and a reliability calculation unit 77.

例えば、ミリ波レーダ(第1の演算手段)20は、ミリ波の送信から受信までの時間によって自車両と先行車両との距離を求める。また、ミリ波レーダ20は、ドップラ効果を利用して先行車両との相対速度を求める。また、ミリ波レーダ20は、反射してきたミリ波の中で最も強く反射してきたミリ波の方向を検出し、その方向から自車両の進行方向と先行車両の方向とのなす角度を求め、その角度から横位置を求める。そして、ミリ波レーダ20は、これらの距離、相対速度、横位置をレーダ物標に設定する。   For example, the millimeter wave radar (first computing means) 20 obtains the distance between the host vehicle and the preceding vehicle based on the time from transmission to reception of millimeter waves. Further, the millimeter wave radar 20 obtains a relative speed with respect to the preceding vehicle using the Doppler effect. Also, the millimeter wave radar 20 detects the direction of the millimeter wave that has been reflected most strongly among the reflected millimeter waves, and obtains the angle formed by the traveling direction of the host vehicle and the direction of the preceding vehicle from that direction. The lateral position is obtained from the angle. The millimeter wave radar 20 sets these distance, relative speed, and lateral position as radar targets.

なお、ミリ波レーダ20による検出では、距離及び相対速度の精度が高く、角度(すなわち横位置)の精度が低い。ミリ波レーダ20では、送信したミリ波が反射して戻るまでの時間により距離を演算するので、距離の精度が高い。また、ミリ波レーダ20では、ドップラ効果を利用して相対速度を演算するので、相対速度の精度が高い。しかし、ミリ波は検出対象の物体の幅方向のいずれの箇所で最も強く反射してきたかが判らないので、幅方向の位置(横位置)が変動し、角度の精度は低くなる。   In the detection by the millimeter wave radar 20, the accuracy of the distance and the relative speed is high, and the accuracy of the angle (that is, the lateral position) is low. Since the millimeter wave radar 20 calculates the distance based on the time until the transmitted millimeter wave is reflected and returned, the distance accuracy is high. Further, since the millimeter wave radar 20 calculates the relative speed using the Doppler effect, the accuracy of the relative speed is high. However, since it is not known where the millimeter wave is reflected most strongly in the width direction of the object to be detected, the position in the width direction (lateral position) varies, and the accuracy of the angle is lowered.

例えば、ステレオカメラ(第2の演算手段)30は、撮像した画像から画像認識(エッジ抽出やパターン認識処理など)によって先行車両を抽出する。また、ステレオカメラ30は、左右のステレオ画像における物体の見え方のずれを利用して三角測量方式により自車両と先行車両との距離を求める。また、ステレオカメラ30は、その算出した距離の時間変化から相対速度を求める。また、ステレオカメラ30は、検出した物体の幅方向の両端部を検出し、自車の進行方向と2つの端部の方向とのなす角度を求め、その角度から横位置を求める。そして、ステレオカメラ30は、これらの距離、相対速度、横位置をステレオ画像物標に設定する。   For example, the stereo camera (second computing means) 30 extracts the preceding vehicle from the captured image by image recognition (edge extraction, pattern recognition processing, etc.). In addition, the stereo camera 30 obtains the distance between the host vehicle and the preceding vehicle by a triangulation method using the difference in the appearance of the object in the left and right stereo images. Further, the stereo camera 30 obtains the relative speed from the time change of the calculated distance. Further, the stereo camera 30 detects both ends of the detected object in the width direction, obtains an angle formed by the traveling direction of the own vehicle and the directions of the two ends, and obtains a lateral position from the angle. Then, the stereo camera 30 sets these distance, relative speed, and lateral position as a stereo image target.

なお、ステレオカメラ30による検出では、距離及び相対速度の精度が低く、角度(すなわち横位置)の精度が高い。左右の画像データから検出対象の物体の幅方向の両端部を高精度に検出できるので、角度(すなわち横位置)の精度は高くなる。しかし、例えば数10cm程度離間した左右のCCDカメラによる画像データを利用しているので、距離を計算する際に非常に鋭角な三角測量となり、距離及び相対速度の精度は低くなる。   In the detection by the stereo camera 30, the accuracy of the distance and the relative speed is low, and the accuracy of the angle (that is, the lateral position) is high. Since both ends in the width direction of the detection target object can be detected with high accuracy from the left and right image data, the accuracy of the angle (that is, the lateral position) is increased. However, since image data from the left and right CCD cameras separated by, for example, about several tens of centimeters is used, the distance and relative speed accuracy are reduced because the distance is calculated with a very acute triangulation.

照合部73は、一定時間毎に、後述する選択部75によって選択された前回選択物標と今回レーダ物標とが同一の先行車両を検出したものであるか否かの照合を行う。例えば、照合部73は、前回選択物標の位置(距離、横位置)及び相対速度に基づいて、前回選択物標の位置(距離、横位置)と今回レーダ物標の位置(距離、横位置)との差分がしきい値以内であるか否か、及び、前回選択物標の相対速度と今回レーダ物標の相対速度との差分がしきい値以内であるか否か、を判定する。この判定において全ての閾値内に入っている場合に今回レーダ物標が前回選択物標と類似性があると判定し、1つでも閾値内に入っていない場合には類似性がないと判定する。   The collation unit 73 collates at predetermined time intervals whether or not the previously selected target selected by the selection unit 75 described later and the current radar target are those in which the same preceding vehicle is detected. For example, the collation unit 73 determines the position (distance, lateral position) of the previous selected target and the position (distance, lateral position) of the current radar target based on the position (distance, lateral position) and relative speed of the previously selected target. ) Between the relative speed of the previously selected target and the relative speed of the current radar target is within the threshold. In this determination, it is determined that the current radar target is similar to the previous selected target when it is within all thresholds, and it is determined that there is no similarity when even one of the targets is not within the threshold. .

同様に、照合部73は、一定時間毎に、前回選択物標と今回ステレオ画像物標とが同一の先行車両を検出したものであるか否かの照合を行う。例えば、照合部73は、前回選択物標の位置(距離、横位置)及び相対速度に基づいて、前回選択物標の位置(距離、横位置)と今回ステレオ画像物標の位置(距離、横位置)との差分がしきい値以内であるか否か、及び、前回選択物標の相対速度と今回ステレオ画像物標の相対速度との差分がしきい値以内であるか否か、を判定する。この判定において全ての閾値内に入っている場合に今回ステレオ画像物標が前回選択物標と類似性があると判定し、1つでも閾値内に入っていない場合には類似性がないと判定する。   Similarly, the collation unit 73 collates whether or not the previously selected target and the current stereo image target have detected the same preceding vehicle at regular time intervals. For example, based on the position (distance, horizontal position) and relative speed of the previously selected target, the collation unit 73 and the position (distance, horizontal position) of the previous selected target (distance, horizontal position) and the current stereo image target are selected. Position) is within the threshold, and whether the difference between the relative speed of the previously selected target and the current stereo image target is within the threshold. To do. In this determination, if the current stereo image target is similar to the previously selected target when all the thresholds are within the threshold, it is determined that there is no similarity if even one of the targets is not within the threshold. To do.

更に、照合部73は、前回選択物標に対して類似性のある今回レーダ物標と今回ステレオ画像物標とがそれぞれ存在する場合、その今回レーダ物標と今回ステレオ画像物標とが同一の先行車両を検出したものであるか否かの照合を行う。例えば、照合部73は、今回レーダ物標の位置(距離、横位置)と今回ステレオ画像物標の位置(距離、横位置)との差分がしきい値以内であるか否か、及び、今回レーダ物標の相対速度と今回ステレオ画像物標の相対速度との差分がしきい値以内であるか否か、を判定する。この判定において全ての閾値内に入っている場合に今回レーダ物標と今回ステレオ画像物標とが類似性があると判定し、1つでも閾値内に入っていない場合に類似性がないと判定する。   Further, when there are a current radar target and a current stereo image target that are similar to the previously selected target, the collation unit 73 has the same current radar target and the current stereo image target. It is verified whether or not the preceding vehicle has been detected. For example, the matching unit 73 determines whether or not the difference between the current radar target position (distance, horizontal position) and the current stereo image target position (distance, horizontal position) is within a threshold, and this time It is determined whether or not the difference between the relative speed of the radar target and the relative speed of the current stereo image target is within a threshold value. In this determination, it is determined that the current radar target and the current stereo image target are similar if they are within all the thresholds, and if there is no similarity, it is determined that there is no similarity. To do.

フュージョン演算部74は、照合部73による全ての照合において類似性がある場合に、ミリ波レーダ20によって求められた位置情報とステレオカメラ30によって求められた位置情報とを融合(フュージョン)し、先行車両の有無や、先行車両と自車両との距離及び相対速度、並びに自車両に対する先行車両の横位置などのフュージョン位置情報(融合位置情報)を求める。そして、フュージョン演算部74は、ミリ波レーダ20及びステレオカメラ30によって検出された先行車両をフュージョン物標と設定し、求めたフュージョン位置情報をフュージョン物標に設定する(フュージョン物標設定処理)。   The fusion calculation unit 74 fuses the position information obtained by the millimeter wave radar 20 and the position information obtained by the stereo camera 30 when there is similarity in all the collations performed by the collation unit 73. Fusion position information (fusion position information) such as the presence or absence of the vehicle, the distance and relative speed between the preceding vehicle and the host vehicle, and the lateral position of the preceding vehicle with respect to the host vehicle is obtained. Then, the fusion calculation unit 74 sets the preceding vehicle detected by the millimeter wave radar 20 and the stereo camera 30 as the fusion target, and sets the obtained fusion position information as the fusion target (fusion target setting process).

例えば、フュージョン演算部74は、ミリ波レーダ20による距離の検出精度±ZX1及び横位置の検出精度±ZY1、ステレオカメラ30による距離の検出精度±ZX2及び横位置の検出精度±ZY2に基づいて、ミリ波レーダ20によって求めた周辺車両との距離X及び周辺車両の横位置Y、ステレオカメラ30によって求めた周辺車両との距離X及び周辺車両の横位置Yである場合に、下式によってフュージョン位置情報における周辺車両との距離X及び周辺車両の横位置Yを求める。
=(ZX2×X+ZX1×X)/(ZX1+ZX2
=(ZY2×Y+ZY1×Y)/(ZY1+ZY2
For example, the fusion calculation unit 74 detects the distance detection accuracy ± Z X1 and the lateral position detection accuracy ± Z Y1 by the millimeter wave radar 20, and the distance detection accuracy ± Z X2 and the lateral position detection accuracy ± Z Y2 by the stereo camera 30. The distance X 1 to the surrounding vehicle and the lateral position Y 1 of the surrounding vehicle obtained by the millimeter wave radar 20, the distance X 2 to the surrounding vehicle and the lateral position Y 2 to the surrounding vehicle obtained by the stereo camera 30. case, obtaining the distance X 3 and lateral position Y 3 around the vehicle with the nearby vehicle at the fusion position information by the following equation.
X 3 = (Z X2 × X 1 + Z X1 × X 2 ) / (Z X1 + Z X2 )
Y 3 = (Z Y2 × Y 1 + Z Y1 × Y 2) / (Z Y1 + Z Y2)

例えば、ミリ波レーダ20による距離Xの検出精度が±ZX1=±10cm、横位置Yの検出精度が±ZY1=±100cmであり、ステレオカメラ30による距離Xの検出精度が±ZX2=±50cm、横位置Yの検出精度が±ZY2=±10cmである場合、フュージョン位置情報における距離X及び横位置Yは、以下のように求められることとなる。
=(5×X+X)/6
=(Y+10×Y)/11
For example, the detection accuracy of the distance X 1 by the millimeter wave radar 20 is ± Z X1 = ± 10 cm, the detection accuracy of the lateral position Y 1 is ± Z Y1 = ± 100 cm, and the detection accuracy of the distance X 2 by the stereo camera 30 is ± When Z X2 = ± 50 cm and the detection accuracy of the lateral position Y 2 is ± Z Y2 = ± 10 cm, the distance X 3 and the lateral position Y 3 in the fusion position information are obtained as follows.
X 3 = (5 × X 1 + X 2 ) / 6
Y 3 = (Y 1 + 10 × Y 2 ) / 11

このようにして、フュージョン演算部74は、先行車両と自車両との距離及び相対速度、並びに自車両に対する先行車両の横位置が何れも高精度であるフュージョン位置情報を求めることとなる。   In this way, the fusion calculation unit 74 obtains fusion position information in which the distance and relative speed between the preceding vehicle and the host vehicle and the lateral position of the preceding vehicle with respect to the host vehicle are both highly accurate.

選択部75は、先行車両の存在位置に基づいて、レーダ物標(第1の位置情報)、ステレオ画像物標(第2の位置情報)、及び、フュージョン物標(フュージョン位置情報)のうちの何れかの物標(位置情報)を選択する。   The selection unit 75 selects one of a radar target (first position information), a stereo image target (second position information), and a fusion target (fusion position information) based on the presence position of the preceding vehicle. One of the targets (position information) is selected.

図2に、ミリ波レーダ20及びステレオカメラ30の検出範囲を示す。ミリ波レーダ20による検出では、検出可能な距離は比較的長いものの、検出可能な横方向範囲が比較的狭い。一方、ステレオカメラ30による検出では、検出可能な横方向範囲は比較的広いものの、検出可能な距離が比較的短い。   FIG. 2 shows detection ranges of the millimeter wave radar 20 and the stereo camera 30. In the detection by the millimeter wave radar 20, the detectable distance is relatively long, but the detectable lateral range is relatively narrow. On the other hand, in the detection by the stereo camera 30, the detectable lateral range is relatively wide, but the detectable distance is relatively short.

そこで、選択部75は、先行車両がステレオカメラ30の検出限界距離を越える領域R1に存在する場合にはレーダ物標を選択し、先行車両がミリ波レーダ20の検出限界幅を超える領域R2に存在する場合にはステレオ画像物標を選択する。そして、選択部75は、先行車両がステレオカメラ30の検出限界距離以内、かつ、ミリ波レーダ20の検出限界幅以内の領域R3に存在する場合にはフュージョン物標を選択する。   Therefore, the selection unit 75 selects a radar target when the preceding vehicle exists in the region R1 exceeding the detection limit distance of the stereo camera 30, and selects the radar vehicle in the region R2 exceeding the detection limit width of the millimeter wave radar 20. If it exists, a stereo image target is selected. The selection unit 75 selects a fusion target when the preceding vehicle is present in the region R3 within the detection limit distance of the stereo camera 30 and within the detection limit width of the millimeter wave radar 20.

判定部76は、選択部75によって選択された物標における位置情報(距離、横位置)に基づいて、先行車両との距離及び先行車両の横位置それぞれについてふらつき度の判定を行う。ふらつき度としては、例えば、ふらつきの振幅やふらつきの周期である。   Based on the position information (distance, lateral position) on the target selected by the selection unit 75, the determination unit 76 determines the degree of staggering for each of the distance to the preceding vehicle and the lateral position of the preceding vehicle. The degree of wobbling is, for example, the wobbling amplitude or wobbling period.

信頼度算出部77は、選択部75によって選択された物標を検出したセンサの検出精度、すなわちミリ波レーダ20及びステレオカメラ30の検出精度に基づいて、判定部76によるふらつき度判定の信頼度を求める。   The reliability calculation unit 77 is based on the detection accuracy of the sensor that has detected the target selected by the selection unit 75, that is, the detection accuracy of the wobbling degree determination by the determination unit 76 based on the detection accuracy of the millimeter wave radar 20 and the stereo camera 30. Ask for.

例えば、信頼度算出部77は、選択部75によってレーダ物標が選択された場合には、ミリ波レーダ20の検出精度に基づいて、先行車両との距離のふらつき度判定の信頼度を「高」とし、先行車両の横位置のふらつき度判定の信頼度を「低」とする。一方、選択部75によってステレオ画像物標が選択された場合には、信頼度算出部77は、ステレオカメラ30の検出精度に基づいて、先行車両との距離のふらつき度判定の信頼度を「低」とし、先行車両の横位置のふらつき度判定の信頼度を「高」とする。そして、選択部75によってフュージョン物標が選択された場合には、信頼度算出部77は、ミリ波レーダ20及びステレオカメラ30の検出精度に基づいて、先行車両との距離のふらつき度判定及び先行車両の横位置についてのふらつき度判定の信頼度を共に「高+α」とする。   For example, when the radar target is selected by the selection unit 75, the reliability calculation unit 77 increases the reliability of the determination of the degree of fluctuation of the distance from the preceding vehicle based on the detection accuracy of the millimeter wave radar 20. And the reliability of the determination of the degree of wobbling of the lateral position of the preceding vehicle is “low”. On the other hand, when the stereo image target is selected by the selection unit 75, the reliability calculation unit 77 sets the reliability of the determination of the degree of staggering of the distance from the preceding vehicle based on the detection accuracy of the stereo camera 30 to “low”. And the reliability of the determination of the degree of wobbling of the lateral position of the preceding vehicle is “high”. When the fusion target is selected by the selection unit 75, the reliability calculation unit 77 determines the degree of fluctuation of the distance from the preceding vehicle and the preceding based on the detection accuracy of the millimeter wave radar 20 and the stereo camera 30. The reliability of the determination of the wobbling degree for the lateral position of the vehicle is both “high + α”.

次に、本実施形態のふらつき判定ECU70の動作について説明する。図3は、本実施形態のふらつき判定ECU70によるふらつき判定処理を示すフローチャートである。   Next, the operation of the wobble determination ECU 70 of this embodiment will be described. FIG. 3 is a flowchart showing the wobbling determination process by the wobbling determination ECU 70 of the present embodiment.

ミリ波レーダ20、ステレオカメラ30、照合部73、及び、フュージョン演算部74によって、センサフュージョンを行う。   Sensor fusion is performed by the millimeter wave radar 20, the stereo camera 30, the matching unit 73, and the fusion calculation unit 74.

具体的には、ミリ波レーダ(第1の演算手段)20によって、先行車両の有無や、先行車両と自車両との距離及び相対速度、並びに自車両に対する先行車両の横位置などの位置情報を求め、レーダ物標に設定する(レーダ物標設定処理)(S01)。また、ステレオカメラ(第2の演算手段)30によって、先行車両の有無や、先行車両と自車両との距離及び相対速度、並びに自車両に対する先行車両の横位置などの位置情報を求め、ステレオ画像物標に設定する(ステレオ画像物標設定処理)(S02)。   Specifically, the millimeter wave radar (first calculation means) 20 obtains position information such as the presence or absence of a preceding vehicle, the distance and relative speed between the preceding vehicle and the host vehicle, and the lateral position of the preceding vehicle with respect to the host vehicle. It is obtained and set as a radar target (radar target setting process) (S01). Further, the stereo camera (second computing means) 30 obtains position information such as the presence or absence of the preceding vehicle, the distance and relative speed between the preceding vehicle and the host vehicle, and the lateral position of the preceding vehicle with respect to the host vehicle, and the stereo image A target is set (stereo image target setting process) (S02).

次に、照合部73によって、前回選択物標と今回レーダ物標とが同一の先行車両を検出したものであるか否か、及び、前回選択物標と今回ステレオ画像物標とが同一の先行車両を検出したものであるか否か、並びに、今回レーダ物標と今回ステレオ画像物標とが同一の先行車両を検出したものであるか否か、の照合を行う(S03)。そして、全ての照合において類似性がある場合に、フュージョン演算部74によって、ミリ波レーダ20によって求められた位置情報とステレオカメラ30によって求められた位置情報とを融合し、先行車両の有無や、先行車両と自車両との距離及び相対速度、並びに自車両に対する先行車両の横位置などのフュージョン位置情報を求め、フュージョン物標に設定する(フュージョン物標設定処理)(S04)。   Next, the collation unit 73 detects whether or not the previous selected target and the current radar target have detected the same preceding vehicle, and the previous selected target and the current stereo image target have the same preceding vehicle. Whether the vehicle has been detected and whether the current radar target and the current stereo image target have detected the same preceding vehicle are collated (S03). If there is similarity in all the collations, the fusion calculation unit 74 fuses the position information obtained by the millimeter wave radar 20 and the position information obtained by the stereo camera 30 to determine whether there is a preceding vehicle, Fusion position information such as the distance and relative speed between the preceding vehicle and the host vehicle and the lateral position of the preceding vehicle with respect to the host vehicle is obtained and set as a fusion target (fusion target setting process) (S04).

次に、選択部75によって、先行車両の存在位置に基づいて、レーダ物標(第1の位置情報)、ステレオ画像物標(第2の位置情報)、及び、フュージョン物標(フュジョン位置情報)のうちの何れかの物標(位置情報)を選択する。具体的には、選択部75によって、先行車両がミリ波レーダ20のみで検出されたか否か、すなわち、先行車両の位置情報がミリ波レーダ20のみで求められたか否かの判定を行い(S05)、先行車両の位置情報がミリ波レーダ20のみで求められた場合に、先行車両はステレオカメラ30の検出限界距離を越える領域R1に存在すると判断し、レーダ物標(第1の位置情報)を選択する。すると、判定部76によって、レーダ物標における位置情報(距離、横位置)に基づいて、先行車両との距離及び先行車両の横位置それぞれについてふらつき度の判定を行う(S06)。また、信頼度算出部77によって、ミリ波レーダ20の検出精度に基づいて、判定部76によるふらつき度判定の信頼度を求める(ミリ波レーダ単独検出用ふらつき判定)(S07)。   Next, based on the position where the preceding vehicle is present, the selection unit 75 selects a radar target (first position information), a stereo image target (second position information), and a fusion target (fusion position information). One of the targets (position information) is selected. Specifically, the selection unit 75 determines whether or not the preceding vehicle is detected only by the millimeter wave radar 20, that is, whether or not the position information of the preceding vehicle is obtained only by the millimeter wave radar 20 (S05). ), When the position information of the preceding vehicle is obtained only by the millimeter wave radar 20, it is determined that the preceding vehicle exists in the region R1 exceeding the detection limit distance of the stereo camera 30, and the radar target (first position information) Select. Then, based on the position information (distance, lateral position) in the radar target, the determination unit 76 determines the degree of staggering for each of the distance to the preceding vehicle and the lateral position of the preceding vehicle (S06). Further, the reliability calculation unit 77 obtains the reliability of the determination of the fluctuation degree by the determination unit 76 based on the detection accuracy of the millimeter wave radar 20 (millimeter wave radar single detection fluctuation determination) (S07).

一方、ステップ05において、先行車両の位置情報がミリ波レーダ20のみで求められていない場合には、選択部75によって、先行車両がステレオカメラ30のみで検出されたか否か、すなわち、先行車両の位置情報がステレオカメラ30のみで求められたか否かの判定を行い(S08)、先行車両の位置情報がステレオカメラ30のみで求められた場合に、先行車両はミリ波レーダ20の検出限界幅を超える領域R2に存在すると判断し、ステレオ画像物標(第2の位置情報)を選択する。すると、判定部76によって、ステレオ画像物標における位置情報(距離、横位置)に基づいて、先行車両との距離及び先行車両の横位置それぞれについてふらつき度の判定を行う(S09)。また、信頼度算出部77によって、ステレオカメラ30の検出精度に基づいて、判定部76によるふらつき度判定の信頼度を求める(ステレオカメラ単独検出用ふらつき判定)(S10)。   On the other hand, when the position information of the preceding vehicle is not obtained only by the millimeter wave radar 20 in step 05, whether or not the preceding vehicle is detected only by the stereo camera 30 by the selection unit 75, that is, the preceding vehicle's position information. It is determined whether or not the position information is obtained only by the stereo camera 30 (S08). When the position information of the preceding vehicle is obtained only by the stereo camera 30, the preceding vehicle sets the detection limit width of the millimeter wave radar 20. A stereo image target (second position information) is selected by determining that it exists in the region R2 beyond. Then, based on the position information (distance, lateral position) in the stereo image target, the determination unit 76 determines the degree of staggering for each of the distance to the preceding vehicle and the lateral position of the preceding vehicle (S09). Further, the reliability calculation unit 77 obtains the reliability of the determination of the degree of wobbling by the determination unit 76 based on the detection accuracy of the stereo camera 30 (stereo camera single detection wobbling determination) (S10).

一方、ステップ08において、先行車両の位置情報がステレオカメラ30のみで求められていない場合、すなわち、先行車両の位置情報がミリ波レーダ20及びステレオカメラ30で求められた場合、選択部75によって、先行車両はステレオカメラ30の検出限界距離以内、かつ、ミリ波レーダ20の検出限界幅以内の領域R3に存在すると判断し、フュージョン物標(フュージョン位置情報)を選択する。すると、判定部76によって、フュージョン物標におけるフュージョン位置情報(距離、横位置)に基づいて、先行車両との距離及び先行車両の横位置それぞれについてふらつき度の判定を行う(S11)。また、信頼度算出部77によって、ミリ波レーダ20及びステレオカメラ30の検出精度に基づいて、判定部76によるふらつき度判定の信頼度を求める(ミリ波レーダ及びステレオカメラ検出用ふらつき判定)(S12)。   On the other hand, when the position information of the preceding vehicle is not obtained only by the stereo camera 30 in step 08, that is, when the position information of the preceding vehicle is obtained by the millimeter wave radar 20 and the stereo camera 30, the selection unit 75 It is determined that the preceding vehicle exists in the region R3 within the detection limit distance of the stereo camera 30 and within the detection limit width of the millimeter wave radar 20, and the fusion target (fusion position information) is selected. Then, based on the fusion position information (distance, lateral position) in the fusion target, the determination unit 76 determines the degree of staggering for each of the distance to the preceding vehicle and the lateral position of the preceding vehicle (S11). Further, the reliability calculation unit 77 obtains the reliability of the determination of the fluctuation degree by the determination unit 76 based on the detection accuracy of the millimeter wave radar 20 and the stereo camera 30 (millimeter wave radar and stereo camera detection fluctuation determination) (S12). ).

なお、上述したように、図3に示す各処理は一定時間毎に繰り返されるので、2回目以降のフローよりふらつき判定が可能となる。   Note that, as described above, each process shown in FIG. 3 is repeated at regular time intervals, so that it is possible to perform the wobble determination from the second and subsequent flows.

その後、このふらつき判定結果及びその信頼度に基づいて、上述したように、運転支援ECU80による運転支援が行われることとなる。   Thereafter, as described above, driving assistance by the driving assistance ECU 80 is performed based on the determination result of the wobbling and the reliability thereof.

このように、本実施形態のふらつき判定ECU70によれば、フュージョン演算部74によって、ミリ波レーダ20によって検出された位置情報とステレオカメラ30によって検出された位置情報とを融合することによって、検出精度が高い先行車両との距離と検出精度が高い先行車両の横位置とを有するフュージョン位置情報を求めることができる。したがって、判定部76によって、このフュージョン位置情報における先行車両との距離の時間的変動及び先行車両の横位置の時間的変動に基づいて先行車両のふらつき判定を行うことにより、先行車両のふらつき判定の精度を高めることができる。   As described above, according to the fluctuation determination ECU 70 of the present embodiment, the fusion calculation unit 74 fuses the position information detected by the millimeter wave radar 20 and the position information detected by the stereo camera 30, thereby detecting accuracy. It is possible to obtain fusion position information having a distance from a preceding vehicle having a high speed and a lateral position of the preceding vehicle having a high detection accuracy. Therefore, the determination unit 76 performs the wobble determination of the preceding vehicle by performing the wobble determination of the preceding vehicle based on the temporal variation of the distance to the preceding vehicle and the temporal variation of the lateral position of the preceding vehicle in the fusion position information. Accuracy can be increased.

更に、本実施形態のふらつき判定ECU70によれば、先行車両の存在位置がミリ波レーダ20及びステレオカメラ30のうちの一方のセンサの検出不可能領域内である場合には、すなわち、フュージョン位置情報を求めることができない場合には、選択部75によって、他方のセンサの位置情報を選択することができる。したがって、フュージョン位置情報を求めることができない場合であっても、判定部76によって、ミリ波レーダ20及びステレオカメラ30のうちの何れかの位置情報における先行車両との距離の時間的変動及び先行車両の横位置の時間的変動に基づいて先行車両のふらつき判定を行うことができる。故に、本実施形態のふらつき判定ECU70によれば、先行車両の検出範囲を狭めることがない。   Further, according to the fluctuation determination ECU 70 of the present embodiment, when the position of the preceding vehicle is within the undetectable region of one of the millimeter wave radar 20 and the stereo camera 30, that is, the fusion position information. Can not be obtained, the selection unit 75 can select the position information of the other sensor. Therefore, even when the fusion position information cannot be obtained, the determination unit 76 causes the temporal variation of the distance from the preceding vehicle and the preceding vehicle in the position information of any one of the millimeter wave radar 20 and the stereo camera 30. The wobble determination of the preceding vehicle can be performed based on the temporal variation of the lateral position of the vehicle. Therefore, according to the wobbling determination ECU 70 of the present embodiment, the detection range of the preceding vehicle is not narrowed.

上述したように、ミリ波レーダ20及びステレオカメラ30によって検出された第1及び第2の位置情報、並びにフュージョン位置情報の検出精度が異なるので、選択部75によってこれらの何れを選択するかによって判定部76による周辺車両のふらつき判定の精度が異なる。そこで、選択部75の選択結果、ミリ波レーダ20及びステレオカメラ30の検出精度に基づいて、判定部76によるふらつき判定の信頼度を求めることにより、判定部76によるふらつき判定に加えてその信頼度をも考慮した適切な運転支援を行うことが可能となる。   As described above, since the detection accuracy of the first and second position information detected by the millimeter wave radar 20 and the stereo camera 30 and the fusion position information are different, determination is made depending on which of these is selected by the selection unit 75. The accuracy of the wobbling determination of surrounding vehicles by the unit 76 is different. Therefore, by determining the reliability of the wobbling determination by the determining unit 76 based on the selection result of the selecting unit 75 and the detection accuracy of the millimeter wave radar 20 and the stereo camera 30, the reliability in addition to the wobbling determination by the determining unit 76 is obtained. Therefore, it is possible to perform appropriate driving support that also takes into account.

なお、本発明は上記した本実施形態に限定されることなく種々の変形が可能である。例えば、本実施形態では、先行車両のふらつき検出センサの組合せとして、ミリ波レーダとステレオカメラとを例示したが、ミリ波帯以外の電波センサ、レーザレーダ、単眼画像カメラなど様々なセンサの組合せが適用可能である。例えば、レーザレーダでは、ミリ波レーダと比較して波長が短いので、横方向位置の検出精度が比較的高く、横方向の検出範囲が比較的広いので、ミリ波レーダとレーザレーダとの組合せであっても、本実施形態と同様の利点を得ることができる。   The present invention is not limited to the above-described embodiment, and various modifications can be made. For example, in the present embodiment, the millimeter wave radar and the stereo camera are exemplified as the combination of the wobbling detection sensors of the preceding vehicle. However, various combinations of sensors such as a radio wave sensor other than the millimeter wave band, a laser radar, and a monocular image camera are available. Applicable. For example, a laser radar has a shorter wavelength than a millimeter wave radar, so the lateral position detection accuracy is relatively high and the lateral detection range is relatively wide, so the combination of millimeter wave radar and laser radar Even if it exists, the same advantage as this embodiment can be acquired.

また、本実施形態では、先行車両のふらつき判定を例示したが、各種センサの搭載位置によって、後続車両などの周辺車両のふらつき判定を行うことができる。   Further, in the present embodiment, the determination of the wobbling of the preceding vehicle is exemplified, but the wobbling determination of the surrounding vehicle such as the following vehicle can be performed according to the mounting positions of various sensors.

また、本実施形態では、距離や横位置の短期的な変動を用いてふらつき判定を行ったが、ドライバの意識低下に相関する様々な物理量を用いてふらつき判定が行われてもよい。   In the present embodiment, the wobble determination is performed using short-term fluctuations in the distance and the lateral position. However, the wobble determination may be performed using various physical quantities that correlate with a driver's consciousness decrease.

1…運転支援装置、10…車両センサ、20…ミリ波レーダ(第1の検出手段、第1の演算手段)、30…ステレオカメラ(第2の検出手段、第2の演算手段)、40…ECU、50…各種アクチュエータ、60…報知部、70…ふらつき判定ECU(ふらつき判定装置)、73…照合部、74…フュージョン演算部(融合演算手段)、75…選択部(選択手段)、76…判定部(判定手段)、77…信頼度算出部(信頼度算出手段)、80…運転支援ECU。   DESCRIPTION OF SYMBOLS 1 ... Driving assistance device, 10 ... Vehicle sensor, 20 ... Millimeter wave radar (1st detection means, 1st calculation means), 30 ... Stereo camera (2nd detection means, 2nd calculation means), 40 ... ECU, 50 ... various actuators, 60 ... notifying unit, 70 ... stagger determination ECU (stagger determination device), 73 ... collation unit, 74 ... fusion calculation unit (fusion calculation unit), 75 ... selection unit (selection unit), 76 ... Determination unit (determination unit), 77... Reliability calculation unit (reliability calculation unit), 80.

Claims (6)

第1の検出手段によって検出された周辺車両の第1の位置情報として前記周辺車両との距離及び前記周辺車両の横方向位置を求める第1の演算手段と、
前記第1の検出手段と異なる検出原理を用いる第2の検出手段によって検出された前記周辺車両の第2の位置情報として前記周辺車両との距離及び前記周辺車両の横方向位置を求める第2の演算手段と、
前記第1及び第2の位置情報を融合することによって前記周辺車両の融合位置情報として前記周辺車両との距離及び前記周辺車両の横方向位置を求める融合演算手段と、
前記周辺車両の存在位置に基づいて、前記第1及び第2の位置情報、並びに前記融合位置情報のうちの何れかの位置情報を選択する選択手段と、
前記選択手段によって選択された位置情報における前記周辺車両との距離及び前記周辺車両の横方向位置それぞれの時間的変動に基づいて、前記周辺車両のふらつき判定を行う判定手段と、
を備える、ふらつき判定装置。
First calculation means for obtaining a distance to the surrounding vehicle and a lateral position of the surrounding vehicle as first position information of the surrounding vehicle detected by the first detection means;
A second distance for obtaining the distance to the surrounding vehicle and the lateral position of the surrounding vehicle as the second position information of the surrounding vehicle detected by the second detecting means using a detection principle different from that of the first detecting means; Computing means;
A fusion calculation means for obtaining a distance to the surrounding vehicle and a lateral position of the surrounding vehicle as fused position information of the surrounding vehicle by fusing the first and second position information;
Selection means for selecting any one of the first and second position information and the fusion position information based on the position of the surrounding vehicle;
A determination unit configured to perform a wobble determination of the surrounding vehicle based on a distance from the surrounding vehicle in the position information selected by the selection unit and a temporal variation of each lateral position of the surrounding vehicle;
A wobble determination device.
前記融合演算手段は、前記第1の検出手段による距離の検出精度±ZX1及び横方向位置の検出精度±ZY1、前記第2の検出手段による距離の検出精度±ZX2及び横方向位置の検出精度±ZY2に基づいて、前記第1の位置情報における前記周辺車両との距離X及び前記周辺車両の横方向位置Y、前記第2の位置情報における前記周辺車両との距離X及び前記周辺車両の横方向位置Yである場合に、下式によって融合位置情報における前記周辺車両との距離X及び前記周辺車両の横方向位置Yを求める、
=(ZX2×X+ZX1×X)/(ZX1+ZX2
=(ZY2×Y+ZY1×Y)/(ZY1+ZY2
請求項1に記載のふらつき判定装置。
The fusion calculation means includes distance detection accuracy ± Z X1 and lateral position detection accuracy ± Z Y1 by the first detection means, distance detection accuracy ± Z X2 and lateral position accuracy by the second detection means. Based on the detection accuracy ± Z Y2 , the distance X 1 to the surrounding vehicle in the first position information, the lateral position Y 1 of the surrounding vehicle, and the distance X 2 to the surrounding vehicle in the second position information. and in the case of lateral position Y 2 of the peripheral vehicle, determine the lateral position Y 3 of the distance X 3 and the peripheral vehicle and the peripheral vehicle in the fusion position information by the formula,
X 3 = (Z X2 × X 1 + Z X1 × X 2 ) / (Z X1 + Z X2 )
Y 3 = (Z Y2 × Y 1 + Z Y1 × Y 2) / (Z Y1 + Z Y2)
The wobble determination device according to claim 1.
前記第1の検出手段はレーダであり、
前記第2の検出手段はカメラである、
請求項1又は2に記載のふらつき判定装置。
The first detecting means is a radar;
The second detection means is a camera;
The wobbling determination device according to claim 1 or 2.
前記第1の検出手段はミリ波レーダであり、
前記第2の検出手段はレーザレーダである、
請求項1又は2に記載のふらつき判定装置。
The first detection means is a millimeter wave radar;
The second detection means is a laser radar;
The wobbling determination device according to claim 1 or 2.
前記選択手段は、前記周辺車両が前記第1及び第2の検出手段の検出可能範囲内に存在する場合には前記融合位置情報を選択し、前記周辺車両が前記第1の検出手段の検出可能範囲外に存在する場合には前記第2の位置情報を選択し、前記周辺車両が前記第2の検出手段の検出可能範囲外に存在する場合には前記第1の位置情報を選択する、
請求項1に記載のふらつき判定装置。
The selection means selects the fusion position information when the surrounding vehicle is within the detectable range of the first and second detection means, and the surrounding vehicle can be detected by the first detection means. Selecting the second position information when it is outside the range, and selecting the first position information when the surrounding vehicle is outside the detectable range of the second detection means;
The wobble determination device according to claim 1.
前記選択手段の選択結果、前記第1及び第2の検出手段の検出精度に基づいて、前記判定手段によるふらつき判定の信頼度を求める信頼度算出手段を更に備える、
請求項1又は2に記載のふらつき判定装置。
Further comprising a reliability calculation means for determining the reliability of the wobbling determination by the determination means based on the selection results of the selection means and the detection accuracy of the first and second detection means.
The wobbling determination device according to claim 1 or 2.
JP2010027910A 2010-02-10 2010-02-10 Apparatus for determining unstable state Pending JP2011164989A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010027910A JP2011164989A (en) 2010-02-10 2010-02-10 Apparatus for determining unstable state

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010027910A JP2011164989A (en) 2010-02-10 2010-02-10 Apparatus for determining unstable state

Publications (1)

Publication Number Publication Date
JP2011164989A true JP2011164989A (en) 2011-08-25

Family

ID=44595589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010027910A Pending JP2011164989A (en) 2010-02-10 2010-02-10 Apparatus for determining unstable state

Country Status (1)

Country Link
JP (1) JP2011164989A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013112072A (en) * 2011-11-25 2013-06-10 Toyota Motor Corp Traveling lane discriminating device
JP2013196633A (en) * 2012-03-22 2013-09-30 Toyota Motor Corp Drive support device
JP2014059734A (en) * 2012-09-18 2014-04-03 Denso Corp Vehicle detector and warning device
JP2014197325A (en) * 2013-03-29 2014-10-16 株式会社日本自動車部品総合研究所 Crossing determination device and program
JP2015069229A (en) * 2013-09-26 2015-04-13 日立オートモティブシステムズ株式会社 Preceding car recognition device
EP2894617A4 (en) * 2012-09-03 2015-11-11 Toyota Motor Co Ltd Collision determination device and collision determination method
JP2015210191A (en) * 2014-04-25 2015-11-24 本田技研工業株式会社 Object detection device
JP2015221642A (en) * 2014-05-23 2015-12-10 本田技研工業株式会社 Object recognition device
WO2016047482A1 (en) * 2014-09-24 2016-03-31 株式会社デンソー Object detection device
JP2016218651A (en) * 2015-05-19 2016-12-22 株式会社デンソー Object detection apparatus and object detection method
JP2017506050A (en) * 2013-12-19 2017-02-23 タレス・カナダ・インクThales Canada Inc. Fusion sensor configuration for guideway mounted vehicles and method of using the same
KR20170124287A (en) * 2016-05-02 2017-11-10 한국전자통신연구원 Driver assistance system for detecting obstacle using fusion object sensing information and method thereof
JP2018103897A (en) * 2016-12-27 2018-07-05 三菱自動車工業株式会社 Travel control device
JP2021060906A (en) * 2019-10-09 2021-04-15 日産自動車株式会社 Surrounding vehicle behavior prediction method, vehicle control method, and surrounding vehicle behavior prediction device
US11091153B2 (en) 2016-05-19 2021-08-17 Denso Corporation Vehicle control apparatus and vehicle control method
WO2022254861A1 (en) * 2021-06-02 2022-12-08 日立Astemo株式会社 Electronic control device and control method

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013112072A (en) * 2011-11-25 2013-06-10 Toyota Motor Corp Traveling lane discriminating device
JP2013196633A (en) * 2012-03-22 2013-09-30 Toyota Motor Corp Drive support device
EP2894617A4 (en) * 2012-09-03 2015-11-11 Toyota Motor Co Ltd Collision determination device and collision determination method
JP2014059734A (en) * 2012-09-18 2014-04-03 Denso Corp Vehicle detector and warning device
JP2014197325A (en) * 2013-03-29 2014-10-16 株式会社日本自動車部品総合研究所 Crossing determination device and program
US9390624B2 (en) 2013-03-29 2016-07-12 Denso Corporation Vehicle-installation intersection judgment apparatus and program
JP2015069229A (en) * 2013-09-26 2015-04-13 日立オートモティブシステムズ株式会社 Preceding car recognition device
JP2017506050A (en) * 2013-12-19 2017-02-23 タレス・カナダ・インクThales Canada Inc. Fusion sensor configuration for guideway mounted vehicles and method of using the same
JP2015210191A (en) * 2014-04-25 2015-11-24 本田技研工業株式会社 Object detection device
JP2015221642A (en) * 2014-05-23 2015-12-10 本田技研工業株式会社 Object recognition device
WO2016047482A1 (en) * 2014-09-24 2016-03-31 株式会社デンソー Object detection device
JP2016218651A (en) * 2015-05-19 2016-12-22 株式会社デンソー Object detection apparatus and object detection method
KR20170124287A (en) * 2016-05-02 2017-11-10 한국전자통신연구원 Driver assistance system for detecting obstacle using fusion object sensing information and method thereof
KR102535618B1 (en) 2016-05-02 2023-05-23 한국전자통신연구원 Driver assistance system for detecting obstacle using fusion object sensing information and method thereof
US11091153B2 (en) 2016-05-19 2021-08-17 Denso Corporation Vehicle control apparatus and vehicle control method
JP2018103897A (en) * 2016-12-27 2018-07-05 三菱自動車工業株式会社 Travel control device
JP2021060906A (en) * 2019-10-09 2021-04-15 日産自動車株式会社 Surrounding vehicle behavior prediction method, vehicle control method, and surrounding vehicle behavior prediction device
JP7307651B2 (en) 2019-10-09 2023-07-12 日産自動車株式会社 Surrounding vehicle behavior prediction method, vehicle control method, and surrounding vehicle behavior prediction device
WO2022254861A1 (en) * 2021-06-02 2022-12-08 日立Astemo株式会社 Electronic control device and control method

Similar Documents

Publication Publication Date Title
JP2011164989A (en) Apparatus for determining unstable state
EP3581451B1 (en) Lane keeping assist system and method for improving safety in preceding vehicle follower longitudinal control
JP6369390B2 (en) Lane junction determination device
US10836388B2 (en) Vehicle control method and apparatus
JP5905846B2 (en) Crossing determination device and program
US10871565B2 (en) Object detection apparatus and object detection method
JP6856452B2 (en) Target judgment device and driving support system
JP6330160B2 (en) Object recognition device
US20170080929A1 (en) Movement-assisting device
US11003927B2 (en) Target recognition apparatus, target recognition method, and vehicle control system
JP2006292475A (en) Object detector
JP5785578B2 (en) Vehicle periphery monitoring device
JP2016192166A (en) Vehicle control device and vehicle control method
US10996317B2 (en) Object detection apparatus and object detection method
JP2018200267A (en) Upper structure determination device and driving support system
JP7147648B2 (en) Driving support device
US9908525B2 (en) Travel control apparatus
JP2016192167A (en) Vehicle control device and vehicle control method
JP5083172B2 (en) Collision prediction device
JP2009042088A (en) Object detection device for vehicle
JP7130580B2 (en) Road surface detector
JP2015210191A (en) Object detection device
JP6344260B2 (en) Obstacle detection device
JP4904983B2 (en) Object detection device
JP6699568B2 (en) Vehicle control device