JP2019012323A - Vehicle controller - Google Patents

Vehicle controller Download PDF

Info

Publication number
JP2019012323A
JP2019012323A JP2017127329A JP2017127329A JP2019012323A JP 2019012323 A JP2019012323 A JP 2019012323A JP 2017127329 A JP2017127329 A JP 2017127329A JP 2017127329 A JP2017127329 A JP 2017127329A JP 2019012323 A JP2019012323 A JP 2019012323A
Authority
JP
Japan
Prior art keywords
vehicle
gradient
distance
host vehicle
search region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017127329A
Other languages
Japanese (ja)
Other versions
JP6988200B2 (en
Inventor
高木 亮
Akira Takagi
亮 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2017127329A priority Critical patent/JP6988200B2/en
Priority to US16/019,894 priority patent/US10836388B2/en
Publication of JP2019012323A publication Critical patent/JP2019012323A/en
Application granted granted Critical
Publication of JP6988200B2 publication Critical patent/JP6988200B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/076Slope angle of the road
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/15Road slope, i.e. the inclination of a road segment in the longitudinal direction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

To perform fusion properly even when there a gradient difference is generated between an object and an own vehicle.SOLUTION: An ECU 10 is applied to a vehicle comprising a radar device 21 and an imaging device 22 as body detection sensors detecting a body present at a periphery of an own vehicle 50. An ECU 10 comprises: a first acquisition part which acquires, based upon a detection result of the radar device 21, a first position of a body specified with a distance and an azimuth based upon the own vehicle 50; a second acquisition part which acquires, based upon a detection result of the imaging device 22, a second position of the body specified with the distance and azimuth based upon the own vehicle 50; a gradient calculation part which calculates a gradient difference as a difference in road gradient between the body and own vehicle 50; a correction part which corrects, based upon the gradient difference, the distance of the second position to the body; and an identification part which identifies, based upon the first position and the second position corrected by the correction part, whether the body detected by the radar device 21 and the body detected by the imaging device 22 are identical.SELECTED DRAWING: Figure 1

Description

本発明は、レーダ装置及び撮像装置を備える車両に適用される車両制御装置に関するものである。   The present invention relates to a vehicle control device applied to a vehicle including a radar device and an imaging device.

レーダ装置の検出結果に基づくレーダ位置と、撮像装置の検出結果に基づく画像位置とを照合し、これらが同一の物体によるものであると判定した場合にレーダ位置と画像位置とをフュージョン(融合)して新たな物体位置(フュージョン位置)を生成する技術が知られている。   The radar position based on the detection result of the radar device and the image position based on the detection result of the imaging device are collated, and if it is determined that they are due to the same object, the radar position and the image position are fused. A technique for generating a new object position (fusion position) is known.

例えば、特許文献1の物標検出装置では、レーダ位置と画像位置とが所定の近接関係にある場合に、レーダ位置と画像位置が同一の物体によるものと判定される。なお、レーダ位置及び画像位置はともに、自車両を原点とした場合に自車両の車幅方向をX軸とし自車両の進行方向をY軸とする相対座標上の位置として取得される。この場合、レーダ位置及び画像位置はそれぞれ、自車両から物体までの距離と自車両を基準とする物体の方位とに基づいて特定される。   For example, in the target detection device of Patent Document 1, when the radar position and the image position are in a predetermined proximity relationship, it is determined that the radar position and the image position are due to the same object. Both the radar position and the image position are acquired as relative coordinate positions where the vehicle width direction of the host vehicle is the X axis and the traveling direction of the host vehicle is the Y axis when the host vehicle is the origin. In this case, the radar position and the image position are specified based on the distance from the own vehicle to the object and the direction of the object with reference to the own vehicle.

特開2014−122873号公報JP 2014-122873 A

ところで、画像位置における自車両から物体までの距離は、撮像画像での物体の上下位置に基づいて算出される。しかしながら、撮像画像からでは道路勾配(傾斜)を考慮することができない。そのため、物体と自車両との間で相対的な勾配差が生じる場合には、画像位置における自車両から物体までの距離に誤差が生じることがある。その結果、画像位置とレーダ位置との間にずれが生じ、適切な同一判定が実施できないおそれがある。   Incidentally, the distance from the host vehicle to the object at the image position is calculated based on the vertical position of the object in the captured image. However, the road gradient (inclination) cannot be considered from the captured image. Therefore, when a relative gradient difference occurs between the object and the host vehicle, an error may occur in the distance from the host vehicle to the object at the image position. As a result, there is a possibility that a deviation occurs between the image position and the radar position, and proper identification determination cannot be performed.

本発明は、上記課題に鑑みてなされたものであり、その主たる目的は、物体と自車両との間で勾配差が生じる場合であっても、適正にフュージョンを実施することができる車両制御装置を提供することにある。   The present invention has been made in view of the above problems, and a main object of the present invention is a vehicle control device capable of appropriately performing fusion even when a gradient difference occurs between an object and the host vehicle. Is to provide.

第1の手段は、
自車両(50)の周囲に存在する物体を検出する物体検出センサとしてレーダ装置(21)及び撮像装置(22)を備える車両に適用され、
前記レーダ装置の検出結果に基づいて、前記自車両を基準とする距離及び方位で特定される前記物体の第1位置を取得する第1取得部と、
前記撮像装置の検出結果に基づいて、前記自車両を基準とする距離及び方位で特定される前記物体の第2位置を取得する第2取得部と、
前記物体と前記自車両との道路勾配の差である勾配差を算出する勾配算出部と、
前記勾配差に基づいて、前記第2位置の前記物体までの距離を補正する補正部と、
前記第1位置と前記補正部により補正された前記第2位置とに基づいて、前記レーダ装置で検出された物体と前記撮像装置で検出された物体とが同一物体であるか否かを判定する同一判定部と、
を備えることを特徴とする。
The first means is
The present invention is applied to a vehicle including a radar device (21) and an imaging device (22) as an object detection sensor that detects an object existing around the host vehicle (50).
A first acquisition unit configured to acquire a first position of the object specified by a distance and a direction based on the own vehicle based on a detection result of the radar device;
A second acquisition unit configured to acquire a second position of the object specified by a distance and an orientation based on the host vehicle based on a detection result of the imaging device;
A gradient calculating unit that calculates a gradient difference that is a difference in road gradient between the object and the host vehicle;
A correction unit that corrects the distance of the second position to the object based on the gradient difference;
Based on the first position and the second position corrected by the correction unit, it is determined whether or not the object detected by the radar device and the object detected by the imaging device are the same object. The same determination unit;
It is characterized by providing.

レーダ装置で検出された物体と、撮像装置で検出された物体とが同一物体であるか否かの判定(同一判定)は、各装置の検出結果に基づいて取得されるレーダ位置と画像位置とを用いて行われる。しかしながら、撮像装置による物体検出では道路勾配が加味されていないため、例えば物体と自車両との間で勾配差が生じる場合は、画像位置における物体までの距離に誤差が生じることがある。その結果、適切な同一判定が実施できないおそれがある。   Whether or not the object detected by the radar device and the object detected by the imaging device are the same object (identical determination) is determined based on the radar position and the image position acquired based on the detection result of each device. It is done using. However, since the road gradient is not taken into account in the object detection by the imaging device, for example, when a gradient difference occurs between the object and the host vehicle, an error may occur in the distance to the object at the image position. As a result, there is a possibility that appropriate identity determination cannot be performed.

この点、上記構成では、物体と自車両との道路勾配の差である勾配差を算出し、算出された勾配差に基づいて第2位置(画像位置)における物体までの距離を補正する。そして、第1位置(レーダ位置)と補正された第2位置に基づいて、同一判定を実施するようにした。この場合、勾配差に基づいて第2位置における物体までの距離を補正することで、道路勾配を加味した上で第2位置を取得することができる。そして、第1位置と補正された第2位置を用いることで、適切な同一判定を実施することができる。これにより、勾配差が生じる場合であっても、フュージョン物標を適正に生成することができる。   In this regard, in the above configuration, a gradient difference that is a difference in road gradient between the object and the host vehicle is calculated, and the distance to the object at the second position (image position) is corrected based on the calculated gradient difference. Then, the same determination is performed based on the first position (radar position) and the corrected second position. In this case, by correcting the distance to the object at the second position based on the gradient difference, the second position can be acquired with the road gradient taken into account. Then, by using the first position and the corrected second position, an appropriate identity determination can be performed. Thereby, even if it is a case where a gradient difference arises, a fusion target can be produced | generated appropriately.

車両制御装置の概略構成を示すブロック図。The block diagram which shows schematic structure of a vehicle control apparatus. レーダ位置及び画像位置を説明するための図。The figure for demonstrating a radar position and an image position. 上りの勾配路における撮像装置による物体検出を示す図。The figure which shows the object detection by the imaging device in an uphill gradient path. 画像探索領域の補正を説明するための図。The figure for demonstrating correction | amendment of an image search area | region. 補正量と勾配差と撮像画像の上下位置との関係を示す図。The figure which shows the relationship between correction amount, gradient difference, and the up-and-down position of a captured image. 画像探索領域の補正を説明するための図。The figure for demonstrating correction | amendment of an image search area | region. 補正量と勾配差と撮像画像の上下位置との関係を示す図。The figure which shows the relationship between correction amount, gradient difference, and the up-and-down position of a captured image. 同一判定の処理手順を示すフローチャート。The flowchart which shows the process sequence of the same determination.

図1は、車両制御装置を適用したプリクラッシュセーフティシステム(以下、PCSS:Pre-crash safety systemと記載する。)を示している。PCSSは、車両に搭載される車両システムの一例であり、自車両の周囲に存在する物体を検出し、検出した物体と自車両とが衝突する可能性がある場合に、物体に対する自車両の衝突の回避動作、又は衝突の緩和動作を実施する。   FIG. 1 shows a pre-crash safety system (hereinafter referred to as PCSS: Pre-crash safety system) to which a vehicle control device is applied. PCSS is an example of a vehicle system mounted on a vehicle. When an object existing around the host vehicle is detected and the detected object may collide with the host vehicle, the host vehicle collides with the object. The avoidance operation or the collision mitigation operation is performed.

図1に示す自車両50は、物体検出センサとしてのレーダ装置21及び撮像装置22と、ナビゲーション装置23と、ECU10と、運転支援装置30とを備えている。図1に示す実施形態において、ECU10が車両制御装置として機能する。   A host vehicle 50 illustrated in FIG. 1 includes a radar device 21 and an imaging device 22 as object detection sensors, a navigation device 23, an ECU 10, and a driving support device 30. In the embodiment shown in FIG. 1, the ECU 10 functions as a vehicle control device.

レーダ装置21は、ミリ波やレーザ等の指向性のある電磁波(探査波)を利用して自車前方の物体を検出するものであり、自車両50の前部においてその光軸が自車前方を向くように取り付けられている。レーダ装置21は、所定時間ごとに自車前方に向かって所定範囲で広がる領域をレーダ信号で走査するとともに、自車前方の物体の表面で反射された電磁波を受信することで物体の相対位置(検出位置)、相対速度等を物体情報として取得する。取得された物体情報は、所定周期ごとにECU10に入力される。   The radar device 21 detects an object in front of the host vehicle using a directional electromagnetic wave (exploration wave) such as a millimeter wave or a laser, and its optical axis is at the front of the host vehicle 50. It is attached so that it faces. The radar device 21 scans a region extending in a predetermined range toward the front of the host vehicle with a radar signal every predetermined time, and receives an electromagnetic wave reflected from the surface of the object in front of the host vehicle to receive the relative position ( Detection position), relative speed, etc. are acquired as object information. The acquired object information is input to the ECU 10 at predetermined intervals.

撮像装置22は、車載カメラであって、例えばCCDカメラ、CMOSイメージセンサ、近赤外線カメラ等を用いて構成されている。撮像装置22は、自車両50の車幅方向中央の所定高さ(例えば、フロントガラス上端付近)に取り付けられ、自車前方へ向けて所定角度範囲で広がる領域を俯瞰視点から撮像する。撮像された撮像画像は、所定周期毎にECU10に入力される。本実施形態において、撮像装置22は単眼カメラである。   The imaging device 22 is an in-vehicle camera, and is configured using, for example, a CCD camera, a CMOS image sensor, a near infrared camera, or the like. The imaging device 22 is attached to a predetermined height (for example, near the upper end of the windshield) in the center of the host vehicle 50 in the vehicle width direction, and images a region extending in a predetermined angle range toward the front of the host vehicle from an overhead viewpoint. The captured image is input to the ECU 10 at predetermined intervals. In the present embodiment, the imaging device 22 is a monocular camera.

ナビゲーション装置23は、自車両50が走行する道路の道路情報をECU10に提供する。例えば、ナビゲーション装置23は、地図情報を記録するメモリと、GPS(Global Positioning System)衛星から送信される測位情報により地図上での自車両50の位置を特定するための位置特定部とを備えている。そして、ナビゲーション装置23は、特定した地図上での自車位置に基づいて、この自車位置周囲の道路情報を参照する。そして、参照した道路情報をECU10に送信する。道路情報は、例えば、道路の勾配情報(傾斜角等)、交差点の有無を示す情報等である。   The navigation device 23 provides the ECU 10 with road information of the road on which the host vehicle 50 travels. For example, the navigation device 23 includes a memory for recording map information and a position specifying unit for specifying the position of the host vehicle 50 on the map by using positioning information transmitted from a GPS (Global Positioning System) satellite. Yes. And the navigation apparatus 23 refers to the road information around this vehicle position based on the vehicle position on the specified map. Then, the referred road information is transmitted to the ECU 10. The road information is, for example, road gradient information (such as an inclination angle), information indicating the presence or absence of an intersection, and the like.

運転支援装置30は、ドライバに対して警報音を発する警報装置や、自車両50の車速を減速させるブレーキ装置であり、ECU10からの制御指令により物体との衝突回避動作や衝突軽減動作を行う。運転支援装置30がブレーキ装置であれば、物体に衝突する可能性が高まった場合に、自動ブレーキを作動させる。また、運転支援装置30が警報装置であれば、物体に衝突する可能性が高まった場合に、警報音を発する。   The driving support device 30 is an alarm device that emits an alarm sound to the driver, or a brake device that decelerates the vehicle speed of the host vehicle 50, and performs a collision avoiding operation or a collision reducing operation with an object according to a control command from the ECU 10. If the driving assistance device 30 is a brake device, the automatic brake is activated when the possibility of collision with an object increases. Further, if the driving support device 30 is an alarm device, an alarm sound is emitted when the possibility of collision with an object increases.

ECU10は、CPU、各種メモリ(ROM、RAM)を備える周知のマイクロコンピュータとして構成されており、メモリ内の演算プログラムや制御データを参照して、自車両50における制御を実施する。ECU10は、レーダ装置21から入力される検出結果(物体情報)、及び撮像装置22から入力される検出結果(撮像画像)に基づいて物体を認識し、認識された物体に対して、運転支援装置30を制御対象とするPCSを実施する。以下に、ECU10が実施するPCS制御について説明する。   ECU10 is comprised as a known microcomputer provided with CPU and various memory (ROM, RAM), and implements control in the own vehicle 50 with reference to the arithmetic program and control data in memory. The ECU 10 recognizes an object based on the detection result (object information) input from the radar device 21 and the detection result (captured image) input from the imaging device 22, and operates the driving support device on the recognized object. PCS with 30 as a control target is implemented. Below, the PCS control which ECU10 implements is demonstrated.

ECU10は、物体情報に基づいて自車両50を基準とする距離及び方位で特定される物体のレーダ位置を取得する。また、撮像画像に基づいて自車両50を基準とする距離及び方位で特定される物体の画像位置を取得する。そして、レーダ位置と画像位置とに基づいて、これらの位置が同一物体によるものであるか否かの同一判定を実施する。   The ECU 10 acquires the radar position of the object specified by the distance and azimuth relative to the host vehicle 50 based on the object information. In addition, the image position of the object specified by the distance and direction with reference to the host vehicle 50 is acquired based on the captured image. Then, based on the radar position and the image position, the same determination is made as to whether or not these positions are due to the same object.

ここで、図2を用いて、レーダ位置と画像位置について説明する。各位置は、自車両50を原点とした場合に、自車両50の車幅方向をX軸とし、自車両50の進行方向をY軸とする相対座標上の位置として取得される。   Here, the radar position and the image position will be described with reference to FIG. Each position is acquired as a relative coordinate position where the vehicle width direction of the host vehicle 50 is the X axis and the traveling direction of the host vehicle 50 is the Y axis when the host vehicle 50 is the origin.

ECU10は、まず、レーダ装置21による物体の検出位置としてレーダ検出点Prを取得する。レーダ検出点Prは、自車両50から物体までの相対距離r1と、自車両50を基準とする物体の方位θrとを含んでいる。また、撮像画像による物体の検出位置として画像検出点Piを取得する。画像検出点Piは、自車両50から物体までの相対距離r2と、自車両50を基準とする物体の方位θiとを含んでいる。相対距離r2は、撮像画像内で検出された物体の下端に基づいて算出される。   The ECU 10 first acquires a radar detection point Pr as an object detection position by the radar device 21. The radar detection point Pr includes a relative distance r1 from the host vehicle 50 to the object and an azimuth θr of the object with respect to the host vehicle 50. Further, the image detection point Pi is acquired as the detection position of the object from the captured image. The image detection point Pi includes a relative distance r2 from the host vehicle 50 to the object, and an azimuth θi of the object with reference to the host vehicle 50. The relative distance r2 is calculated based on the lower end of the object detected in the captured image.

続いて、ECU10は、レーダ検出点Prに基づいてレーダ探索領域Rrを取得する。レーダ探索領域Rrは、レーダ検出点Prを基準として、距離方向及び方位方向のそれぞれについて、レーダ装置21の特性に基づき予め設定される想定誤差分の幅を持たせた領域である。例えば、レーダ探索領域Rrは、レーダ検出点Pr(r1,θr)を含み、かつ、所定の距離範囲及び所定の方位範囲で広がる領域として設定される。   Subsequently, the ECU 10 acquires a radar search region Rr based on the radar detection point Pr. The radar search region Rr is a region having a width corresponding to an assumed error that is set in advance based on the characteristics of the radar device 21 in each of the distance direction and the azimuth direction with reference to the radar detection point Pr. For example, the radar search area Rr is set as an area that includes the radar detection point Pr (r1, θr) and extends in a predetermined distance range and a predetermined azimuth range.

また、ECU10は、画像検出点Piに基づいて画像探索領域Riを取得する。画像探索領域Riは、画像検出点Piを基準として、距離方向及び方位方向のそれぞれについて、撮像装置22の特性に基づき予め設定される想定誤差分の幅を持たせた領域である。例えば、画像探索領域Riは、画像検出点Pi(r2,θi)を含み、かつ、所定の距離範囲及び所定の方位範囲で広がる領域として設定される。なお、本実施形態では、レーダ位置としてレーダ探索領域Rrを用い、画像位置として画像探索領域Riを用いている。   Further, the ECU 10 acquires the image search area Ri based on the image detection point Pi. The image search region Ri is a region having a width corresponding to an assumed error set in advance based on the characteristics of the imaging device 22 in each of the distance direction and the azimuth direction with the image detection point Pi as a reference. For example, the image search area Ri is set as an area that includes the image detection point Pi (r2, θi) and extends in a predetermined distance range and a predetermined azimuth range. In the present embodiment, the radar search area Rr is used as the radar position, and the image search area Ri is used as the image position.

そして、ECU10は、所定の判定条件に基づいて、レーダ装置21で検出された物体と撮像装置22で検出された物体とが同一物体であるか否かを判定する。ここでは、判定条件として、レーダ探索領域Rrと画像探索領域Riとで重なる領域が存在するか否かを判定する。例えば、図2では、レーダ探索領域Rrと画像探索領域Riとで重なる領域が存在するため、これらの物体は同一物体であると判定される。かかる場合には、レーダ位置と画像位置とが融合され、物体に対する新たな位置となるフュージョン位置が生成される。図2では、レーダ検出点Pr(r1,θr)の内、精度の高い相対距離r1と、画像検出点Pi(r2,θi)の内、精度の高い方位θiとが融合されて、フュージョン位置としてフュージョン検出点Pf(r1,θi)が生成される。   Then, the ECU 10 determines whether the object detected by the radar device 21 and the object detected by the imaging device 22 are the same object based on a predetermined determination condition. Here, as a determination condition, it is determined whether or not there is an overlapping region between the radar search region Rr and the image search region Ri. For example, in FIG. 2, since there is an overlapping area between the radar search area Rr and the image search area Ri, these objects are determined to be the same object. In such a case, the radar position and the image position are merged to generate a fusion position that becomes a new position with respect to the object. In FIG. 2, the accurate relative distance r1 of the radar detection points Pr (r1, θr) and the highly accurate azimuth θi of the image detection points Pi (r2, θi) are fused to form a fusion position. A fusion detection point Pf (r1, θi) is generated.

そして、ECU10は、同一判定を経た物体に対し自車両50が衝突する可能性があるか否かを判定する。具体的には、衝突回避制御の対象となる衝突予測領域内に各物体の横位置が属するか否かを判定する。かかる構成において、衝突予測領域内に物体の横位置が属する場合に、物体と自車両50とが衝突する可能性があると判定する。   Then, the ECU 10 determines whether or not the host vehicle 50 may collide with an object that has undergone the same determination. Specifically, it is determined whether or not the lateral position of each object belongs to the collision prediction area that is subject to collision avoidance control. In such a configuration, when the lateral position of the object belongs within the collision prediction area, it is determined that there is a possibility that the object and the host vehicle 50 collide.

ECU10は、物体と自車両50とが衝突する可能性があると判定された場合、当該物体に対する衝突余裕時間TTC(Time to Collision)を算出する。そして、算出されたTTCと、運転支援装置30の作動タイミングとに基づいて、運転支援装置30を作動させる。具体的には、運転支援装置30がブレーキ装置である場合、TTCがその作動タイミング以下となれば、自動ブレーキを作動させて衝突速度を低減する制御等を行う。また、運転支援装置30が警報装置である場合、TTCがその作動タイミング以下となれば、スピーカ等を作動させてドライバへ警報を行う。このようなPCS制御により、物体と自車両50との衝突の回避又は緩和を図っている。   When it is determined that there is a possibility of collision between the object and the host vehicle 50, the ECU 10 calculates a collision margin time TTC (Time to Collision) for the object. Then, the driving support device 30 is operated based on the calculated TTC and the operation timing of the driving support device 30. Specifically, when the driving support device 30 is a brake device, if the TTC is equal to or lower than the operation timing, control is performed to reduce the collision speed by operating the automatic brake. Further, when the driving support device 30 is an alarm device, if the TTC is less than or equal to the operation timing thereof, an alarm is given to the driver by operating a speaker or the like. By such PCS control, avoidance or mitigation of the collision between the object and the host vehicle 50 is achieved.

ところで、画像検出点Piにおける自車両50から物体までの距離(図2の相対距離r2)は、撮像画像での物体の上下位置に基づいて算出される。ここで、図3には、自車両50が平坦路(傾斜角ゼロ)を走行し、物体としての先行車60が傾斜角Aの上りの勾配路を走行する状況を示している。かかる状況下では、自車両50の位置に対し先行車60の位置が上方に位置するため、撮像画像において先行車60はより上側の位置で検出される。しかしながら、撮像画像からでは道路勾配を考慮することができないため、撮像画像に基づく画像検出点Piによると先行車60の位置は位置70として検出される。そのため、画像検出点Piに基づく距離D2と実際の先行車60の位置に基づく距離D1との間で誤差(ΔD)が生じることになり、この場合は、距離D2の方が距離D1よりも大きくなる(D2>D1)。一方、図3とは異なり先行車60が下りの勾配路を走行する状況においても、画像検出点Piに基づく距離D2と実際の先行車60の位置に基づく距離D1との間で誤差(ΔD)が生じることになる。なおこの場合は、距離D2よりも距離D1の方が大きくなる(D2<D1)。そして、このように距離の誤差(ΔD)が生じると、画像検出点Piに基づいて設定される画像探索領域Riの距離方向における位置にずれが生じ、同一判定が適正に実施されないおそれがある。   Incidentally, the distance from the host vehicle 50 to the object at the image detection point Pi (relative distance r2 in FIG. 2) is calculated based on the vertical position of the object in the captured image. Here, FIG. 3 shows a situation in which the host vehicle 50 travels on a flat road (inclination angle zero), and the preceding vehicle 60 as an object travels on an upward slope road having an inclination angle A. Under such circumstances, since the position of the preceding vehicle 60 is positioned above the position of the host vehicle 50, the preceding vehicle 60 is detected at a higher position in the captured image. However, since the road gradient cannot be taken into consideration from the captured image, the position of the preceding vehicle 60 is detected as the position 70 according to the image detection point Pi based on the captured image. Therefore, an error (ΔD) occurs between the distance D2 based on the image detection point Pi and the distance D1 based on the actual position of the preceding vehicle 60. In this case, the distance D2 is larger than the distance D1. (D2> D1). On the other hand, even in a situation where the preceding vehicle 60 travels on a downhill road unlike FIG. 3, an error (ΔD) between the distance D2 based on the image detection point Pi and the distance D1 based on the actual position of the preceding vehicle 60. Will occur. In this case, the distance D1 is larger than the distance D2 (D2 <D1). When the distance error (ΔD) occurs as described above, the position of the image search area Ri set based on the image detection point Pi is shifted in the distance direction, and the same determination may not be performed properly.

そこで、本実施形態では、物体の位置と自車両50の位置との相対的な勾配差Δθを算出し、算出された勾配差Δθに基づいて画像探索領域Riの距離方向における位置を補正する。そして、レーダ探索領域Rrと補正された画像探索領域Riとに基づいて、同一判定を実施するようにした。すなわち、道路勾配を加味した画像探索領域Riを用いることで、勾配差Δθが生じる場合であっても同一判定を適正に実施できるようにしている。   Therefore, in the present embodiment, a relative gradient difference Δθ between the position of the object and the position of the host vehicle 50 is calculated, and the position of the image search region Ri in the distance direction is corrected based on the calculated gradient difference Δθ. Then, the same determination is performed based on the radar search region Rr and the corrected image search region Ri. That is, by using the image search area Ri that takes into account the road gradient, even if the gradient difference Δθ occurs, the same determination can be appropriately performed.

ECU10は、先行車60と自車両50との道路勾配の差である勾配差Δθを算出する。この場合、ECU10は、自車両50の勾配情報を取得する。具体的には、ナビゲーション装置23により取得される自車両50の現在地とその地点における道路情報に基づいて、自車両50の傾斜角θ1を取得する。なお、自車両50がジャイロセンサや傾斜角センサを備える構成では、それらセンサの検出値に基づいて、自車両50の勾配情報を取得してもよい。   The ECU 10 calculates a gradient difference Δθ that is a difference in road gradient between the preceding vehicle 60 and the host vehicle 50. In this case, the ECU 10 acquires gradient information of the host vehicle 50. Specifically, the inclination angle θ1 of the host vehicle 50 is acquired based on the current location of the host vehicle 50 acquired by the navigation device 23 and the road information at that point. In the configuration in which the host vehicle 50 includes a gyro sensor or an inclination angle sensor, the gradient information of the host vehicle 50 may be acquired based on the detection values of the sensors.

また、ECU10は、先行車60の勾配情報を取得する。先行車60の勾配情報は、先行車60の現在地付近の位置における道路情報に基づいて取得される。先行車60の現在地付近の位置は、例えば画像検出点Piにおける先行車60までの距離と自車両50の現在地とに基づいて算出される。ただし、図3に示すように自車両50の前方に上りの勾配路や下りの勾配路が存在する場合は画像検出点Piの距離に誤差が生じるおそれがあるため、先行車60の勾配情報として、画像検出点Piの距離を含む所定範囲E内の道路の勾配情報を取得する。例えば、画像検出点Piの方位方向における所定範囲E内の傾斜角の平均値を、先行車60の傾斜角θ2として取得する。なお、所定範囲Eは、画像検出点Piの距離に応じて可変に設定されるようにしてもよい。   Further, the ECU 10 acquires gradient information of the preceding vehicle 60. The gradient information of the preceding vehicle 60 is acquired based on road information at a position near the current location of the preceding vehicle 60. The position near the current location of the preceding vehicle 60 is calculated based on, for example, the distance to the preceding vehicle 60 at the image detection point Pi and the current location of the host vehicle 50. However, as shown in FIG. 3, when there is an uphill or downhill road ahead of the host vehicle 50, an error may occur in the distance of the image detection point Pi. The gradient information of the road in the predetermined range E including the distance of the image detection point Pi is acquired. For example, the average value of the inclination angles within the predetermined range E in the azimuth direction of the image detection point Pi is acquired as the inclination angle θ2 of the preceding vehicle 60. The predetermined range E may be variably set according to the distance of the image detection point Pi.

傾斜角θ1は、自車両50が上りの勾配路では正値を示し、下りの勾配路では負値を示す。また、傾斜角θ2は、先行車60が上りの勾配路では正値を示し、下りの勾配路では負値を示す。例えば、上りの勾配路が急なほど傾斜角θ1,θ2の値は大きくなる。   The inclination angle θ1 indicates a positive value when the host vehicle 50 is an ascending slope road, and indicates a negative value when the host vehicle 50 is a descending slope road. In addition, the inclination angle θ2 indicates a positive value when the preceding vehicle 60 is an ascending gradient road, and indicates a negative value when the preceding vehicle 60 is a descending gradient road. For example, the values of the inclination angles θ1 and θ2 increase as the uphill slope becomes steeper.

ECU10は、自車両50の傾斜角θ1と先行車60の傾斜角θ2を取得すると、勾配差Δθを算出する。例えば、ECU10は、先行車60の傾斜角θ2から自車両50の傾斜角θ1を減算することで勾配差Δθを算出する。勾配差Δθは、自車両50の位置の勾配に対して先行車60の位置の勾配が上り勾配である場合(例えば図3の場合)に正値であり、自車両50の位置の勾配に対して先行車60の位置の勾配が下り勾配である場合に負値である。   When the ECU 10 acquires the inclination angle θ1 of the host vehicle 50 and the inclination angle θ2 of the preceding vehicle 60, the ECU 10 calculates the gradient difference Δθ. For example, the ECU 10 calculates the gradient difference Δθ by subtracting the inclination angle θ1 of the host vehicle 50 from the inclination angle θ2 of the preceding vehicle 60. The gradient difference Δθ is a positive value when the gradient of the position of the preceding vehicle 60 is an upward gradient with respect to the gradient of the position of the host vehicle 50 (for example, in the case of FIG. 3). Therefore, the value is negative when the gradient of the position of the preceding vehicle 60 is a downward gradient.

以下に、ECU10による画像探索領域Riの補正について説明する。まず図4には、自車両50の位置の勾配に対して先行車60の位置の勾配が上り勾配である場合(Δθ>0)における補正について説明する。例えば、図4には、図3の状況下で取得されるレーダ探索領域Rrと画像探索領域Riを示している。かかる場合において、ECU10は、勾配差Δθに基づいて画像探索領域Riを補正する。具体的には、まず画像検出点Piを自車両50に近づける側に補正して、補正検出点CPiを取得する。   Below, correction | amendment of the image search area | region Ri by ECU10 is demonstrated. First, in FIG. 4, correction when the gradient of the position of the preceding vehicle 60 is an upward gradient with respect to the gradient of the position of the host vehicle 50 (Δθ> 0) will be described. For example, FIG. 4 shows a radar search region Rr and an image search region Ri acquired under the situation of FIG. In such a case, the ECU 10 corrects the image search region Ri based on the gradient difference Δθ. Specifically, first, the image detection point Pi is corrected so as to approach the host vehicle 50, and the corrected detection point CPi is obtained.

画像検出点Piの距離の補正量DAは、勾配差Δθ(Δθ>0)と撮像画像での先行車60の上下位置とに基づいて設定される。ここで、勾配差Δθが大きくなるほど、画像検出点Piの距離のずれは大きくなると考えられる。また、同じ勾配差Δθであっても、撮像画像での先行車60の上下位置が上側になるほど、画像検出点Piの距離の誤差は相乗的に大きくなると考えられる。これらの点を考慮し、本実施形態では、例えば図5に示す相関マップに基づいて補正量DAが設定される。つまり、図5では、勾配差Δθが大きくなるほど、補正量DAは大きい値として算出される。また、撮像画像での先行車60の上下位置が上側になるほど、補正量DAは相乗的に大きい値として算出される。   The distance correction amount DA of the image detection point Pi is set based on the gradient difference Δθ (Δθ> 0) and the vertical position of the preceding vehicle 60 in the captured image. Here, it is considered that the deviation of the distance between the image detection points Pi increases as the gradient difference Δθ increases. Further, even with the same gradient difference Δθ, it is considered that the error in the distance of the image detection point Pi increases synergistically as the vertical position of the preceding vehicle 60 in the captured image becomes higher. Considering these points, in the present embodiment, the correction amount DA is set based on, for example, the correlation map shown in FIG. That is, in FIG. 5, the correction amount DA is calculated as a larger value as the gradient difference Δθ increases. Further, as the vertical position of the preceding vehicle 60 in the captured image becomes higher, the correction amount DA is calculated as a synergistically large value.

そして、ECU10は、補正検出点CPiに基づいて補正画像探索領域CRiを設定する。ここで、補正検出点CPiの位置に基づいて設定される通常の画像探索領域を領域URiとすると、補正画像探索領域CRiの距離範囲Caは、領域URiの距離範囲Uaよりも狭く設定される。例えば、距離範囲Caは、距離範囲Uaに対して、予め設定された所定割合(例えば60%)を乗じて設定される。一方、補正画像探索領域CRiの方位範囲は、領域URiの方位範囲と同じである。すなわち、ECU10は、勾配差Δθに基づいて、画像探索領域Riの位置を自車両50の側に補正するとともに、画像探索領域Riの距離範囲を通常の距離範囲よりも狭くする側に補正する。一方、ECU10は、レーダ探索領域Rrについては補正しない。   Then, the ECU 10 sets a corrected image search region CRi based on the correction detection point CPi. Here, assuming that a normal image search region set based on the position of the correction detection point CPi is a region URi, the distance range Ca of the correction image search region CRi is set narrower than the distance range Ua of the region URi. For example, the distance range Ca is set by multiplying the distance range Ua by a predetermined ratio (for example, 60%) set in advance. On the other hand, the azimuth range of the corrected image search region CRi is the same as the azimuth range of the region URi. That is, the ECU 10 corrects the position of the image search area Ri toward the vehicle 50 based on the gradient difference Δθ, and corrects the distance range of the image search area Ri to be narrower than the normal distance range. On the other hand, the ECU 10 does not correct the radar search region Rr.

一方、図6には、自車両50の位置の勾配に対して先行車60の位置の勾配が下り勾配である場合(Δθ<0)における補正について説明する。図6においては、説明の便宜上、図4に準ずる構成については同じ符号を付すとともに説明を適宜割愛する。この場合、ECU10は、画像検出点Piを自車両50から遠ざける側に補正して、補正検出点CPiを取得する。   On the other hand, FIG. 6 illustrates correction in the case where the gradient of the position of the preceding vehicle 60 is a downward gradient with respect to the gradient of the position of the host vehicle 50 (Δθ <0). In FIG. 6, for convenience of explanation, the same reference numerals are given to configurations similar to those in FIG. 4, and description thereof is omitted as appropriate. In this case, the ECU 10 corrects the image detection point Pi to the side away from the host vehicle 50, and acquires the corrected detection point CPi.

画像検出点Piの距離の補正量DAは、勾配差Δθ(Δθ<0)と撮像画像での先行車60の上下位置とに基づいて設定される。この場合は、例えば図7に示す相関マップに基づいて補正量DAが設定される。つまり、図7では、勾配差Δθが負側に大きくなるほど、補正量DAは大きい値として算出される。また、撮像画像での先行車60の上下位置が下側になるほど、補正量DAは相乗的に大きい値として算出される。   The distance correction amount DA of the image detection point Pi is set based on the gradient difference Δθ (Δθ <0) and the vertical position of the preceding vehicle 60 in the captured image. In this case, the correction amount DA is set based on, for example, the correlation map shown in FIG. In other words, in FIG. 7, the correction amount DA is calculated as a larger value as the gradient difference Δθ becomes larger on the negative side. Further, the correction amount DA is calculated as a synergistically large value as the vertical position of the preceding vehicle 60 in the captured image becomes lower.

そして、ECU10は、補正検出点CPiに基づいて補正画像探索領域CRiを設定する。この場合、補正画像探索領域CRiの距離範囲Caは、領域URiの距離範囲Uaよりも狭く設定される。一方、補正画像探索領域CRiの方位範囲は、領域URiの方位範囲と同じである。すなわち、ECU10は、勾配差Δθに基づいて、画像探索領域Riの位置を自車両50より遠ざかる側に補正するとともに、画像探索領域Riの距離範囲を通常の距離範囲よりも狭くする側に補正する。   Then, the ECU 10 sets a corrected image search region CRi based on the correction detection point CPi. In this case, the distance range Ca of the corrected image search region CRi is set narrower than the distance range Ua of the region URi. On the other hand, the azimuth range of the corrected image search region CRi is the same as the azimuth range of the region URi. That is, the ECU 10 corrects the position of the image search area Ri to the side away from the host vehicle 50 based on the gradient difference Δθ, and corrects the distance range of the image search area Ri to be narrower than the normal distance range. .

そして、ECU10は、レーダ探索領域Rrと補正画像探索領域CRiとで重複する領域が存在するか否かを判定する。重複する領域が存在する場合は、同一物体であると判定する。一方、重複する領域が存在しない場合は、同一物体でないと判定する。   Then, the ECU 10 determines whether or not there is an overlapping area between the radar search area Rr and the corrected image search area CRi. If there are overlapping areas, it is determined that they are the same object. On the other hand, when there is no overlapping area, it is determined that they are not the same object.

図8のフローチャートを用いて、ECU10により実施される同一判定処理について説明する。この処理は、ECU10により所定周期で繰り返し実施される。   The same determination process performed by ECU10 is demonstrated using the flowchart of FIG. This process is repeatedly performed by the ECU 10 at a predetermined cycle.

ステップS11では、レーダ装置21による検出位置としてレーダ検出点Prを取得する。ステップS12では、レーダ検出点Prに基づいてレーダ探索領域Rrを取得する。ステップS13では、撮像装置22による検出位置として画像検出点Piを取得する。ステップS14では、画像検出点Piに基づいて画像探索領域Riを取得する。なお、ステップS11,S12が「第1取得部」に相当し、ステップS13,S14が「第2取得部」に相当する。   In step S11, a radar detection point Pr is acquired as a detection position by the radar device 21. In step S12, the radar search region Rr is acquired based on the radar detection point Pr. In step S13, an image detection point Pi is acquired as a detection position by the imaging device 22. In step S14, an image search area Ri is acquired based on the image detection point Pi. Steps S11 and S12 correspond to a “first acquisition unit”, and steps S13 and S14 correspond to a “second acquisition unit”.

ステップS15では、自車両50の位置の勾配情報を取得する。具体的には、ナビゲーション装置23によって自車両50の現在地に基づく道路情報を参照することで、傾斜角θ1を取得する。ステップS16では、物体として、例えば先行車60の位置の勾配情報を取得する。具体的には、ナビゲーション装置23によって先行車60の現在地付近に基づく道路情報を参照することで、傾斜角θ2を取得する。ステップS17では、それぞれ取得したθ1及びθ2に基づいて、勾配差Δθを算出する。ここでは、先行車60の傾斜角θ2から自車両50の傾斜角θ1を減算することで勾配差Δθを算出する。勾配差Δθが正値であれば、自車両50に対して先行車60が上り勾配であることを示し、負値であれば、自車両50に対して先行車60が下り勾配であることを示す。なお、ステップS15〜S17が「勾配算出部」に相当する。   In step S15, gradient information on the position of the host vehicle 50 is acquired. Specifically, the inclination angle θ <b> 1 is acquired by referring to road information based on the current location of the host vehicle 50 by the navigation device 23. In step S16, as the object, for example, gradient information of the position of the preceding vehicle 60 is acquired. Specifically, the inclination angle θ2 is acquired by referring to road information based on the vicinity of the current location of the preceding vehicle 60 by the navigation device 23. In step S17, the gradient difference Δθ is calculated based on the acquired θ1 and θ2. Here, the gradient difference Δθ is calculated by subtracting the inclination angle θ1 of the host vehicle 50 from the inclination angle θ2 of the preceding vehicle 60. If the gradient difference Δθ is a positive value, it indicates that the preceding vehicle 60 is an upward gradient with respect to the own vehicle 50, and if the gradient difference Δθ is a negative value, it indicates that the preceding vehicle 60 is a downward gradient with respect to the own vehicle 50. Show. Steps S15 to S17 correspond to a “gradient calculation unit”.

続くステップS18では、算出されたΔθが閾値Th1以上であって、閾値Th2以下であるか否かを判定する。例えば、閾値Th1は、ゼロ又はゼロ付近の負値に設定され、閾値Th2は、ゼロ又はゼロ付近の正値に設定される。ステップS18がYESの場合は、画像検出点Pi及び画像探索領域Riを補正せずにステップS20に進む。かかる場合、例えば、Δθがゼロであれば、先行車60と自車両50との間で勾配差がないため、画像探索領域Riにおいて勾配差に起因する距離の誤差は生じないと考えられる。   In a succeeding step S18, it is determined whether or not the calculated Δθ is equal to or larger than the threshold Th1 and equal to or smaller than the threshold Th2. For example, the threshold value Th1 is set to zero or a negative value near zero, and the threshold value Th2 is set to zero or a positive value near zero. If step S18 is YES, the process proceeds to step S20 without correcting the image detection point Pi and the image search area Ri. In this case, for example, if Δθ is zero, there is no gradient difference between the preceding vehicle 60 and the host vehicle 50, and therefore it is considered that there is no distance error caused by the gradient difference in the image search region Ri.

一方、ステップS18がNOの場合、つまりΔθが閾値Th2よりも大きい場合、又はΔθが閾値Th1よりも小さい場合は、ステップS19に進む。ステップS19では、勾配差Δθに基づいて画像検出点Pi及び画像探索領域Riを補正する。具体的には、Δθが閾値Th2よりも大きければ、上述の図4に示すように、画像検出点Piを自車両50に近づける側へ補正し、補正された補正検出点CPiに基づいて補正画像探索領域CRiを設定することで、画像探索領域Riを補正する。また、Δθが閾値Th1よりも小さければ、上述の図6に示すように、画像検出点Piを自車両50から遠ざける側へ補正し、補正された補正検出点CPiに基づいて補正画像探索領域CRiを設定することで、画像探索領域Riを補正する。なお、ステップS19が「補正部」に相当する。   On the other hand, if step S18 is NO, that is, if Δθ is larger than the threshold Th2, or if Δθ is smaller than the threshold Th1, the process proceeds to step S19. In step S19, the image detection point Pi and the image search area Ri are corrected based on the gradient difference Δθ. Specifically, if Δθ is larger than the threshold Th2, as shown in FIG. 4 described above, the image detection point Pi is corrected to the side closer to the host vehicle 50, and the corrected image is based on the corrected correction detection point CPi. By setting the search area CRi, the image search area Ri is corrected. If Δθ is smaller than the threshold value Th1, as shown in FIG. 6 described above, the image detection point Pi is corrected to the side away from the host vehicle 50, and the corrected image search region CRi is corrected based on the corrected correction detection point CPi. Is set to correct the image search area Ri. Step S19 corresponds to a “correction unit”.

ステップS20では、同一判定の判定条件が成立したか否かを判定する。ここでは、判定条件として、レーダ探索領域Rrと画像探索領域Riとで重複する領域が存在するか否かを判定する。また、ステップS19で画像探索領域Riを補正した場合には、レーダ探索領域Rrと補正画像探索領域CRiとで重複する領域が存在するか否かを判定する。なお、ステップS20において、重複する領域以外にその他の条件を判定してもよい。例えば、レーダ検出点Prに基づいて算出されるレーダTTCと、画像検出点Pi又は補正検出点CPiに基づいて算出される画像TTCとの差分の絶対値が所定値B未満であるか否かを判定してもよい。   In step S20, it is determined whether or not the same determination criterion is satisfied. Here, as a determination condition, it is determined whether there is an overlapping area between the radar search area Rr and the image search area Ri. If the image search area Ri is corrected in step S19, it is determined whether or not there is an overlapping area between the radar search area Rr and the corrected image search area CRi. In step S20, other conditions other than the overlapping region may be determined. For example, whether or not the absolute value of the difference between the radar TTC calculated based on the radar detection point Pr and the image TTC calculated based on the image detection point Pi or the corrected detection point CPi is less than a predetermined value B. You may judge.

ステップS20がYESであれば、ステップS21に進み、同一物体であるとしてフュージョン検出点Pfを生成する。一方、ステップS20がNOであれば、ステップS22に進む。ステップS22では、フュージョン検出点Pfを生成せずに、レーダ検出点Prと画像検出点Pi又は補正検出点CPiとを維持する。なお、ステップS20が「同一判定部」に相当する。以後、設定された各検出点に対して、ECU10により衝突の可能性の判断が実施される。   If step S20 is YES, the process proceeds to step S21, and the fusion detection point Pf is generated as the same object. On the other hand, if step S20 is NO, the process proceeds to step S22. In step S22, the radar detection point Pr and the image detection point Pi or the correction detection point CPi are maintained without generating the fusion detection point Pf. Note that step S20 corresponds to “same determination unit”. Thereafter, the ECU 10 determines the possibility of collision for each set detection point.

以上詳述した本実施形態によれば、以下の優れた効果が得られる。   According to the embodiment described in detail above, the following excellent effects can be obtained.

上記構成では、先行車60と自車両50との道路勾配の差である勾配差Δθを算出し、算出された勾配差Δθに基づいて画像検出点Piの距離及び画像探索領域Riの距離方向における位置を補正した。そして、レーダ探索領域Rrと補正画像探索領域CRiとに基づいて同一判定を実施するようにした。この場合、勾配差Δθに基づいて画像探索領域Riの位置を補正することで、道路勾配を加味した上で画像探索領域Riを取得することができ、ひいては適切な同一判定を実施することができる。これにより、勾配差Δθが生じる場合であっても、フュージョン検出点Pfを適正に生成することができる。   In the above configuration, the gradient difference Δθ, which is the difference in road gradient between the preceding vehicle 60 and the host vehicle 50, is calculated, and the distance of the image detection point Pi and the distance direction of the image search region Ri are calculated based on the calculated gradient difference Δθ. The position was corrected. Then, the same determination is performed based on the radar search region Rr and the corrected image search region CRi. In this case, by correcting the position of the image search area Ri based on the gradient difference Δθ, the image search area Ri can be acquired with the road gradient taken into account, and thus appropriate identification determination can be performed. . Thereby, even if the gradient difference Δθ occurs, the fusion detection point Pf can be appropriately generated.

具体的には、自車両50の位置の勾配に対して先行車60の位置の勾配が上り勾配である場合(Δθ>Th2)に、画像探索領域Riの位置を自車両50に近づける側に補正するようにした。また、自車両50の位置の勾配に対して先行車60の位置の勾配が下り勾配である場合(Δθ<Th1)に、画像探索領域Riの位置を自車両50から遠ざける側に補正するようにした。そのため、画像探索領域Riの距離の誤差が生じる状況に応じた補正が可能となる。   Specifically, when the gradient of the position of the preceding vehicle 60 is an upward gradient with respect to the gradient of the position of the host vehicle 50 (Δθ> Th2), the position of the image search region Ri is corrected to be closer to the host vehicle 50. I tried to do it. Further, when the gradient of the position of the preceding vehicle 60 is a downward gradient with respect to the gradient of the position of the host vehicle 50 (Δθ <Th1), the position of the image search region Ri is corrected to the side away from the host vehicle 50. did. Therefore, it is possible to perform correction according to a situation in which an error in the distance of the image search area Ri occurs.

物体と自車両50との間で勾配差Δθが生じる場合、撮像画像での物体の上下位置によって、画像検出点Piの距離の誤差の程度が異なると考えられる。この点を考慮し、勾配差Δθと、撮像画像での先行車60の上下位置とに基づいて補正量DAを取得し、当該補正量に基づいて画像検出点Piの距離を補正するようにしたため、勾配差Δθに加え、撮像画像での先行車60の上下位置に応じた距離の誤差も加味することができる。これにより、画像検出点Piの距離を適切に補正でき、ひいては画像探索領域Riを適切に補正することができる。   When the gradient difference Δθ occurs between the object and the host vehicle 50, it is considered that the degree of error in the distance of the image detection point Pi differs depending on the vertical position of the object in the captured image. Considering this point, the correction amount DA is acquired based on the gradient difference Δθ and the vertical position of the preceding vehicle 60 in the captured image, and the distance of the image detection point Pi is corrected based on the correction amount. In addition to the gradient difference Δθ, an error in distance according to the vertical position of the preceding vehicle 60 in the captured image can be taken into account. Thereby, the distance of the image detection point Pi can be corrected appropriately, and consequently the image search area Ri can be corrected appropriately.

画像探索領域Riの位置を自車両50に近づける側、又は自車両50から遠ざける側に補正する際において、例えば、画像探索領域Riの距離範囲を広くすると、過度に同一判定の条件が成立しやすくなり、同一判定の精度が低下するおそれがある。この点を考慮し、勾配差Δθに基づいて、画像探索領域Riの位置を自車両50に近づける側、又は自車両50から遠ざける側に補正するとともに、画像探索領域Riの距離範囲を狭くする側に補正した。この場合、画像探索領域Riの距離範囲を狭くすることで、レーダ探索領域Rrと補正画像探索領域CRiとが重なりにくくなり、同一判定の条件が成立しにくくなる。これにより、過度に同一判定の条件が成立することを抑制でき、ひいては同一判定の精度が低下することを抑制できる。   When correcting the position of the image search area Ri to the side closer to the host vehicle 50 or the side away from the host vehicle 50, for example, if the distance range of the image search area Ri is widened, the same determination condition is easily established. Therefore, the accuracy of the same determination may be reduced. In consideration of this point, based on the gradient difference Δθ, the position of the image search region Ri is corrected to the side closer to the host vehicle 50 or to the side away from the host vehicle 50, and the distance range of the image search region Ri is reduced. Was corrected. In this case, by narrowing the distance range of the image search region Ri, the radar search region Rr and the corrected image search region CRi are less likely to overlap, and the same determination condition is less likely to be satisfied. Thereby, it can suppress that the conditions of the same determination are satisfied too much, and can suppress that the precision of the same determination falls by extension.

自車両50から先行車60までの距離及び地図情報に基づいて、先行車60及び自車両50の各勾配情報を取得するようにした。この場合、自車両50の存在する地点及び先行車60の存在する地点における地図情報を参照することで、各勾配情報を取得することができる。これにより、先行車60の位置と自車両50の位置との相対的な勾配差Δθを精度良く算出することができる。   Based on the distance from the own vehicle 50 to the preceding vehicle 60 and the map information, the gradient information of the preceding vehicle 60 and the own vehicle 50 is acquired. In this case, each gradient information can be acquired by referring to the map information at the point where the host vehicle 50 exists and the point where the preceding vehicle 60 exists. Thereby, the relative gradient difference Δθ between the position of the preceding vehicle 60 and the position of the host vehicle 50 can be calculated with high accuracy.

(他の実施形態)
・上記実施形態では、レーダ探索領域Rr及び画像探索領域Riに基づいて同一判定を実施する構成とした。この点、レーダ検出点Pr及び画像検出点Piに基づいて同一判定を実施する構成であればよい。例えば、レーダ検出点Prと画像検出点Piとが所定の距離内に存在する場合に同一物体であると判定される構成としてもよい。かかる構成では、ECU10は、勾配差Δθに基づいて、画像検出点Piを補正して補正検出点CPiを取得する。そして、その補正検出点CPiとレーダ検出点Prとが所定の距離内に存在することに基づいて、同一判定を実施する。なお、画像検出点Piの距離の補正量DAは、例えば図5に示す相関マップに基づいて設定される。
(Other embodiments)
In the above embodiment, the same determination is performed based on the radar search region Rr and the image search region Ri. Any configuration that performs the same determination based on this point, the radar detection point Pr, and the image detection point Pi may be used. For example, the radar detection point Pr and the image detection point Pi may be determined to be the same object when they exist within a predetermined distance. In this configuration, the ECU 10 corrects the image detection point Pi based on the gradient difference Δθ to obtain a corrected detection point CPi. Then, based on the fact that the corrected detection point CPi and the radar detection point Pr exist within a predetermined distance, the same determination is performed. The distance correction amount DA of the image detection point Pi is set based on, for example, the correlation map shown in FIG.

・上記実施形態では、先行車60の傾斜角θ2の取得に際し、画像検出点Piの距離に基づいて先行車60の現在地付近の位置を算出したが、レーダ検出点Prの距離を加味して先行車60の現在地付近の位置を算出してもよい。   In the above embodiment, when the inclination angle θ2 of the preceding vehicle 60 is acquired, the position near the current location of the preceding vehicle 60 is calculated based on the distance of the image detection point Pi. A position near the current location of the car 60 may be calculated.

・上記実施形態では、画像検出点Piを補正し、その補正に基づいて画像探索領域Riを補正する構成とした。すなわち、画像検出点Piの距離を補正し、その補正検出点CPiに基づいて補正画像探索領域CRiを設定する構成としたが、これに限られない。例えば、画像検出点Piの補正を介さずに画像探索領域Riを直接補正する構成としてもよい。かかる構成では、ECU10は、勾配差Δθと撮像画像での物体の上下位置とに基づいて、画像探索領域Riの距離方向における位置の補正量DAを設定する。そして、ECU10は、その補正量DAに基づいて、画像探索領域Riから補正画像探索領域CRiを設定する。   In the above embodiment, the image detection point Pi is corrected, and the image search area Ri is corrected based on the correction. That is, the distance of the image detection point Pi is corrected and the corrected image search region CRi is set based on the correction detection point CPi. However, the present invention is not limited to this. For example, the image search area Ri may be directly corrected without going through the correction of the image detection point Pi. In such a configuration, the ECU 10 sets the position correction amount DA in the distance direction of the image search region Ri based on the gradient difference Δθ and the vertical position of the object in the captured image. Then, the ECU 10 sets a corrected image search area CRi from the image search area Ri based on the correction amount DA.

・画像探索領域Riの距離範囲を補正する構成において、その所定割合を可変とする構成としてもよい。例えば、補正量DAに応じて所定割合が設定される構成としてもよい。かかる構成では、例えば補正量DAが大きくなるほど、所定割合が小さく設定される。この場合、補正量DAが大きくなるのに応じて補正画像探索領域CRiの距離範囲が小さく設定されることで、過度に同一判定の条件が成立することが抑制される。   In the configuration for correcting the distance range of the image search region Ri, the predetermined ratio may be variable. For example, a predetermined ratio may be set according to the correction amount DA. In such a configuration, for example, the larger the correction amount DA, the smaller the predetermined ratio is set. In this case, by setting the distance range of the corrected image search region CRi to be small as the correction amount DA increases, it is possible to suppress the same determination condition from being satisfied excessively.

・上記実施形態では、物体を先行車60としたが、これに限らず、例えば自転車や歩行者を対象物体としてもよい。   In the above embodiment, the object is the preceding vehicle 60. However, the present invention is not limited to this, and for example, a bicycle or a pedestrian may be the target object.

・上記実施形態では、ECU10をPCSSに適用し、物体の同一判定の精度を向上させることで、適正な衝突回避制御を実現する構成とした。この点これを変更し、例えば、ECU10を、先行車60に追従させる制御を行うACC(Adaptive Cruise Control)システムに適用してもよい。かかる構成では、先行車60の同一判定が精度良く行われることで、適正な追従走行制御が実現される。   -In above-mentioned embodiment, it was set as the structure which implement | achieves appropriate collision avoidance control by applying ECU10 to PCSS and improving the precision of the same determination of an object. This may be changed and applied to, for example, an ACC (Adaptive Cruise Control) system that performs control for causing the ECU 10 to follow the preceding vehicle 60. In such a configuration, the same determination of the preceding vehicle 60 is performed with high accuracy, so that appropriate follow-up traveling control is realized.

10…ECU、21…レーダ装置、22…撮像装置、50…自車両。   DESCRIPTION OF SYMBOLS 10 ... ECU, 21 ... Radar apparatus, 22 ... Imaging device, 50 ... Own vehicle.

Claims (7)

自車両(50)の周囲に存在する物体を検出する物体検出センサとしてレーダ装置(21)及び撮像装置(22)を備える車両に適用され、
前記レーダ装置の検出結果に基づいて、前記自車両を基準とする距離及び方位で特定される前記物体の第1位置を取得する第1取得部と、
前記撮像装置の検出結果に基づいて、前記自車両を基準とする距離及び方位で特定される前記物体の第2位置を取得する第2取得部と、
前記物体と前記自車両との道路勾配の差である勾配差を算出する勾配算出部と、
前記勾配差に基づいて、前記第2位置の前記物体までの距離を補正する補正部と、
前記第1位置と前記補正部により補正された前記第2位置とに基づいて、前記レーダ装置で検出された物体と前記撮像装置で検出された物体とが同一物体であるか否かを判定する同一判定部と、
を備える車両制御装置(10)。
The present invention is applied to a vehicle including a radar device (21) and an imaging device (22) as an object detection sensor that detects an object existing around the host vehicle (50).
A first acquisition unit configured to acquire a first position of the object specified by a distance and a direction based on the own vehicle based on a detection result of the radar device;
A second acquisition unit configured to acquire a second position of the object specified by a distance and an orientation based on the host vehicle based on a detection result of the imaging device;
A gradient calculating unit that calculates a gradient difference that is a difference in road gradient between the object and the host vehicle;
A correction unit that corrects the distance of the second position to the object based on the gradient difference;
Based on the first position and the second position corrected by the correction unit, it is determined whether or not the object detected by the radar device and the object detected by the imaging device are the same object. The same determination unit;
A vehicle control device (10) comprising:
前記補正部は、前記勾配差と、前記撮像装置により撮像される撮像画像での前記物体の上下位置とに基づいて補正量を取得し、当該補正量に基づいて前記第2位置の前記物体までの距離を補正する請求項1に記載の車両制御装置。   The correction unit acquires a correction amount based on the gradient difference and the vertical position of the object in a captured image captured by the imaging device, and based on the correction amount, the object at the second position is acquired. The vehicle control device according to claim 1, wherein the distance of the vehicle is corrected. 前記第1取得部は、前記第1位置として、前記レーダ装置による検出位置を含み、かつ、所定の距離範囲及び所定の方位範囲で広がる第1探索領域を取得し、
前記第2取得部は、前記第2位置として、前記撮像装置による検出位置を含み、かつ、所定の距離範囲及び所定の方位範囲で広がる第2探索領域を取得するものであって、
前記補正部は、前記勾配差に基づいて、前記第2探索領域の位置を補正し、
前記同一判定部は、前記第1探索領域と前記補正部により補正された前記第2探索領域とに基づいて前記同一物体であるか否かを判定する請求項1に記載の車両制御装置。
The first acquisition unit acquires, as the first position, a first search region that includes a detection position by the radar device and extends in a predetermined distance range and a predetermined azimuth range,
The second acquisition unit acquires, as the second position, a second search region that includes a detection position by the imaging device and extends in a predetermined distance range and a predetermined azimuth range,
The correction unit corrects the position of the second search region based on the gradient difference,
2. The vehicle control device according to claim 1, wherein the same determination unit determines whether or not they are the same object based on the first search region and the second search region corrected by the correction unit.
前記補正部は、前記物体の位置の道路勾配が前記自車両の位置の道路勾配よりも正側に大きい場合に、前記第2探索領域の位置を前記自車両に近づける側に補正するとともに、前記第2探索領域の距離範囲を狭くする側に補正し、
前記同一判定部は、前記第1探索領域と前記補正部により補正された前記第2探索領域とで重なる領域が存在することに基づいて前記同一判定を実施する請求項3に記載の車両制御装置。
The correction unit corrects the position of the second search region to the side closer to the own vehicle when the road gradient of the position of the object is larger on the positive side than the road gradient of the position of the own vehicle. Correct the distance range of the second search area to be narrower,
The vehicle control device according to claim 3, wherein the same determination unit performs the same determination based on the presence of an overlapping area between the first search region and the second search region corrected by the correction unit. .
前記補正部は、前記物体の位置の道路勾配が前記自車両の位置の道路勾配よりも負側に大きい場合に、前記第2探索領域の位置を前記自車両から遠ざける側に補正するとともに、前記第2探索領域の距離範囲を狭くする側に補正し、
前記同一判定部は、前記第1探索領域と前記補正部により補正された前記第2探索領域とで重なる領域が存在することに基づいて前記同一判定を実施する請求項3又は4に記載の車両制御装置。
The correction unit corrects the position of the second search region to the side away from the host vehicle when the road gradient of the position of the object is larger on the negative side than the road gradient of the host vehicle. Correct the distance range of the second search area to be narrower,
The vehicle according to claim 3 or 4, wherein the same determination unit performs the same determination based on the presence of an overlapping area between the first search region and the second search region corrected by the correction unit. Control device.
前記補正部は、前記勾配差と、前記撮像装置により撮像される撮像画像での前記物体の上下位置とに基づいて補正量を取得し、当該補正量に基づいて前記第2探索領域の位置を補正する請求項3乃至5のいずれか1項に記載の車両制御装置。   The correction unit acquires a correction amount based on the gradient difference and the vertical position of the object in a captured image captured by the imaging device, and determines the position of the second search region based on the correction amount. The vehicle control device according to claim 3, wherein correction is performed. 前記勾配算出部は、前記自車両から前記物体までの距離及び地図情報に基づいて前記物体及び前記自車両の各勾配情報を取得し、前記各勾配情報に基づいて前記勾配差を算出する請求項1乃至6のいずれか1項に記載の車両制御装置。   The gradient calculation unit acquires each gradient information of the object and the host vehicle based on a distance from the host vehicle to the object and map information, and calculates the gradient difference based on the each gradient information. The vehicle control device according to any one of 1 to 6.
JP2017127329A 2017-06-29 2017-06-29 Vehicle control device Active JP6988200B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017127329A JP6988200B2 (en) 2017-06-29 2017-06-29 Vehicle control device
US16/019,894 US10836388B2 (en) 2017-06-29 2018-06-27 Vehicle control method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017127329A JP6988200B2 (en) 2017-06-29 2017-06-29 Vehicle control device

Publications (2)

Publication Number Publication Date
JP2019012323A true JP2019012323A (en) 2019-01-24
JP6988200B2 JP6988200B2 (en) 2022-01-05

Family

ID=64734724

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017127329A Active JP6988200B2 (en) 2017-06-29 2017-06-29 Vehicle control device

Country Status (2)

Country Link
US (1) US10836388B2 (en)
JP (1) JP6988200B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10579067B2 (en) * 2017-07-20 2020-03-03 Huawei Technologies Co., Ltd. Method and system for vehicle localization
EP3757611A1 (en) * 2019-06-27 2020-12-30 Aptiv Technologies Limited Vertical road profile estimation
CN110312106B (en) * 2019-07-30 2021-05-18 广汽蔚来新能源汽车科技有限公司 Image display method and device, computer equipment and storage medium
KR20210060237A (en) * 2019-11-18 2021-05-26 현대모비스 주식회사 Rear cross collision detecting system and method
CN111476106B (en) * 2020-03-17 2022-07-08 重庆邮电大学 Monocular camera-based straight road relative gradient real-time prediction method, system and device
CN111891124B (en) * 2020-06-08 2021-08-24 福瑞泰克智能系统有限公司 Method, system, computer device and readable storage medium for target information fusion
KR102405361B1 (en) * 2020-12-14 2022-06-08 재단법인대구경북과학기술원 Apparatus and method for tracking position of moving object based on slop of road
CN112660125B (en) * 2020-12-26 2023-04-07 江铃汽车股份有限公司 Vehicle cruise control method and device, storage medium and vehicle
CN112799055B (en) * 2020-12-28 2024-07-09 深圳承泰科技有限公司 Method and device for detecting detected vehicle and electronic equipment
CN112684803B (en) * 2021-03-11 2021-06-11 上海擎朗智能科技有限公司 Control method and device for mobile robot, mobile robot and storage medium
CN114043981B (en) * 2021-06-30 2023-10-24 东风汽车集团股份有限公司 Automatic parking control method
CN114459423B (en) * 2022-01-24 2023-06-13 长江大学 Method for monocular measuring and calculating distance of navigation ship

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030093220A1 (en) * 2001-10-15 2003-05-15 Hans Andersson System and method for controlling an object detection system of a vehicle
JP2005041360A (en) * 2003-07-23 2005-02-17 Nissan Motor Co Ltd Driving operation assisting device for vehicle, and vehicle having it
JP2006322796A (en) * 2005-05-18 2006-11-30 Olympus Corp Image processing device, image processing method and image processing program
JP2015041265A (en) * 2013-08-22 2015-03-02 株式会社デンソー Target detection device and program
JP2015042523A (en) * 2013-08-26 2015-03-05 トヨタ自動車株式会社 On-vehicle control device
US20150120153A1 (en) * 2013-10-25 2015-04-30 Robert Bosch Gmbh Method and device for ascertaining a height profile of a road situated ahead of a vehicle
JP2016066181A (en) * 2014-09-24 2016-04-28 株式会社デンソー Object detector
JP2016134129A (en) * 2015-01-22 2016-07-25 株式会社Jvcケンウッド Video display system, processing apparatus, video display method, and video display program
JP2016223889A (en) * 2015-05-29 2016-12-28 株式会社デンソー Object detection device

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1137730A (en) 1997-07-18 1999-02-12 Nissan Motor Co Ltd Road shape estimating apparatus
JP2001134769A (en) * 1999-11-04 2001-05-18 Honda Motor Co Ltd Object recognizing device
KR100471268B1 (en) * 2002-10-28 2005-03-10 현대자동차주식회사 Method for detecting vehicle distance
JP2005029025A (en) 2003-05-09 2005-02-03 Fujitsu Ten Ltd On-vehicle display device, image display method, and image display program
JP3918791B2 (en) * 2003-09-11 2007-05-23 トヨタ自動車株式会社 Object detection device
JP2006151125A (en) * 2004-11-26 2006-06-15 Omron Corp On-vehicle image processing device
WO2006121087A1 (en) * 2005-05-10 2006-11-16 Olympus Corporation Image processing device, image processing method, and image processing program
JP2007181129A (en) 2005-12-28 2007-07-12 Hitachi Ltd Vehicle-mounted movable body detection instrument
DE102007018470A1 (en) * 2007-04-19 2008-10-23 Robert Bosch Gmbh Driver assistance system and method for object plausibility
US8705797B2 (en) * 2012-03-07 2014-04-22 GM Global Technology Operations LLC Enhanced data association of fusion using weighted Bayesian filtering
JP5812064B2 (en) 2012-11-22 2015-11-11 株式会社デンソー Target detection device
US9631914B2 (en) * 2014-03-13 2017-04-25 The Boeing Company Calibration of sensor arrays
FR3020892B1 (en) * 2014-05-12 2016-05-27 Sagem Defense Securite METHOD FOR NAVIGATING AN AIR DRONE IN THE PRESENCE OF AN INTRUDED AIRCRAFT AND DRONE FOR IMPLEMENTING SAID METHOD
JP2016197018A (en) * 2015-04-02 2016-11-24 株式会社デンソー Collision avoidance assist device
JP2017194926A (en) * 2016-04-22 2017-10-26 株式会社デンソー Vehicle control apparatus and vehicle control method
KR101793223B1 (en) * 2016-07-13 2017-11-03 모바일 어플라이언스 주식회사 Advanced driver assistance apparatus
US20180188031A1 (en) * 2016-08-31 2018-07-05 Faraday&Future Inc. System and method for calibrating vehicle dynamics expectations for autonomous vehicle navigation and localization
US20180087907A1 (en) * 2016-09-29 2018-03-29 The Charles Stark Draper Laboratory, Inc. Autonomous vehicle: vehicle localization
CN106767852B (en) * 2016-12-30 2019-10-11 东软集团股份有限公司 A kind of method, apparatus and equipment generating detection target information

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030093220A1 (en) * 2001-10-15 2003-05-15 Hans Andersson System and method for controlling an object detection system of a vehicle
JP2005041360A (en) * 2003-07-23 2005-02-17 Nissan Motor Co Ltd Driving operation assisting device for vehicle, and vehicle having it
JP2006322796A (en) * 2005-05-18 2006-11-30 Olympus Corp Image processing device, image processing method and image processing program
JP2015041265A (en) * 2013-08-22 2015-03-02 株式会社デンソー Target detection device and program
JP2015042523A (en) * 2013-08-26 2015-03-05 トヨタ自動車株式会社 On-vehicle control device
US20150120153A1 (en) * 2013-10-25 2015-04-30 Robert Bosch Gmbh Method and device for ascertaining a height profile of a road situated ahead of a vehicle
JP2016066181A (en) * 2014-09-24 2016-04-28 株式会社デンソー Object detector
JP2016134129A (en) * 2015-01-22 2016-07-25 株式会社Jvcケンウッド Video display system, processing apparatus, video display method, and video display program
JP2016223889A (en) * 2015-05-29 2016-12-28 株式会社デンソー Object detection device

Also Published As

Publication number Publication date
US20190001978A1 (en) 2019-01-03
JP6988200B2 (en) 2022-01-05
US10836388B2 (en) 2020-11-17

Similar Documents

Publication Publication Date Title
JP6988200B2 (en) Vehicle control device
US11097726B2 (en) Lane keeping assist system and method for improving safety in preceding vehicle follower longitudinal control
CN109155109B (en) Target object detection device
US10384681B2 (en) Vehicle cruise control device and cruise control method
JP6443318B2 (en) Object detection device
US11003927B2 (en) Target recognition apparatus, target recognition method, and vehicle control system
US10471961B2 (en) Cruise control device and cruise control method for vehicles
US10754017B2 (en) Target object information acquisition apparatus
US20140139369A1 (en) Object detection apparatus
EP2803546A1 (en) Collision mitigation apparatus
JP6856452B2 (en) Target judgment device and driving support system
WO2016117602A1 (en) Vehicle control device and vehicle control method
US10527719B2 (en) Object detection apparatus and object detection method
JP6561704B2 (en) Driving support device and driving support method
JP2019052920A (en) Object detector, object detection method and vehicle control system
US20190346557A1 (en) Vehicle control device and vehicle control method
JP6805970B2 (en) Target information acquisition device
US10907962B2 (en) Driving assistance system mounted in vehicle
JP6432538B2 (en) Collision prediction device
US20190061748A1 (en) Collision prediction apparatus
JP2019059429A (en) Vehicle driving support apparatus
JP6390459B2 (en) Optical axis deviation detector
JP2019059449A (en) Vehicle driving support device
JP6525405B1 (en) Vehicle control device
JP2021117848A (en) Object detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211115

R151 Written notification of patent or utility model registration

Ref document number: 6988200

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151