JP2019012323A - Vehicle controller - Google Patents
Vehicle controller Download PDFInfo
- Publication number
- JP2019012323A JP2019012323A JP2017127329A JP2017127329A JP2019012323A JP 2019012323 A JP2019012323 A JP 2019012323A JP 2017127329 A JP2017127329 A JP 2017127329A JP 2017127329 A JP2017127329 A JP 2017127329A JP 2019012323 A JP2019012323 A JP 2019012323A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- gradient
- distance
- host vehicle
- search region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 claims abstract description 98
- 238000003384 imaging method Methods 0.000 claims abstract description 26
- 230000004927 fusion Effects 0.000 abstract description 10
- 238000000034 method Methods 0.000 description 8
- 230000001174 ascending effect Effects 0.000 description 2
- 230000000116 mitigating effect Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
- B60W40/076—Slope angle of the road
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/15—Road slope, i.e. the inclination of a road segment in the longitudinal direction
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Description
本発明は、レーダ装置及び撮像装置を備える車両に適用される車両制御装置に関するものである。 The present invention relates to a vehicle control device applied to a vehicle including a radar device and an imaging device.
レーダ装置の検出結果に基づくレーダ位置と、撮像装置の検出結果に基づく画像位置とを照合し、これらが同一の物体によるものであると判定した場合にレーダ位置と画像位置とをフュージョン(融合)して新たな物体位置(フュージョン位置)を生成する技術が知られている。 The radar position based on the detection result of the radar device and the image position based on the detection result of the imaging device are collated, and if it is determined that they are due to the same object, the radar position and the image position are fused. A technique for generating a new object position (fusion position) is known.
例えば、特許文献1の物標検出装置では、レーダ位置と画像位置とが所定の近接関係にある場合に、レーダ位置と画像位置が同一の物体によるものと判定される。なお、レーダ位置及び画像位置はともに、自車両を原点とした場合に自車両の車幅方向をX軸とし自車両の進行方向をY軸とする相対座標上の位置として取得される。この場合、レーダ位置及び画像位置はそれぞれ、自車両から物体までの距離と自車両を基準とする物体の方位とに基づいて特定される。 For example, in the target detection device of Patent Document 1, when the radar position and the image position are in a predetermined proximity relationship, it is determined that the radar position and the image position are due to the same object. Both the radar position and the image position are acquired as relative coordinate positions where the vehicle width direction of the host vehicle is the X axis and the traveling direction of the host vehicle is the Y axis when the host vehicle is the origin. In this case, the radar position and the image position are specified based on the distance from the own vehicle to the object and the direction of the object with reference to the own vehicle.
ところで、画像位置における自車両から物体までの距離は、撮像画像での物体の上下位置に基づいて算出される。しかしながら、撮像画像からでは道路勾配(傾斜)を考慮することができない。そのため、物体と自車両との間で相対的な勾配差が生じる場合には、画像位置における自車両から物体までの距離に誤差が生じることがある。その結果、画像位置とレーダ位置との間にずれが生じ、適切な同一判定が実施できないおそれがある。 Incidentally, the distance from the host vehicle to the object at the image position is calculated based on the vertical position of the object in the captured image. However, the road gradient (inclination) cannot be considered from the captured image. Therefore, when a relative gradient difference occurs between the object and the host vehicle, an error may occur in the distance from the host vehicle to the object at the image position. As a result, there is a possibility that a deviation occurs between the image position and the radar position, and proper identification determination cannot be performed.
本発明は、上記課題に鑑みてなされたものであり、その主たる目的は、物体と自車両との間で勾配差が生じる場合であっても、適正にフュージョンを実施することができる車両制御装置を提供することにある。 The present invention has been made in view of the above problems, and a main object of the present invention is a vehicle control device capable of appropriately performing fusion even when a gradient difference occurs between an object and the host vehicle. Is to provide.
第1の手段は、
自車両(50)の周囲に存在する物体を検出する物体検出センサとしてレーダ装置(21)及び撮像装置(22)を備える車両に適用され、
前記レーダ装置の検出結果に基づいて、前記自車両を基準とする距離及び方位で特定される前記物体の第1位置を取得する第1取得部と、
前記撮像装置の検出結果に基づいて、前記自車両を基準とする距離及び方位で特定される前記物体の第2位置を取得する第2取得部と、
前記物体と前記自車両との道路勾配の差である勾配差を算出する勾配算出部と、
前記勾配差に基づいて、前記第2位置の前記物体までの距離を補正する補正部と、
前記第1位置と前記補正部により補正された前記第2位置とに基づいて、前記レーダ装置で検出された物体と前記撮像装置で検出された物体とが同一物体であるか否かを判定する同一判定部と、
を備えることを特徴とする。
The first means is
The present invention is applied to a vehicle including a radar device (21) and an imaging device (22) as an object detection sensor that detects an object existing around the host vehicle (50).
A first acquisition unit configured to acquire a first position of the object specified by a distance and a direction based on the own vehicle based on a detection result of the radar device;
A second acquisition unit configured to acquire a second position of the object specified by a distance and an orientation based on the host vehicle based on a detection result of the imaging device;
A gradient calculating unit that calculates a gradient difference that is a difference in road gradient between the object and the host vehicle;
A correction unit that corrects the distance of the second position to the object based on the gradient difference;
Based on the first position and the second position corrected by the correction unit, it is determined whether or not the object detected by the radar device and the object detected by the imaging device are the same object. The same determination unit;
It is characterized by providing.
レーダ装置で検出された物体と、撮像装置で検出された物体とが同一物体であるか否かの判定(同一判定)は、各装置の検出結果に基づいて取得されるレーダ位置と画像位置とを用いて行われる。しかしながら、撮像装置による物体検出では道路勾配が加味されていないため、例えば物体と自車両との間で勾配差が生じる場合は、画像位置における物体までの距離に誤差が生じることがある。その結果、適切な同一判定が実施できないおそれがある。 Whether or not the object detected by the radar device and the object detected by the imaging device are the same object (identical determination) is determined based on the radar position and the image position acquired based on the detection result of each device. It is done using. However, since the road gradient is not taken into account in the object detection by the imaging device, for example, when a gradient difference occurs between the object and the host vehicle, an error may occur in the distance to the object at the image position. As a result, there is a possibility that appropriate identity determination cannot be performed.
この点、上記構成では、物体と自車両との道路勾配の差である勾配差を算出し、算出された勾配差に基づいて第2位置(画像位置)における物体までの距離を補正する。そして、第1位置(レーダ位置)と補正された第2位置に基づいて、同一判定を実施するようにした。この場合、勾配差に基づいて第2位置における物体までの距離を補正することで、道路勾配を加味した上で第2位置を取得することができる。そして、第1位置と補正された第2位置を用いることで、適切な同一判定を実施することができる。これにより、勾配差が生じる場合であっても、フュージョン物標を適正に生成することができる。 In this regard, in the above configuration, a gradient difference that is a difference in road gradient between the object and the host vehicle is calculated, and the distance to the object at the second position (image position) is corrected based on the calculated gradient difference. Then, the same determination is performed based on the first position (radar position) and the corrected second position. In this case, by correcting the distance to the object at the second position based on the gradient difference, the second position can be acquired with the road gradient taken into account. Then, by using the first position and the corrected second position, an appropriate identity determination can be performed. Thereby, even if it is a case where a gradient difference arises, a fusion target can be produced | generated appropriately.
図1は、車両制御装置を適用したプリクラッシュセーフティシステム(以下、PCSS:Pre-crash safety systemと記載する。)を示している。PCSSは、車両に搭載される車両システムの一例であり、自車両の周囲に存在する物体を検出し、検出した物体と自車両とが衝突する可能性がある場合に、物体に対する自車両の衝突の回避動作、又は衝突の緩和動作を実施する。 FIG. 1 shows a pre-crash safety system (hereinafter referred to as PCSS: Pre-crash safety system) to which a vehicle control device is applied. PCSS is an example of a vehicle system mounted on a vehicle. When an object existing around the host vehicle is detected and the detected object may collide with the host vehicle, the host vehicle collides with the object. The avoidance operation or the collision mitigation operation is performed.
図1に示す自車両50は、物体検出センサとしてのレーダ装置21及び撮像装置22と、ナビゲーション装置23と、ECU10と、運転支援装置30とを備えている。図1に示す実施形態において、ECU10が車両制御装置として機能する。
A
レーダ装置21は、ミリ波やレーザ等の指向性のある電磁波(探査波)を利用して自車前方の物体を検出するものであり、自車両50の前部においてその光軸が自車前方を向くように取り付けられている。レーダ装置21は、所定時間ごとに自車前方に向かって所定範囲で広がる領域をレーダ信号で走査するとともに、自車前方の物体の表面で反射された電磁波を受信することで物体の相対位置(検出位置)、相対速度等を物体情報として取得する。取得された物体情報は、所定周期ごとにECU10に入力される。
The
撮像装置22は、車載カメラであって、例えばCCDカメラ、CMOSイメージセンサ、近赤外線カメラ等を用いて構成されている。撮像装置22は、自車両50の車幅方向中央の所定高さ(例えば、フロントガラス上端付近)に取り付けられ、自車前方へ向けて所定角度範囲で広がる領域を俯瞰視点から撮像する。撮像された撮像画像は、所定周期毎にECU10に入力される。本実施形態において、撮像装置22は単眼カメラである。
The
ナビゲーション装置23は、自車両50が走行する道路の道路情報をECU10に提供する。例えば、ナビゲーション装置23は、地図情報を記録するメモリと、GPS(Global Positioning System)衛星から送信される測位情報により地図上での自車両50の位置を特定するための位置特定部とを備えている。そして、ナビゲーション装置23は、特定した地図上での自車位置に基づいて、この自車位置周囲の道路情報を参照する。そして、参照した道路情報をECU10に送信する。道路情報は、例えば、道路の勾配情報(傾斜角等)、交差点の有無を示す情報等である。
The
運転支援装置30は、ドライバに対して警報音を発する警報装置や、自車両50の車速を減速させるブレーキ装置であり、ECU10からの制御指令により物体との衝突回避動作や衝突軽減動作を行う。運転支援装置30がブレーキ装置であれば、物体に衝突する可能性が高まった場合に、自動ブレーキを作動させる。また、運転支援装置30が警報装置であれば、物体に衝突する可能性が高まった場合に、警報音を発する。
The driving support device 30 is an alarm device that emits an alarm sound to the driver, or a brake device that decelerates the vehicle speed of the
ECU10は、CPU、各種メモリ(ROM、RAM)を備える周知のマイクロコンピュータとして構成されており、メモリ内の演算プログラムや制御データを参照して、自車両50における制御を実施する。ECU10は、レーダ装置21から入力される検出結果(物体情報)、及び撮像装置22から入力される検出結果(撮像画像)に基づいて物体を認識し、認識された物体に対して、運転支援装置30を制御対象とするPCSを実施する。以下に、ECU10が実施するPCS制御について説明する。
ECU10 is comprised as a known microcomputer provided with CPU and various memory (ROM, RAM), and implements control in the
ECU10は、物体情報に基づいて自車両50を基準とする距離及び方位で特定される物体のレーダ位置を取得する。また、撮像画像に基づいて自車両50を基準とする距離及び方位で特定される物体の画像位置を取得する。そして、レーダ位置と画像位置とに基づいて、これらの位置が同一物体によるものであるか否かの同一判定を実施する。
The
ここで、図2を用いて、レーダ位置と画像位置について説明する。各位置は、自車両50を原点とした場合に、自車両50の車幅方向をX軸とし、自車両50の進行方向をY軸とする相対座標上の位置として取得される。
Here, the radar position and the image position will be described with reference to FIG. Each position is acquired as a relative coordinate position where the vehicle width direction of the
ECU10は、まず、レーダ装置21による物体の検出位置としてレーダ検出点Prを取得する。レーダ検出点Prは、自車両50から物体までの相対距離r1と、自車両50を基準とする物体の方位θrとを含んでいる。また、撮像画像による物体の検出位置として画像検出点Piを取得する。画像検出点Piは、自車両50から物体までの相対距離r2と、自車両50を基準とする物体の方位θiとを含んでいる。相対距離r2は、撮像画像内で検出された物体の下端に基づいて算出される。
The
続いて、ECU10は、レーダ検出点Prに基づいてレーダ探索領域Rrを取得する。レーダ探索領域Rrは、レーダ検出点Prを基準として、距離方向及び方位方向のそれぞれについて、レーダ装置21の特性に基づき予め設定される想定誤差分の幅を持たせた領域である。例えば、レーダ探索領域Rrは、レーダ検出点Pr(r1,θr)を含み、かつ、所定の距離範囲及び所定の方位範囲で広がる領域として設定される。
Subsequently, the
また、ECU10は、画像検出点Piに基づいて画像探索領域Riを取得する。画像探索領域Riは、画像検出点Piを基準として、距離方向及び方位方向のそれぞれについて、撮像装置22の特性に基づき予め設定される想定誤差分の幅を持たせた領域である。例えば、画像探索領域Riは、画像検出点Pi(r2,θi)を含み、かつ、所定の距離範囲及び所定の方位範囲で広がる領域として設定される。なお、本実施形態では、レーダ位置としてレーダ探索領域Rrを用い、画像位置として画像探索領域Riを用いている。
Further, the
そして、ECU10は、所定の判定条件に基づいて、レーダ装置21で検出された物体と撮像装置22で検出された物体とが同一物体であるか否かを判定する。ここでは、判定条件として、レーダ探索領域Rrと画像探索領域Riとで重なる領域が存在するか否かを判定する。例えば、図2では、レーダ探索領域Rrと画像探索領域Riとで重なる領域が存在するため、これらの物体は同一物体であると判定される。かかる場合には、レーダ位置と画像位置とが融合され、物体に対する新たな位置となるフュージョン位置が生成される。図2では、レーダ検出点Pr(r1,θr)の内、精度の高い相対距離r1と、画像検出点Pi(r2,θi)の内、精度の高い方位θiとが融合されて、フュージョン位置としてフュージョン検出点Pf(r1,θi)が生成される。
Then, the
そして、ECU10は、同一判定を経た物体に対し自車両50が衝突する可能性があるか否かを判定する。具体的には、衝突回避制御の対象となる衝突予測領域内に各物体の横位置が属するか否かを判定する。かかる構成において、衝突予測領域内に物体の横位置が属する場合に、物体と自車両50とが衝突する可能性があると判定する。
Then, the
ECU10は、物体と自車両50とが衝突する可能性があると判定された場合、当該物体に対する衝突余裕時間TTC(Time to Collision)を算出する。そして、算出されたTTCと、運転支援装置30の作動タイミングとに基づいて、運転支援装置30を作動させる。具体的には、運転支援装置30がブレーキ装置である場合、TTCがその作動タイミング以下となれば、自動ブレーキを作動させて衝突速度を低減する制御等を行う。また、運転支援装置30が警報装置である場合、TTCがその作動タイミング以下となれば、スピーカ等を作動させてドライバへ警報を行う。このようなPCS制御により、物体と自車両50との衝突の回避又は緩和を図っている。
When it is determined that there is a possibility of collision between the object and the
ところで、画像検出点Piにおける自車両50から物体までの距離(図2の相対距離r2)は、撮像画像での物体の上下位置に基づいて算出される。ここで、図3には、自車両50が平坦路(傾斜角ゼロ)を走行し、物体としての先行車60が傾斜角Aの上りの勾配路を走行する状況を示している。かかる状況下では、自車両50の位置に対し先行車60の位置が上方に位置するため、撮像画像において先行車60はより上側の位置で検出される。しかしながら、撮像画像からでは道路勾配を考慮することができないため、撮像画像に基づく画像検出点Piによると先行車60の位置は位置70として検出される。そのため、画像検出点Piに基づく距離D2と実際の先行車60の位置に基づく距離D1との間で誤差(ΔD)が生じることになり、この場合は、距離D2の方が距離D1よりも大きくなる(D2>D1)。一方、図3とは異なり先行車60が下りの勾配路を走行する状況においても、画像検出点Piに基づく距離D2と実際の先行車60の位置に基づく距離D1との間で誤差(ΔD)が生じることになる。なおこの場合は、距離D2よりも距離D1の方が大きくなる(D2<D1)。そして、このように距離の誤差(ΔD)が生じると、画像検出点Piに基づいて設定される画像探索領域Riの距離方向における位置にずれが生じ、同一判定が適正に実施されないおそれがある。
Incidentally, the distance from the
そこで、本実施形態では、物体の位置と自車両50の位置との相対的な勾配差Δθを算出し、算出された勾配差Δθに基づいて画像探索領域Riの距離方向における位置を補正する。そして、レーダ探索領域Rrと補正された画像探索領域Riとに基づいて、同一判定を実施するようにした。すなわち、道路勾配を加味した画像探索領域Riを用いることで、勾配差Δθが生じる場合であっても同一判定を適正に実施できるようにしている。
Therefore, in the present embodiment, a relative gradient difference Δθ between the position of the object and the position of the
ECU10は、先行車60と自車両50との道路勾配の差である勾配差Δθを算出する。この場合、ECU10は、自車両50の勾配情報を取得する。具体的には、ナビゲーション装置23により取得される自車両50の現在地とその地点における道路情報に基づいて、自車両50の傾斜角θ1を取得する。なお、自車両50がジャイロセンサや傾斜角センサを備える構成では、それらセンサの検出値に基づいて、自車両50の勾配情報を取得してもよい。
The
また、ECU10は、先行車60の勾配情報を取得する。先行車60の勾配情報は、先行車60の現在地付近の位置における道路情報に基づいて取得される。先行車60の現在地付近の位置は、例えば画像検出点Piにおける先行車60までの距離と自車両50の現在地とに基づいて算出される。ただし、図3に示すように自車両50の前方に上りの勾配路や下りの勾配路が存在する場合は画像検出点Piの距離に誤差が生じるおそれがあるため、先行車60の勾配情報として、画像検出点Piの距離を含む所定範囲E内の道路の勾配情報を取得する。例えば、画像検出点Piの方位方向における所定範囲E内の傾斜角の平均値を、先行車60の傾斜角θ2として取得する。なお、所定範囲Eは、画像検出点Piの距離に応じて可変に設定されるようにしてもよい。
Further, the
傾斜角θ1は、自車両50が上りの勾配路では正値を示し、下りの勾配路では負値を示す。また、傾斜角θ2は、先行車60が上りの勾配路では正値を示し、下りの勾配路では負値を示す。例えば、上りの勾配路が急なほど傾斜角θ1,θ2の値は大きくなる。
The inclination angle θ1 indicates a positive value when the
ECU10は、自車両50の傾斜角θ1と先行車60の傾斜角θ2を取得すると、勾配差Δθを算出する。例えば、ECU10は、先行車60の傾斜角θ2から自車両50の傾斜角θ1を減算することで勾配差Δθを算出する。勾配差Δθは、自車両50の位置の勾配に対して先行車60の位置の勾配が上り勾配である場合(例えば図3の場合)に正値であり、自車両50の位置の勾配に対して先行車60の位置の勾配が下り勾配である場合に負値である。
When the
以下に、ECU10による画像探索領域Riの補正について説明する。まず図4には、自車両50の位置の勾配に対して先行車60の位置の勾配が上り勾配である場合(Δθ>0)における補正について説明する。例えば、図4には、図3の状況下で取得されるレーダ探索領域Rrと画像探索領域Riを示している。かかる場合において、ECU10は、勾配差Δθに基づいて画像探索領域Riを補正する。具体的には、まず画像検出点Piを自車両50に近づける側に補正して、補正検出点CPiを取得する。
Below, correction | amendment of the image search area | region Ri by ECU10 is demonstrated. First, in FIG. 4, correction when the gradient of the position of the preceding
画像検出点Piの距離の補正量DAは、勾配差Δθ(Δθ>0)と撮像画像での先行車60の上下位置とに基づいて設定される。ここで、勾配差Δθが大きくなるほど、画像検出点Piの距離のずれは大きくなると考えられる。また、同じ勾配差Δθであっても、撮像画像での先行車60の上下位置が上側になるほど、画像検出点Piの距離の誤差は相乗的に大きくなると考えられる。これらの点を考慮し、本実施形態では、例えば図5に示す相関マップに基づいて補正量DAが設定される。つまり、図5では、勾配差Δθが大きくなるほど、補正量DAは大きい値として算出される。また、撮像画像での先行車60の上下位置が上側になるほど、補正量DAは相乗的に大きい値として算出される。
The distance correction amount DA of the image detection point Pi is set based on the gradient difference Δθ (Δθ> 0) and the vertical position of the preceding
そして、ECU10は、補正検出点CPiに基づいて補正画像探索領域CRiを設定する。ここで、補正検出点CPiの位置に基づいて設定される通常の画像探索領域を領域URiとすると、補正画像探索領域CRiの距離範囲Caは、領域URiの距離範囲Uaよりも狭く設定される。例えば、距離範囲Caは、距離範囲Uaに対して、予め設定された所定割合(例えば60%)を乗じて設定される。一方、補正画像探索領域CRiの方位範囲は、領域URiの方位範囲と同じである。すなわち、ECU10は、勾配差Δθに基づいて、画像探索領域Riの位置を自車両50の側に補正するとともに、画像探索領域Riの距離範囲を通常の距離範囲よりも狭くする側に補正する。一方、ECU10は、レーダ探索領域Rrについては補正しない。
Then, the
一方、図6には、自車両50の位置の勾配に対して先行車60の位置の勾配が下り勾配である場合(Δθ<0)における補正について説明する。図6においては、説明の便宜上、図4に準ずる構成については同じ符号を付すとともに説明を適宜割愛する。この場合、ECU10は、画像検出点Piを自車両50から遠ざける側に補正して、補正検出点CPiを取得する。
On the other hand, FIG. 6 illustrates correction in the case where the gradient of the position of the preceding
画像検出点Piの距離の補正量DAは、勾配差Δθ(Δθ<0)と撮像画像での先行車60の上下位置とに基づいて設定される。この場合は、例えば図7に示す相関マップに基づいて補正量DAが設定される。つまり、図7では、勾配差Δθが負側に大きくなるほど、補正量DAは大きい値として算出される。また、撮像画像での先行車60の上下位置が下側になるほど、補正量DAは相乗的に大きい値として算出される。
The distance correction amount DA of the image detection point Pi is set based on the gradient difference Δθ (Δθ <0) and the vertical position of the preceding
そして、ECU10は、補正検出点CPiに基づいて補正画像探索領域CRiを設定する。この場合、補正画像探索領域CRiの距離範囲Caは、領域URiの距離範囲Uaよりも狭く設定される。一方、補正画像探索領域CRiの方位範囲は、領域URiの方位範囲と同じである。すなわち、ECU10は、勾配差Δθに基づいて、画像探索領域Riの位置を自車両50より遠ざかる側に補正するとともに、画像探索領域Riの距離範囲を通常の距離範囲よりも狭くする側に補正する。
Then, the
そして、ECU10は、レーダ探索領域Rrと補正画像探索領域CRiとで重複する領域が存在するか否かを判定する。重複する領域が存在する場合は、同一物体であると判定する。一方、重複する領域が存在しない場合は、同一物体でないと判定する。
Then, the
図8のフローチャートを用いて、ECU10により実施される同一判定処理について説明する。この処理は、ECU10により所定周期で繰り返し実施される。
The same determination process performed by ECU10 is demonstrated using the flowchart of FIG. This process is repeatedly performed by the
ステップS11では、レーダ装置21による検出位置としてレーダ検出点Prを取得する。ステップS12では、レーダ検出点Prに基づいてレーダ探索領域Rrを取得する。ステップS13では、撮像装置22による検出位置として画像検出点Piを取得する。ステップS14では、画像検出点Piに基づいて画像探索領域Riを取得する。なお、ステップS11,S12が「第1取得部」に相当し、ステップS13,S14が「第2取得部」に相当する。
In step S11, a radar detection point Pr is acquired as a detection position by the
ステップS15では、自車両50の位置の勾配情報を取得する。具体的には、ナビゲーション装置23によって自車両50の現在地に基づく道路情報を参照することで、傾斜角θ1を取得する。ステップS16では、物体として、例えば先行車60の位置の勾配情報を取得する。具体的には、ナビゲーション装置23によって先行車60の現在地付近に基づく道路情報を参照することで、傾斜角θ2を取得する。ステップS17では、それぞれ取得したθ1及びθ2に基づいて、勾配差Δθを算出する。ここでは、先行車60の傾斜角θ2から自車両50の傾斜角θ1を減算することで勾配差Δθを算出する。勾配差Δθが正値であれば、自車両50に対して先行車60が上り勾配であることを示し、負値であれば、自車両50に対して先行車60が下り勾配であることを示す。なお、ステップS15〜S17が「勾配算出部」に相当する。
In step S15, gradient information on the position of the
続くステップS18では、算出されたΔθが閾値Th1以上であって、閾値Th2以下であるか否かを判定する。例えば、閾値Th1は、ゼロ又はゼロ付近の負値に設定され、閾値Th2は、ゼロ又はゼロ付近の正値に設定される。ステップS18がYESの場合は、画像検出点Pi及び画像探索領域Riを補正せずにステップS20に進む。かかる場合、例えば、Δθがゼロであれば、先行車60と自車両50との間で勾配差がないため、画像探索領域Riにおいて勾配差に起因する距離の誤差は生じないと考えられる。
In a succeeding step S18, it is determined whether or not the calculated Δθ is equal to or larger than the threshold Th1 and equal to or smaller than the threshold Th2. For example, the threshold value Th1 is set to zero or a negative value near zero, and the threshold value Th2 is set to zero or a positive value near zero. If step S18 is YES, the process proceeds to step S20 without correcting the image detection point Pi and the image search area Ri. In this case, for example, if Δθ is zero, there is no gradient difference between the preceding
一方、ステップS18がNOの場合、つまりΔθが閾値Th2よりも大きい場合、又はΔθが閾値Th1よりも小さい場合は、ステップS19に進む。ステップS19では、勾配差Δθに基づいて画像検出点Pi及び画像探索領域Riを補正する。具体的には、Δθが閾値Th2よりも大きければ、上述の図4に示すように、画像検出点Piを自車両50に近づける側へ補正し、補正された補正検出点CPiに基づいて補正画像探索領域CRiを設定することで、画像探索領域Riを補正する。また、Δθが閾値Th1よりも小さければ、上述の図6に示すように、画像検出点Piを自車両50から遠ざける側へ補正し、補正された補正検出点CPiに基づいて補正画像探索領域CRiを設定することで、画像探索領域Riを補正する。なお、ステップS19が「補正部」に相当する。
On the other hand, if step S18 is NO, that is, if Δθ is larger than the threshold Th2, or if Δθ is smaller than the threshold Th1, the process proceeds to step S19. In step S19, the image detection point Pi and the image search area Ri are corrected based on the gradient difference Δθ. Specifically, if Δθ is larger than the threshold Th2, as shown in FIG. 4 described above, the image detection point Pi is corrected to the side closer to the
ステップS20では、同一判定の判定条件が成立したか否かを判定する。ここでは、判定条件として、レーダ探索領域Rrと画像探索領域Riとで重複する領域が存在するか否かを判定する。また、ステップS19で画像探索領域Riを補正した場合には、レーダ探索領域Rrと補正画像探索領域CRiとで重複する領域が存在するか否かを判定する。なお、ステップS20において、重複する領域以外にその他の条件を判定してもよい。例えば、レーダ検出点Prに基づいて算出されるレーダTTCと、画像検出点Pi又は補正検出点CPiに基づいて算出される画像TTCとの差分の絶対値が所定値B未満であるか否かを判定してもよい。 In step S20, it is determined whether or not the same determination criterion is satisfied. Here, as a determination condition, it is determined whether there is an overlapping area between the radar search area Rr and the image search area Ri. If the image search area Ri is corrected in step S19, it is determined whether or not there is an overlapping area between the radar search area Rr and the corrected image search area CRi. In step S20, other conditions other than the overlapping region may be determined. For example, whether or not the absolute value of the difference between the radar TTC calculated based on the radar detection point Pr and the image TTC calculated based on the image detection point Pi or the corrected detection point CPi is less than a predetermined value B. You may judge.
ステップS20がYESであれば、ステップS21に進み、同一物体であるとしてフュージョン検出点Pfを生成する。一方、ステップS20がNOであれば、ステップS22に進む。ステップS22では、フュージョン検出点Pfを生成せずに、レーダ検出点Prと画像検出点Pi又は補正検出点CPiとを維持する。なお、ステップS20が「同一判定部」に相当する。以後、設定された各検出点に対して、ECU10により衝突の可能性の判断が実施される。
If step S20 is YES, the process proceeds to step S21, and the fusion detection point Pf is generated as the same object. On the other hand, if step S20 is NO, the process proceeds to step S22. In step S22, the radar detection point Pr and the image detection point Pi or the correction detection point CPi are maintained without generating the fusion detection point Pf. Note that step S20 corresponds to “same determination unit”. Thereafter, the
以上詳述した本実施形態によれば、以下の優れた効果が得られる。 According to the embodiment described in detail above, the following excellent effects can be obtained.
上記構成では、先行車60と自車両50との道路勾配の差である勾配差Δθを算出し、算出された勾配差Δθに基づいて画像検出点Piの距離及び画像探索領域Riの距離方向における位置を補正した。そして、レーダ探索領域Rrと補正画像探索領域CRiとに基づいて同一判定を実施するようにした。この場合、勾配差Δθに基づいて画像探索領域Riの位置を補正することで、道路勾配を加味した上で画像探索領域Riを取得することができ、ひいては適切な同一判定を実施することができる。これにより、勾配差Δθが生じる場合であっても、フュージョン検出点Pfを適正に生成することができる。
In the above configuration, the gradient difference Δθ, which is the difference in road gradient between the preceding
具体的には、自車両50の位置の勾配に対して先行車60の位置の勾配が上り勾配である場合(Δθ>Th2)に、画像探索領域Riの位置を自車両50に近づける側に補正するようにした。また、自車両50の位置の勾配に対して先行車60の位置の勾配が下り勾配である場合(Δθ<Th1)に、画像探索領域Riの位置を自車両50から遠ざける側に補正するようにした。そのため、画像探索領域Riの距離の誤差が生じる状況に応じた補正が可能となる。
Specifically, when the gradient of the position of the preceding
物体と自車両50との間で勾配差Δθが生じる場合、撮像画像での物体の上下位置によって、画像検出点Piの距離の誤差の程度が異なると考えられる。この点を考慮し、勾配差Δθと、撮像画像での先行車60の上下位置とに基づいて補正量DAを取得し、当該補正量に基づいて画像検出点Piの距離を補正するようにしたため、勾配差Δθに加え、撮像画像での先行車60の上下位置に応じた距離の誤差も加味することができる。これにより、画像検出点Piの距離を適切に補正でき、ひいては画像探索領域Riを適切に補正することができる。
When the gradient difference Δθ occurs between the object and the
画像探索領域Riの位置を自車両50に近づける側、又は自車両50から遠ざける側に補正する際において、例えば、画像探索領域Riの距離範囲を広くすると、過度に同一判定の条件が成立しやすくなり、同一判定の精度が低下するおそれがある。この点を考慮し、勾配差Δθに基づいて、画像探索領域Riの位置を自車両50に近づける側、又は自車両50から遠ざける側に補正するとともに、画像探索領域Riの距離範囲を狭くする側に補正した。この場合、画像探索領域Riの距離範囲を狭くすることで、レーダ探索領域Rrと補正画像探索領域CRiとが重なりにくくなり、同一判定の条件が成立しにくくなる。これにより、過度に同一判定の条件が成立することを抑制でき、ひいては同一判定の精度が低下することを抑制できる。
When correcting the position of the image search area Ri to the side closer to the
自車両50から先行車60までの距離及び地図情報に基づいて、先行車60及び自車両50の各勾配情報を取得するようにした。この場合、自車両50の存在する地点及び先行車60の存在する地点における地図情報を参照することで、各勾配情報を取得することができる。これにより、先行車60の位置と自車両50の位置との相対的な勾配差Δθを精度良く算出することができる。
Based on the distance from the
(他の実施形態)
・上記実施形態では、レーダ探索領域Rr及び画像探索領域Riに基づいて同一判定を実施する構成とした。この点、レーダ検出点Pr及び画像検出点Piに基づいて同一判定を実施する構成であればよい。例えば、レーダ検出点Prと画像検出点Piとが所定の距離内に存在する場合に同一物体であると判定される構成としてもよい。かかる構成では、ECU10は、勾配差Δθに基づいて、画像検出点Piを補正して補正検出点CPiを取得する。そして、その補正検出点CPiとレーダ検出点Prとが所定の距離内に存在することに基づいて、同一判定を実施する。なお、画像検出点Piの距離の補正量DAは、例えば図5に示す相関マップに基づいて設定される。
(Other embodiments)
In the above embodiment, the same determination is performed based on the radar search region Rr and the image search region Ri. Any configuration that performs the same determination based on this point, the radar detection point Pr, and the image detection point Pi may be used. For example, the radar detection point Pr and the image detection point Pi may be determined to be the same object when they exist within a predetermined distance. In this configuration, the
・上記実施形態では、先行車60の傾斜角θ2の取得に際し、画像検出点Piの距離に基づいて先行車60の現在地付近の位置を算出したが、レーダ検出点Prの距離を加味して先行車60の現在地付近の位置を算出してもよい。
In the above embodiment, when the inclination angle θ2 of the preceding
・上記実施形態では、画像検出点Piを補正し、その補正に基づいて画像探索領域Riを補正する構成とした。すなわち、画像検出点Piの距離を補正し、その補正検出点CPiに基づいて補正画像探索領域CRiを設定する構成としたが、これに限られない。例えば、画像検出点Piの補正を介さずに画像探索領域Riを直接補正する構成としてもよい。かかる構成では、ECU10は、勾配差Δθと撮像画像での物体の上下位置とに基づいて、画像探索領域Riの距離方向における位置の補正量DAを設定する。そして、ECU10は、その補正量DAに基づいて、画像探索領域Riから補正画像探索領域CRiを設定する。
In the above embodiment, the image detection point Pi is corrected, and the image search area Ri is corrected based on the correction. That is, the distance of the image detection point Pi is corrected and the corrected image search region CRi is set based on the correction detection point CPi. However, the present invention is not limited to this. For example, the image search area Ri may be directly corrected without going through the correction of the image detection point Pi. In such a configuration, the
・画像探索領域Riの距離範囲を補正する構成において、その所定割合を可変とする構成としてもよい。例えば、補正量DAに応じて所定割合が設定される構成としてもよい。かかる構成では、例えば補正量DAが大きくなるほど、所定割合が小さく設定される。この場合、補正量DAが大きくなるのに応じて補正画像探索領域CRiの距離範囲が小さく設定されることで、過度に同一判定の条件が成立することが抑制される。 In the configuration for correcting the distance range of the image search region Ri, the predetermined ratio may be variable. For example, a predetermined ratio may be set according to the correction amount DA. In such a configuration, for example, the larger the correction amount DA, the smaller the predetermined ratio is set. In this case, by setting the distance range of the corrected image search region CRi to be small as the correction amount DA increases, it is possible to suppress the same determination condition from being satisfied excessively.
・上記実施形態では、物体を先行車60としたが、これに限らず、例えば自転車や歩行者を対象物体としてもよい。
In the above embodiment, the object is the preceding
・上記実施形態では、ECU10をPCSSに適用し、物体の同一判定の精度を向上させることで、適正な衝突回避制御を実現する構成とした。この点これを変更し、例えば、ECU10を、先行車60に追従させる制御を行うACC(Adaptive Cruise Control)システムに適用してもよい。かかる構成では、先行車60の同一判定が精度良く行われることで、適正な追従走行制御が実現される。
-In above-mentioned embodiment, it was set as the structure which implement | achieves appropriate collision avoidance control by applying ECU10 to PCSS and improving the precision of the same determination of an object. This may be changed and applied to, for example, an ACC (Adaptive Cruise Control) system that performs control for causing the
10…ECU、21…レーダ装置、22…撮像装置、50…自車両。
DESCRIPTION OF
Claims (7)
前記レーダ装置の検出結果に基づいて、前記自車両を基準とする距離及び方位で特定される前記物体の第1位置を取得する第1取得部と、
前記撮像装置の検出結果に基づいて、前記自車両を基準とする距離及び方位で特定される前記物体の第2位置を取得する第2取得部と、
前記物体と前記自車両との道路勾配の差である勾配差を算出する勾配算出部と、
前記勾配差に基づいて、前記第2位置の前記物体までの距離を補正する補正部と、
前記第1位置と前記補正部により補正された前記第2位置とに基づいて、前記レーダ装置で検出された物体と前記撮像装置で検出された物体とが同一物体であるか否かを判定する同一判定部と、
を備える車両制御装置(10)。 The present invention is applied to a vehicle including a radar device (21) and an imaging device (22) as an object detection sensor that detects an object existing around the host vehicle (50).
A first acquisition unit configured to acquire a first position of the object specified by a distance and a direction based on the own vehicle based on a detection result of the radar device;
A second acquisition unit configured to acquire a second position of the object specified by a distance and an orientation based on the host vehicle based on a detection result of the imaging device;
A gradient calculating unit that calculates a gradient difference that is a difference in road gradient between the object and the host vehicle;
A correction unit that corrects the distance of the second position to the object based on the gradient difference;
Based on the first position and the second position corrected by the correction unit, it is determined whether or not the object detected by the radar device and the object detected by the imaging device are the same object. The same determination unit;
A vehicle control device (10) comprising:
前記第2取得部は、前記第2位置として、前記撮像装置による検出位置を含み、かつ、所定の距離範囲及び所定の方位範囲で広がる第2探索領域を取得するものであって、
前記補正部は、前記勾配差に基づいて、前記第2探索領域の位置を補正し、
前記同一判定部は、前記第1探索領域と前記補正部により補正された前記第2探索領域とに基づいて前記同一物体であるか否かを判定する請求項1に記載の車両制御装置。 The first acquisition unit acquires, as the first position, a first search region that includes a detection position by the radar device and extends in a predetermined distance range and a predetermined azimuth range,
The second acquisition unit acquires, as the second position, a second search region that includes a detection position by the imaging device and extends in a predetermined distance range and a predetermined azimuth range,
The correction unit corrects the position of the second search region based on the gradient difference,
2. The vehicle control device according to claim 1, wherein the same determination unit determines whether or not they are the same object based on the first search region and the second search region corrected by the correction unit.
前記同一判定部は、前記第1探索領域と前記補正部により補正された前記第2探索領域とで重なる領域が存在することに基づいて前記同一判定を実施する請求項3に記載の車両制御装置。 The correction unit corrects the position of the second search region to the side closer to the own vehicle when the road gradient of the position of the object is larger on the positive side than the road gradient of the position of the own vehicle. Correct the distance range of the second search area to be narrower,
The vehicle control device according to claim 3, wherein the same determination unit performs the same determination based on the presence of an overlapping area between the first search region and the second search region corrected by the correction unit. .
前記同一判定部は、前記第1探索領域と前記補正部により補正された前記第2探索領域とで重なる領域が存在することに基づいて前記同一判定を実施する請求項3又は4に記載の車両制御装置。 The correction unit corrects the position of the second search region to the side away from the host vehicle when the road gradient of the position of the object is larger on the negative side than the road gradient of the host vehicle. Correct the distance range of the second search area to be narrower,
The vehicle according to claim 3 or 4, wherein the same determination unit performs the same determination based on the presence of an overlapping area between the first search region and the second search region corrected by the correction unit. Control device.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017127329A JP6988200B2 (en) | 2017-06-29 | 2017-06-29 | Vehicle control device |
US16/019,894 US10836388B2 (en) | 2017-06-29 | 2018-06-27 | Vehicle control method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017127329A JP6988200B2 (en) | 2017-06-29 | 2017-06-29 | Vehicle control device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019012323A true JP2019012323A (en) | 2019-01-24 |
JP6988200B2 JP6988200B2 (en) | 2022-01-05 |
Family
ID=64734724
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017127329A Active JP6988200B2 (en) | 2017-06-29 | 2017-06-29 | Vehicle control device |
Country Status (2)
Country | Link |
---|---|
US (1) | US10836388B2 (en) |
JP (1) | JP6988200B2 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10579067B2 (en) * | 2017-07-20 | 2020-03-03 | Huawei Technologies Co., Ltd. | Method and system for vehicle localization |
EP3757611A1 (en) * | 2019-06-27 | 2020-12-30 | Aptiv Technologies Limited | Vertical road profile estimation |
CN110312106B (en) * | 2019-07-30 | 2021-05-18 | 广汽蔚来新能源汽车科技有限公司 | Image display method and device, computer equipment and storage medium |
KR20210060237A (en) * | 2019-11-18 | 2021-05-26 | 현대모비스 주식회사 | Rear cross collision detecting system and method |
CN111476106B (en) * | 2020-03-17 | 2022-07-08 | 重庆邮电大学 | Monocular camera-based straight road relative gradient real-time prediction method, system and device |
CN111891124B (en) * | 2020-06-08 | 2021-08-24 | 福瑞泰克智能系统有限公司 | Method, system, computer device and readable storage medium for target information fusion |
KR102405361B1 (en) * | 2020-12-14 | 2022-06-08 | 재단법인대구경북과학기술원 | Apparatus and method for tracking position of moving object based on slop of road |
CN112660125B (en) * | 2020-12-26 | 2023-04-07 | 江铃汽车股份有限公司 | Vehicle cruise control method and device, storage medium and vehicle |
CN112799055B (en) * | 2020-12-28 | 2024-07-09 | 深圳承泰科技有限公司 | Method and device for detecting detected vehicle and electronic equipment |
CN112684803B (en) * | 2021-03-11 | 2021-06-11 | 上海擎朗智能科技有限公司 | Control method and device for mobile robot, mobile robot and storage medium |
CN114043981B (en) * | 2021-06-30 | 2023-10-24 | 东风汽车集团股份有限公司 | Automatic parking control method |
CN114459423B (en) * | 2022-01-24 | 2023-06-13 | 长江大学 | Method for monocular measuring and calculating distance of navigation ship |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030093220A1 (en) * | 2001-10-15 | 2003-05-15 | Hans Andersson | System and method for controlling an object detection system of a vehicle |
JP2005041360A (en) * | 2003-07-23 | 2005-02-17 | Nissan Motor Co Ltd | Driving operation assisting device for vehicle, and vehicle having it |
JP2006322796A (en) * | 2005-05-18 | 2006-11-30 | Olympus Corp | Image processing device, image processing method and image processing program |
JP2015041265A (en) * | 2013-08-22 | 2015-03-02 | 株式会社デンソー | Target detection device and program |
JP2015042523A (en) * | 2013-08-26 | 2015-03-05 | トヨタ自動車株式会社 | On-vehicle control device |
US20150120153A1 (en) * | 2013-10-25 | 2015-04-30 | Robert Bosch Gmbh | Method and device for ascertaining a height profile of a road situated ahead of a vehicle |
JP2016066181A (en) * | 2014-09-24 | 2016-04-28 | 株式会社デンソー | Object detector |
JP2016134129A (en) * | 2015-01-22 | 2016-07-25 | 株式会社Jvcケンウッド | Video display system, processing apparatus, video display method, and video display program |
JP2016223889A (en) * | 2015-05-29 | 2016-12-28 | 株式会社デンソー | Object detection device |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1137730A (en) | 1997-07-18 | 1999-02-12 | Nissan Motor Co Ltd | Road shape estimating apparatus |
JP2001134769A (en) * | 1999-11-04 | 2001-05-18 | Honda Motor Co Ltd | Object recognizing device |
KR100471268B1 (en) * | 2002-10-28 | 2005-03-10 | 현대자동차주식회사 | Method for detecting vehicle distance |
JP2005029025A (en) | 2003-05-09 | 2005-02-03 | Fujitsu Ten Ltd | On-vehicle display device, image display method, and image display program |
JP3918791B2 (en) * | 2003-09-11 | 2007-05-23 | トヨタ自動車株式会社 | Object detection device |
JP2006151125A (en) * | 2004-11-26 | 2006-06-15 | Omron Corp | On-vehicle image processing device |
WO2006121087A1 (en) * | 2005-05-10 | 2006-11-16 | Olympus Corporation | Image processing device, image processing method, and image processing program |
JP2007181129A (en) | 2005-12-28 | 2007-07-12 | Hitachi Ltd | Vehicle-mounted movable body detection instrument |
DE102007018470A1 (en) * | 2007-04-19 | 2008-10-23 | Robert Bosch Gmbh | Driver assistance system and method for object plausibility |
US8705797B2 (en) * | 2012-03-07 | 2014-04-22 | GM Global Technology Operations LLC | Enhanced data association of fusion using weighted Bayesian filtering |
JP5812064B2 (en) | 2012-11-22 | 2015-11-11 | 株式会社デンソー | Target detection device |
US9631914B2 (en) * | 2014-03-13 | 2017-04-25 | The Boeing Company | Calibration of sensor arrays |
FR3020892B1 (en) * | 2014-05-12 | 2016-05-27 | Sagem Defense Securite | METHOD FOR NAVIGATING AN AIR DRONE IN THE PRESENCE OF AN INTRUDED AIRCRAFT AND DRONE FOR IMPLEMENTING SAID METHOD |
JP2016197018A (en) * | 2015-04-02 | 2016-11-24 | 株式会社デンソー | Collision avoidance assist device |
JP2017194926A (en) * | 2016-04-22 | 2017-10-26 | 株式会社デンソー | Vehicle control apparatus and vehicle control method |
KR101793223B1 (en) * | 2016-07-13 | 2017-11-03 | 모바일 어플라이언스 주식회사 | Advanced driver assistance apparatus |
US20180188031A1 (en) * | 2016-08-31 | 2018-07-05 | Faraday&Future Inc. | System and method for calibrating vehicle dynamics expectations for autonomous vehicle navigation and localization |
US20180087907A1 (en) * | 2016-09-29 | 2018-03-29 | The Charles Stark Draper Laboratory, Inc. | Autonomous vehicle: vehicle localization |
CN106767852B (en) * | 2016-12-30 | 2019-10-11 | 东软集团股份有限公司 | A kind of method, apparatus and equipment generating detection target information |
-
2017
- 2017-06-29 JP JP2017127329A patent/JP6988200B2/en active Active
-
2018
- 2018-06-27 US US16/019,894 patent/US10836388B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030093220A1 (en) * | 2001-10-15 | 2003-05-15 | Hans Andersson | System and method for controlling an object detection system of a vehicle |
JP2005041360A (en) * | 2003-07-23 | 2005-02-17 | Nissan Motor Co Ltd | Driving operation assisting device for vehicle, and vehicle having it |
JP2006322796A (en) * | 2005-05-18 | 2006-11-30 | Olympus Corp | Image processing device, image processing method and image processing program |
JP2015041265A (en) * | 2013-08-22 | 2015-03-02 | 株式会社デンソー | Target detection device and program |
JP2015042523A (en) * | 2013-08-26 | 2015-03-05 | トヨタ自動車株式会社 | On-vehicle control device |
US20150120153A1 (en) * | 2013-10-25 | 2015-04-30 | Robert Bosch Gmbh | Method and device for ascertaining a height profile of a road situated ahead of a vehicle |
JP2016066181A (en) * | 2014-09-24 | 2016-04-28 | 株式会社デンソー | Object detector |
JP2016134129A (en) * | 2015-01-22 | 2016-07-25 | 株式会社Jvcケンウッド | Video display system, processing apparatus, video display method, and video display program |
JP2016223889A (en) * | 2015-05-29 | 2016-12-28 | 株式会社デンソー | Object detection device |
Also Published As
Publication number | Publication date |
---|---|
US20190001978A1 (en) | 2019-01-03 |
JP6988200B2 (en) | 2022-01-05 |
US10836388B2 (en) | 2020-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6988200B2 (en) | Vehicle control device | |
US11097726B2 (en) | Lane keeping assist system and method for improving safety in preceding vehicle follower longitudinal control | |
CN109155109B (en) | Target object detection device | |
US10384681B2 (en) | Vehicle cruise control device and cruise control method | |
JP6443318B2 (en) | Object detection device | |
US11003927B2 (en) | Target recognition apparatus, target recognition method, and vehicle control system | |
US10471961B2 (en) | Cruise control device and cruise control method for vehicles | |
US10754017B2 (en) | Target object information acquisition apparatus | |
US20140139369A1 (en) | Object detection apparatus | |
EP2803546A1 (en) | Collision mitigation apparatus | |
JP6856452B2 (en) | Target judgment device and driving support system | |
WO2016117602A1 (en) | Vehicle control device and vehicle control method | |
US10527719B2 (en) | Object detection apparatus and object detection method | |
JP6561704B2 (en) | Driving support device and driving support method | |
JP2019052920A (en) | Object detector, object detection method and vehicle control system | |
US20190346557A1 (en) | Vehicle control device and vehicle control method | |
JP6805970B2 (en) | Target information acquisition device | |
US10907962B2 (en) | Driving assistance system mounted in vehicle | |
JP6432538B2 (en) | Collision prediction device | |
US20190061748A1 (en) | Collision prediction apparatus | |
JP2019059429A (en) | Vehicle driving support apparatus | |
JP6390459B2 (en) | Optical axis deviation detector | |
JP2019059449A (en) | Vehicle driving support device | |
JP6525405B1 (en) | Vehicle control device | |
JP2021117848A (en) | Object detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200522 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210427 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210618 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211102 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211115 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6988200 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |