JP2018124768A - 車両制御装置 - Google Patents

車両制御装置 Download PDF

Info

Publication number
JP2018124768A
JP2018124768A JP2017016079A JP2017016079A JP2018124768A JP 2018124768 A JP2018124768 A JP 2018124768A JP 2017016079 A JP2017016079 A JP 2017016079A JP 2017016079 A JP2017016079 A JP 2017016079A JP 2018124768 A JP2018124768 A JP 2018124768A
Authority
JP
Japan
Prior art keywords
scene
target
image
ttc
calculation method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017016079A
Other languages
English (en)
Other versions
JP6787157B2 (ja
Inventor
高木 亮
Akira Takagi
亮 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2017016079A priority Critical patent/JP6787157B2/ja
Priority to US15/882,896 priority patent/US10592755B2/en
Publication of JP2018124768A publication Critical patent/JP2018124768A/ja
Application granted granted Critical
Publication of JP6787157B2 publication Critical patent/JP6787157B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/30Auxiliary equipments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9318Controlling the steering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/93185Controlling the brakes

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】画像TTCの算出誤差が生じるシーンであっても、フュージョン物標を適正に生成する。【解決手段】ECU10は、レーダ物標に対し自車両50が衝突するまでの時間であるレーダTTCを取得する第1取得部11と、画像物標に対し自車両50が衝突するまでの時間として複数の算出方法のうちいずれかにより算出された画像TTCを取得する第2取得部12と、それぞれ取得されたレーダTTC及び画像TTCに基づいて、レーダ物標と画像物標とが同一物体にかかる物標であることの同一判定を実施する同一判定部13と、レーダTTCの算出方法毎に、算出誤差の大きい所定シーンが定められており、第2取得部12により画像TTCが取得される場合に、当該画像TTCに対応する算出方法に応じて、所定シーンであるか否かを判定するシーン判定部14と、算出方法とその判定結果とに基づいて、同一判定の態様を設定する設定部16と、を備える。【選択図】 図1

Description

本発明は、レーダ装置及び撮像装置を備える車両に適用される車両制御装置に関するものである。
レーダ装置で検出されたレーダ物標と、撮像装置で検出された画像物標とを照合し、レーダ物標と画像物標とが同一の物体によるものであると判定した場合に、レーダ物標と画像物標とをフュージョン(融合)して新たな物標(フュージョン物標)を生成する技術が知られている。
例えば、特許文献1には、それぞれ検出されたレーダ物標と画像物標とが同一の物体であるか否かの同一判定について記載されている。例えば、特許文献1の物体検出装置は、レーダ物標及び画像物標が互いに近接することと、レーダ物標に対するTTC(レーダTTC)及び画像物標に対するTTC(画像TTC)の差分が、所定の範囲内であることを条件として、レーダ物標と画像物標とが同一の物体であると判定する。このようにレーダTTCと画像TTCを用いることで、同一判定の精度向上を図っている。
特開2016−66182号公報
ところで、画像TTCは、運転環境や車両挙動等の影響を受けやすく、シーンによっては画像TTCに算出誤差が生じることがある。そのため、上記物体検出装置では、画像TTCの算出誤差に起因して、意図せずにレーダ物標と画像物標とが同一物体であると判定したり、意図せずにレーダ物標と画像物標とが同一物体でないと判定するおそれがある。この場合、適切なフュージョン物標の生成が困難になると考えられる。
一方、画像TTCの算出には、画像物標に対する距離及び相対速度を用いる方法や、撮像画像における拡大率を用いる方法など種々の方法が用いられている。この場合、画像TTCの算出方法によって、画像TTCの算出誤差が生じるシーンがそれぞれ異なると考えられる。そのため、画像TTCの算出方法を考慮して、フュージョン物標の生成を行うことが望ましいと考えられる。
本発明は、上記課題に鑑みてなされたものであり、その主たる目的は、画像TTCの算出誤差が生じるシーンであっても、フュージョン物標を適正に生成することができる車両制御装置を提供することにある。
第1の手段は、
自車両(50)の周囲に存在する物体を検出する物体検出センサとしてレーダ装置(21)及び撮像装置(22)を備える車両に適用され、
前記レーダ装置によって検出される第1物標に対し前記自車両が衝突するまでの時間である第1衝突予測時間を取得する第1取得部(11)と、
前記撮像装置により検出される撮像画像内の第2物標に対し前記自車両が衝突するまでの時間として複数の算出方法のうちいずれかにより算出された第2衝突予測時間を取得する第2取得部(12)と、
それぞれ取得された前記第1衝突予測時間及び前記第2衝突予測時間に基づいて、前記第1物標と前記第2物標とが同一物体にかかる物標であることの同一判定を実施する同一判定部(13)と、
前記第2衝突予測時間の算出方法毎に、算出誤差の大きい所定シーンが定められており、前記第2取得部により前記第2衝突予測時間が取得される場合に、当該第2衝突予測時間に対応する前記算出方法に応じて、前記所定シーンであるか否かを判定するシーン判定部(14)と、
前記算出方法と前記シーン判定部による判定結果とに基づいて、前記同一判定の態様を設定する設定部(16)と、
を備えることを特徴とする。
レーダ物標と画像物標とが同一の物体によるものか否かを判定する同一判定では、レーダ物標に対するTTC(レーダTTC)及び画像物標に対するTTC(画像TTC)が用いられる。画像TTCは、運転環境や車両挙動等の影響を受けやすいため、複数の算出方法により算出可能とすることが望ましい。この場合、画像TTCの算出方法によって算出誤差が生じるシーンが異なると考えられる。
この点、上記構成では、第2衝突予測時間(画像TTC)を複数の算出方法のうちいずれかにより算出された時間として取得する。また、第2衝突予測時間の算出方法毎に、算出誤差の大きい所定シーンが定められている構成としており、第2衝突予測時間が取得される場合に、当該第2衝突予測時間に対応する算出方法に応じて所定シーンであるか否かを判定し、算出方法とその判定結果とに基づいて、同一判定の態様を設定するようにした。この場合、第2衝突予測時間の算出方法によって算出誤差が生じるシーンが異なることに着目して、算出方法毎に所定シーンが定められた構成としている。そして、算出方法に応じてシーン判定を行い、算出方法とその判定結果とに基づいて同一判定の態様を設定することで、第2衝突予測時間の算出方法に応じた算出誤差を加味した上で、同一判定を実施することができる。これにより、第2衝突予測時間の算出誤差が生じるシーンであっても、フュージョン物標を適正に生成することができる。
車両制御装置の概略構成を示すブロック図。 撮像画像における拡大率を説明するための図。 フュージョン物標の生成を説明するための図。 閾値の補正値と算出誤差との関係を示す図。 算出方法、所定シーン及び物体の種類に応じたマップを示す図。 同一判定処理を示すフローチャート。
図1は、車両制御装置を適用したプリクラッシュセーフティシステム(以下、PCSS:Pre-crash safety systemと記載する。)を示している。PCSSは、車両に搭載される車両システムの一例であり、自車両の周囲に存在する物体を認識し、認識した物体と自車両とが衝突する可能性がある場合に、物体に対する自車両の衝突の回避動作、又は衝突の緩和動作を実施する。
図1に示す自車両50は、物体検出センサとしてのレーダ装置21及び撮像装置22と、ECU10と、警報装置31と、ブレーキ装置32と、操舵装置33とを備えている。図1に示す実施形態において、ECU10が車両制御装置として機能し、警報装置31、ブレーキ装置32、及び操舵装置33が安全装置として機能する。
レーダ装置21は、ミリ波やレーザ等の指向性のある電磁波(探査波)を利用して自車前方の物体をレーダ物標として検出するものであり、自車両50の前部においてその光軸が自車前方を向くように取り付けられている。
レーダ装置21は、送受信部21aと、距離算出部21bと、相対速度算出部21cとを有する。送受信部21aは、所定時間ごとに自車前方に向かって所定範囲で広がる領域に探査波を送信するとともに、前方物体の表面で反射された反射波を受信する。距離算出部21bは、探査波の送信時刻と反射波の受信時刻とに基づいて、レーダ物標までの距離Drを算出する。相対速度算出部21cは、前方物体に反射された反射波のドップラー効果により変化した周波数に基づいて、レーダ物標との相対速度Vrを算出する。
また、レーダ装置21は、自車両50に対するレーダ物標の相対位置を算出する。相対位置は、自車両50を原点とした場合に、自車両50の車幅方向をX軸とし、自車両50の進行方向をY軸とする相対座標上の位置として取得される。この場合、車幅方向(X軸)の成分が自車両50に対するレーダ物標の横位置を示し、自車両50の進行方向(Y軸)の成分がレーダ物標との距離を示す。レーダ装置21により検出されたレーダ物標の物体情報(距離、相対速度、相対位置等)は、所定周期毎にECU10に入力される。
撮像装置22は、車載カメラであって、例えばCCDカメラ、CMOSイメージセンサ、近赤外線カメラ等を用いて構成されている。撮像装置22は、自車両50の車幅方向中央の所定高さ(例えば、フロントガラス上端付近)に取り付けられ、自車前方へ向けて所定角度範囲で広がる領域を俯瞰視点から撮像する。なお、撮像装置22は、単眼カメラであってもよく、ステレオカメラであってもよい。
撮像装置22は、撮像画像に含まれる検出対象の物体を画像物標として検出する。例えば、撮像画像に対して識別辞書を用いたパターンマッチングを行うことで画像物標を検出する。識別辞書としては、車両を識別するための車両辞書、歩行者を識別するための歩行者辞書、自転車を識別するための自転車辞書、路上静止物(ガードレール等)を識別するための路上静止物辞書等が用意されている。なお、画像物標の位置は、レーダ物標の位置と同様に自車両50を原点とした場合における相対座標上の位置として取得される。
また、撮像装置22は、検出された画像物標と自車両50とが衝突するまでの時間である衝突予測時間(画像TTC)を算出する。画像TTCの算出には、種々の算出方法が知られている。本実施形態において、撮像装置22は、複数の算出方法を用いて並行して画像TTCを算出する構成としている。つまり図1より、撮像装置22は、第1算出部22a及び第2算出部22bを有しており、これらは互いに異なる算出方法を用いて画像TTCを算出する。
算出方法として、より詳しくは、本実施形態では画像物標に対する距離Di及び相対速度Viに基づいて画像TTCを算出する方法(第1算出方法)と、画像物標の大きさの変化率(拡大率)に基づいて画像TTCを算出する方法(第2算出方法)との2つの方法を想定している。なお、第1算出部22aは、第1算出方法に基づいて画像TTCを算出し、第2算出部22bは、第2算出方法に基づいて画像TTCを算出することとする。
第1算出方法について以下に説明する。かかる方法において、第1算出部22aはまず、撮像画像に基づいて画像物標までの距離Diを算出する。距離Diの算出には、周知の手法を用いることができる。例えば、撮像装置22がステレオカメラの場合には、複数のカメラで同時に撮影した画像から画素毎の視差情報を取得し、その視差情報を用いて画像物標までの距離Diを算出する。また、撮像装置22が単眼カメラの場合には、移動ステレオの原理を用いる。具体的には、異なるタイミングで撮影した複数のフレームとフレーム間の移動距離とから画素毎の視差情報を取得し、その視差情報を用いて距離Diを算出する。一方、相対速度Viは、画像物標までの距離Diの単位時間当たりの変化量に基づいて算出される。
第1算出方法において、画像TTCは、自車両50から画像物標までの距離Diを、自車両50と画像物標との相対速度Viで除算した値であり、例えば式(1)に示すように、等速直線運動の運動方程式を用いて算出される。
画像TTC=Di/Vi … (1)
また、第2算出方法について以下に説明する。かかる方法において、第2算出部22bはまず、拡大率kを算出する。ここで、拡大率kとは、過去の撮像画像における画像物標の大きさに対する、現在の撮像画像における画像物標の大きさの比率である。拡大率kの算出には、周知の手法を用いることができる。例えば、周知の最小二乗法及び山登り法を組み合わせたLK法(Lucas−Kanade法)や、GFTT(Good Feature To Track法)を用いることができる。
例えば、図2に示すように画像物標が歩行者60である場合には、歩行者60の長さ(図2では高さ)の経時的変化に基づいて拡大率kを算出する。この場合、拡大率kは、時刻t1において取得された歩行者60の高さをH1、時刻t1よりも後の時刻t2において取得された歩行者60の高さをH2としたときに、例えば式(2)を用いて算出される。
拡大率k=(H2−H1)/(t2−t1) … (2)
なお、歩行者60の長さとして、歩行者60の幅(横方向の長さ)の経時的変化に基づいて拡大率kを算出してもよい。また、所定の特徴点(消失点)や所定領域の経時的変化に基づいて拡大率kを算出してもよい。第2算出部22bは、算出された拡大率kに基づいて、画像TTCを算出する。
上記のようにして、第1算出部22a及び第2算出部22bによって画像TTCがそれぞれ算出されると、選択部22cは、それらの画像TTCのうち適切な画像TTCを選択する。この場合、選択部22cは、自車両50の運転環境や車両挙動等を考慮して、より適した画像TTCを選択する。選択された画像TTCは、ECU10に入力される。
警報装置31は、ECU10からの制御指令により、ドライバに対して自車前方に物体が存在することを警報する。警報装置31は、例えば、車室内に設けられたスピーカや、画像を表示する表示部により構成されている。
ブレーキ装置32は、自車両50を制動する制動装置である。ブレーキ装置32は、前方物体に衝突する可能性が高まった場合に作動する。具体的には、ドライバによるブレーキ操作に対する制動力をより強くしたり(ブレーキアシスト機能)、ドライバによりブレーキ操作が行われてなければ自動制動を行ったりする(自動ブレーキ機能)。
操舵装置33は、自車両50の進路を制御する装置である。操舵装置33は、前方物体に衝突する可能性が高まった場合に作動する。具体的には、ドライバによる操舵操作を支援したり(操舵回避支援機能)、ドライバにより操舵操作が行われてなければ自動操舵を行ったりする(自動操舵機能)。
ECU10は、CPU、各種メモリ(ROM、RAM)を備える周知のマイクロコンピュータとして構成されており、メモリ内の演算プログラムや制御データを参照して、自車両50における制御を実施する。ECU10は、レーダ装置21及び撮像装置22の検出結果に基づいて物体を認識し、認識された物体に対して、警報装置31やブレーキ装置32、操舵装置33を制御対象とするPCSを実施する。
ECU10は、レーダ装置21により検出されるレーダ物標と、撮像装置22により検出される画像物標とに基づいて、互いに近傍に位置するものを同じ物体に基づく物標としての対応付けを実施する。すなわち、レーダ物標と画像物標とを融合(フュージョン)してフュージョン物標を生成する。
本実施形態では、フュージョン物標の生成に際し、レーダ物標に対する衝突予測時間(レーダTTC)及び画像物標に対する衝突予測時間(画像TTC)を用いる構成としている。すなわち、ECU10は、レーダTTCを取得する第1取得部11と、画像TTCを取得する第2取得部12と、レーダTTC及び画像TTCに基づいて、レーダ物標と画像物標とが同一物体にかかる物標であることを判定する同一判定部13と、を備えている。
第1取得部11は、レーダ装置21から入力されるレーダ物標の物体情報に基づいて、レーダTTCを取得する。レーダTTCは、レーダ物標までの距離Drを、自車両50とレーダ物標との相対速度Vrで除算した値であり、例えば式(3)に示すように、等速直線運動の運動方程式を用いて算出される。
レーダTTC=Dr/Vr … (3)
なお、第2取得部12は、選択部22cにより選択された画像TTCを取得する。
同一判定部13は、レーダTTC及び画像TTCを用いる判定条件の成立の可否により、レーダ物標と画像物標とが同一物体にかかる物標であるか否かを判定する。具体的には、レーダTTC及び画像TTCの差分が所定の範囲内、つまりレーダTTC及び画像TTCの差分の絶対値が所定の閾値Th未満であることを条件に、レーダ物標と画像物標とが同一物体にかかる物標であると判定する。これは、レーダTTCと画像TTCの乖離が小さい場合は、レーダ物標と画像物標とが同一物体である可能性が高いと考えられることによる。
レーダ物標と画像物標とが同一物体にかかる物標であると判定されると、フュージョン物標が生成される。この場合、図3に示すように、フュージョン物標FTのX座標は例えば画像物標PiのX座標Xiとされ、フュージョン物標FTのY座標は例えばレーダ物標PrのY座標Yrとされる。なお、図3の相対座標において、Yrはレーダ物標までの距離Drに相当し、Yiは画像物標までの距離Diに相当する。
一方、レーダ物標と画像物標とが同一物体にかかる物標でないと判定される場合、つまり、レーダTTC及び画像TTCの差分の絶対値が所定の閾値Th以上である場合は、フュージョン物標は生成されない。かかる場合には、レーダTTCと画像TTCの乖離が大きく、レーダ物標と画像物標とがそれぞれ取得される。
そして、ECU10は、各物標に対し、自車両50が衝突する可能性があるか否かを判定する。具体的には、衝突回避制御の対象となる衝突予測領域内に各物標の横位置が属するか否かを判定する。かかる構成において、衝突予測領域内に物標の横位置が属する場合に、自車両50が衝突する可能性があると判定する。
ECU10は、物標と自車両50とが衝突する可能性があると判定した場合、TTCと各安全装置31,32,33の作動タイミングとに基づいて、各装置を作動させる。具体的には、TTCが警報装置31の作動タイミング以下となれば、スピーカ等を作動させてドライバへ警報を行う。また、TTCがブレーキ装置32の作動タイミング以下となれば、自動ブレーキを作動させて衝突速度を低減する制御等を行う。なお、安全装置の作動タイミングの判定に用いるTTCは、レーダTTCでも、画像TTCでもよい。このようなPCS制御により、物標と自車両50との衝突の回避又は緩和を図っている。
ところで、画像TTCは、運転環境や車両挙動等の影響を受けやすく、運転環境や車両挙動が異なるシーンによって、画像TTCに算出誤差が生じる場合がある。この場合、算出誤差に起因して同一判定の判定結果が不安定になると考えられる。すなわち、判定条件に画像TTCを用いているため、意図せずにレーダ物標と画像物標とが同一物体であると判定したり、意図せずにレーダ物標と画像物標とが同一物体でないと判定するおそれがある。例えば、夜間の走行シーンでは、昼間の走行シーンに比べて、画像物標が検出しづらくなる。そのため、夜間の走行シーンでは、昼間の走行シーンに比べて画像TTCに算出誤差が生じやすい、言い換えると算出誤差が大きくなるといえる。
また、上記のとおり、画像TTCの算出には複数の算出方法が知られているが、算出方法によって算出誤差の大きいシーンはそれぞれ異なると考えられる。例えば、第1算出方法に用いられる距離Diや相対速度Viは、同じ画像物標が連続して複数回検出されることで各値Di,Viの精度が向上する構成となっている。そのため、画像物標の検出回数Nが少ないシーンでは、距離Diや相対速度Viに誤差が生じやすく、ひいては第1算出方法による画像TTCの算出誤差が大きくなると考えられる。一方、第2算出方法に用いられる拡大率kは、過去(例えば前回)の撮像画像と今回の撮像画像とに基づいて算出されるため、画像物標の検出回数Nに影響されない。そのため、第2算出方法では、画像物標の検出回数Nが少ないシーンであっても画像TTCの算出誤差は生じにくい。このように、画像TTCの算出方法毎に用いられるパラメータが異なるため、各パラメータの精度に起因して画像TTCに算出誤差の大きい生じるシーンも異なると考えられる。
この点、従来の装置では、ECU10は、撮像装置22において選択された画像TTCを取得する。そして、算出方法にかかわらず予め設定された判定条件に基づいて、レーダ物標と画像物標との同一判定を行っている。そのため、都度のシーンにおける算出方法毎の算出誤差を考慮した構成にはなっていない。
そこで、本実施形態では、ECU10は、画像TTCを複数の算出方法のうちいずれかにより算出された時間として取得する。そして、画像TTCが取得される場合に、その画像TTCに対応する算出方法に応じて算出誤差の大きい所定シーンであるか否かを判定し、算出方法とその判定結果とに基づいて、同一判定の態様を設定するようにした。具体的には、算出方法毎の所定シーンであると判定された場合に、所定シーンでないと判定された場合に比べて、同一判定の判定条件を緩くする側に設定するようにした。すなわち、画像TTCの算出方法に応じてシーンによる算出誤差を加味して、同一判定を実施できるようにしている。
本実施形態において、ECU10は、シーン判定部14、種別判定部15、設定部16を備えている。本実施形態において、第2取得部12は、画像TTCを取得するとともに、画像TTCの算出方法を取得する。なお、第2取得部12は、複数の算出方法のうちいずれの算出方法で算出された画像TTCも取得可能である。
シーン判定部14は、第2取得部12にて取得された算出方法に応じて、都度のシーンが所定シーンであるか否かを判定する。ここで、所定シーンとは、画像TTCの算出誤差の大きい運転環境や運転状態のことをいい、言うなれば苦手シーンに相当する。シーン判定部14には、算出方法毎に所定シーンが予め記憶されている。より具体的には、算出方法毎に複数の所定シーンが記憶されている。例えば、第1算出方法の場合、所定シーンとして、(1)夜間での走行シーン、(2)加減速状態、(3)見切れ状態、(4)検出回数Nが所定未満の状態、が設定されている。一方、第2算出方法の場合、所定シーンとして、(1)夜間での走行シーン、(2)加減速状態、が設定されている。
かかる構成において、シーン判定部14は、画像TTCの算出方法が第1算出方法であれば、都度のシーンが上記シーン(1)〜(4)のいずれかのシーンであるか否かを判定する。また、画像TTCの算出方法が第2算出方法であれば、上記シーン(1)〜(2)のいずれかのシーンであるか否かを判定する。以下には、上記シーン(1)〜(4)における各算出方法の算出誤差について説明する。
夜間での走行シーンについて説明する。夜間での走行シーンは、昼間での走行シーンに比べて、撮像画像内における画素間の輝度(コントラスト)の差が小さくなる。その結果、輝度情報に基づくエッジ点の抽出が難しくなり、ひいては画像物標の検出が困難となる。そのため、夜間での走行シーンでは、第1算出方法及び第2算出方法のいずれにおいても画像TTCに算出誤差が生じると考えられる。なおここでは、夜間での走行シーンとしているが、画素間の輝度の差が小さくなる状態であれば、第1算出方法及び第2算出方法において画像TTCに算出誤差が生じると考えられる。例えば、トンネルでの走行シーンも所定シーンに該当する。
加減速状態について説明する。自車両50が加減速状態にある場合には、加減速に伴うピッチングにより撮像画像の上下方向の画角に影響が及ぶ。すなわち、前回と今回の撮像画像における消失点の上下方向の位置や画像物標の上下方向の位置が、比較的大きく変化すると考えられる。そのため、自車両50が加減速状態にある場合では、第1算出方法及び第2算出方法のいずれにおいても画像TTCに算出誤差が生じると考えられる。
見切れ状態について説明する。例えば、画像物標に対して自車両50が所定以上に接近すると、撮像装置22の画角から画像物標の一部(下端)が外れる。このように画像物標の下端が撮像画像から見切れる状態を、本実施形態では見切れ状態としている。ここで、第1算出方法に用いられる距離Diは、画像物標の下端に基づいて算出されるため、見切れ状態の場合には距離Diの精度が悪化する。そのため、見切れ状態の場合には、第1算出方法における画像TTCに算出誤差が生じると考えられる。一方、拡大率kを用いる第2算出方法では、例えば所定範囲に基づいて拡大率kを算出する構成等であれば、見切れ状態となっても拡大率kを精度良く算出することができると考えられる。
検出回数Nが所定未満の状態について説明する。例えば、第1算出方法に用いられる距離Diや相対速度Viは、同じ画像物標が連続して複数回検出されることで、各値Di,Viの精度が向上する構成となっている。そのため、検出回数Nが所定未満の状態では、距離Diや相対速度Viの精度が悪化し、ひいては第1算出方法の画像TTCに算出誤差が生じると考えられる。
以上のように、算出方法毎に複数のシーンが設定されている。また、設定されているシーンは算出方法間で異なっている。シーン判定部14による判定結果は、設定部16に入力される。
設定部16は、第2取得部12により取得された画像TTCの算出方法と、シーン判定部14による判定結果とに基づいて、同一判定の態様を設定する。同一判定の態様の設定として、具体的には、同一判定の判定条件を設定する。より詳しくは、設定部16は、シーン判定部14により算出方法毎の所定シーンであると判定された場合には、閾値Thを大きい値に設定することで判定条件を緩くする側に設定する。つまりこの場合、閾値Thが大きい値に設定されることで同一判定が行われやすくなり、意図せずに同一物体でないと判定されることを軽減することができる。
閾値Thについて、設定部16は、各算出方法におけるシーン毎の算出誤差レベルに応じて閾値Thを設定する。閾値Thは、例えば基準値に所定の補正値αを加算することで設定され、補正値αと算出誤差レベルとは、例えば図4に示すような相関関係を有する。すなわち、画像TTCの算出誤差レベルが大きいシーンではレーダTTCと画像TTCとの乖離が大きくなると考えられるため、算出誤差が大きいシーンほど閾値Thが大きい値とされる。つまり基準値に加算される補正値αが大きくなる。一方、画像TTCの算出誤差レベルが比較的小さいシーンではレーダTTCと画像TTCとの乖離が比較的小さくなると考えられるため、算出誤差が小さいシーンほど閾値Thが小さい値とされる。つまり基準値に加算される補正値αが小さくなる。
ここで、上記シーン(1)〜(4)毎に、算出誤差レベルはそれぞれ異なると考えられる。そのため、シーン毎の算出誤差レベルを考慮して、閾値Thが設定されるとよい。例えば、第1算出方法の上記シーン(1)〜(4)において、仮に(1)、(2)、(3)、(4)の順で算出誤差が大きくなるとすると、(1)夜間の走行シーンの場合に比べて、(2)加減速状態の場合の方が、閾値Thに大きい値が設定される。同様に、(1)夜間の走行シーンの場合に比べて、(3)見切れ状態の場合の方が、閾値Thに大きい値が設定される。
なお、かかる構成において、上記シーン(1)〜(4)のうち、複数のシーンが重複する場合には、算出誤差が大きいシーンの方が優先して選択されるようにするとよい。そしてかかる構成では、選択されたシーンに基づいて閾値Thが設定される。
ここで、画像TTCの算出誤差が生じるシーンにおいて、さらに画像物標に対応する物体の種類によって算出誤差レベルが異なると考えられる。例えば、夜間での走行シーンにおいて、画像TTCが算出される画像物標に対応する物体が歩行者である場合と、車両である場合とでは、算出誤差レベルに差が生じると考えられる。そこで、本実施形態では、算出方法毎の所定シーンであると判定された場合において、画像物標に対応する物体の種類に応じて判定条件を設定している。すなわち、算出方法毎のシーン別の算出誤差に加え、かかるシーンにおける画像物標に対応する物体の種類別の算出誤差を加味して、同一判定の判定条件を設定する。
種別判定部15は、周知のパターンマッチング等によって、撮像画像内における画像物標に対応する物体の種類を判定する。具体的には、歩行者、車両、及び自転車の辞書情報に基づいて、物体が歩行者であるか、車両であるか、自転車であるかを判定する。判定された物体の種類は、設定部16に入力される。
設定部16は、各算出方法のシーン毎に、さらに物体の種類に応じて閾値Thを設定する。物体の種類に応じた閾値Thは、物体の種類別の算出誤差レベルに基づいて設定される。つまり、設定部16は、各算出方法において設定された所定シーン毎に、さらに物体の種類に応じた閾値Thの換算マップを有している。
図5には、閾値Thの換算マップの組み合わせのイメージ図を示している。例えば、画像TTCの算出方法として第1算出方法と第2算出方法を用い、第1算出方法及び第2算出方法の所定シーンとしてそれぞれ上記シーン(1)〜(4)及び上記シーン(1)〜(2)を設定し、物体の種類として歩行者、車両、自転車を設定する構成においては、例えば全部で18の換算マップが備えられている。
そして、設定部16により設定された閾値Thを用いた判定条件によって、同一判定部13にて同一判定が実施される。
図6のフローチャートを用いて、ECU10により実施される同一判定処理について説明する。この処理は、ECU10により所定周期で繰り返し実施される。
ステップS11では、レーダ装置21により検出されるレーダ物標の物体情報に基づいて、レーダTTCを取得する。ステップS12では、撮像装置22により算出される画像TTCを取得する。具体的には、選択部22cにより選択された画像TTCを取得する。ステップS13では、ステップS12で取得された画像TTCの算出方法を取得する。なお、本実施形態では、ステップS13で取得される算出方法は、第1算出方法又は第2算出方法のいずれかとする。
ステップS14では、算出方法が第1算出方法か否かを判定する。ステップS14がYESであれば、ステップS15に進み、ステップS14がNOであれば、算出方法は第2算出方法であるとしてステップS16に進む。ステップS15及びステップS16では、画像TTCの算出方法毎に算出誤差の大きいシーンであるか否かを判定する。具体的には、ステップS15では、(1)夜間での走行シーン、(2)加減速状態、(3)見切れ状態、(4)検出回数Nが所定未満の状態のいずれかのシーンであるか否かを判定する。また、ステップS16では、(1)夜間での走行シーン、(2)加減速状態のいずれかのシーンであるか否かを判定する。
ステップS15及びステップS16において、各シーンの判定の具体的手法は周知の方法を用いることができる。例えば、夜間での走行シーンであるか否かの判定は、ヘッドライトの点灯の有無を検出すること等により実施される。加減速状態であるか否かの判定は、自車両50の車速から算出される加速度Aに基づいて実施される。また、見切れ状態であるか否かの判定は、例えば画像物標が検出されている状態から検出されなくなる状態へ遷移したことを検出する等して実施される。また、検出回数Nが所定未満の状態であるか否かの判定は、例えば画像物標の検出回数Nと判定値Nthとを比較することで実施される。
ステップS15がYESの場合、ステップS17に進み、種別判定部15により判定された物体の種類を取得する。ステップS18では、画像TTCの算出方法、ステップS15の判定結果、及び物体の種類に応じて閾値Thを設定する。具体的には、算出方法毎の所定シーン別の算出誤差、及び各所定シーンにおける物体の種類別の算出誤差を加味した閾値Thの換算マップを参照して、閾値Thを設定する。なお、本実施形態では、所定シーンであると判定された場合に、閾値Thを基準値よりも大きい値に設定して、同一判定の判定条件が成立しやすいようにする。一方、ステップS15がNOの場合、つまり所定シーンでないと判定された場合は、ステップS19に進み、通常の閾値Th(基準値)に設定する。なお、ステップS16、S20〜S22の処理は、ステップS15、S17〜S19の処理と同様である。
閾値Thが設定されると、ステップS23に進み、同一判定を実施する。具体的には、レーダTTC及び画像TTCの差分の絶対値が閾値Th未満であるか否かを判定する。ステップS23がYESであれば、ステップS24に進み、レーダ物標と画像物標とは同一物体にかかる物標であるとして、フュージョン物標を生成する。一方、ステップS23がNOであれば、ステップS25に進み、レーダ物標と画像物標とは異なる物体にかかる物標であるとして、各物標を維持する。以後、設定された各物標に対して、ECU10により衝突の可能性の判断が実施される。
以上詳述した本実施形態によれば、以下の優れた効果が得られる。
レーダ物標と画像物標とが同一の物体によるものか否かを判定する同一判定では、レーダTTC及び画像TTCが用いられる。画像TTCは、運転環境や車両挙動等の影響を受けやすいため、複数の算出方法により算出可能とすることが望ましい。この場合、画像TTCの算出方法によって算出誤差が生じるシーンが異なると考えられる。この点、上記構成では、画像TTCの算出方法によって算出誤差が生じるシーンが異なることに着目して、算出方法毎に算出誤差の大きい所定シーンが定められた構成とした。そして、算出方法に応じてシーン判定を行い、算出方法とその判定結果とに基づいて同一判定の態様を設定することで、画像TTCの算出方法に応じた算出誤差を加味した上で同一判定を実施することができる。これにより、画像TTCの算出誤差が生じるシーンであっても、フュージョン物標を適正に生成することができる。
また、画像TTCの算出誤差の大きいシーンでは、算出誤差に伴い、例えば、実際には同一物体であるにもかかわらず同一物体でないと判定される場合があり、不都合が生じることがある。この点、上記構成では、画像TTCの算出方法毎の所定シーンであると判定された場合に、所定シーンでないと判定された場合に比べて、同一判定の判定条件を緩くする側に設定するようにした。これにより、画像TTCの算出誤差の大きいシーンにおいて、例えば、判定条件を緩める側に設定することで、意図せずにレーダ物標と画像物標とが同一物体でないと判定されることを軽減することができる。
判定条件に、レーダTTC及び画像TTCの差分の絶対値が閾値Th未満であることを含むようにしたため、同一判定の精度を向上させることができる。
判定条件を緩くする側への設定として、閾値Thを基準値よりも大きい値に設定するようにしたため、画像TTCに算出誤差が生じ、レーダTTCと画像TTCの差分が大きくなる場合であっても、判定条件が成立しやすくなり、同一判定が行われやすくなる。そのため、意図せずに同一物体でないと判定されることを軽減することができる。
画像TTCの算出誤差の大きいシーンにおいて、さらに、画像物標に対応する物体の種類によって算出誤差の程度は異なると考えられる。この点を考慮し、算出方法毎の所定シーンであると判定された場合において、物体の種類に応じて所定の判定条件を設定するようにしたため、算出方法毎のシーンによる算出誤差に加え、物体の種類による算出誤差を加味して、同一判定の判定条件を設定することができる。
画像TTCの算出には、撮像画像内における画像物標の大きさの変化率(拡大率k)を用いる方法や、画像物標に対する距離Di及び相対速度Viを用いる方法がある。これらの方法では、画像TTCの算出に用いるパラメータがそれぞれ異なっており、それに伴って画像TTCの算出誤差の大きいシーンが異なると考えられる。この点、上記構成では、画像TTCが第1算出方法により算出された場合と第2算出方法により算出された場合とで、所定シーンがそれぞれ設定されるようにしたため、第1算出方法又は第2算出方法に応じて、算出誤差が生じるシーンをそれぞれ判定できる。これにより、同一判定を適正に実施することができる。
画像TTCの算出方法において、シーンに応じて算出誤差レベル(誤差の大きさ)が異なると考えられる。例えば、同じ算出方法であっても、夜間での走行シーンや、加速シーンでは、算出誤差レベルが異なると考えられる。この点を考慮し、画像TTCの算出方法毎に、算出誤差レベルが異なる複数のシーンが定められた構成とし、算出方法に応じて、複数のシーンのいずれかのシーンであるか否かを判定するようにしたため、算出方法毎にシーン別の算出誤差レベルの違いを加味することができ、ひいては同一判定を適正に実施することができる。
(他の実施形態)
・上記実施形態では、画像TTCの算出方法として第1算出方法及び第2算出方法を用いたが、3つ以上の算出方法を用いてもよい。つまり、撮像装置22が第3算出部を有する構成であってもよい。なお、かかる構成においても、算出方法毎に複数の所定シーンが設定され、算出方法毎に所定シーンであるか否かが判定される。
・上記実施形態では、第1算出方法の所定シーンとして4つのシーン(1)〜(4)を設定し、第2算出方法の所定シーンとして2つのシーン(1)〜(2)を設定したが、各算出方法において算出誤差の大きいシーンであればこれに限定されず、その他のシーンを追加又は置換してもよく、また上記シーンを削除してもよい。
・設定部16における閾値Thの設定について、物体の種類を加味して閾値Thを設定する構成としたが、物体の種類を加味せずに閾値Thを設定する構成としてもよい。つまりこの場合は、設定部16は、シーン判定部14における判定結果と算出方法とに応じて、閾値Thを設定する。
また、設定部16における閾値Thの設定について、レーダ物標までの距離Drや画像物標までの距離Di、及び各物標の方位を加味して閾値Thを設定する構成としてもよい。
・上記実施形態では、所定シーン(苦手シーン)であると判定された場合に、閾値Thを大きい値に設定することで判定条件を緩くしたが、これを変更し、所定シーンであると判定された場合に、閾値Thを小さい値に設定することで判定条件を厳しくしてもよい。例えば、図6のステップS18,S21において、閾値Thを基準値よりも小さい値に設定する。この場合、閾値Thは、例えば基準値に所定の補正値αを減算することで設定され、補正値αと算出誤差レベルは図4に示すような相関関係を有する。かかる構成では、閾値Thが小さい値に設定されることで判定条件が成立しにくくなり、同一判定が行われにくくなる。そのため、意図せずにレーダ物標と画像物標とが同一物体であると判定されることを軽減することができる。
さらに、複数の所定シーンにおいて、所定シーン毎に、閾値Thを大きい値に設定する場合と、閾値Thを小さい値に設定する場合とをそれぞれ実施する構成としてもよい。
・上記実施形態では、画像物標に対応する物体の種類の判定として、歩行者、車両、自転車のいずれかの種類を判定する構成としたが、さらに細分化した構成としてもよい。例えば、車両については、停止車両又は先行車両を判定し、自転車については、横断自転車かそれ以外の自転車かを判定してもよい。なお、かかる構成では、細分化された物体毎に閾値Thの換算マップが用意されるとよい。また、歩行者、車両、自転車以外の物体(路上静止物等)の種類を判定する構成としてもよい。
・上記実施形態では、同一判定の判定条件として、レーダTTCと画像TTCとの差分の絶対値が閾値Th未満であることとしたが、さらに、レーダ物標と画像物標とが近接していることを条件に加えてもよい。レーダ物標と画像物標とが近接していることは、例えば、レーダ物標に基づいて設定されるレーダ探索領域と、画像物標に基づいて設定される画像探索領域とに重なる領域が存在する場合に、両物標が近接していると判定してもよい。また、レーダ物標の相対位置と画像物標の相対位置との距離が所定の距離未満である場合に、両物標が近接していると判定してもよい。
10…ECU、11…第1取得部、12…第2取得部、13…同一判定部、14…シーン判定部、16…設定部、21…レーダ装置、22…撮像装置、50…自車両。

Claims (7)

  1. 自車両(50)の周囲に存在する物体を検出する物体検出センサとしてレーダ装置(21)及び撮像装置(22)を備える車両に適用され、
    前記レーダ装置によって検出される第1物標に対し前記自車両が衝突するまでの時間である第1衝突予測時間を取得する第1取得部(11)と、
    前記撮像装置により検出される撮像画像内の第2物標に対し前記自車両が衝突するまでの時間として複数の算出方法のうちいずれかにより算出された第2衝突予測時間を取得する第2取得部(12)と、
    それぞれ取得された前記第1衝突予測時間及び前記第2衝突予測時間に基づいて、前記第1物標と前記第2物標とが同一物体にかかる物標であることの同一判定を実施する同一判定部(13)と、
    前記第2衝突予測時間の算出方法毎に、算出誤差の大きい所定シーンが定められており、前記第2取得部により前記第2衝突予測時間が取得される場合に、当該第2衝突予測時間に対応する前記算出方法に応じて、前記所定シーンであるか否かを判定するシーン判定部(14)と、
    前記算出方法と前記シーン判定部による判定結果とに基づいて、前記同一判定の態様を設定する設定部(16)と、
    を備える車両制御装置。
  2. 前記同一判定部は、前記第1衝突予測時間及び前記第2衝突予測時間を用いる所定の判定条件が成立することで、前記第1物標と前記第2物標とが同一物体にかかる物標であると判定するものであり、
    前記設定部は、前記シーン判定部により前記算出方法毎の前記所定シーンであると判定された場合に、前記所定シーンでないと判定された場合に比べて、前記所定の判定条件を緩くする側に設定する請求項1に記載の車両制御装置。
  3. 前記同一判定部は、前記第1衝突予測時間及び前記第2衝突予測時間を用いる所定の判定条件が成立することで、前記第1物標と前記第2物標とが同一物体にかかる物標であると判定するものであり、
    前記設定部は、前記シーン判定部により前記算出方法毎の前記所定シーンであると判定された場合に、前記所定シーンでないと判定された場合に比べて、前記所定の判定条件を厳しくする側に設定する請求項1に記載の車両制御装置。
  4. 前記所定の判定条件は、前記第1衝突予測時間及び前記第2衝突予測時間の差分が所定の範囲内であることを含むものであって、
    前記設定部は、前記所定の範囲を広くすることで前記所定の判定条件を緩くする側に設定する請求項2に記載の車両制御装置。
  5. 前記撮像画像に基づいて、前記第2物標に対応する物体の種類を判定する種別判定部(15)を備え、
    前記設定部は、前記シーン判定部により前記算出方法毎の前記所定シーンであると判定された場合において、前記種別判定部により判定された前記物体の種類に応じて前記所定の判定条件を設定する請求項2乃至4のいずれか1項に記載の車両制御装置。
  6. 前記複数の算出方法は、前記自車両と前記第2物標との距離及び相対速度に基づいて前記第2衝突予測時間を算出する第1算出方法と、前記撮像画像内における前記第2物標の大きさの変化率に基づいて前記第2衝突予測時間を算出する第2算出方法とを含み、
    前記所定シーンは、前記第2衝突予測時間が前記第1算出方法により算出された場合と、前記第2算出方法により算出された場合とでそれぞれ設定される請求項1乃至5のいずれか1項に記載の車両制御装置。
  7. 前記所定シーンは、前記第2衝突予測時間の算出方法毎に、算出誤差レベルが異なる複数のシーンが定められており、
    前記シーン判定部は、前記第2取得部により前記第2衝突予測時間が取得される場合に、当該第2衝突予測時間に対応する算出方法に応じて、前記複数のシーンのいずれかのシーンであるか否かを判定する請求項1乃至6のいずれか1項に記載の車両制御装置。
JP2017016079A 2017-01-31 2017-01-31 車両制御装置 Active JP6787157B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017016079A JP6787157B2 (ja) 2017-01-31 2017-01-31 車両制御装置
US15/882,896 US10592755B2 (en) 2017-01-31 2018-01-29 Apparatus and method for controlling vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017016079A JP6787157B2 (ja) 2017-01-31 2017-01-31 車両制御装置

Publications (2)

Publication Number Publication Date
JP2018124768A true JP2018124768A (ja) 2018-08-09
JP6787157B2 JP6787157B2 (ja) 2020-11-18

Family

ID=62980029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017016079A Active JP6787157B2 (ja) 2017-01-31 2017-01-31 車両制御装置

Country Status (2)

Country Link
US (1) US10592755B2 (ja)
JP (1) JP6787157B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110435642A (zh) * 2019-08-06 2019-11-12 吉利汽车研究院(宁波)有限公司 数据融合方法、装置及存储介质
JP2020057189A (ja) * 2018-10-02 2020-04-09 日野自動車株式会社 運転支援システム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7299213B2 (ja) * 2018-04-25 2023-06-27 株式会社Nttドコモ 情報処理装置
CN110609274B (zh) * 2018-06-15 2022-07-01 杭州海康威视数字技术股份有限公司 一种测距方法、装置及系统
CN109446877B (zh) * 2018-09-01 2022-01-07 哈尔滨工程大学 一种联合多维特征迁移融合的雷达辐射源信号调制识别方法
CN109615870A (zh) * 2018-12-29 2019-04-12 南京慧尔视智能科技有限公司 一种基于毫米波雷达和视频的交通检测系统
EP4123337A4 (en) * 2020-03-26 2023-04-12 Huawei Technologies Co., Ltd. TARGET DETECTION METHOD AND APPARATUS
CN111739343B (zh) * 2020-06-02 2023-12-19 腾讯科技(深圳)有限公司 车辆事故风险的预警方法、装置、介质及电子设备
US20230072441A1 (en) * 2021-09-03 2023-03-09 Texas Instruments Incorporated Empty band doppler division multiple access
CN114212102B (zh) * 2021-12-01 2024-03-19 智己汽车科技有限公司 一种避免侧向碰撞的辅助驾驶方法、系统及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012048643A (ja) * 2010-08-30 2012-03-08 Denso Corp 物体検出装置
JP2016066182A (ja) * 2014-09-24 2016-04-28 株式会社デンソー 物体検出装置
JP2016522886A (ja) * 2013-04-11 2016-08-04 グーグル インコーポレイテッド 車載センサを用いて気象状態を検出する方法及びシステム
JP2016177729A (ja) * 2015-03-23 2016-10-06 本田技研工業株式会社 車両用衝突回避支援装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010031068A1 (en) * 2000-04-14 2001-10-18 Akihiro Ohta Target detection system using radar and image processing
JP3779280B2 (ja) * 2003-03-28 2006-05-24 富士通株式会社 衝突予測装置
JP4598653B2 (ja) * 2005-05-13 2010-12-15 本田技研工業株式会社 衝突予知装置
US7460951B2 (en) * 2005-09-26 2008-12-02 Gm Global Technology Operations, Inc. System and method of target tracking using sensor fusion
JP4304517B2 (ja) * 2005-11-09 2009-07-29 トヨタ自動車株式会社 物体検出装置
JP4595833B2 (ja) * 2006-02-24 2010-12-08 トヨタ自動車株式会社 物体検出装置
DE102007018470A1 (de) * 2007-04-19 2008-10-23 Robert Bosch Gmbh Fahrerassistenzsystem und Verfahren zur Objektplausibilisierung
JP5379543B2 (ja) 2009-04-09 2013-12-25 日立オートモティブシステムズ株式会社 自動車の外界認識装置
JP5910046B2 (ja) 2011-12-05 2016-04-27 トヨタ自動車株式会社 障害物検出装置
JP5673568B2 (ja) * 2012-01-16 2015-02-18 トヨタ自動車株式会社 物体検出装置
EP2821308B1 (en) * 2013-07-03 2016-09-28 Volvo Car Corporation Vehicle system for control of vehicle safety parameters, a vehicle and a method for controlling safety parameters
DE112013007632B4 (de) * 2013-11-25 2023-06-29 Toyota Jidosha Kabushiki Kaisha Kollisionsvermeidungsunterstützungsvorrichtung
JP6203421B2 (ja) * 2014-10-17 2017-09-27 三菱電機株式会社 ドライバー支援装置および警報タイミング制御方法
JP6347262B2 (ja) * 2016-02-12 2018-06-27 マツダ株式会社 車両の制御装置
US20170242117A1 (en) * 2016-02-19 2017-08-24 Delphi Technologies, Inc. Vision algorithm performance using low level sensor fusion

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012048643A (ja) * 2010-08-30 2012-03-08 Denso Corp 物体検出装置
JP2016522886A (ja) * 2013-04-11 2016-08-04 グーグル インコーポレイテッド 車載センサを用いて気象状態を検出する方法及びシステム
JP2016066182A (ja) * 2014-09-24 2016-04-28 株式会社デンソー 物体検出装置
JP2016177729A (ja) * 2015-03-23 2016-10-06 本田技研工業株式会社 車両用衝突回避支援装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020057189A (ja) * 2018-10-02 2020-04-09 日野自動車株式会社 運転支援システム
CN110435642A (zh) * 2019-08-06 2019-11-12 吉利汽车研究院(宁波)有限公司 数据融合方法、装置及存储介质

Also Published As

Publication number Publication date
US20180218228A1 (en) 2018-08-02
US10592755B2 (en) 2020-03-17
JP6787157B2 (ja) 2020-11-18

Similar Documents

Publication Publication Date Title
JP6787157B2 (ja) 車両制御装置
JP6369390B2 (ja) 車線合流判定装置
US10956757B2 (en) Image processing device, outside recognition device
CN107251127B (zh) 车辆的行驶控制装置以及行驶控制方法
JP6084192B2 (ja) 物体認識装置
EP2993654B1 (en) Method and system for forward collision warning
JP6856452B2 (ja) 物標判定装置及び運転支援システム
JP6741646B2 (ja) 車外環境認識装置
US10752223B2 (en) Autonomous emergency braking system and method for vehicle at crossroad
JP4901275B2 (ja) 走行誘導障害物検出装置および車両用制御装置
JP5482672B2 (ja) 移動物体検出装置
CN104321665A (zh) 基于多表面模型的跟踪
JP6828602B2 (ja) 物標検出装置
JP2018060422A (ja) 物体検出装置
JP2018063606A (ja) 移動検出装置、移動検出方法
JPWO2014033955A1 (ja) 速度算出装置及び速度算出方法並びに衝突判定装置
JP2009019914A (ja) 物体検出装置
US11407390B2 (en) Vehicle control apparatus and vehicle control method
JP2007264717A (ja) 車線逸脱判定装置、車線逸脱防止装置および車線追従支援装置
JP2014026519A (ja) 車載レーンマーカ認識装置
JP6699728B2 (ja) 車間距離推定方法及び車間距離推定装置
US10857998B2 (en) Vehicle control device operating safety device based on object position
JP2006004188A (ja) 障害物認識方法及び障害物認識装置
JP6530782B2 (ja) 車両制御装置
CN114746923B (zh) 信号机识别方法及信号机识别装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201012

R151 Written notification of patent or utility model registration

Ref document number: 6787157

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250