JP2019185640A - 運転支援システムおよび方法 - Google Patents

運転支援システムおよび方法 Download PDF

Info

Publication number
JP2019185640A
JP2019185640A JP2018078918A JP2018078918A JP2019185640A JP 2019185640 A JP2019185640 A JP 2019185640A JP 2018078918 A JP2018078918 A JP 2018078918A JP 2018078918 A JP2018078918 A JP 2018078918A JP 2019185640 A JP2019185640 A JP 2019185640A
Authority
JP
Japan
Prior art keywords
driving support
host vehicle
vehicle
detection sensor
communication unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018078918A
Other languages
English (en)
Other versions
JP6927132B2 (ja
JP2019185640A5 (ja
Inventor
高木 亮
Akira Takagi
亮 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2018078918A priority Critical patent/JP6927132B2/ja
Priority to PCT/JP2019/016022 priority patent/WO2019203160A1/ja
Publication of JP2019185640A publication Critical patent/JP2019185640A/ja
Publication of JP2019185640A5 publication Critical patent/JP2019185640A5/ja
Priority to US17/072,387 priority patent/US11713039B2/en
Application granted granted Critical
Publication of JP6927132B2 publication Critical patent/JP6927132B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/06Direction of travel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】適切な運転支援を行うことが可能な技術を提供する。【解決手段】自車両500に搭載される運転支援システム10は、自車両の前方に存在する第1物体を検出可能な物体検出センサ20と、自車両の周囲に存在する第2物体と通信可能な通信部28と、物体検出センサによって検出された第1物体への自車両からの第1方位と通信部によって通信した第2物体への自車両からの第2方位とが同じ方位であるか否かを判定する方位判定部110と、第1方位と第2方位とが同じ方位である場合、第1物体と第2物体とが同一の物体であるか否かを、物体検出センサおよび通信部によって取得された情報に基づき判定する同一性判定部111と、第1物体と第2物体とが同一の物体と判定された場合、第1物体と第2物体とのうち予め定められた方の物体から取得された情報に基づき運転支援を行う運転支援部112と、を備える。【選択図】図2

Description

本開示は、運転支援システムに関する。
運転支援システムに関し、例えば、特許文献1に記載された技術では、カメラやレーダによって構成された周辺監視手段によって検出された先行車両の移動量および移動方向を示す第1のベクトルと、車車間通信により取得された他車両の移動量および移動方向を示す第2のベクトルとの重なり度合いに基づき、周辺監視手段によって検出された先行車両と車車間通信により通信を行った他車両との一致度を判断している。そして、一致度の高い他車両を選定し、その他車両に対して車車間通信を用いて追従走行を行っている。
特許第4918807号公報
特許文献1に記載された技術では、第1のベクトルと第2のベクトルとの重なり度合いに基づき一致度を判断しているため、一致度の判定対象となる車両が異なる車両であっても、ベクトルの重なりが生じていれば、同一の車両として判断される可能性がある。この結果、例えば、近くの車両よりも遠くの車両に対して車車間通信を用いた追従走行が行われる可能性があり、適切な運転支援を行うことができない場合が想定され得る。そのため、より適切に運転支援を行うことの技術が求められている。
本開示は、以下の形態として実現することが可能である。
本開示の一形態によれば、自車両(500)に搭載される運転支援システム(100)が提供される。この運転支援システムは、記自車両の前方に存在する第1物体を検出可能な物体検出センサ(20)と;前記自車両の周囲に存在する第2物体と通信可能な通信部(28)と;前記物体検出センサによって検出された前記第1物体への前記自車両からの第1方位と、前記通信部によって通信した前記第2物体への前記自車両からの第2方位とが、同じ方位であるか否かを判定する方位判定部(110)と;前記第1方位と前記第2方位とが同じ方位である場合、前記第1物体と前記第2物体とが同一の物体であるか否かを、前記物体検出センサおよび前記通信部によって取得された情報に基づき判定する同一性判定部(111)と;前記第1物体と前記第2物体とが同一の物体と判定された場合、前記第1物体と前記第2物体とのうち、予め定められた方の物体から取得された情報に基づき運転支援を行う運転支援部(112)と;を備える。
このような形態の運転支援システムであれば、物体検出センサによって検出された第1物体の方位と通信部によって通信した第2物体の方位との一致性だけではなく、第1物体と第2物体との同一性をも判定することによって、運転支援を行う際に用いる情報の取得先を特定することができるので、適切な運転支援を行うことができる。
本開示は、運転支援システム以外の種々の形態で実現することも可能である。例えば、運転支援システムが実行する方法、その方法を実現するためのコンピュータプログラム、そのコンピュータプログラムを記憶した一時的でない有形の記録媒体等の形態で実現できる。
運転支援システムの構成を示す説明図。 運転支援装置のブロック図。 運転支援処理のフローチャート。 物体検出センサによって検出された第1物体の方位を示す図。 通信部によって検出された第2物体の方位を示す図。 物体検出センサによって検出された第1物体の角度幅を示す図。 通信部よって検出された第2物体の角度幅を示す図。
A.第1実施形態:
図1に示すように、本開示の一実施形態に係る運転支援システム10は、車両500に搭載されている。運転支援システム10は、運転支援装置100、レーダECU(Electronic Control Unit)21、カメラECU22、回転角センサ23、車輪速度センサ24、ヨーレートセンサ25、測位センサ26、方向指示器センサ27、通信部28、制動支援装置31、操舵支援装置32を備えている。運転支援システム10は、これら各種の装置によって、運転者による車両の運転を支援する。なお、以下では、車両500のことを自車両500といい、自車両500以外の車両のことを、他車両という。
図2に示すように、運転支援装置100は、CPU101、メモリ102、入出力インタフェース103、および、バス104を備えている。CPU101、メモリ102および入出力インタフェース103はバス104を介して相互に接続されている。
入出力インタフェース103には、レーダECU21、カメラECU22、回転角センサ23、車輪速度センサ24、ヨーレートセンサ25、測位センサ26、方向指示器センサ27、通信部28、制動支援装置31、操舵支援装置32が、それぞれ接続されている。これらの各装置は、入出力インタフェース103およびバス104を通じてCPU101と信号の授受が可能なように構成されている。
レーダECU21は、レーザ光を射出し物標からの反射光の受光時間に基づき物標までの距離を検出するレーザレーダ211に接続されている。レーザレーダ211は、フロントバンパ520の中央に配置されている。レーザレーダ211から出力される信号は、レーダECU21において処理され、距離値として運転支援装置100に入力される。なお、レーザレーダ211は、車両500の天井部に設置されてもよい。
カメラECU22は、前方カメラ221と接続されており、前方カメラ221によって取得された画像から、周知の画像認識技術によって画像中に撮像された物体を検出する。本実施形態では、前方カメラ221は単眼カメラとして構成されている。ただし、前方カメラ221としては、2以上のカメラによって構成されるステレオカメラやマルチカメラが用いられても良い。本実施形態では、前方カメラ221はフロントガラス510の上部中央に配置されている。本実施形態では、カメラECU22および前方カメラ221のことを、「物体検出センサ20」という。物体検出センサ20は、カメラECU22および前方カメラ221によって、自車両500の前方に存在する第1物体を検出可能である。
制動装置502は、各車輪501に備えられている。各制動装置502は、例えば、ディスクブレーキ、あるいは、ドラムブレーキであり、運転者の制動ペダル操作に応じて制動ライン503を介して供給されるブレーキ液圧に応じた制動力で各車輪501を制動し、車両500の制動を実現する。制動ライン503には制動ペダル操作に応じたブレーキ液圧を発生させるブレーキピストンおよびブレーキ液ラインが含まれる。なお、制動ライン503としては、ブレーキ液ラインに代えて、制御信号線とし、各制動装置502に備えられているアクチュエータを作動させる構成が採用されても良い。
ステアリングホイール504は、ステアリングロッド、操舵機構および転舵軸を含む操舵装置42を介して前側の車輪501と接続されている。
回転角センサ23は、ステアリングホイール504の操舵によりステアリングロッドに生じるねじれ量、すなわち、操舵トルク、を検出するトルクセンサであり、ステアリングホイール504の操舵角を検出する。本実施形態において、回転角センサ23は、ステアリングホイール504と操舵機構とを接続するステアリングロッドに備えられている。回転角センサ23から出力される検出信号は、ねじれ量に比例する電圧値である。
車輪速度センサ24は、車輪501の回転速度を検出するセンサであり、各車輪501に備えられている。車輪速度センサ24から出力される検出信号は、車輪速度に比例する電圧値または車輪速度に応じた間隔を示すパルス波である。CPU101は、車輪速度センサ24からの検出信号を用いることによって、車両速度、車両の走行距離等の情報を得ることができる。
ヨーレートセンサ25は、車両500の回転角速度を検出するセンサである。ヨーレートセンサ25は、例えば、車両の中央部に配置されている。ヨーレートセンサ25から出力される検出信号は、回転方向と角速度に比例する電圧値であり、車両500において車線変更や右左折を示す電圧値が検出され得る。
測位センサ26は、例えば、全地球航法衛星システム(GNSS)受信機、移動体通信送受信機といった、衛星や基地局からの信号を受信し、自車両500の位置を測位するためのセンサである。自車両500の位置は、自車両の現在位置情報として扱われる。
方向指示器センサ27は、運転者による方向指示器の操作、すなわち、右折、左折、レーンチェンジの操作を検出する。方向指示器センサ27は、方向指示器に備えられていて良い。
通信部28は、無線または光により車両500の外部と情報を受信または送信する装置である。通信部28は、自車両500の周囲に存在する第2物体と通信可能に構成されている。通信部28によって、例えば、他車両との車車間通信や、道路に備えられている交通情報サービス提供器との路車間通信が実行される。通信部28は、車車間通信によって、他車両の位置、速度、操舵角といった走行状態を表す情報や、他車両の車幅、全長、全高、車番といった車両情報を取得可能である。また、通信部28は、路車間通信によって、道路規制情報、道路形状、交差点情報といった道路に関する種々の情報を取得可能である。
制動支援装置31は、運転者による制動ペダル操作とは無関係に制動装置502による制動を実現するためのアクチュエータである。制動支援装置31には、CPU101からの制御信号に基づきアクチュエータの動作を制御するドライバが実装されている。本実施形態において、制動支援装置31は、制動ライン503に備えられており、運転支援装置100からの制御信号に従って制動ライン503における油圧を増減させることによって、前方カメラ221およびレーザレーダ211による検出結果に応じた制動支援および車速の減速が実現される。制動支援装置31は、例えば、電動モータと電動モータにより駆動される油圧ピストンとを備えるモジュールから構成されている。あるいは、制動支援装置31として、横滑り防止装置、アンチロックブレーキシステムとして既に導入されている制動制御アクチュエータが用いられても良い。
操舵支援装置32は、運転者によるステアリングホイール504の操作とは無関係に操舵装置42による操舵を実現するためのアクチュエータである。操舵支援装置32には、CPU101からの操舵角を指示する制御信号に基づきアクチュエータの動作を制御するドライバが実装されている。本実施形態において、操舵支援装置32は、転舵軸に備えられており、運転支援装置100からの制御信号に従って転舵軸を左右方向に駆動して、前側の車輪501の転舵角を変えることにより、前方カメラ221およびレーザレーダ211による検出結果に応じた操舵支援が実現される。操舵支援装置32は、例えば、電動モータと電動モータにより駆動されるピニオンギヤとを備えるモジュールから構成されており、ピニオンギヤが転舵軸に備えられているラックギヤを駆動することによって転舵軸が作動する。なお、操舵支援装置32は、ステアリングホイール504から入力される操舵力を補助する操舵力補助装置としても用いられ得る。また、操舵支援装置32は、転舵軸と同軸上にモータが配置される構成を備えていても良く、操舵装置42と一体に備えられていても良い。
報知器40は、例えば、前方の他車両と自車両との接触または衝突の可能性を自車両500の乗員に知らせる装置である。報知器40は、例えば、警告を行うための表示画面や警報を行うためのスピーカを含む。
CPU101は、メモリ102に記憶された制御プログラムを実行することにより、方位判定部110、同一性判定部111、運転支援部112として機能する。方位判定部110は、物体検出センサ20によって検出された第1物体への自車両500からの第1方位と、通信部28によって通信した第2物体への自車両500からの第2方位とが、同じ方位であるか否かを判定する。同一性判定部111は、第1方位と第2方位とが同じ方位である場合、物体検出センサ20および通信部28によって取得された情報に基づき第1物体と第2物体とが同一の物体であるか否か判定する。運転支援部112は、第1物体と第2物体とが同一の物体と判定された場合、第1物体と第2物体とのうち、予め定められた方の物体から取得された情報に基づき運転支援を行う。これらの機能部によって実現される処理内容について以下、詳細に説明する。
図3を用いて、運転支援装置100が実行する運転支援処理について説明する。図3に示した処理ルーチンは、自車両500のスタートスイッチがオンにされてから、スタートスイッチがオフにされるまで、予め定められた制御タイミングにて繰り返し実行される。
まず、運転支援装置100は、物体検出センサ20を用いて、第1物体の検出を行う(ステップS10)。続いて、運転支援装置100は、通信部28を用いて、周囲に存在する物体と車車間通信による通信を行うことにより第2物体の検出を行う(ステップS20)。通信部28は、車車間通信により、第2物体から第2物体の現在位置および車幅を表す情報を取得する。これらの情報が取得された場合に、通信部28は、第2物体を検出したことになる。ステップS10とステップS20が実行される順序は逆であってもよいし、同時であってもよい。ステップS10およびステップS20では、第1物体および第2物体が、それぞれ検出されない場合もあり得る。
運転支援装置100の方位判定部110は、物体検出センサ20と通信部28の両方によって物体(第1物体および第2物体)が検出され、かつ、自車両500からそれらの物体への方位が同じであるか否かを判断する(ステップS30)。
図4には、物体検出センサ20によって検出された第1物体VA1,VA2の方位DA1,DA2を示している。本実施形態では、物体検出センサ20は、単眼の前方カメラ221によって構成されている。そのため、方位判定部110は、前方カメラ221によって撮像された画像において、自車両500の進行方向に沿った画像の中心線CLから、画像中の第1物体VA1,VA2の中心までの距離および向き(右または左)を、第1物体VA1,VA2の方位DA1,DA2として算出する。本実施形態において、方位とは、自車両500の進行方向からの角度および向き(右または左)を表す。本実施形態において、第1物体は、主に、他車両である。第1物体には、二輪車、自転車、三輪車(トライク)、歩行者なども含まれ得る。
図5には、通信部28によって検出された第2物体VB1,VB2の方位DB1,DB2を示している。上記のように、本実施形態における車車間通信では、通信部28は第2物体VB1,VB2から現在位置を取得する。そのため、方位判定部110は、自車両500の測位センサ26によって測位した自車両500の現在位置と、第2物体VB1,VB2の現在位置とから、自車両500の進行方向TDに対する第2物体の方位(角度)を算出する。第2物体は、第1物体と同様に、主に、他車両である。第2物体には、第2物体の位置情報を通信部28に送信可能な通信装置を有する又は所持する、二輪車、自転車、三輪車(トライク)、歩行者などが含まれ得る。図5に示すように、方位判定部110は、第2物体の方位を求める際に、自車両500の現在位置に基づき前方カメラ221の位置を基準位置として求め、その基準位置と、第2物体の現在位置から算出される第2物体の後端中央の位置とに基づき方位を算出することが好ましい。前方カメラ221(物体検出センサ20)を用いて検出した第1物体の方位(図4)と精度良く対比を行うためである。
上記ステップS30では、方位判定部110は、図4に示した第1方位DA1,DA2と図5に示した第2方位DB1,DB2との差を算出することによって方位差を求め、その方位差が、予め定められた閾値(例えば、3度)以内である場合に、第1方位と第2方位とが同じ方位であると判断する。物体検出センサ20および通信部28において、それぞれ、複数の物体が検出された場合には、方位判定部110は、方位の近い物体同士(例えば、図4の第1物体VA1と図5の第2物体VB1、および、図4の第1物体VA2と図5の第2物体VB2)で、それぞれ、同じ方位であるか否かを判断する。
上記ステップS30において、物体検出センサ20と通信部28の両方によって物体(第1物体および第2物体)が検出され、かつ、自車両500からそれらの物体への方位が同じである、と判断されなかった場合(ステップS30:No)、運転支援装置100は、物体検出センサ20および通信部28を用いて、物体検出センサ20および通信部28によって検出可能な全ての物体から情報を取得し(ステップS40)、運転支援部112は、それらの情報に基づき、運転支援を行う(ステップS80)。本実施形態では、運転支援部112は、運転支援として、他車両までの距離に応じて、制動支援装置31を用いた衝突被害軽減ブレーキ(PCS:プリクラッシュセーフティシステム)の制御を行う。衝突被害軽減ブレーキの制御では、運転支援部112は、他車両までの距離と他車両の相対速度とから、衝突余裕時間(TTC:Time To Collision)を算出し、その算出結果に応じて、制動支援装置31を用いて制動装置502を制御する。
上記ステップS30において、物体検出センサ20と通信部28の両方によって物体(第1物体および第2物体)が検出され、かつ、自車両500からそれらの物体への方位が同じである、と判断された場合(ステップS30:Yes)、運転支援装置100の同一性判定部111は、物体検出センサ20によって検出された第1物体と、通信部28により検出された第2物体とが、同一の物体であるか否かを判断する(ステップS50)。本実施形態では、自車両500から見た第1物体の角度幅と第2物体の角度幅との差が、予め定められた基準よりも小さい場合に、同一の物体であると判断する。本実施形態における角度幅とは、自車両500の現在位置を第1の頂点とし、自車両500から見た物体の左端を第2の頂点とし、自車両500から物体の右端を第3の頂点とした三角形において、第1の頂点における内角の角度のことをいう。
図6には、物体検出センサ20によって検出された第1物体VA1,VA2の角度幅WA1,WA2を示している。本実施形態では、物体検出センサ20は、単眼の前方カメラ221によって構成されている。そのため、同一性判定部111は、前方カメラ221によって撮像された画像を取得し、その画像における第1物体VA1,VA2の横幅を、自車両500から見た第1物体VA1,VA2の角度幅AW1,AW2として簡易的に算出する。
図7には、通信部28によって検出された第2物体VB1,VB2の角度幅WB1,WB2を示している。上記のように、本実施形態における車車間通信では、通信部28は、第2物体から第2物体の位置と車幅とを取得する。そのため、同一性判定部111は、自車両500の測位センサ26によって測位した現在位置と、通信部28によって取得した第2物体VB1,VB2の位置および車幅とから、上述した三角形の3辺の長さを算出し、余弦定理に基づき、自車両500から見た第2物体VB1,VB2の角度幅WB1,WB2を算出する。図7に示すように、同一性判定部111は、第2物体の角度幅を求める際に、自車両500の現在位置に基づき前方カメラ221の位置を基準位置として求め、その基準位置と、第2物体の現在位置から算出される第2物体の後端部の車幅と、に基づき角度幅を算出することが好ましい。前方カメラ221(物体検出センサ20)を用いて検出した第1物体の方位(図6)と精度良く対比を行うためである。
上記ステップS50では、同一性判定部111は、図6に示した角度幅WA1,WA2と図7に示した角度幅WB1,WB2との差を求め、その差が、予め定められた基準値(例えば、3度)よりも小さい場合に、第1物体と第2物体とが同一の物体であると判断する。物体検出センサ20および通信部28において、それぞれ、複数の物体が検出された場合には、同一性判定部111は、方位の近い物体同士(例えば、図6の第1物体VA1と図7の第2物体VB1、および、図6の第1物体VA2と図7の第2物体VB2)で、それぞれ、同一性を判断する。
ステップS50において、同一性判定部111によって第1物体と第2物体とが同一の物体であると判断された場合(ステップS50:Yes)、運転支援部112は、通信部28を用いて車車間通信により、第2物体(他車両)から運転支援部112による運転支援に必要な情報を取得する(ステップS60)。一方、ステップS50において、同一性判定部111によって第1物体と第2物体とが同一の物体ではないと判断された場合(ステップS50:No)、運転支援部112は、第1物体と第2物体とのうち、自車両500に対して衝突可能性の高い方の物体から、運転支援部112による運転支援に必要な情報を取得する(ステップS70)。本実施形態では、運転支援部112は、物体検出センサ20を用いて測定された自車両500から第1物体までの距離(ユークリッド距離)と、通信部28によって取得された情報に基づいて算出された自車両500から第2物体までの距離(ユークリッド距離)とを比較し、距離が短い方の物体を、衝突可能性が高い方の物体であると判断する。
運転支援部112は、ステップS60において取得された情報、ステップS70において取得された情報、または、ステップS40において取得された情報に基づき、運転支援を行う(ステップS80)。上記のとおり、本実施形態では、運転支援部112は、制動支援装置31を用いた衝突被害軽減ブレーキの制御を行う。そのため、第1物体と第2物体との方位が同じで、これらが同一の物体である場合には、運転支援部112は、第2物体の情報、すなわち、通信部28によって取得した情報(位置や速度)に基づき、他車両までの距離あるいは相対速度を求め、それらに基づき、衝突被害軽減ブレーキの制御を行う。また、第1物体と第2物体との方位は同一であるが、これらが同一の物体ではない場合には、運転支援部112は、これらのうち、距離の短い物体から取得された情報に基づき、衝突被害軽減ブレーキの制御を行う。運転支援部112は、第1物体の方の距離が短い場合、物体検出センサ20を用いて算出された情報(距離あるいは相対速度)を用いて衝突被害軽減ブレーキの制御を行い、第2物体の方の距離が短い場合には、通信部28を用いて算出された情報(距離あるいは相対速度)を用いて衝突被害軽減ブレーキの制御を行う。第1物体および第2物体の方位が異なる場合には、運転支援部112は、それぞれの物体から取得された情報に基づき、衝突被害軽減ブレーキの制御を行う。
以上で説明した本実施形態の運転支援装置100によれば、物体検出センサ20によって検出された第1物体の方位(第1方位)と通信部28によって通信した第2物体の方位(第2方位)との一致性だけではなく、第1物体と第2物体自体の同一性をも判定することによって、運転支援を行う際に用いる情報の取得先を特定する。そのため、適切な運転支援を行うことができる。特に、本実施形態では、物体検出センサ20として、単眼カメラ(前方カメラ221)を用いており、単眼カメラの画像座標系では、画像の中央部の方が端部よりもピクセルあたりの奥行きが大きくなる。そのため、自車両500に近い側と遠い側とで距離の誤差が異なり、画像の高さ方向から他車両までの距離を算出しようとしても正確な距離を算出することが困難である。そこで、本実施形態では、物体検出センサ20と通信部28とを用いて検出された物体の方位差が一致し、更に、物体も一致すると判断された場合には、画像ではなく車車間通信によって取得する位置情報から他車両までの距離を算出する。この結果、画像に基づき距離を算出するよりも正確に他車両までの距離を算出することができるので、運転支援を精度良く行うことができる。
また、本実施形態では、第1物体と第2物体との方位は同じであるものの、これらが同一のものではない場合には、第1物体と第2物体とのうち、自車両500との距離が近い方の物体を、衝突危険性が高い物体であると判断し、その物体から取得した情報に基づき運転支援を行う。そのため、自車両500との距離が近い方の物体が車車間通信手段を持たない場合であっても、その物体への衝突を避けるように衝突被害軽減ブレーキの制御を行うことができる。そのため、より適切に運転支援を行うことができる。
また、本実施形態では、第1物体の角度幅と第2物体の角度幅とに基づき、第1物体と第2物体との同一性を判断するので、容易にこれらの同一性を判断することができる。特に本実施形態では、物体検出センサ20として単眼カメラを用いており、単眼カメラでは、前述のとおり、第1物体までの正確な距離の測定が困難である。そこで、本実施形態では、画像において第1物体の横幅を直接測定することにより角度幅を求める。従って、簡易的な演算によって精度よく第1物体と第2物体の同一性を判定することができる。
B.他の実施形態:
(B−1)上記実施形態では、物体検出センサ20は、カメラECU22および前方カメラ221によって構成されるものとした。しかし、物体検出センサ20は、レーダECU21およびレーザレーダ211によって構成されてもよい。また、物体検出センサ20は、電波を射出し物標からの反射波を検出するミリ波レーダと、ミリ波レーダを制御するECUによって構成されてもよい。また、物体検出センサ20は、前方カメラ221、レーザレーダ211、ミリ波レーダのうち、少なくとも2つを備えるハイブリッドタイプのセンサとして構成されてもよい。各センサ(前方カメラ221、レーザレーダ211、ミリ波レーダ)とそれを制御するECUとは、それぞれ独立の装置として構成されていてもよいし、一体型の装置として構成されてもよい。
物体検出センサ20としてレーザレーダ211を用いた場合、運転支援装置100は、例えば、レーザの水平方向のスキャン範囲である放射状のスキャン範囲の中で、第1物体が存在する角度およびその範囲を特定することで、第1物体の方位および角度幅を求めることができる。物体検出センサ20としてミリ波レーダを用いた場合、運転支援装置100は、例えば、フロントバンパ520に配置された複数の受信アンテナによって受信する受信電力の位相差と方位との関係に基づき、受信電力が一定以上の方位を特定することで、第1物体の方位および角度幅を求めることができる。
運転支援装置100は、第1物体の方位および角度幅を算出する際に、前方カメラ221、レーザレーダ211、ミリ波レーダのうちの2以上の算出結果を組み合わせて、最終的な方位および角度幅を算出してもよい。例えば、これらのセンサを用いて算出された算出結果を平均化することにより、最終的な方位および角度幅を求めてもよい。また、各センサの算出結果に重みを与え、加重平均によって最終的な方位および角度幅を求めてもよい。この場合、例えば、重みの比を、「前方カメラ221:レーザレーダ211:ミリ波レーダ=3:2:1」のように設定することができる。この比は、各センサの測定精度に基づいて定めることが可能であり、測定精度の高いセンサほど、重みを大きくすることで、最終的に算出される方位および角度幅の精度を向上させることが可能である。
なお、レーザレーダ211を用いて第1物体の方位および角度幅を算出する場合には、運転支援装置100は、レーザレーダ211の取り付け位置を基準に、車車間通信によって取得された情報から第2物体の方位および角度幅を求めることが好ましい。また、ミリ波レーダを用いて第1物体の方位および角度幅を算出する場合には、運転支援装置100は、ミリ波レーダの取り付け位置を基準に、車車間通信によって取得された情報から第2物体の方位および角度幅を求めることが好ましい。このようにすることで、車車間通信に基づき算出した第2物体の方位および角度幅と、各センサを用いて検出した第1物体の方位および角度幅を、精度良く対比させることができる。
(B−2)上記実施形態では、通信部28は、車車間通信によって物体から情報を取得している。しかし、情報の取得方法は車車間通信に限られない。例えば、路車間通信や、無線LAN、スマートフォンを介した通信などによって物体から情報を取得してもよい。
(B−3)上記実施形態では、図4に示したように、方位判定部110は、画像の中心線CLから第1物体の中心までの距離および向きを、第1物体の方位として算出している。しかし、方位判定部110は、第1物体の方位として、画像の中心線CLから第1物体の右端または左端までの距離および向きを算出してもよい。また、方位判定部110は、中心線CLから第1物体の中心までの距離および向きに基づく方位と、中心線CLから第1物体の右端までの距離および向きに基づく方位と、中心線CLから第1物体の左端までの距離および向きに基づく方位と、に基づいて算出された方位差のうち、少なくとも1つが閾値以内であれば、第2物体と方位が一致すると判断してもよい。
(B−4)上記実施形態において、第1物体と第2物体の方位が一致するか否かの判断基準となる方位差の閾値は、第1物体が検出された画像上のエリアに応じて変更してもよい。例えば、前方カメラ221のレンズの特性上、画像の中央部よりも画像の周辺部(広角領域)の方が方位の精度が低くなる可能性がある。そのため、画像の周辺部から検出された物体については、画像の中央部から検出された物体よりも、方位差の閾値を大きくしてもよい。
(B−5)上記実施形態において、図3に示した処理を繰り返し実行している場合に、同一性判定部111によって一旦、同一と判定された第1物体および第2物体同士に適用される方位差の閾値は、当初の閾値よりも大きくしてもよい。こうすることにより、瞬間的な方位ずれに対するロバスト性を向上させることができる。また、第1物体および第2物体同士が同一と判定された頻度に基づいて、閾値を可変させてもよい。例えば、同一と判定された頻度が低い場合は、閾値を小さく設定し、同一と判定され頻度が高い場合は、閾値を大きく設定してもよい。こうすることによっても、瞬間的な方位ずれに対するロバスト性を向上させることができる。
(B−6)上記実施形態では、同一性判定部111は、第1物体および第2物体の角度幅に基づいて、これらの同一性を判断している。しかし、同一性の判断手法はこれに限られない。例えば、同一性判定部111は、物体の高さ、色、形状、ナンバー(車番)に基づいて、同一性を判断してもよい。もちろん、これらの要素を複数組み合わせて同一性を判断してもよい。
(B−7)上記実施形態において、同一性判定部111が物体同士の同一性を判断するために用いる角度幅の差の基準値は、固定値でなくてもよい。例えば、同一性判定部111は、角度幅に応じて線形もしくは非線形に変化する基準値を用いて同一性を判断してもよい。また、例えば、同一性判定部111は、許容可能な横幅の差を記憶しておき、その横幅の差を角度幅の差に換算することによって基準値を求めてもよい。また、第1物体および第2物体同士が同一と判定された頻度に基づいて、基準値を可変させてもよい。
(B−8)上記実施形態において、図3に示した処理フローのステップS50において、同一性判定部111が、第1物体と第2物体とが同一であると判断した場合であっても、ステップS80において、運転支援部112は、ステップS60において車車間通信によって取得した情報だけに限らず、物体検出センサ20を用いて取得した情報(例えば、物体の色や形状等)も用いて運転支援を行ってもよい。また、例えば、通信部28を用いて情報を取得するよりも、物体検出センサ20を用いて情報を取得する方が、情報の取得周期が短い場合、物体検出センサ20を用いてその情報を取得し、運転支援を行ってもよい。
(B−9)上記実施形態では、運転支援部112は、他車両までの距離に応じて、制動支援装置31を用いた衝突被害軽減ブレーキの制御を行う。これに対して、運転支援部112は、運転支援として、衝突被害軽減ブレーキ以外の運転支援を行ってもよい。例えば、運転支援部112は、他車両までの距離に応じて、定速走行・車間距離制御(ACC:アダプティブ・クルーズ・コントロール)を行ってもよいし、他車両までの距離に応じて、報知器40を用いた衝突危険性の警告を行ってもよい。また、運転支援部112は、第1物体と第2物体とが同一であると判定された場合に情報を取得する先を、運転支援の内容に応じて、第1物体と第2物体とから選択してもよい。例えば、衝突被害軽減ブレーキの制御では、物体検出センサ20によって検出された第1物体から情報を取得してもよいし、定速走行・車間距離制御では、通信部28によって検出された第2物体から情報を取得してもよい。
(B−10)上記実施形態において、図3に示した処理を繰り返し実行している場合に、同一性判定部111によって、第1物体および第2物体が同一と判定された頻度に基づいて、運転支援部112は、運転支援に利用する情報の重みを変更してもよい。例えば、運転支援部112は、同一物体と判定された頻度が多いほど、通信部28を用いて取得した第2物体の情報の重みを、物体検出センサ20を用いて取得した第1物体の情報の重みよりも大きくしてもよい。また、同一性判定部111によって算出された角度幅の差と基準値の乖離度に応じて、運転支援部112は、運転支援に利用する情報の重みを変更してもよい。例えば、角度幅の差と基準値との差が小さいほど、通信部28を用いて取得した第2物体の情報の重みを、物体検出センサ20を用いて取得した第1物体の情報の重みよりも大きくしてもよい。
(B−11)上記実施形態では、図3に示したステップS70において、運転支援部112は、第1物体と第2物体とのうち、自車両500までの距離が短い方の物体の情報を取得している。これに対して、運転支援部112は、距離の長短ではなく、これらの距離の差が一定値以上か否かに基づき、情報を取得する対象の物体を選択してもよい。例えば、物体検出センサ20を用いて測定した距離が10m以上、通信部28を用いて測定した距離よりも短い場合は、運転支援部112は、物体検出センサ20を用いて第1物体の情報を取得してもよい。この場合、距離の差と対比する値は、固定値でなくてもよく、例えば、過去に同一と判定された頻度や、測定された距離に応じて可変させてもよい。また、距離の差と対比する値は、運転支援の内容に応じて可変させてもよい。なお、上記実施形態では、自車両500と第1物体あるいは第2物体との距離として、ユークリッド距離を算出しているが、これらの距離として、車両500の進行方向TDに沿った距離を算出してもよい。車両500の進行方向TDに沿った距離とは、XY座標系において車両500の進行方向が+Y方向である場合において、車両500と第1物体あるいは第2物体とのY方向における間隔である。
(B−12)上記実施形態では、運転支援部112は、図3に示したステップS70において、自車両500までの距離が近い物体を衝突可能性が高いと判断している。これに対して、運転支援部112は、自車両500までの距離ではなく、自車両500と物体との相対速度や衝突余裕時間を算出し、これらに基づいて、衝突可能性を判断してもよい。例えば、衝突余裕時間を用いる場合、運転支援部112は、衝突余裕時間が短い物体を、衝突可能性が高いと判断する。
本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、上記実施形態中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
10 運転支援システム、20 物体検出センサ、28 通信部、110 方位判定部、111 同一性判定部、112 運転支援部、500 自車両

Claims (6)

  1. 自車両(500)に搭載される運転支援システム(10)であって、
    前記自車両の前方に存在する第1物体を検出可能な物体検出センサ(20)と、
    前記自車両の周囲に存在する第2物体と通信可能な通信部(28)と、
    前記物体検出センサによって検出された前記第1物体への前記自車両からの第1方位と、前記通信部によって通信した前記第2物体への前記自車両からの第2方位とが、同じ方位であるか否かを判定する方位判定部(110)と、
    前記第1方位と前記第2方位とが同じ方位である場合、前記第1物体と前記第2物体とが同一の物体であるか否かを、前記物体検出センサおよび前記通信部によって取得された情報に基づき判定する同一性判定部(111)と、
    前記第1物体と前記第2物体とが同一の物体と判定された場合、前記第1物体と前記第2物体とのうち、予め定められた方の物体から取得された情報に基づき運転支援を行う運転支援部(112)と、
    を備える運転支援システム。
  2. 請求項1に記載の運転支援システムであって、
    前記運転支援部は、前記第1物体と前記第2物体とが同一の物体ではないと判定された場合、前記第1物体と前記第2物体とのうち、前記自車両に対して衝突可能性の高い方の物体から取得された情報に基づき前記運転支援を行う、運転支援システム。
  3. 請求項2に記載の運転支援システムであって、
    前記運転支援部は、前記第1物体と前記第2物体とのうち、前記自車両との距離が近い方の物体を、衝突危険性が高い方の物体であると判断する、運転支援システム。
  4. 請求項1から請求項3までのいずれか一項に記載の運転支援システムであって、
    前記運転支援部は、前記第1物体と前記第2物体とが同一の物体と判定された場合、前記第2物体から前記通信部を用いて取得された情報に基づき前記運転支援を行う、運転支援システム。
  5. 請求項1から請求項4までのいずれか一項に記載の運転支援システムであって、
    前記同一性判定部は、前記自車両から見た前記第1物体の角度幅を前記物体検出センサを用いて求め、前記自車両から見た前記第2物体の角度幅を前記通信部により取得された情報を用いて求め、前記第1物体の角度幅と前記第2物体の角度幅とに基づき、前記第1物体と前記第2物体とが同一の物体であるか否かを判定する、運転支援システム。
  6. 自車両に搭載される運転支援システムが実行する方法であって、
    前記自車両の前方に存在する第1物体を、物体検出センサを用いて検出し、
    前記自車両の周囲に存在する第2物体と、通信部によって通信し、
    前記物体検出センサによって検出された前記第1物体への前記自車両からの第1方位と、前記通信部によって通信した前記第2物体への前記自車両からの第2方位とが、同じ方位であるか否かを判定し、
    前記第1方位と前記第2方位とが同じ方位である場合、前記第1物体と前記第2物体とが同一の物体であるか否かを、前記物体検出センサおよび前記通信部によって取得された情報に基づき判定し、
    前記第1物体と前記第2物体とが同一の物体と判定された場合、前記第1物体と前記第2物体とのうち、予め定められた方の物体から取得された情報に基づき運転支援を行う、
    方法。
JP2018078918A 2018-04-17 2018-04-17 運転支援システムおよび方法 Active JP6927132B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018078918A JP6927132B2 (ja) 2018-04-17 2018-04-17 運転支援システムおよび方法
PCT/JP2019/016022 WO2019203160A1 (ja) 2018-04-17 2019-04-12 運転支援システムおよび方法
US17/072,387 US11713039B2 (en) 2018-04-17 2020-10-16 Driving support system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018078918A JP6927132B2 (ja) 2018-04-17 2018-04-17 運転支援システムおよび方法

Publications (3)

Publication Number Publication Date
JP2019185640A true JP2019185640A (ja) 2019-10-24
JP2019185640A5 JP2019185640A5 (ja) 2020-07-16
JP6927132B2 JP6927132B2 (ja) 2021-08-25

Family

ID=68239147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018078918A Active JP6927132B2 (ja) 2018-04-17 2018-04-17 運転支援システムおよび方法

Country Status (3)

Country Link
US (1) US11713039B2 (ja)
JP (1) JP6927132B2 (ja)
WO (1) WO2019203160A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7514139B2 (ja) 2020-03-06 2024-07-10 株式会社Subaru 車外環境認識装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7243227B2 (ja) * 2019-01-29 2023-03-22 トヨタ自動車株式会社 車両制御装置
US11875611B2 (en) * 2021-08-03 2024-01-16 GM Global Technology Operations LLC Remote observation and reporting of vehicle operating condition via V2X communication

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006154967A (ja) * 2004-11-25 2006-06-15 Nissan Motor Co Ltd リスク最小軌跡生成装置およびこれを用いた危険状況警報装置
WO2012059973A1 (ja) * 2010-11-01 2012-05-10 株式会社日立製作所 車載装置および制御方法
JP2013168019A (ja) * 2012-02-15 2013-08-29 Denso Corp 車両用装置、及び車両用システム
JP2014160419A (ja) * 2013-02-20 2014-09-04 Denso Corp 周辺車両識別システム、特徴量送信装置、及び周辺車両識別装置
WO2016194297A1 (ja) * 2015-06-03 2016-12-08 株式会社デンソー 車載装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4918807B2 (ja) 2006-04-06 2012-04-18 トヨタ自動車株式会社 車両位置演算装置、車両選定方法
US8504233B1 (en) * 2012-04-27 2013-08-06 Google Inc. Safely navigating on roads through maintaining safe distance from other vehicles
JP6677513B2 (ja) * 2016-01-07 2020-04-08 シャープ株式会社 自律走行装置
JP6867184B2 (ja) * 2017-02-13 2021-04-28 トヨタ自動車株式会社 運転支援装置
JP6766783B2 (ja) * 2017-08-31 2020-10-14 トヨタ自動車株式会社 車両制御装置
KR20170124979A (ko) * 2017-10-10 2017-11-13 현대자동차주식회사 차량, 차량의 통신 방법 및 차량에 포함된 무선 통신 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006154967A (ja) * 2004-11-25 2006-06-15 Nissan Motor Co Ltd リスク最小軌跡生成装置およびこれを用いた危険状況警報装置
WO2012059973A1 (ja) * 2010-11-01 2012-05-10 株式会社日立製作所 車載装置および制御方法
JP2013168019A (ja) * 2012-02-15 2013-08-29 Denso Corp 車両用装置、及び車両用システム
JP2014160419A (ja) * 2013-02-20 2014-09-04 Denso Corp 周辺車両識別システム、特徴量送信装置、及び周辺車両識別装置
WO2016194297A1 (ja) * 2015-06-03 2016-12-08 株式会社デンソー 車載装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7514139B2 (ja) 2020-03-06 2024-07-10 株式会社Subaru 車外環境認識装置

Also Published As

Publication number Publication date
JP6927132B2 (ja) 2021-08-25
US20210031763A1 (en) 2021-02-04
WO2019203160A1 (ja) 2019-10-24
US11713039B2 (en) 2023-08-01

Similar Documents

Publication Publication Date Title
US11454525B2 (en) Vehicle sensor field calibration utilizing other vehicles
US10919525B2 (en) Advanced driver assistance system, vehicle having the same, and method of controlling the vehicle
US9914463B2 (en) Autonomous driving device
JP6344275B2 (ja) 車両制御装置
JP6269606B2 (ja) 車両制御装置
US9150223B2 (en) Collision mitigation apparatus
US11772655B2 (en) Advanced driver assistance system, vehicle having the same, and method of controlling vehicle
US9896098B2 (en) Vehicle travel control device
US20190071071A1 (en) Vehicle control device, vehicle control method, and storage medium
US20190073540A1 (en) Vehicle control device, vehicle control method, and storage medium
WO2011086661A1 (ja) 衝突位置予測装置
JP2016517106A (ja) 自動車の自動運行システム
US11713039B2 (en) Driving support system and method
JP2017074823A (ja) 車線変更支援装置
JP2008204281A (ja) 物体検出装置、および車車間通信システム
KR20200139443A (ko) 운전자 보조 시스템 및 그 제어 방법
JP2019002691A (ja) 物標情報取得装置
US11347216B2 (en) Remote parking system
KR20220119229A (ko) 운전자 보조 시스템 및 그를 가지는 차량
KR20210114689A (ko) 차량 및 그 제어 방법
US20180158336A1 (en) Method and device for operating a vehicle
JP6558261B2 (ja) 自動運転装置
WO2020137747A1 (ja) 運転支援装置
US20190315349A1 (en) Collision determination apparatus and method
US11548504B2 (en) Driver assistance system and control method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200608

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210719

R151 Written notification of patent or utility model registration

Ref document number: 6927132

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151