JP7321277B2 - 運転支援装置、車両制御装置、運転支援システム、及び運転支援方法 - Google Patents

運転支援装置、車両制御装置、運転支援システム、及び運転支援方法 Download PDF

Info

Publication number
JP7321277B2
JP7321277B2 JP2021545043A JP2021545043A JP7321277B2 JP 7321277 B2 JP7321277 B2 JP 7321277B2 JP 2021545043 A JP2021545043 A JP 2021545043A JP 2021545043 A JP2021545043 A JP 2021545043A JP 7321277 B2 JP7321277 B2 JP 7321277B2
Authority
JP
Japan
Prior art keywords
vehicle
information
travel route
unit
collision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021545043A
Other languages
English (en)
Other versions
JPWO2021048966A1 (ja
Inventor
崇成 竹原
佑太 和田
國雄 上田
悠司 濱田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2021048966A1 publication Critical patent/JPWO2021048966A1/ja
Application granted granted Critical
Publication of JP7321277B2 publication Critical patent/JP7321277B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096791Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is another vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0953Predicting travel path or likelihood of collision the prediction being responsive to vehicle dynamic parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096833Systems involving transmission of navigation instructions to the vehicle where different aspects are considered when computing the route
    • G08G1/096844Systems involving transmission of navigation instructions to the vehicle where different aspects are considered when computing the route where the complete route is dynamically recomputed based on new data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/46Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4048Field of view, e.g. obstructed view or direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Atmospheric Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Description

本願は、運転支援装置、車両制御装置、運転支援システム、及び運転支援方法に関する。
従来の運転支援システムとして、車車間通信(以下、V2V通信という)を利用し、自車両のカメラでは得られない映像を周辺車両から得るようにしたものがある。V2V通信によれば、渋滞の先頭車両のカメラ映像を後続車両において見ることができたり、先行車の死角となった箇所を後続車両の映像によって確認することができたりする。例えば非特許文献1には、先行車に搭載されたカメラの映像を後続車両で受信し、あたかも先行車が透けていなくなるかのような映像を後続車両の運転者に提供することが記載されている。
Car Watch記事、[CEATEC 2018]ヴァレオ、クルマが透ける「エクストラビュー」技術を日本初公開。スケ具合も原理的に調整可能https://car.watch.impress.co.jp/docs/news/1147942.html
しかしながら、V2V通信を利用した運転支援システムでは、車両の位置情報、操作情報、及び映像等を車両と車両の間で直接送受信するため、各々の車両における演算処理の負荷が高くなるという問題があった。このため、従来の運転支援システムでは、対象車両の走行経路及び操作情報に細やかに対応した運転支援を行うことは困難であった。
本願は、上記のような課題を解決するための技術を開示するものであり、対象車両の走行経路及び操作情報に対応した運転支援を行うことが可能な運転支援装置を得ることを目的とする。
また、対象車両の走行経路及び操作情報に対応した運転支援を行うことが可能な運転支援装置を備えた車両制御装置及び運転支援システムを得ることを目的とする。さらに、対象車両の走行経路及び操作情報に対応した運転支援を行うことが可能な運転支援方法を提供することを目的とする。
本願に開示される運転支援装置は、対象車両及び対象車両の周辺を走行する周辺車両と通信し、対象車両の運転支援を実行する運転支援装置であって、対象車両の位置情報と操作情報とを含む第1の車両情報、周辺車両の位置情報と操作情報とを含む第2の車両情報、及び周辺車両のカメラで撮影された映像を受信する受信部と、第1の車両情報に基づいて対象車両の走行経路を求める走行経路演算部と、少なくとも第1の車両情報、第2の車両情報、及び走行経路に基づいて運転支援情報を決定する入力情報決定部と、入力情報決定部で決定された運転支援情報を対象車両に送信する送信部と、周辺車両から取得した映像及び走行経路に基づいて走行経路に存在する物体を認識する物体識別部と、第1の車両情報、第2の車両情報、映像、及び走行経路に基づいて対象車両と物体との衝突の可能性の有無と衝突の種類とを判定する衝突判定部と、衝突判定部で物体との衝突の可能性有りと判定された場合に対象車両に警告メッセージを送信する警告通知部とを備え、入力情報決定部は、運転支援に利用される映像を撮影可能な位置にある周辺車両の選択を行い、選択された周辺車両から取得した映像を運転支援情報とし、衝突判定部で物体との衝突の可能性有りと判定された場合に、衝突の種類に基づいて選択を行うものである。
また、本願に開示される運転支援装置は、対象車両に搭載され、対象車両の周辺を走行する周辺車両と通信し、対象車両の運転支援を実行する運転支援装置であって、周辺車両の位置情報と操作情報とを含む第2の車両情報、及び周辺車両のカメラで撮影された映像を受信する受信部と、対象車両の位置情報と操作情報とを含む第1の車両情報に基づいて対象車両の走行経路を求める走行経路演算部と、少なくとも第1の車両情報、第2の車両情報、及び走行経路に基づいて運転支援情報を決定する入力情報決定部と、周辺車両から取得した映像及び走行経路に基づいて走行経路に存在する物体を認識する物体識別部と、第1の車両情報、第2の車両情報、映像、及び走行経路に基づいて対象車両と物体との衝突の可能性の有無と衝突の種類とを判定する衝突判定部と、衝突判定部で物体との衝突の可能性有りと判定された場合に対象車両に警告メッセージを送信する警告通知部とを備え、入力情報決定部は、運転支援に利用される映像を撮影可能な位置にある周辺車両の選択を行い、選択された周辺車両から取得した映像を運転支援情報とし、衝突判定部で物体との衝突の可能性有りと判定された場合に、衝突の種類に基づいて選択を行うものである。
また、本願に開示される車両制御装置は、対象車両に搭載され対象車両の周辺を走行する周辺車両と通信し対象車両の運転支援を実行する運転支援装置と、対象車両を制御する制御部とを備えた車両制御装置であって、運転支援装置は、周辺車両の位置情報と操作情報とを含む第2の車両情報、及び周辺車両のカメラで撮影された映像を受信する受信部と、対象車両の位置情報と操作情報とを含む第1の車両情報に基づいて対象車両の走行経路を求める走行経路演算部と、少なくとも第1の車両情報、第2の車両情報、及び走行経路に基づいて運転支援情報を決定する入力情報決定部と、周辺車両から取得した映像及び走行経路に基づいて走行経路に存在する物体を認識する物体識別部と、第1の車両情報、第2の車両情報、映像、及び走行経路に基づいて対象車両と物体との衝突の可能性の有無と衝突の種類とを判定する衝突判定部と、衝突判定部で物体との衝突の可能性有りと判定された場合に対象車両に警告メッセージを送信する警告通知部とを備え、入力情報決定部は、運転支援に利用される映像を撮影可能な位置にある周辺車両の選択を行い、選択された周辺車両から取得した映像を運転支援情報とし、衝突判定部で物体との衝突の可能性有りと判定された場合に、衝突の種類に基づいて選択を行うものであり、制御部は、入力情報決定部で決定された運転支援情報に基づいて対象車両を制御するものである。
また、本願に開示される運転支援システムは、対象車両及び対象車両の周辺を走行する周辺車両と通信し対象車両の運転支援を実行する運転支援装置を含む運転支援システムであって、運転支援装置は、対象車両の位置情報と操作情報とを含む第1の車両情報、周辺車両の位置情報と操作情報とを含む第2の車両情報、及び周辺車両のカメラで撮影された映像を受信する受信部と、第1の車両情報に基づいて対象車両の走行経路を求める走行経路演算部と、少なくとも第1の車両情報、第2の車両情報、及び走行経路に基づいて運転支援情報を決定する入力情報決定部と、入力情報決定部で決定された運転支援情報を対象車両に送信する送信部と、周辺車両から取得した映像及び走行経路に基づいて走行経路に存在する物体を認識する物体識別部と、第1の車両情報、第2の車両情報、映像、及び走行経路に基づいて対象車両と物体との衝突の可能性の有無と衝突の種類とを判定する衝突判定部と、衝突判定部で物体との衝突の可能性有りと判定された場合に対象車両に警告メッセージを送信する警告通知部とを備え、入力情報決定部は、運転支援に利用される映像を撮影可能な位置にある周辺車両の選択を行い、選択された周辺車両から取得した映像を運転支援情報とし、衝突判定部で物体との衝突の可能性有りと判定された場合に、衝突の種類に基づいて選択を行うものであり、対象車両には、第1の車両情報を運転支援装置に送信する第1の車両情報送信部と、入力情報決定部で決定された運転支援情報を受信する受信部とを備え、周辺車両には、第2の車両情報を運転支援装置に送信する第2の車両情報送信部と、カメラで撮影された映像を運転支援装置に送信する映像送信部とを備えたものである。
また、本願に開示される運転支援システムは、対象車両に搭載され対象車両の周辺を走行する周辺車両と通信し対象車両の運転支援を実行する運転支援装置を含む運転支援システムであって、運転支援装置は、周辺車両の位置情報と操作情報とを含む第2の車両情報、及び周辺車両のカメラで撮影された映像を受信する受信部と、対象車両の位置情報と操作情報とを含む第1の車両情報に基づいて対象車両の走行経路を求める走行経路演算部と、少なくとも第1の車両情報、第2の車両情報、及び走行経路に基づいて運転支援情報を決定する入力情報決定部と、周辺車両から取得した映像及び走行経路に基づいて走行経路に存在する物体を認識する物体識別部と、第1の車両情報、第2の車両情報、映像、及び走行経路に基づいて対象車両と物体との衝突の可能性の有無と衝突の種類とを判定する衝突判定部と、衝突判定部で物体との衝突の可能性有りと判定された場合に対象車両に警告メッセージを送信する警告通知部とを備え、入力情報決定部は、運転支援に利用される映像を撮影可能な位置にある周辺車両の選択を行い、選択された周辺車両から取得した映像を運転支援情報とし、衝突判定部で物体との衝突の可能性有りと判定された場合に、衝突の種類に基づいて選択を行うものであり、周辺車両には、第2の車両情報を運転支援装置に送信する車両情報送信部と、カメラで撮影された映像を運転支援装置に送信する映像送信部とを備えたものである。
また、本願に開示される運転支援方法は、対象車両の運転支援を実行する運転支援装置における運転支援方法であって、対象車両の位置情報と操作情報とを含む第1の車両情報、対象車両の周辺を走行する周辺車両の位置情報と操作情報とを含む第2の車両情報、及び周辺車両のカメラで撮影された映像を取得する第1のステップと、第1の車両情報に基づいて対象車両の走行経路を求める第2のステップと、少なくとも第1の車両情報、第2の車両情報、及び走行経路に基づいて運転支援情報を決定する第3のステップと、周辺車両から取得した映像及び走行経路に基づいて走行経路に存在する物体を認識し、第1の車両情報、第2の車両情報、映像、及び走行経路に基づいて対象車両と物体との衝突の可能性の有無と衝突の種類とを判定する第4のステップと、第4のステップで物体との衝突の可能性有りと判定された場合に対象車両に警告メッセージを送信する第5のステップとを含み、第3のステップにおいて、運転支援に利用される映像を撮影可能な位置にある周辺車両の選択を行い、選択された周辺車両から取得した映像を運転支援情報とし、物体との衝突の可能性有りと判定された場合に、衝突の種類に基づいて選択を行うものである。

本願に開示される運転支援装置及び運転支援システムによれば、第1の車両情報、第2の車両情報、及び走行経路に基づいて運転支援に利用される映像を撮影可能な位置にある周辺車両の選択を行い、選択された周辺車両から取得した映像を運転支援情報として対象車両に送信するようにしたので、対象車両の走行経路及び操作情報に対応した運転支援を行うことが可能である。
本願に開示される運転支援装置及び運転支援システムによれば、第1の車両情報、第2の車両情報、及び走行経路に基づいて運転支援に利用される映像を撮影可能な位置にある周辺車両の選択を行い、選択された周辺車両から取得した映像を運転支援情報としているので、対象車両の走行経路及び操作情報に対応した運転支援を行うことが可能である。
本願に開示される車両制御装置によれば、第1の車両情報、第2の車両情報、及び走行経路に基づいて運転支援に利用される映像を撮影可能な位置にある周辺車両の選択を行い、選択された周辺車両から取得した映像を含む運転支援情報に基づいて対象車両を制御するようにしたので、対象車両の走行経路及び操作情報に対応した制御を行うことが可能である。
本願に開示される運転支援方法によれば、第1の車両情報、第2の車両情報、及び走行経路に基づいて運転支援に利用される映像を撮影可能な位置にある周辺車両の選択を行い、選択された周辺車両から取得した映像を運転支援情報としているので、対象車両の走行経路及び操作情報に対応した運転支援を行うことが可能である
本願の上記以外の目的、特徴、観点及び効果は、図面を参照する以下の詳細な説明から、さらに明らかになるであろう。
実施の形態1における運転支援システムの構成を示すブロック図である。 実施の形態1における運転支援装置の入力情報決定部の構成を示すブロック図である。 実施の形態1における運転支援装置のハードウエア構成例を示す図である。 実施の形態1における運転支援装置による処理の全体の流れを説明する図である。 実施の形態1における運転支援装置による選択処理の流れを説明する図である。 実施の形態1における追い越し警告の例を説明する図である。 実施の形態1における前方衝突警告の例を説明する図である。 実施の形態1における右折支援の例を説明する図である。 実施の形態1における死角警告の例を説明する図である。 実施の形態1における歩行者との衝突の例を説明する図である。 実施の形態1における高速合流支援の例を説明する図である。 実施の形態2における追い越し警告の例を説明する図である。 実施の形態2における運転支援装置による選択処理の流れを説明する図である。 実施の形態2における運転支援装置による選択処理の流れを説明する図である。 実施の形態3における運転支援装置の入力情報決定部の構成を示すブロック図である。 実施の形態3における運転支援装置の先読み判断部を説明する図である。 実施の形態4における運転支援装置の入力情報決定部の構成を示すブロック図である。 実施の形態4における運転支援装置の特殊イベント検知部を説明する図である。 実施の形態4における運転支援装置による選択処理の流れを説明する図である。 実施の形態5における運転支援装置の構成を示すブロック図である。 実施の形態5における運転支援装置の走行経路形状検出部による処理の流れを説明する図である。 実施の形態6における運転支援装置の構成を示すブロック図である。 実施の形態6における高速合流の例を説明する図である。 実施の形態6における高速合流の例を説明する図である。 実施の形態6における運転支援装置の合流検出部による処理の流れを説明する図である。 実施の形態7における運転支援装置の構成を示すブロック図である。 実施の形態7における運転支援装置の車線検出部を説明する図である。 実施の形態7における運転支援装置の車線検出部による処理の流れを説明する図である。 実施の形態7における運転支援装置の車群生成部による処理の流れを説明する図である。 実施の形態8における運転支援装置の構成を示すブロック図である。 実施の形態8における運転支援装置の周辺車両検出部を説明する図である。 実施の形態8における運転支援装置の入力情報決定部による処理の流れを説明する図である。 実施の形態8における運転支援装置の周辺情報検出部による処理の流れを説明する図である。 実施の形態9における運転支援システムの構成を示すブロック図である。 実施の形態9における運転支援装置による処理の全体の流れを説明する図である。
実施の形態1.
以下に、実施の形態1における運転支援装置及びこれを備えた運転支援システムについて、図面に基づいて説明する。図1は実施の形態1における運転支援システムの構成を示すブロック図、図2は実施の形態1における運転支援装置の入力情報決定部の構成を示すブロック図、図3は実施の形態1における運転支援装置のハードウエア構成例を示す図である。なお、各図において図中、同一、相当部分には同一符号を付している。
実施の形態1における運転支援システム300は、対象車両1及び対象車両1の周辺を走行する周辺車両2と通信し、対象車両1の運転支援を実行する運転支援装置100を備えている。運転支援システム300は、対象車両1に備えられた第1の車両情報送信部である車両情報送信部11、警告受信部12、運転支援情報受信部13、及び表示部14を含み、さらに、周辺車両2に備えられたカメラ21、映像送信部22、及び第2の車両情報送信部である車両情報送信部23を含む。
なお、図示は省略しているが、対象車両1は周辺車両2と同様に、カメラ及び映像送信部を備えており、周辺車両2も対象車両1と同様に、警告受信部、運転支援情報受信部、及び表示部を備えている。すなわち、対象車両1と周辺車両2は互いに入れ替え可能であり、周辺車両2を運転支援の対象とすることもできる。また、図1では、周辺車両2を1つ示しているが、周辺車両2の数は特に限定されるものではなく、道路の状況によって複数台となる。
対象車両1の車両情報送信部11は、対象車両1の位置情報と操作情報とを含む第1の車両情報を運転支援装置100に送信する。車両情報送信部11は、GPS(Global Positioning System)等から位置情報を取得する。第1の車両情報には、対象車両1の緯度情報及び経度情報、速度情報、加速度情報、方位情報、ウィンカの情報、ハンドル操作情報、及びブレーキ制御情報等の一部または全部が含まれる。
警告受信部12は、運転支援装置100の警告通知部107から送信された警告メッセージを受信する。受信部である運転支援情報受信部13は、運転支援装置100の運転支援情報送信部108から送信された運転支援情報を受信する。表示部14は、運転支援情報に含まれる映像及び警告メッセージ等を表示する。
周辺車両2の車両情報送信部23は、周辺車両2の位置情報と操作情報とを含む第2の車両情報を運転支援装置100に送信する。第2の車両情報には、周辺車両2の緯度情報及び経度情報、速度情報、加速度情報、方位情報等が含まれる。映像送信部22は、周辺車両2のカメラ21で撮影された映像を運転支援装置100に送信する。周辺車両2には複数台のカメラ21が搭載され、少なくとも前方及び後方の所定範囲の映像が撮影される。
運転支援装置100は、受信部である車両情報受信部101及び映像受信部102、走行経路演算部103、入力情報決定部104、物体識別部105、衝突判定部106、警告通知部107、及び送信部である運転支援情報送信部108を含む。
車両情報受信部101は、車両情報送信部11から送信された第1の車両情報、及び車両情報送信部23から送信された第2の車両情報を受信する。映像受信部102は、周辺車両2のカメラ21で撮影され映像送信部22から送信された映像を受信する。第1の車両情報、第2の車両情報、及び映像は、運転支援装置100の車両情報リスト(図示省略)に記録及び保存される。走行経路演算部103は、第1の車両情報に基づいて対象車両1の走行経路を求める。
入力情報決定部104は、少なくとも第1の車両情報、第2の車両情報、及び走行経路演算部103で求められた走行経路に基づいて運転支援情報を決定する。入力情報決定部104は、運転支援に利用される映像を撮影可能な位置にある周辺車両2の選択を行い(この処理を選択処理という)、選択された周辺車両2から取得した映像を運転支援情報とする。
運転支援に利用される映像とは、対象車両1のカメラでは撮影できない映像であり、具体的には、対象車両1の前方車両よりもさらに前方の映像、対象車両1の後方車両よりもさらに後方の映像、及び対象車両1の右左折時の死角となる領域の映像等である。これらの領域に存在する物体(車両、二輪車、歩行者等)は、対象車両1のカメラでは撮影できないことが多く、対象車両1の運転者から認知しづらい。
物体識別部105は、周辺車両2から取得した映像及び走行経路演算部103で求められた走行経路に基づいて走行経路に存在する物体を認識する。物体識別部105が認識する物体には、走行経路を走行する周辺車両2、走行経路の対向車線を走行する対向車両、走行経路の周辺に存在する物体及び歩行者等が含まれる。
物体識別部105において認識された物体の情報は、衝突判定部106に入力される。衝突判定部106は、第1の車両情報、第2の車両情報、周辺車両2から取得した映像、及び走行経路に基づいて対象車両1と物体との衝突の可能性の有無と衝突の種類とを判定する。衝突判定部106における判定結果は、入力情報決定部104に入力される。入力情報決定部104は、衝突判定部106で物体との衝突の可能性有りと判定された場合に、衝突の種類に基づいて選択処理を行う。
また、図2に示すように、入力情報決定部104は車群生成部111を含む。車群生成部111は、第1の車両情報、第2の車両情報、及び走行経路に基づいて対象車両1の前方または後方を走行する1台以上の周辺車両2を含む車群3を生成する。車群3は、対象車両1を含んでいてもよく(図10参照)、含んでいなくてもよい(図6参照)。また、交差点等においては対向車両2E、2Fを含む場合もある(図8参照)。
入力情報決定部104は、車群生成部111で生成された車群3に含まれる周辺車両2を選択処理における選択の対象とする。実施の形態1では、車群生成部111は、衝突判定部106で物体との衝突の可能性有りと判定された場合に、衝突の種類に基づいて車群3を生成する。
警告通知部107は、衝突判定部106で物体との衝突の可能性有りと判定された場合に、対象車両1に警告メッセージを送信する。運転支援情報送信部108は、入力情報決定部104で決定された運転支援情報を対象車両1に送信する。送信された運転支援情報に含まれる映像は、対象車両1の表示部14に表示される。
なお、運転支援情報は、周辺車両2から取得した映像のみならず、走行経路に関わる他の情報を含んでいてもよい。例えば、周辺車両2のセンサ(図示省略)で検知した物体情報(物体の位置、物体までの距離、衝突までの時間)、運転支援装置100が外部から取得した走行経路における事故または通行止め等の情報等を含んでいてもよい。
運転支援装置100は、例えば基地局に設置されたサーバであり、具体的にはMEC(Mobile Edge Computing)等が用いられる。MECは、LTE(Long Term Evolution)または5Gネットワーク等において基地局のエッジ側に備えられるサーバであり、インターネットサーバに比べて低遅延である。
運転支援装置100のハードウエア構成例について、図3を用いて説明する。運転支援装置100は、プロセッサ130と記憶装置140から構成することができる。走行経路演算部103、入力情報決定部104、物体識別部105、及び衝突判定部106等の各機能は、処理回路で実行される。処理回路は、記憶装置140に格納されるプログラムを実行するプロセッサ130であってもよいし、専用のハードウエアであってもよい。
記憶装置140は、ランダムアクセスメモリ等の揮発性記憶装置と、フラッシュメモリ等の不揮発性の補助記憶装置とを具備する。また、フラッシュメモリの代わりにハードディスクの補助記憶装置を具備してもよい。プロセッサ130は、記憶装置140から入力されたプログラムを実行する。この場合、補助記憶装置から揮発性記憶装置を介してプロセッサ130にプログラムが入力される。また、プロセッサ130は、演算結果等のデータを記憶装置140の揮発性記憶装置に出力してもよいし、揮発性記憶装置を介して補助記憶装置にデータを保存してもよい。
また、対象車両1の警告受信部12及び運転支援情報受信部13、運転支援装置100の車両情報受信部101及び映像受信部102等は、受信装置で構成される。車両情報送信部11、23、警告通知部107、及び運転支援情報送信部108等は、送信装置で構成される。表示部14は、液晶表示装置等の表示装置で構成される。
運転支援装置100による運転支援方法は、以下の3つのステップを含んでいる。まず、第1のステップとして、対象車両1の位置情報と操作情報とを含む第1の車両情報、周辺車両2の位置情報と操作情報とを含む第2の車両情報、及び周辺車両2のカメラ21で撮影された映像を取得する。次に、第2のステップとして、第1の車両情報に基づいて対象車両1の走行経路を求める。
さらに、第3のステップとして、少なくとも第1の車両情報、第2の車両情報、及び走行経路に基づいて運転支援情報を決定する。この第3のステップにおいて、運転支援に利用される映像を撮影可能な位置にある周辺車両2の選択を行い、選択された周辺車両2から取得した映像を運転支援情報とする。
運転支援装置100による処理の全体の流れについて、図4のフローチャートを用いて説明する。まず、ステップS1において、対象車両1から第1の車両情報を取得し、続いてステップS2において、周辺車両2から第2の車両情報及び映像を取得する。次にステップS3において、該周辺車両2が既に登録済みか否か判定する。具体的には、ステップS2で取得した第2の車両情報を車両情報リストに照会し、紐付けを行う。
ステップS3において該周辺車両2が登録済みの場合(Yes)、ステップS4において車両情報リストを更新する。また、ステップS3において該周辺車両2が登録済みでない場合(No)、ステップS5において該周辺車両2の第2の車両情報を車両情報リストに登録する。
続いてステップS6において、入力情報決定部104は、対象車両1への入力情報を選択する。車群生成部111は、第1の車両情報、第2の車両情報、及び走行経路に基づいて車群3を生成する。車群3の生成方法としては、車両間の距離が予め設定された閾値(例えば10m)以内である場合、それらを一つの車群3とみなす。
ステップS6では、車群3を生成するだけであってもよいし、車群3に含まれる周辺車両2から取得した映像に物体が存在する場合、その映像を選択してもよい。ただし、ステップS6で選択された映像は、運転支援情報として決定されたものではない。
続いてステップS7において、衝突判定を実施する。衝突判定部106は、物体識別部105で認識された物体と対象車両1との衝突の可能性の有無と衝突の種類とを判定する。具体的には、対象車両1と物体とが衝突するまでの時間が予め設定された閾値(例えば5秒)以内の場合、衝突の可能性ありと判定する。
ステップS8において、衝突しないと判定した場合(No)、ステップS12において、車両情報リストに登録された車両情報を削除し、処理を終了する。ステップS8において、衝突の可能性ありと判定した場合(Yes)、ステップS9の選択処理において、対象車両1への入力情報を再選択する。ステップS8及びステップS9の処理については、図5のフローチャートで詳細に説明する。
次にステップS10において、ステップS9で選択された周辺車両2から映像を取得する。続いてステップS11において、対象車両1に該映像を含む運転支援情報及び警告メッセージを送信する。最後にステップS12において、車両情報リストの車両情報を削除して処理を終了する。
次に、ステップS8の衝突判定、及びステップS9の選択処理について、図5のフローチャートと図6から図11を用いて詳細に説明する。図6は追い越し警告(Do Not Pass Warning:以下、DNPWという)、図7は前方衝突警告(Foward Collision Warning:以下、FCWという)、図8は右折支援(Right Turn Assist:以下、RTAという)、図9は死角警告(Blind Spot Warning:以下、BSWという)、図10は歩行者との衝突警告、及び図11は高速合流支援、をそれぞれ説明する図である。
図6から図11では、道路4を走行する対象車両1及び周辺車両2(前方車両2A、2B、2C、対向車両2D、2E、2F、2G、後方車両2H、2J、2K、車両2L、2Mを含む)を三角形で示している。また、図6から図11に示される車群3の構成は一例であり、これに限定されるものではない。
図5のステップS7において衝突判定の実施が開始すると、ステップS8では、ステップS801からステップS806において衝突の種類の判定が行われる。さらに、ステップS9では、ステップS901からステップS905において、衝突の種類に基づいた選択処理が行われる。
まず、ステップS801において、衝突の種類がDNPWであるか否か判定する。DNPWであると判定した場合(Yes)、ステップS901において、入力情報決定部104は、前方車群の先頭車両の前方映像を選択する。
図6に示すDNPWの例では、道路4の車線41を走行する対象車両1が、前方車両2A、2B、2Cを追い抜こうとしている。しかし、すぐ前方の車群3が視界の妨げとなり、対象車両1の運転者は、対向車線42を走行している対向車両2Dを認知できない。一方、対向車両2Dは、前方車両2Aの前方カメラの撮影範囲5に入っている。このため、車群生成部111は、対象車両1の前方車両2A、2B、2Cを含む車群3を生成し、入力情報決定部104は、前方の車群3の先頭車両である前方車両2Aの前方映像を選択する。
ステップS801において、DNPWではないと判定した場合(No)、ステップS802において、衝突の種類がFCWであるか否か判定する。FCWであると判定した場合(Yes)、ステップS901において、入力情報決定部104は、前方車群の先頭車両の前方映像を選択する。
図7に示すFCWの例では、同じ車線41を走行する前方の車群3が視界の妨げとなり、対象車両1の運転者は前方を認知できない。このため、車群生成部111は、対象車両1の前方車両2A、2B、2Cを含む車群3を生成し、入力情報決定部104は、前方の車群3の先頭車両である前方車両2Aの前方映像を選択する。
ステップS802において、FCWではないと判定した場合(No)、ステップS803において、衝突の種類がRTAか否か判定する。RTAであると判定した場合(Yes)、ステップS902において、入力情報決定部104は、前方の対向車群の最後尾車両の後方映像を選択する。
図8に示すRTAの例では、前方の対向車両2E、2Fを含む車群3が視界の妨げとなり、対象車両1の運転者は対向車両2Gを認知できない。一方、対向車両2Gは、前方の対向車両2Fの後方カメラの撮影範囲5に入っている。このため、車群生成部111は、対象車両1の前方の対向車両2E、2Fを含む車群3を生成し、入力情報決定部104は、前方の対向する車群3の最後尾車両である対向車両2Fの後方映像を選択する。
ステップS803において、RTAではないと判定した場合(No)、ステップS804において、衝突の種類がBSWか否か判定する。BSWであると判定した場合(Yes)、ステップS903において、入力情報決定部104は、後方車群の最後尾車両の後方映像を選択する。
図9に示すBSWの例では、車線41を走行する対象車両1の運転者は、対向車線42を走行して車群3を追い抜こうとしている後方車両2Kを認知しづらい。一方、後方車両2Kは、後方車両2Jの後方カメラの撮影範囲5に入っている。このため、車群生成部111は、対象車両1の後方車両2H、2J及び対象車両1を含む車群3を生成し、入力情報決定部104は、後方の車群3の最後尾車両である後方車両2Jの後方映像を選択する。
ステップS804において、BSWではないと判定した場合(No)、ステップS805において、衝突の種類が歩行者との衝突か否か判定する。歩行者との衝突であると判定した場合(Yes)、ステップS904において、入力情報決定部104は、後方車群の最後尾車両の前方映像を選択する。
図10に示す例では、対象車両1の運転者からは歩道の歩行者6を認知しづらい。一方、歩行者6は、後方車両2Jの前方カメラの撮影範囲5に入っている。このため、車群生成部111は、対象車両1の後方車両2H、2J及び対象車両1を含む車群3を生成し、入力情報決定部104は、後方の車群3の最後尾車両である後方車両2Jの前方映像を選択する。
ステップS805において、歩行者との衝突ではないと判定した場合(No)、ステップS806において、衝突の種類が高速合流か否か判定する。高速合流であると判定した場合(Yes)、ステップS905において、入力情報決定部104は、前方車群の先頭車両の後方映像を選択する。
図11に示す高速合流の例では、高速道路の本線4Aを車両2L、2Mが走行しており、合流車線4Bを走行する対象車両1は合流地点に接近している。前方車両2A、2Bを含む車群3または本線4Aの壁等が視界の妨げとなり、対象車両1の運転者は、合流先の本線4Aの状況を認知しづらい。
一方、前方車両2Aの後方カメラの撮影範囲5には、本線4Aを走行し合流地点に接近する車両2Mが入っている。このため、車群生成部111は、対象車両1の前方車両2A、2Bを含む車群3を生成し、入力情報決定部104は、前方の車群3の先頭車両である前方車両2Aの後方映像を選択する。ステップS806において、高速合流ではないと判定した場合(No)、衝突判定を終了する。
実施の形態1による運転支援装置100及び運転支援システム300によれば、第1の車両情報、第2の車両情報、及び走行経路に基づいて運転支援に利用される映像を撮影可能な位置にある周辺車両2の選択を行い、選択された周辺車両2から取得した映像を運転支援情報として対象車両1に送信するようにしたので、対象車両1の走行経路及び操作情報等に細やかに対応した運転支援を行うことが可能である。さらに、衝突の種類に対応した映像を運転支援情報として対象車両1に送信することにより、対象車両1の走行経路及び操作情報等にさらに細やかに対応した運転支援を行うことができる。
また、実施の形態1による運転支援方法によれば、第1の車両情報、第2の車両情報、及び走行経路に基づいて運転支援に利用される映像を撮影可能な位置にある周辺車両2の選択を行い、選択された周辺車両2から取得した映像を運転支援情報としているので、対象車両1の走行経路及び操作情報等に細やかに対応した運転支援を行うことが可能である。
実施の形態2.
上記実施の形態1による運転支援装置100では、選択処理において、対象車両1の前方車群の先頭車両、または対象車両1の対向車群の最後尾車両、または対象車両1の後方車群の最後尾車両が選択される。しかし、それらの周辺車両2から取得した映像に物体(対向車両、歩行者等)が存在しない場合がある。
そこで、実施の形態2による入力情報決定部104は、選択された周辺車両2から取得した映像に物体が存在しない場合に、車群3に含まれる他の周辺車両2から物体が存在する映像を取得し、物体が存在する映像を運転支援情報とする。なお、実施の形態2における運転支援システムの全体構成は、上記実施の形態1と同様であるため説明を省略する(図1参照)。
図12は、実施の形態2におけるDNPWの例を説明する図である。図12に示す例では、道路4の車線41を走行する対象車両1が、前方車両2A、2B、2Cを追い抜こうとしている。しかし、すぐ前方の車群3が視界の妨げとなり、対象車両1の運転者は、対向車線42を走行している対向車両2Dを認知できない。
また、対向車両2Dは、車群3の先頭車両である前方車両2Aの前方カメラの撮影範囲5Aに入っていないため、前方車両2Aのカメラでは撮影されない。このため、前方車両2Aから取得した映像を運転支援情報として対象車両1に送信した場合、対象車両1の運転者は、対向車両2Dが存在しないと判断し、追い抜きを実行することが考えられる。
このような事態を回避するため、実施の形態2による運転支援装置の入力情報決定部104は、選択処理で選択された前方車両2Aから取得した映像に対向車両2Dが存在しない場合、車群3に含まれる他の前方車両2B(または2C)が撮影した前方映像の中から、対向車両2Dが存在する映像を選択する。図12に示す例では、対向車両2Dは、前方車両2Bの前方カメラの撮影範囲5Bに入っているため、前方車両2Bの前方映像が運転支援情報として対象車両1に送信される。
実施の形態2における運転支援装置による処理の全体の流れは、上記実施の形態1と同様であるため説明を省略する(図4参照)。ここでは、実施の形態2における衝突判定及び選択処理について、図13及び図14のフローチャートを用いて詳細に説明する。なお、図13のステップS803と図14のステップS804は連続して行われるものである。
図13のステップS7において衝突判定の実施が開始すると、ステップS8では、図13のステップS801から図14のステップS806において衝突の種類の判定が行われる。さらに、ステップS9では、図13のステップS911から図14のステップS929において衝突の種類に基づいた選択処理が行われる。
まず、ステップS801において、衝突の種類がDNPWであるか否か判定する。DNPWであると判定した場合(Yes)、ステップS911において、車群生成部111は、対象車両1の前方車群を生成し、入力情報決定部104は、前方車群の先頭車両の前方映像を取得する。
次にステップS912において、ステップS911で取得した映像に対向車両が存在するか否か判定し、存在する場合(Yes)、ステップS913で該映像を選択する。ステップS912において、対向車両が存在しない場合(No)、ステップS914において、前方車群の他車両の前方映像を取得する。その後、ステップS912に戻り、ステップS914で取得した映像に対向車両が存在するか否か判定し、存在する場合(Yes)、ステップS913で該映像を選択する。対向車両が存在する映像が見つかるまでこれらの処理を繰り返す。
ステップS801において、DNPWではないと判定した場合(No)、ステップS802において、衝突の種類がFCWであるか否か判定する。FCWであると判定した場合(Yes)、ステップS915において、車群生成部111は、対象車両1の前方車群を生成し、入力情報決定部104は、前方車群の先頭車両の前方映像を選択する。
FCWの場合、対象車両1のすぐ前方の車群3が視界の妨げとなり、運転者が前方を認知できないため(図7参照)、対向車両の有無に関わらず、前方車群の先頭車両の前方映像を選択する。
ステップS802において、FCWではないと判定した場合(No)、ステップS803において、衝突の種類がRTAか否か判定する。RTAであると判定した場合(Yes)、ステップS916において、車群生成部111は、対象車両1の前方の対向車群を生成し、入力情報決定部104は、前方の対向車群の最後尾車両の後方映像を取得する。
次にステップS917において、ステップS916で取得した映像に対向車両が存在するか否か判定し、存在する場合(Yes)、ステップS918で該映像を選択する。ステップS917において、対向車両が存在しない場合(No)、ステップS919において、前方の対向車群の他車両の後方映像を取得する。その後、ステップS917に戻り、ステップS919で取得した映像に対向車両が存在するか否かを判定する。対向車両が存在する映像が見つかるまでこれらの処理を繰り返す。
ステップS803において、RTAではないと判定した場合(No)、図14のステップS804において、衝突の種類がBSWか否か判定する。BSWであると判定した場合(Yes)、ステップS921において、車群生成部111は、対象車両1の後方車群を生成し、入力情報決定部104は、後方車群の最後尾車両の後方映像を取得する。
次にステップS922において、ステップS921で取得した映像に後方車両が存在するか否か判定し、存在する場合(Yes)、ステップS923で該映像を選択する。ステップS922において、後方車両が存在しない場合(No)、ステップS924において、後方車群の他車両の後方映像を取得する。続いてステップS922に戻り、ステップS924で取得した映像に後方車両が存在するか否かを判定する。後方車両が存在する映像が見つかるまでこれらの処理を繰り返す。
ステップS804において、BSWではないと判定した場合(No)、ステップS805において、衝突の種類が歩行者との衝突か否か判定する。歩行者との衝突であると判定した場合(Yes)、ステップS925において、車群生成部111は、対象車両1の後方車群を生成し、入力情報決定部104は、後方車群の最後尾車両の前方映像を取得する。
次にステップS926において、入力情報決定部104は、ステップS925で取得した映像に歩行者が存在するか否か判定し、存在する場合(Yes)、ステップS927で該映像を選択する。ステップS926において、歩行者が存在しない場合(No)、ステップS928において、後方車群の他車両の前方映像を取得する。続いてステップS926に戻り、ステップS928で取得した映像に歩行者が存在するか否かを判定する。歩行者が存在する映像が見つかるまでこれらの処理を繰り返す。
ステップS805において、歩行者との衝突ではないと判定した場合(No)、ステップS806において、衝突の種類が高速合流か否か判定する。高速合流であると判定した場合(Yes)、ステップS929において、車群生成部111は、対象車両1の前方車群を生成し、入力情報決定部104は、前方車群の先頭車両の後方映像を選択する。
高速合流の場合、前方車群または本線の壁等が視界の妨げとなり、対象車両1の運転者は、合流先の本線の状況を認知しづらいため(図11参照)、後方車両の有無に関わらず、前方車群の先頭車両の後方映像を選択する。ステップS806において、高速合流ではないと判定した場合(No)、衝突判定を終了する。
実施の形態2によれば、上記実施の形態1と同様の効果に加え、衝突の種類に対応して選択された映像に物体が存在するか否かを確認し、物体が存在する映像を運転支援情報として送信するようにしたので、対象車両1の走行経路及び操作情報等にさらに細やかに対応した運転支援を行うことができる。
実施の形態3.
図15は、実施の形態3における運転支援装置の入力情報決定部の構成を示すブロック図である。実施の形態3における入力情報決定部104Aは、車群生成部111に加え、地図情報取得部112及び先読み判断部113を含む。なお、実施の形態3における運転支援システムの全体構成及び運転支援装置による処理の全体の流れは、上記実施の形態1と同様であるため説明を省略する(図1及び図4参照)。
地図情報取得部112は、走行経路演算部103で求められた対象車両1の走行経路を含む地図情報を取得する。先読み判断部113は、走行経路、地図情報、第1の車両情報、及び第2の車両情報に基づいて周辺車両2の行動に起因して発生する走行経路の変化を予測し新たな走行経路を求める。車群生成部111は、先読み判断部113で求めた新たな走行経路に基づいて車群3を生成し、入力情報決定部104Aは、先読み判断部113で求めた新たな走行経路に基づいて選択処理を行う。
先読み判断部113について図16を用いて説明する。図16に示す例では、片側1車線の道路4において、車線41を走行する対象車両1の前に周辺車両としてバス2Nが走行している。通常、対象車両1は、バス2Nに追従しながら車線41を走行するが、バス2Nがバス停留所7で停車すると、バス2Nを追い越すことがある。その場合、対象車両1は、通常とは異なる新しい走行経路で走行することになる。
この例のように、周辺車両2(ここではバス2N)の行動に起因して対象車両1の走行経路が変化することがある。その他の例としては、前方を走行する周辺車両2が駐車場に入るために停止した際の追い抜き、あるいは駐車場に入ろうとする周辺車両2による渋滞の列の追い抜き等がある。このような周辺車両2の行動に起因する走行経路の変化は、バス停留所及び駐車場等、特定の箇所で発生し易いことから、地図情報に基づいて予測することができる。
図16に示す例では、先読み判断部113は、第1の車両情報、第2の車両情報、映像、走行経路、及び地図情報等に基づいて、対象車両1の前方を走行している周辺車両2がバス2Nであること、バス2Nがバス停留所7の手前を走行していることを検出する。なお、先読み判断部113には、バスがバス停留所で停止するというルールと、バスがバス停留所に停車した際に、バスの後方を走行する対象車両がバスを追い越す可能性があるというルールが予め定められている。
このようなルールを定めておくことで、先読み判断部113は、バス2Nがバス停留所7に差しかかる時点で、バス2Nの後方を走行する対象車両1の走行経路の変化の発生を判断することができる。先読み判断部113は、走行経路の変化が発生すると判断した場合、新たな走行経路を求める。先読み判断部113で求められた新たな走行経路は、走行経路演算部103で求められた通常の走行経路と同様に、物体識別部105、衝突判定部106、及び入力情報決定部104Aにおける処理で用いられる。
上記実施の形態1では、図16に示す例において、バス2Nがバス停留所7で停車した後、対象車両1が追い越し操作に入る時点で、入力情報決定部104による選択処理に必要な情報が取得される。これに対し、実施の形態3では、バス2Nが停車する前に、先読み判断部113で対象車両1の追い越しを予測して新たな走行経路を求め、入力情報決定部104Aは新たな走行経路を用いて選択処理を行う。これにより、入力情報決定部104Aは、バス2Nが停車する前に追い越しに必要な運転支援情報を決定し、対象車両1に送信することが可能である。
実施の形態3によれば、上記実施の形態1と同様の効果に加え、周辺車両2の行動に起因して発生する走行経路の変化を予測し、新しい走行経路に対応した運転支援情報を対象車両1に送信することが可能である。
実施の形態4.
図17は、実施の形態4における運転支援装置の入力情報決定部の構成を示すブロック図である。実施の形態4における入力情報決定部104Bは、車群生成部111に加え、特殊イベント検知部114を含む。なお、実施の形態4における運転支援システムの全体構成及び運転支援装置による処理の全体の流れは、上記実施の形態1と同様であるため説明を省略する(図1及び図4参照)。
特殊イベント検知部114は、第2の車両情報に基づいて少なくとも周辺車両2のハザードランプ点灯及び急停止を検知する。急停止の判定には第2の車両情報に含まれる加速度情報が用いられ、減速度が予め設定された閾値以上の場合に急停止と判定する。車群生成部111は、特殊イベント検知部114でハザードランプ点灯または急停止と検知された周辺車両2を除外して車群3を生成し、入力情報決定部104は、特殊イベント検知部114でハザードランプ点灯または急停止と検知された周辺車両2を除外して選択処理を行う。
特殊イベント検知部114について図18を用いて説明する。図18に示す例では、対象車両1の前方車両2A、2B、2Cを含む車群3の前方に、停止車両2Pが存在する。上記実施の形態1では、車群生成部111は、車両間の距離が閾値(例えば10m)以内である場合、それらを一つの車群3とみなすため、前方車両2Aが停止車両2Pに接近すると、停止車両2Pを含む車群3が構成される。
衝突判定部106で衝突の種類がFCWであると判定された場合、入力情報決定部104は、運転支援情報として前方車群の先頭車両の前方映像を選択する。このため、車群3に停止車両2Pが含まれると、先頭車両である停止車両2Pの前方映像が対象車両1に送信されることになり、その映像に停止車両2Pは存在しない。すなわち、対象車両1の運転者は、衝突の原因となる停止車両2Pを認知できない。
このような事態を回避するため、実施の形態4では、特殊イベント検知部114で周辺車両2のハザードランプ点灯及び急停止を検知し、特殊イベント検知部114で検知された周辺車両2を除外して選択処理を行う。
実施の形態4における運転支援装置による選択処理の流れの一部について、図19のフローチャートを用いて説明する。ステップS802において、衝突の種類がFCWであると判定した場合(Yes)、ステップS931において、特殊イベント検知部114は、前方車群の先頭車両の特殊イベントを検知する。
車群生成部111は、特殊イベント検知部114の検知結果に基づいて、車群3を生成する。ステップS932において、前方車群の先頭車両のハザードランプが点灯しているか否かを判定し、点灯している場合(Yes)、ステップS933において、該車両を車群から除外する。
また、ステップS932において、ハザードランプが点灯していない場合(No)、ステップS934において、前方車群の先頭車両が急停止しているか否かを判定する。前方車群の先頭車両が急停止している場合(Yes)、ステップS935において、該先頭車両を車群から除去する。また、急停止していない場合(No)、ステップS936において、入力情報決定部104は、前方車群の先頭車両の前報映像を選択する。
実施の形態4によれば、上記実施の形態1と同様の効果に加え、衝突の原因となる停止車両を車群から除外することができ、停止車両が撮影された映像を運転支援情報として対象車両1に送信することが可能である。
実施の形態5.
図20は、実施の形態5における運転支援装置の構成を示すブロック図である。実施の形態5における運転支援装置100Aは、上記実施の形態1における運転支援装置100と同様の構成(一部図示を省略)に加え、地図情報記憶部115、地図情報受信部116、及び走行経路形状検出部117を含む。なお、実施の形態5における運転支援システムの全体構成及び運転支援装置100Aによる処理の全体の流れは、上記実施の形態1と同様であるため説明を省略する(図1及び図4参照)。
地図情報記憶部115は、走行経路を含む地図情報を記憶し、地図情報受信部116は、走行経路を含む地図情報を外部から受信する。なお、地図情報記憶部115と地図情報受信部116は、両方備えていてもよく、いずれか一方であってもよい。
走行経路形状検出部117は、地図情報、走行経路、及び第1の車両情報に基づいて対象車両1よりも前方の走行経路における特定形状を検出する。なお、特定形状とは、カーブ、分岐、及び路幅変化等を含み、特に、見通しの悪いカーブ、交差点での右左折時または路地への侵入時の路幅変化等が含まれる。走行経路形状検出部117で走行経路の特定形状が検出された場合、車群生成部111は、特定形状に基づいて車群3を生成し、入力情報決定部104は、特定形状に基づいて選択処理を行う。
具体的には、走行経路形状検出部117は、走行経路の特定形状を検出すると、走行経路形状情報を入力情報決定部104に出力する。車群生成部111は、走行経路形状情報に基づいて車群3を生成する。例えば特定形状として見通しの悪いカーブを検出した場合、車群生成部111は、対象車両1の前方を走行する周辺車両2を含む車群3を生成する。
実施の形態5における運転支援装置100Aの走行経路形状検出部117による処理の流れについて、図21のフローチャートを用いて説明する。ステップS21において、走行経路形状検出部117は、地図情報記憶部115または地図情報受信部116から地図情報を取得する。続いてステップS22において、走行経路演算部103から対象車両1の走行経路を取得する。
次にステップS23において、走行経路の特定形状を検出する。ステップS24において、前方に見通しの悪いカーブがあると判定した場合(Yes)、ステップS25において、前方の車群3を検出する。続いてステップS26において、前方に車群ありと判定した場合(Yes)、ステップS27において、車群生成部111に走行経路形状情報を出力する。
一方、ステップS24において、前方に見通しの悪いカーブがない場合(No)、ステップS26において、前方に車群3がない場合(No)は、車群3を生成する必要がない、あるいは車群3を生成できないため、処理を終了する。なお、図21では、走行経路形状検出部117が見通しの悪いカーブを検出する例を挙げたが、走行経路の分岐または路幅変化を検出する場合も同様の処理が行われる。
実施の形態5によれば、上記実施の形態1と同様の効果に加え、走行経路の特定形状に対応した映像を運転支援情報として対象車両1に送信することが可能である。
実施の形態6.
図22は、実施の形態6における運転支援装置の構成を示すブロック図である。実施の形態6における運転支援装置100Bは、上記実施の形態1における運転支援装置100と同様の構成(一部図示を省略)に加え、地図情報記憶部115、地図情報受信部116、及び合流検出部118を含む。なお、実施の形態6における運転支援システムの全体構成及び運転支援装置100Bによる処理の全体の流れは、上記実施の形態1と同様であるため説明を省略する(図1及び図4参照)。
地図情報記憶部115は、走行経路を含む地図情報を記憶し、地図情報受信部116は、走行経路を含む地図情報を外部から受信する。なお、地図情報記憶部115と地図情報受信部116は、両方備えていてもよく、いずれか一方であってもよい。合流検出部118は、地図情報、走行経路、及び第1の車両情報に基づいて対象車両1よりも前方の走行経路における合流地点及び合流方向を検出する。合流検出部118による合流の検出方法としては、地図情報から得られる道路形状により検出する方法、または合流地点情報を含む地図情報を用い、対象車両1が合流地点に接近したことを検出する方法等がある。
合流検出部118で合流地点が検出された場合、車群生成部111は、合流地点及び合流方向に基づいて車群3を生成し、入力情報決定部104は、合流地点及び合流方向に基づいて選択処理を行う。具体的には、合流検出部118は、走行経路の対象車両1よりも前方の合流地点を検出すると、合流地点の位置と合流方向を含む合流地点情報を入力情報決定部104に出力する。
運転支援装置100Bにおける入力情報決定部104による選択処理について、図23及び図24を用いて説明する。図23は、合流車線が本線の左側にある高速合流の例、図24は合流車線が本線の右側にある高速合流の例をそれぞれ示している。合流検出部118から合流地点情報が出力されると、車群生成部111は、対象車両1、前方車両2A、2B、及び後方車両2Hを含む車群3を生成する。
入力情報決定部104は、選択処理において、対象車両1に最も近く、未だ合流車線4Bを走行している前方車両2Bを選択する。ただし、前方車両2Bが合流地点4pの手前を走行している時には、本線4Aの映像を撮影できないため、前方車両2Bが合流地点4pを通過し、合流地点4pとの距離が予め設定された閾値d(例えば5m)以上となった時に、前方車両2Bの映像を取得する。
図23に示す例では、左側からの合流であるため、前方車両2Bで撮影された右後方の映像が対象車両1に送信される。一方、図24に示す例では、右側からの合流であるため、前方車両2Bで撮影された左後方の映像が対象車両1に送信される。
実施の形態6における運転支援装置100Bの合流検出部118による処理の流れについて、図25のフローチャートを用いて説明する。ステップS31において、合流検出部118は、地図情報記憶部115または地図情報受信部116から地図情報を取得する。続いてステップS32において、走行経路演算部103から対象車両1の走行経路を取得する。
次にステップS33において、走行経路の前方の合流地点を検出する。ステップS34において、前方に合流地点があると判定した場合(Yes)、ステップS35において、前方の車群3を検出する。続いてステップS36において、前方に車群ありと判定した場合(Yes)、ステップS37において車群生成部111に合流地点情報を出力する。
一方、ステップS34において、前方に合流地点がない場合(No)、ステップS36において、前方に車群3がない場合(No)は、車群3を生成する必要がない、あるいは車群3を生成できないため、処理を終了する。
実施の形態6によれば、上記実施の形態1と同様の効果に加え、走行経路の合流地点及び合流方向に対応した映像を運転支援情報として対象車両1に送信することが可能である。
実施の形態7.
図26は、実施の形態7における運転支援装置の構成を示すブロック図である。実施の形態7における運転支援装置100Cは、上記実施の形態1における運転支援装置100と同様の構成(一部図示を省略)に加え、地図情報記憶部115、地図情報受信部116、及び車線検出部119を含む。なお、実施の形態7における運転支援システムの全体構成及び運転支援装置100Cによる処理の全体の流れは、上記実施の形態1と同様であるため説明を省略する(図1及び図4参照)。
地図情報記憶部115は、走行経路を含む地図情報を記憶し、地図情報受信部116は、走行経路を含む地図情報を外部から受信する。なお、地図情報記憶部115と地図情報受信部116は、両方備えていてもよく、いずれか一方であってもよい。車線検出部119は、地図情報、走行経路、及び第1の車両情報に基づいて、対象車両1が走行する車線及び前記車線に隣接する他車線を検出する。車線検出部119による車線の検出方法としては、地図情報に含まれる車線の位置情報と対象車両1の位置情報とを照らし合わせる方法がある。
運転支援装置100Cにおける車線検出部119について、図27を用いて説明する。図27に示す例では、対象車両1は、車線41、43、44を有する道路4を走行している。このような場合、車線検出部119は、対象車両1が右の車線41、中央の車線43、及び左の車線44のどれを走行しているのかを検出する。さらに、対象車両1が走行する車線41に隣接する他の車線43、44を検出し、これらを車線情報として出力する。
車線検出部119で他車線が検出された場合、車群生成部111は、車線情報及び第2の車両情報に基づいて他車線を走行する周辺車両2を除外して車群3を生成し、入力情報決定部104は、他車線を走行する周辺車両2を除外して選択処理を行う。図27に示す例では、車線43、44を走行する周辺車両2が除外されて車群3が生成される。
実施の形態7における運転支援装置100Cの車線検出部119及び車群生成部111による処理の流れについて、図28及び図29のフローチャートを用いて説明する。車線検出部119は、図28のステップS41において、地図情報記憶部115または地図情報受信部116から地図情報を取得する。続いてステップS42において、走行経路演算部103から対象車両1の走行経路を取得する。
次にステップS43において、地図情報、走行経路、及び第1の車両情報に基づいて対象車両1の走行車線を検出し、さらに、対象車両1の走行車線に隣接する他車線を検出する。続いてステップS44において、入力情報決定部104に走行車線と他車線とを含む車線情報を出力して、処理を終了する。
また、車群生成部111は、図29のステップS51において、車線検出部119から車線情報を取得する。続いてステップS52において、他車線を走行する周辺車両2を車群3から除外する。他車線を走行する周辺車両2は、車両情報リストに登録された第2の車両情報に基づいて検出することができる。次にステップS53において、対象車両1と同じ車線を走行する周辺車両2を含む車群3を生成し、処理を終了する。
実施の形態7によれば、上記実施の形態1と同様の効果に加え、他車線を走行する周辺車両2のカメラで撮影された映像が運転支援情報として対象車両1に送信されるのを防ぐことが可能である。
実施の形態8.
図30は、実施の形態8における運転支援装置の構成を示すブロック図である。実施の形態8における運転支援装置100Dは、上記実施の形態1における運転支援装置100と同様の構成(一部図示を省略)に加え、周辺車両検出部120を含む。なお、実施の形態8における運転支援システムの全体構成及び運転支援装置100Dによる処理の全体の流れは、上記実施の形態1と同様であるため説明を省略する(図1及び図4参照)。
周辺車両検出部120は、第1の車両情報、第2の車両情報、及び走行経路に基づいて、入力情報決定部104で選択された周辺車両2からの距離が予め設定された閾値以内である他の周辺車両2を検出する。周辺車両検出部120で他の周辺車両2が検出された場合、車群生成部111は、他の周辺車両2を含めて車群3を生成し、入力情報決定部104は、他の周辺車両2を含めて選択処理を行う。
運転支援装置100Dの周辺車両検出部120について、図31を用いて説明する。図31に示す例では、対象車両1は、車線41、43、44を有する道路4を走行しており、対象車両1と同じ車線41の前方車両2Bは、車両情報リストに登録され、入力情報決定部104で選択されている。入力情報決定部104は、選択された前方車両2Bの前方に、他の周辺車両2が存在しないか、周辺車両検出部120に問い合わせる。
入力情報決定部104から問い合せを受けた周辺車両検出部120は、前方車両2Bからの距離が閾値d(例えば10m)以内である他の周辺車両2(図31では前方車両2A)を検出し、検出結果を入力情報決定部104に出力する。なお、図31では、選択された前方車両2Bの前方に他の周辺車両2が存在する場合について説明したが、選択された後方車両2Hの後方に他の周辺車両2が存在する場合も同様である。
実施の形態8における運転支援装置100Dの入力情報決定部104及び周辺車両検出部120による処理の流れについて、図32及び図33のフローチャートを用いて説明する。入力情報決定部104は、図32のステップS61において、選択処理により周辺車両2を選択する。続いてステップS62において、選択した周辺車両2に近接する他の周辺車両2があるか、周辺車両検出部120に問い合わせて確認する。
問い合わせの結果、ステップS63において、他の周辺車両ありと判定した場合(Yes)、ステップS64において、他の周辺車両2の映像及び第2の車両情報を取得する。車群生成部111は、他の周辺車両2を含めて車群3を生成し、再度、選択処理が行われる。
また、入力情報決定部104から問い合わせを受けた周辺車両検出部120は、図33のステップS71において、選択された周辺車両2に近接する車両を検出する。続いてステップS72において、選択された周辺車両2から検出された車両までの距離が閾値以内か否かを判定する。
ステップS72において、距離が閾値以内ではない場合(No)、ステップS73において他の周辺車両なしと出力し、処理を終了する。また、ステップS72において、距離が閾値以内の場合(Yes)、ステップS74において他の周辺車両ありと出力し、処理を終了する。
実施の形態8によれば、上記実施の形態1と同様の効果に加え、選択された周辺車両2の前方または後方に他の周辺車両2が存在する場合に、他の周辺車両2を含めて再度選択処理を行うことが可能であり、対象車両1の走行経路及び操作情報等にさらに細やかに対応した運転支援を行うことができる。
実施の形態9.
図34は、実施の形態9における運転支援システムの構成を示すブロック図である。実施の形態9における運転支援システム300Aは、対象車両1Aの周辺を走行する周辺車両2と通信し、対象車両1Aの運転支援を実行する運転支援装置100Eを備えている。上記実施の形態1における運転支援装置100(図1参照)は、基地局等に設置されたサーバであったが、実施の形態9における運転支援装置100Eは対象車両1Aに搭載される。なお、図34では、周辺車両2を1つ示しているが、周辺車両2の数は特に限定されるものではなく、道路の状況によって複数台となる。
運転支援システム300Aは、周辺車両2に備えられたカメラ21、映像送信部22、及び車両情報送信部23を含む。車両情報送信部23は、周辺車両2の位置情報と操作情報とを含む第2の車両情報を運転支援装置100Eに送信する。第2の車両情報には、周辺車両2の緯度情報及び経度情報、速度情報、加速度情報、方位情報等が含まれる。映像送信部22は、周辺車両2のカメラ21で撮影された映像を運転支援装置100Eに送信する。
運転支援装置100Eは、受信部である車両情報受信部101及び映像受信部102、走行経路演算部103、入力情報決定部104、物体識別部105、及び衝突判定部106を含む。
車両情報受信部101は、車両情報送信部23から送信された第2の車両情報を受信する。映像受信部102は、映像送信部22から送信された周辺車両2のカメラ21で撮影された映像を受信する。車両情報受信部101が受信した第2の車両情報は、運転支援装置100Eの車両情報リスト(図示省略)に登録される。走行経路演算部103は、対象車両1Aの位置情報と操作情報とを含む第1の車両情報を取得し、第1の車両情報に基づいて対象車両1Aの走行経路を求める。
入力情報決定部104は、少なくとも第1の車両情報、第2の車両情報、及び走行経路に基づいて、周辺車両2のカメラ21で撮影された映像を含む運転支援情報を決定する。入力情報決定部104は、運転支援に利用される映像であって対象車両1Aのカメラ(図示省略)では撮影できない領域の映像を撮影可能な周辺車両2の選択を行い(選択処理)、選択された周辺車両2から取得した映像を運転支援情報とする。運転支援情報に含まれる映像は、対象車両1Aの表示部14に表示される。
また、入力情報決定部104は、車群生成部111を含む(図2参照)。車群生成部111は、第1の車両情報、第2の車両情報、及び走行経路に基づいて対象車両1Aの前方または後方を走行する1台以上の周辺車両2を含む車群3を生成する。
物体識別部105は、周辺車両2から取得した映像及び走行経路演算部103で求められた対象車両1Aの走行経路に基づいて走行経路に存在する物体を認識する。衝突判定部106は、第1の車両情報、第2の車両情報、周辺車両2から取得した映像、及び走行経路に基づいて対象車両1Aと物体との衝突の可能性の有無と衝突の種類とを判定する。衝突判定部106における判定結果は入力情報決定部104に入力される。
また、対象車両1Aは、運転支援装置100E及び制御部201を含む車両制御装置200を備えている。制御部201は、運転支援装置100Eの入力情報決定部104から入力された運転支援情報に基づいて対象車両1Aを制御する。運転支援装置100E及び制御部201は、プロセッサと記憶装置から構成することができ(図3参照)、具体的には、MECが用いられる。
次に、運転支援装置100Eによる処理の全体の流れについて、図35のフローチャートを用いて説明する。まず、ステップS101において、対象車両1Aの第1の車両情報を取得し、ステップS102において、周辺車両2から第2の車両情報及び映像を取得する。次にステップS103において、該周辺車両2が既に登録済みか否か判定する。具体的には、ステップS102で取得した第2の車両情報を車両情報リストに照会し、紐付けを行う。
ステップS103において該周辺車両2が登録済みの場合(Yes)、ステップS104において車両情報リストを更新する。また、ステップS103において該周辺車両2が登録済みでない場合(No)、ステップS105において該周辺車両2の第2の車両情報を車両情報リストに登録する。
続いてステップS106において、入力情報決定部104は、対象車両1Aへの入力情報を選択する。車群生成部111は、第1の車両情報、第2の車両情報、及び走行経路に基づいて車群3を生成する。車群3の生成方法としては、車両間の距離が予め設定された閾値(例えば10m)以内である場合、それらを一つの車群3とみなす。
ステップS106では、車群3を生成するだけであってもよいし、車群3に含まれる周辺車両2から取得した映像に物体が存在する場合、その映像を選択してもよい。ただし、ステップS106で選択された映像は、運転支援情報として決定されたものではない。
続いてステップS107において、衝突判定を実施する。衝突判定部106は、物体識別部105で認識された物体と対象車両1Aとの衝突の可能性の有無と衝突の種類とを判定する。具体的には、対象車両1Aと物体とが衝突するまでの時間が予め設定された閾値(例えば5秒)以内の場合、衝突の可能性ありと判定する。
ステップS108において、衝突しないと判定した場合(No)、ステップS112において、車両情報リストに登録された車両情報を削除し、処理を終了する。ステップS108において、衝突の可能性ありと判定した場合(Yes)、ステップS109の選択処理において、対象車両1Aへの入力情報を再選択する。次にステップS110において、ステップS109で選択された周辺車両2から映像を取得する。
続いてステップS111において、該映像を含む運転支援情報及び警告メッセージを表示する。最後にステップS112において、車両情報リストの車両情報を削除して処理を終了する。なお、ステップS108の衝突判定、及びステップS109の選択処理の詳細については、上記実施の形態1と同様であるので説明を省略する(図5参照)。また、上記実施の形態2と同様に、衝突の種類に対応して選択された映像に物体が存在するか否かを確認し、物体が存在する映像を運転支援情報として送信するようにしてもよい(図13及び図14参照)。
また、入力情報決定部104は、上記実施の形態3と同様に、地図情報取得部112及び先読み判断部113を含んでいてもよい(図15参照)。地図情報取得部112は、走行経路演算部103で求められた対象車両1Aの走行経路を含む地図情報を取得する。先読み判断部113は、走行経路、地図情報、第1の車両情報、及び第2の車両情報に基づいて周辺車両2の行動に起因して発生する走行経路の変化を予測すると共に、走行経路の変化が発生した場合の新たな走行経路を求める。
車群生成部111は、先読み判断部113で求めた新たな走行経路に基づいて車群3を生成し、入力情報決定部104Aは、先読み判断部113で求めた新たな走行経路に基づいて選択処理を行う。
また、入力情報決定部104は、上記実施の形態4と同様に、特殊イベント検知部114を含んでいてもよい(図17参照)。特殊イベント検知部114は、第2の車両情報に基づいて少なくとも周辺車両2のハザードランプ点灯及び急停止を検知する。急停止の判定には第2の車両情報に含まれる加速度情報が用いられ、減速度が予め設定された閾値以上の場合に急停止と判定する。
車群生成部111は、特殊イベント検知部114でハザードランプ点灯または急停止と検知された周辺車両2を除外して車群3を生成し、入力情報決定部104は、特殊イベント検知部114でハザードランプ点灯または急停止と検知された周辺車両2を除外して選択処理を行う。
また、運転支援装置100Eは、上記実施の形態5と同様に、地図情報記憶部115、地図情報受信部116、及び走行経路形状検出部117を含んでいてもよい(図20参照)。地図情報記憶部115は、走行経路を含む地図情報を記憶し、地図情報受信部116は、走行経路を含む地図情報を外部から受信する。なお、地図情報記憶部115と地図情報受信部116は、両方備えていてもよく、いずれか一方であってもよい。
走行経路形状検出部117は、地図情報、走行経路、及び第1の車両情報に基づいて対象車両1Aよりも前方の走行経路における特定形状を検出する。なお、特定形状とは、カーブ、分岐、及び路幅変化等を含む。走行経路形状検出部117で走行経路の特定形状が検出された場合、車群生成部111は、特定形状に基づいて車群3を生成し、入力情報決定部104は、特定形状に基づいて選択処理を行う。
また、運転支援装置100Eは、上記実施の形態6と同様に、合流検出部118を含んでいてもよい(図22参照)。合流検出部118は、地図情報、走行経路、及び第1の車両情報に基づいて、対象車両1Aよりも前方の走行経路における合流地点及び合流方向を検出する。合流検出部118による合流の検出方法は、上記実施の形態6と同様であるので説明を省略する。合流検出部118で合流地点が検出された場合、車群生成部111は合流地点及び合流方向に基づいて車群3を生成し、入力情報決定部104は、合流地点及び合流方向に基づいて選択処理を行う。
また、運転支援装置100Eは、上記実施の形態7と同様に、車線検出部119を含んでいてもよい(図26参照)。車線検出部119は、地図情報、走行経路、及び第1の車両情報に基づいて、対象車両1Aが走行する車線及び前記車線に隣接する他車線を検出する。車線検出部119による車線の検出方法は、上記実施の形態7と同様であるので説明を省略する。車線検出部119で他車線が検出された場合、車群生成部111は、他車線を走行する周辺車両2を除外して車群3を生成し、入力情報決定部104は、他車線を走行する周辺車両2を除外して選択処理を行う。
また、運転支援装置100Eは、上記実施の形態8と同様に、周辺車両検出部120を含んでいてもよい(図30参照)。周辺車両検出部120は、第1の車両情報、第2の車両情報、及び走行経路に基づいて、入力情報決定部104で選択された周辺車両2からの距離が予め設定された閾値以内である他の周辺車両2を検出する。周辺車両検出部120で他の周辺車両2が検出された場合、車群生成部111は、他の周辺車両2を含めて車群3を生成し、入力情報決定部104は、他の周辺車両2を含めて選択処理を行う。
実施の形態9における運転支援装置100E及び運転支援システム300Aによれば、第1の車両情報、第2の車両情報、及び走行経路に基づいて運転支援に利用される映像を撮影可能な位置にある周辺車両2の選択を行い、選択された周辺車両2から取得した映像を運転支援情報としているので、対象車両1Aの走行経路及び操作情報等に細やかに対応した運転支援を行うことが可能である。また、運転支援装置100EにMECを用いることにより、従来のV2V通信を利用した運転支援システムに比べ処理能力が高く低遅延である。
また、実施の形態9における車両制御装置200によれば、第1の車両情報、第2の車両情報、及び走行経路に基づいて運転支援に利用される映像を撮影可能な位置にある周辺車両2の選択を行い、選択された周辺車両2から取得した映像を含む運転支援情報に基づいて対象車両1Aを制御するようにしたので、対象車両1Aの走行経路及び操作情報に細やかに対応した制御を行うことが可能である。
本開示は、様々な例示的な実施の形態及び実施例が記載されているが、1つ、または複数の実施の形態に記載された様々な特徴、態様、及び機能は特定の実施の形態の適用に限られるのではなく、単独で、または様々な組み合わせで実施の形態に適用可能である。従って、例示されていない無数の変形例が、本願明細書に開示される技術の範囲内において想定される。例えば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合、さらには、少なくとも1つの構成要素を抽出し、他の実施の形態の構成要素と組み合わせる場合が含まれるものとする。
1、1A 対象車両、2 周辺車両、2A、2B、2C 前方車両、2D、2E、2F、2G 対向車両、2H、2J、2K 後方車両、2N バス、2P 停止車両、3 車群、4 道路、4A 本線、4B 合流車線、4p 合流地点、5、5A、5B 撮影範囲、6 歩行者、7 バス停留所、11 車両情報送信部、12 警告受信部、13 運転支援情報受信部、14 表示部、21 カメラ、22 映像送信部、23 車両情報送信部、41、43、44 車線、42 対向車線、100、100A、100B、100C、100D、100E 運転支援装置、101 車両情報受信部、102 映像受信部、103 走行経路演算部、104、104A、104B 入力情報決定部、105 物体識別部、106 衝突判定部、107 警告通知部、108 運転支援情報送信部、111 車群生成部、112 地図情報取得部、113 先読み判断部、114 特殊イベント検知部、115 地図情報記憶部、116 地図情報受信部、117 走行経路形状検出部、118 合流検出部、119 車線検出部、120 周辺車両検出部、130 プロセッサ、140 記憶装置、200 車両制御装置、201 制御部、300、300A 運転支援システム

Claims (21)

  1. 対象車両及び前記対象車両の周辺を走行する周辺車両と通信し、前記対象車両の運転支援を実行する運転支援装置であって、
    前記対象車両の位置情報と操作情報とを含む第1の車両情報、前記周辺車両の位置情報と操作情報とを含む第2の車両情報、及び前記周辺車両のカメラで撮影された映像を受信する受信部、
    前記第1の車両情報に基づいて前記対象車両の走行経路を求める走行経路演算部、
    少なくとも前記第1の車両情報、前記第2の車両情報、及び前記走行経路に基づいて運転支援情報を決定する入力情報決定部
    前記入力情報決定部で決定された前記運転支援情報を前記対象車両に送信する送信部
    前記周辺車両から取得した映像及び前記走行経路に基づいて前記走行経路に存在する物体を認識する物体識別部、
    前記第1の車両情報、前記第2の車両情報、前記映像、及び前記走行経路に基づいて前記対象車両と前記物体との衝突の可能性の有無と衝突の種類とを判定する衝突判定部、及び
    前記衝突判定部で前記物体との衝突の可能性有りと判定された場合に前記対象車両に警告メッセージを送信する警告通知部を備え、
    前記入力情報決定部は、前記運転支援に利用される映像を撮影可能な位置にある前記周辺車両の選択を行い、選択された前記周辺車両から取得した前記映像を前記運転支援情報とし、前記衝突判定部で前記物体との衝突の可能性有りと判定された場合に、前記衝突の種類に基づいて前記選択を行うことを特徴とする運転支援装置。
  2. 対象車両に搭載され、前記対象車両の周辺を走行する周辺車両と通信し、前記対象車両の運転支援を実行する運転支援装置であって、
    前記周辺車両の位置情報と操作情報とを含む第2の車両情報、及び前記周辺車両のカメラで撮影された映像を受信する受信部、
    前記対象車両の位置情報と操作情報とを含む第1の車両情報に基づいて前記対象車両の走行経路を求める走行経路演算部
    少なくとも前記第1の車両情報、前記第2の車両情報、及び前記走行経路に基づいて運転支援情報を決定する入力情報決定部
    前記周辺車両から取得した映像及び前記走行経路に基づいて前記走行経路に存在する物体を認識する物体識別部、
    前記第1の車両情報、前記第2の車両情報、前記映像、及び前記走行経路に基づいて前記対象車両と前記物体との衝突の可能性の有無と衝突の種類とを判定する衝突判定部、及び
    前記衝突判定部で前記物体との衝突の可能性有りと判定された場合に前記対象車両に警告メッセージを送信する警告通知部を備え、
    前記入力情報決定部は、前記運転支援に利用される映像を撮影可能な位置にある前記周辺車両の選択を行い、選択された前記周辺車両から取得した前記映像を前記運転支援情報とし、前記衝突判定部で前記物体との衝突の可能性有りと判定された場合に、前記衝突の種類に基づいて前記選択を行うことを特徴とする運転支援装置。
  3. 前記入力情報決定部は、前記第1の車両情報、前記第2の車両情報、及び前記走行経路に基づいて前記対象車両の前方または後方を走行する1台以上の前記周辺車両を含む車群を生成する車群生成部を備え、前記車群に含まれる前記周辺車両を前記選択の対象とすることを特徴とする請求項1または請求項2に記載の運転支援装置。
  4. 記車群生成部は、前記衝突判定部で前記物体との衝突の可能性有りと判定された場合に、前記衝突の種類に基づいて前記車群を生成することを特徴とする請求項3記載の運転支援装置。
  5. 前記入力情報決定部は、選択された前記周辺車両から取得した映像に前記物体が存在しない場合、前記車群に含まれる他の周辺車両から前記物体が存在する映像を取得し、前記物体が存在する前記映像を前記運転支援情報とすることを特徴とする請求項記載の運転支援装置。
  6. 前記入力情報決定部は、前記走行経路を含む地図情報を取得する地図情報取得部と、前記走行経路、前記地図情報、前記第1の車両情報、及び前記第2の車両情報に基づいて前記周辺車両の行動に起因して発生する前記走行経路の変化を予測し新たな走行経路を求める先読み判断部とを備え、前記先読み判断部で求めた前記新たな走行経路に基づいて前記選択を行うことを特徴とする請求項1から請求項のいずれか一項に記載の運転支援装置。
  7. 前記入力情報決定部は、前記走行経路を含む地図情報を取得する地図情報取得部と、前記走行経路、前記地図情報、前記第1の車両情報、及び前記第2の車両情報に基づいて前記周辺車両の行動に起因して発生する前記走行経路の変化を予測し新たな走行経路を求める先読み判断部とを備え、
    前記車群生成部は、前記先読み判断部で求めた前記新たな走行経路に基づいて前記車群を生成することを特徴とする請求項3記載の運転支援装置。
  8. 前記入力情報決定部は、前記第2の車両情報に基づいて前記周辺車両のハザードランプ点灯及び急停止を検知する特殊イベント検知部を備え、前記特殊イベント検知部でハザードランプ点灯または急停止と検知された前記周辺車両を除外して前記選択を行うことを特徴とする請求項1から請求項のいずれか一項に記載の運転支援装置。
  9. 前記入力情報決定部は、前記第2の車両情報に基づいて前記周辺車両のハザードランプ点灯及び急停止を検知する特殊イベント検知部を備え、
    前記車群生成部は、前記特殊イベント検知部でハザードランプ点灯または急停止と検知された前記周辺車両を除外して前記車群を生成することを特徴とする請求項3記載の運転支援装置。
  10. 前記走行経路を含む地図情報を外部から受信する地図情報受信部及び前記地図情報を記憶する地図情報記憶部のいずれか一方または両方、及び
    前記地図情報、前記走行経路、及び前記第1の車両情報に基づいて前記対象車両よりも前方の前記走行経路における特定形状を検出する走行経路形状検出部を備え、
    前記特定形状は、前記走行経路のカーブ、分岐、及び路幅変化を含み、
    前記入力情報決定部は、前記走行経路形状検出部で前記特定形状が検出された場合に、前記特定形状に基づいて前記選択を行うことを特徴とする請求項1から請求項のいずれか一項に記載の運転支援装置。
  11. 前記走行経路を含む地図情報を外部から受信する地図情報受信部及び前記地図情報を記憶する地図情報記憶部のいずれか一方または両方、及び
    前記地図情報、前記走行経路、及び前記第1の車両情報に基づいて前記対象車両よりも前方の前記走行経路における特定形状を検出する走行経路形状検出部を備え、
    前記特定形状は、前記走行経路のカーブ、分岐、及び路幅変化を含み、
    前記車群生成部は、前記走行経路形状検出部で前記特定形状が検出された場合に、前記特定形状に基づいて前記車群を生成することを特徴とする請求項3記載の運転支援装置。
  12. 前記走行経路を含む地図情報を外部から受信する地図情報受信部及び前記地図情報を記憶する地図情報記憶部のいずれか一方または両方、及び
    前記地図情報、前記走行経路、及び前記第1の車両情報に基づいて前記対象車両よりも前方の前記走行経路における合流地点及び合流方向を検出する合流検出部を備え、
    前記入力情報決定部は、前記合流検出部で前記合流地点が検出された場合に、前記合流地点及び前記合流方向に基づいて前記選択を行うことを特徴とする請求項1から請求項11のいずれか一項に記載の運転支援装置。
  13. 前記走行経路を含む地図情報を外部から受信する地図情報受信部及び前記地図情報を記憶する地図情報記憶部のいずれか一方または両方、及び
    前記地図情報、前記走行経路、及び前記第1の車両情報に基づいて前記対象車両よりも前方の前記走行経路における合流地点及び合流方向を検出する合流検出部を備え、
    前記車群生成部は、前記合流検出部で前記合流地点が検出された場合に、前記合流地点及び前記合流方向に基づいて前記車群を生成することを特徴とする請求項3記載の運転支援装置。
  14. 前記走行経路を含む地図情報を外部から受信する地図情報受信部及び前記地図情報を記憶する地図情報記憶部のいずれか一方または両方、及び
    前記地図情報、前記走行経路、及び前記第1の車両情報に基づいて前記対象車両が走行する車線及び前記車線に隣接する他車線を検出する車線検出部を備え、
    前記入力情報決定部は、前記車線検出部で前記他車線が検出された場合に、前記他車線を走行する前記周辺車両を除外して前記選択を行うことを特徴とする請求項1から請求項13のいずれか一項に記載の運転支援装置。
  15. 前記走行経路を含む地図情報を外部から受信する地図情報受信部及び前記地図情報を記憶する地図情報記憶部のいずれか一方または両方、及び
    前記地図情報、前記走行経路、及び前記第1の車両情報に基づいて前記対象車両が走行する車線及び前記車線に隣接する他車線を検出する車線検出部を備え、
    前記車群生成部は、前記車線検出部で前記他車線が検出された場合に、前記他車線を走行する前記周辺車両を除外して前記車群を生成することを特徴とする請求項3記載の運転支援装置。
  16. 前記入力情報決定部で選択された前記周辺車両からの距離が閾値以内である他の周辺車両を検出する周辺車両検出部を備え、
    前記入力情報決定部は、前記周辺車両検出部で前記他の周辺車両が検出された場合に、前記他の周辺車両を含めて前記選択を行うことを特徴とする請求項1から請求項15のいずれか一項に記載の運転支援装置。
  17. 前記入力情報決定部で選択された前記周辺車両からの距離が閾値以内である他の周辺車両を検出する周辺車両検出部を備え、
    前記車群生成部は、前記周辺車両検出部で前記他の周辺車両が検出された場合に、前記他の周辺車両を含めて前記車群を生成することを特徴とする請求項3記載の運転支援装置。
  18. 対象車両に搭載され前記対象車両の周辺を走行する周辺車両と通信し前記対象車両の運転支援を実行する運転支援装置と、前記対象車両を制御する制御部とを備えた車両制御装置であって、
    前記運転支援装置は、
    前記周辺車両の位置情報と操作情報とを含む第2の車両情報、及び前記周辺車両のカメラで撮影された映像を受信する受信部、
    前記対象車両の位置情報と操作情報とを含む第1の車両情報に基づいて前記対象車両の走行経路を求める走行経路演算部
    少なくとも前記第1の車両情報、前記第2の車両情報、及び前記走行経路に基づいて運転支援情報を決定する入力情報決定部
    前記周辺車両から取得した映像及び前記走行経路に基づいて前記走行経路に存在する物体を認識する物体識別部、
    前記第1の車両情報、前記第2の車両情報、前記映像、及び前記走行経路に基づいて前記対象車両と前記物体との衝突の可能性の有無と衝突の種類とを判定する衝突判定部、及び
    前記衝突判定部で前記物体との衝突の可能性有りと判定された場合に前記対象車両に警告メッセージを送信する警告通知部を備え、
    前記入力情報決定部は、前記運転支援に利用される映像を撮影可能な位置にある前記周辺車両の選択を行い、選択された前記周辺車両から取得した前記映像を前記運転支援情報とし、前記衝突判定部で前記物体との衝突の可能性有りと判定された場合に、前記衝突の種類に基づいて前記選択を行うものであり、
    前記制御部は、前記入力情報決定部で決定された前記運転支援情報に基づいて前記対象車両を制御することを特徴とする車両制御装置。
  19. 対象車両及び前記対象車両の周辺を走行する周辺車両と通信し前記対象車両の運転支援を実行する運転支援装置を含む運転支援システムであって、
    前記運転支援装置は、
    前記対象車両の位置情報と操作情報とを含む第1の車両情報、前記周辺車両の位置情報と操作情報とを含む第2の車両情報、及び前記周辺車両のカメラで撮影された映像を受信する受信部、
    前記第1の車両情報に基づいて前記対象車両の走行経路を求める走行経路演算部、
    少なくとも前記第1の車両情報、前記第2の車両情報、及び前記走行経路に基づいて運転支援情報を決定する入力情報決定部
    前記入力情報決定部で決定された前記運転支援情報を前記対象車両に送信する送信部、前記周辺車両から取得した映像及び前記走行経路に基づいて前記走行経路に存在する物体を認識する物体識別部、
    前記第1の車両情報、前記第2の車両情報、前記映像、及び前記走行経路に基づいて前記対象車両と前記物体との衝突の可能性の有無と衝突の種類とを判定する衝突判定部、及び
    前記衝突判定部で前記物体との衝突の可能性有りと判定された場合に前記対象車両に警告メッセージを送信する警告通知部を備え、
    前記入力情報決定部は、前記運転支援に利用される映像を撮影可能な位置にある前記周辺車両の選択を行い、選択された前記周辺車両から取得した前記映像を前記運転支援情報とし、前記衝突判定部で前記物体との衝突の可能性有りと判定された場合に、前記衝突の種類に基づいて前記選択を行うものであり、
    前記対象車両には、
    前記第1の車両情報を前記運転支援装置に送信する第1の車両情報送信部、及び
    前記入力情報決定部で決定された前記運転支援情報を受信する受信部を備え、
    前記周辺車両には、
    前記第2の車両情報を前記運転支援装置に送信する第2の車両情報送信部、及び
    前記カメラで撮影された前記映像を前記運転支援装置に送信する映像送信部を備えたことを特徴とする運転支援システム。
  20. 対象車両に搭載され前記対象車両の周辺を走行する周辺車両と通信し前記対象車両の運転支援を実行する運転支援装置を含む運転支援システムであって、
    前記運転支援装置は、
    前記周辺車両の位置情報と操作情報とを含む第2の車両情報、及び前記周辺車両のカメラで撮影された映像を受信する受信部、
    前記対象車両の位置情報と操作情報とを含む第1の車両情報に基づいて前記対象車両の走行経路を求める走行経路演算部
    少なくとも前記第1の車両情報、前記第2の車両情報、及び前記走行経路に基づいて運転支援情報を決定する入力情報決定部
    前記周辺車両から取得した映像及び前記走行経路に基づいて前記走行経路に存在する物体を認識する物体識別部、
    前記第1の車両情報、前記第2の車両情報、前記映像、及び前記走行経路に基づいて前記対象車両と前記物体との衝突の可能性の有無と衝突の種類とを判定する衝突判定部、及び
    前記衝突判定部で前記物体との衝突の可能性有りと判定された場合に前記対象車両に警告メッセージを送信する警告通知部を備え、
    前記入力情報決定部は、前記運転支援に利用される映像を撮影可能な位置にある前記周辺車両の選択を行い、選択された前記周辺車両から取得した前記映像を前記運転支援情報とし、前記衝突判定部で前記物体との衝突の可能性有りと判定された場合に、前記衝突の種類に基づいて前記選択を行うものであり、
    前記周辺車両には、
    前記第2の車両情報を前記運転支援装置に送信する車両情報送信部、及び
    前記カメラで撮影された前記映像を前記運転支援装置に送信する映像送信部を備えたことを特徴とする運転支援システム。
  21. 対象車両の運転支援を実行する運転支援装置における運転支援方法であって、
    前記対象車両の位置情報と操作情報とを含む第1の車両情報、前記対象車両の周辺を走行する周辺車両の位置情報と操作情報とを含む第2の車両情報、及び前記周辺車両のカメラで撮影された映像を取得する第1のステップと、
    前記第1の車両情報に基づいて前記対象車両の走行経路を求める第2のステップと、
    少なくとも前記第1の車両情報、前記第2の車両情報、及び前記走行経路に基づいて運転支援情報を決定する第3のステップと、
    前記周辺車両から取得した映像及び前記走行経路に基づいて前記走行経路に存在する物体を認識し、前記第1の車両情報、前記第2の車両情報、前記映像、及び前記走行経路に基づいて前記対象車両と前記物体との衝突の可能性の有無と衝突の種類とを判定する第4のステップと、
    前記第4のステップで前記物体との衝突の可能性有りと判定された場合に前記対象車両に警告メッセージを送信する第5のステップとを含み、
    前記第3のステップにおいて、前記運転支援に利用される映像を撮影可能な位置にある前記周辺車両の選択を行い、選択された前記周辺車両から取得した前記映像を前記運転支援情報とし、前記物体との衝突の可能性有りと判定された場合に、前記衝突の種類に基づいて前記選択を行うことを特徴とする運転支援方法。
JP2021545043A 2019-09-12 2019-09-12 運転支援装置、車両制御装置、運転支援システム、及び運転支援方法 Active JP7321277B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/035841 WO2021048966A1 (ja) 2019-09-12 2019-09-12 運転支援装置、車両制御装置、運転支援システム、及び運転支援方法

Publications (2)

Publication Number Publication Date
JPWO2021048966A1 JPWO2021048966A1 (ja) 2021-03-18
JP7321277B2 true JP7321277B2 (ja) 2023-08-04

Family

ID=74866298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021545043A Active JP7321277B2 (ja) 2019-09-12 2019-09-12 運転支援装置、車両制御装置、運転支援システム、及び運転支援方法

Country Status (5)

Country Link
US (1) US20220319318A1 (ja)
EP (1) EP4030406A4 (ja)
JP (1) JP7321277B2 (ja)
CN (1) CN114365207A (ja)
WO (1) WO2021048966A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7145815B2 (ja) * 2019-05-27 2022-10-03 日立Astemo株式会社 電子制御装置
CN113359760B (zh) * 2021-07-01 2022-04-22 厦门大学 一种消除最佳路径算法运行结果中车辆碰撞的方法
CN117218619A (zh) * 2023-11-07 2023-12-12 安徽中科星驰自动驾驶技术有限公司 一种自动驾驶车辆的车道识别方法及系统

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031328A (ja) 2004-07-15 2006-02-02 Toyota Infotechnology Center Co Ltd 交通情報通信システム、方法、プログラムおよび記録媒体
JP2006285694A (ja) 2005-03-31 2006-10-19 Honda Motor Co Ltd 車両間通信システム
JP2007164549A (ja) 2005-12-15 2007-06-28 Hitachi Ltd 撮像装置、映像信号の選択装置、運転支援装置、自動車
JP2007241726A (ja) 2006-03-09 2007-09-20 Denso Corp 運転支援システム、送信装置及び受信装置
JP2008021181A (ja) 2006-07-13 2008-01-31 Denso Corp 運転支援情報報知装置
JP2008250503A (ja) 2007-03-29 2008-10-16 Aisin Aw Co Ltd 運転支援装置
US20160362050A1 (en) 2015-06-09 2016-12-15 Lg Electronics Inc. Driver assistance apparatus and control method for the same
JP2018060448A (ja) 2016-10-07 2018-04-12 矢崎総業株式会社 車両制御システム、及び、隊列走行システム
JP2018077652A (ja) 2016-11-09 2018-05-17 株式会社野村総合研究所 車両運転支援システムおよび集合住宅
JP2018128861A (ja) 2017-02-08 2018-08-16 富士通周辺機株式会社 情報処理装置、情報処理方法、および情報処理プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4483027B2 (ja) * 2000-05-25 2010-06-16 ソニー株式会社 サーバ装置、データ送受信方法及び記録媒体
DE102004049870A1 (de) * 2004-10-13 2006-04-20 Robert Bosch Gmbh Verfahren und Vorrichtung zur Verbesserung der Sicht von Fahrern von Kraftfahrzeugen
JP4752836B2 (ja) * 2007-12-25 2011-08-17 日本電気株式会社 道路環境情報通知装置及び道路環境情報通知プログラム
JP2009223845A (ja) * 2008-03-19 2009-10-01 Hitachi Ltd 車載通信装置
WO2010116601A1 (ja) * 2009-04-07 2010-10-14 三菱電機株式会社 車載狭域無線通信装置及び路車間狭域無線通信システム
JP5745827B2 (ja) * 2010-11-29 2015-07-08 パイオニア株式会社 車両表示装置
DE102012210454A1 (de) * 2012-06-21 2013-12-24 Robert Bosch Gmbh Verfahren und Vorrichtung zur Bereitstellung von Daten für einen elektronischen Horizont für ein Fahrerassistenzsystem eines Fahrzeugs
KR102028720B1 (ko) * 2012-07-10 2019-11-08 삼성전자주식회사 위험 요소에 대한 정보를 디스플레이하는 투명 디스플레이 장치 및 그 방법
KR101575298B1 (ko) * 2014-06-26 2015-12-21 한양대학교 산학협력단 차량 제어 시스템 및 방법
JP6558733B2 (ja) * 2015-04-21 2019-08-14 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、運転制御装置、車両、運転支援プログラム
US10380897B1 (en) * 2018-03-26 2019-08-13 GM Global Technology Operations LLC Vehicle systems and methods for sharing target vehicle video during passing events

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031328A (ja) 2004-07-15 2006-02-02 Toyota Infotechnology Center Co Ltd 交通情報通信システム、方法、プログラムおよび記録媒体
JP2006285694A (ja) 2005-03-31 2006-10-19 Honda Motor Co Ltd 車両間通信システム
JP2007164549A (ja) 2005-12-15 2007-06-28 Hitachi Ltd 撮像装置、映像信号の選択装置、運転支援装置、自動車
JP2007241726A (ja) 2006-03-09 2007-09-20 Denso Corp 運転支援システム、送信装置及び受信装置
JP2008021181A (ja) 2006-07-13 2008-01-31 Denso Corp 運転支援情報報知装置
JP2008250503A (ja) 2007-03-29 2008-10-16 Aisin Aw Co Ltd 運転支援装置
US20160362050A1 (en) 2015-06-09 2016-12-15 Lg Electronics Inc. Driver assistance apparatus and control method for the same
JP2018060448A (ja) 2016-10-07 2018-04-12 矢崎総業株式会社 車両制御システム、及び、隊列走行システム
JP2018077652A (ja) 2016-11-09 2018-05-17 株式会社野村総合研究所 車両運転支援システムおよび集合住宅
JP2018128861A (ja) 2017-02-08 2018-08-16 富士通周辺機株式会社 情報処理装置、情報処理方法、および情報処理プログラム

Also Published As

Publication number Publication date
EP4030406A1 (en) 2022-07-20
CN114365207A (zh) 2022-04-15
US20220319318A1 (en) 2022-10-06
WO2021048966A1 (ja) 2021-03-18
JPWO2021048966A1 (ja) 2021-03-18
EP4030406A4 (en) 2022-08-31

Similar Documents

Publication Publication Date Title
JP6149846B2 (ja) 注意喚起装置
JP6572847B2 (ja) 自動運転システム
CN113631448B (zh) 车辆控制方法及车辆控制装置
JP6252304B2 (ja) 車両用認知通知装置、車両用認知通知システム
CN111149140B (zh) 驾驶辅助方法及驾驶辅助装置
KR102546343B1 (ko) 주행 지원 방법 및 주행 지원 장치
JP6536554B2 (ja) ウィンカ判定装置及び自動運転システム
JP7321277B2 (ja) 運転支援装置、車両制御装置、運転支援システム、及び運転支援方法
US20100030474A1 (en) Driving support apparatus for vehicle
JP6168025B2 (ja) 車両用交差点関連警報装置
JP5172366B2 (ja) 車両運転支援装置
JP7059786B2 (ja) 車外報知装置
JP2019159756A (ja) 車両制御装置およびコンピュータプログラム
WO2020194017A1 (ja) 移動体の挙動予測方法、挙動予測装置及び車両
WO2017104209A1 (ja) 運転支援装置
JP6654440B2 (ja) 車両認識装置および車両認識方法
JP2011209919A (ja) 交錯点マップ作成装置および交錯点マップ作成装置用のプログラム
JP2012137999A (ja) 運転支援装置及び運転支援方法
CN111105644A (zh) 一种车辆盲区监测、行驶控制方法、装置及车路协同系统
JP5088127B2 (ja) 車載警報装置及び車両用警報方法
CN109969191B (zh) 驾驶辅助系统和方法
EP3912877B1 (en) Driving assistance method and driving assistance device
JP2015210584A (ja) 画像処理装置
CN113228128A (zh) 驾驶辅助方法及驾驶辅助装置
JP2015185004A (ja) 運転支援装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230725

R151 Written notification of patent or utility model registration

Ref document number: 7321277

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151