JP7119984B2 - 運転支援装置、車両、情報提供装置、運転支援システム、及び運転支援方法 - Google Patents

運転支援装置、車両、情報提供装置、運転支援システム、及び運転支援方法 Download PDF

Info

Publication number
JP7119984B2
JP7119984B2 JP2018240119A JP2018240119A JP7119984B2 JP 7119984 B2 JP7119984 B2 JP 7119984B2 JP 2018240119 A JP2018240119 A JP 2018240119A JP 2018240119 A JP2018240119 A JP 2018240119A JP 7119984 B2 JP7119984 B2 JP 7119984B2
Authority
JP
Japan
Prior art keywords
vehicle
information
event
control unit
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018240119A
Other languages
English (en)
Other versions
JP2020102033A (ja
Inventor
卓郎 柳
麻貴 田村
睦実 松浦
利彦 井上
直樹 山室
貴志 林
孝広 志賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018240119A priority Critical patent/JP7119984B2/ja
Priority to US16/712,100 priority patent/US11072348B2/en
Priority to CN201911284889.XA priority patent/CN111347975B/zh
Publication of JP2020102033A publication Critical patent/JP2020102033A/ja
Application granted granted Critical
Publication of JP7119984B2 publication Critical patent/JP7119984B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0953Predicting travel path or likelihood of collision the prediction being responsive to vehicle dynamic parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4048Field of view, e.g. obstructed view or direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles

Description

本発明は、運転支援装置、車両、情報提供装置、運転支援システム、及び運転支援方法に関する。
特許文献1及び2には、運転手の脇見を検出する技術が記載されている。
特開2004-145725号公報 特開2017-211818号公報
景色の良い箇所など、運転手が何かに目を引かれてしまう箇所が道路上に存在する場合、運転手がその箇所で脇見をして、安全な運転に支障をきたすおそれがある。
特許文献1に記載の技術では、車両の前方の障害物に対する車両の衝突可能性が基準レベルよりも高いときに、衝突警報が出力される。運転手の脇見が検出されたときには、基準レベルが低く補正される。運転手の脇見が検出されていないときであっても、運転手が脇見をする可能性が高い状況にあると判定されたときには、基準レベルが低く補正される。しかし、運転手が脇見をしておらず、また脇見をする可能性が高い状況にもなければ、衝突警報は出力されない。障害物がなければ、運転手が脇見をする可能性が高い状況にあっても、衝突警報は出力されない。
特許文献2に記載の技術では、運転手が脇見状態であるときの時間と、運転手が脇見状態であるときの車両の走行距離とが算出される。算出された時間及び距離の情報は運転手に通知される。しかし、運転手が脇見状態でなければ、何も通知されない。
運転手が脇見をする可能性が高い箇所における運転の安全性の向上のためには、運転手がそういった箇所にたどり着く前から、運転手に注意を喚起する必要がある。
本発明の目的は、運転手が脇見をする可能性が高い箇所における運転の安全性の向上である。
本発明の一実施形態に係る運転支援装置は、
車両にて前記車両の運転手が脇見をしたことがイベントとして検出されたときの前記車両の位置情報であるイベント位置情報を取得し、注意を喚起するための注意情報を、取得した前記イベント位置情報に示されている位置に向かって運転中の運転手に提示する制御部を備える。
本発明の一実施形態に係る情報提供装置は、
車両にて前記車両の運転手が脇見をしたことをイベントとして検出し、前記イベントを検出したときの前記車両の位置情報であるイベント位置情報を取得する制御部と、
前記制御部により取得された前記イベント位置情報に示されている位置に向かって運転中の運転手に注意を喚起するために前記イベント位置情報を提供する通信部と
を備える。
本発明の一実施形態に係る運転支援方法では、
制御部が、車両にて前記車両の運転手が脇見をしたことをイベントとして検出し、
出力部が、注意を喚起するための注意情報を、前記制御部により前記イベントが検出されたときの前記車両の位置と同じ位置に向かって運転中の運転手に提示するために出力する。
本発明の一実施形態によれば、運転手が脇見をする可能性が高い箇所における運転の安全性が向上する。
第1実施形態に係る運転支援システムの構成を示すブロック図である。 第1実施形態に係る運転支援システムの動作を示すフローチャートである。 第2実施形態に係る運転支援システムの構成を示すブロック図である。 第2実施形態に係る運転支援システムの動作を示すフローチャートである。
以下、本発明の実施形態について、図を参照して説明する。
各図中、同一又は相当する部分には、同一符号を付している。各実施形態の説明において、同一又は相当する部分については、説明を適宜省略又は簡略化する。
(第1実施形態)
図1を参照して、本実施形態の概要を説明する。
第1車両10の制御部11は、第1車両10にて第1車両10の運転手が脇見をしたことをイベントとして検出する。第1車両10とは別の車両である第2車両20の出力部27は、注意を喚起するための注意情報43を、第1車両10の制御部11によりイベントが検出されたときの第1車両10の位置と同じ位置に向かって運転中の、第2車両20の運転手に提示するために出力する。
第1車両10の運転手が脇見をした箇所は、第2車両20の運転手も脇見をする可能性が高い箇所であるといえる。第2車両20の運転手は、その箇所に向かって運転しているときに、出力部27に出力された注意情報43を見るか又は聞くことで、前もって脇見に注意することができる。よって、本実施形態によれば、運転手が脇見をする可能性が高い箇所における運転の安全性が向上する。
注意情報43としては、「この先、脇見に注意」といった注意喚起のメッセージのみが提示されてもよいが、本実施形態では、第1車両10から撮影された、脇見の対象を含む画像である対象画像42も提示される。注意情報43として対象画像42のみが提示されてもよい。すなわち、対象画像42は、注意情報43の少なくとも一部として提示されてよい。
第2車両20の運転手は、第1車両10の運転手が脇見をした箇所に向かって運転しているときに、出力部27に表示された対象画像42を見ることで、第1車両10の運転手による脇見の対象を目で確認しておくことができる。そのため、第2車両20の運転手は、その箇所にたどり着いたときに、その対象をほとんど見たいと思わないか、又はその対象を見たとしてもあまり感動せず、注意力を保つことができる。よって、本実施形態によれば、運転手が脇見をする可能性が高い箇所における運転の安全性がより一層向上する。
脇見の対象は、富士山などの景色に限らず、運転手の目を引く任意の物、場所、又は現象でよい。
第1車両10及び第2車両20は、いずれも任意の車両でよいが、本実施形態では、いずれも自動車である。第1車両10及び第2車両20の関係は、1対1の関係に限らず、1対多、多対1、及び多対多のいずれの関係でもよい。
図1を参照して、本実施形態に係る運転支援システム30の構成を説明する。
運転支援システム30は、情報提供装置31と、運転支援装置32とを備える。
情報提供装置31は、第1車両10に備えられている。情報提供装置31は、ナビゲーション装置などの車載機器として構成されてもよいし、又はスマートフォンなど、車載機器に接続して使用される電子機器として構成されてもよい。
情報提供装置31は、制御部11、記憶部12、通信部13、及び測位部14といった構成要素を備える。
制御部11は、1つ以上のプロセッサである。プロセッサとしては、CPUなどの汎用プロセッサ、又は特定の処理に特化した専用プロセッサを使用できる。「CPU」は、Central Processing Unitの略語である。制御部11には、1つ以上の専用回路が含まれてもよいし、又は制御部11において、1つ以上のプロセッサを1つ以上の専用回路に置き換えてもよい。専用回路としては、例えば、FPGA又はASICを使用できる。「FPGA」は、Field-Programmable Gate Arrayの略語である。「ASIC」は、Application Specific Integrated Circuitの略語である。制御部11には、1つ以上のECUが含まれてもよい。「ECU」は、Electronic Control Unitの略語である。制御部11は、情報提供装置31を含む第1車両10の各部を制御しながら、情報提供装置31の動作に関わる情報処理を実行する。
記憶部12は、1つ以上のメモリである。メモリとしては、例えば、半導体メモリ、磁気メモリ、又は光メモリを使用できる。メモリは、主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してよい。記憶部12には、情報提供装置31の動作に用いられる情報と、情報提供装置31の動作によって得られた情報とが記憶される。
通信部13は、1つ以上の通信モジュールである。通信モジュールとしては、例えば、DSRC、LTE、4G、又は5Gに対応した通信モジュールを使用できる。「DSRC」は、Dedicated Short Range Communicationsの略語である。「LTE」は、Long Term Evolutionの略語である。「4G」は、4th Generationの略語である。「5G」は、5th Generationの略語である。通信部13は、情報提供装置31の動作に用いられる情報を受信し、また情報提供装置31の動作によって得られる情報を送信する。
測位部14は、1つ以上の測位モジュールである。測位モジュールとしては、例えば、GPS、QZSS、GLONASS、又はGalileoに対応した測位モジュールを使用できる。「GPS」は、Global Positioning Systemの略語である。「QZSS」は、Quasi-Zenith Satellite Systemの略語である。QZSSの衛星は、準天頂衛星と呼ばれる。「GLONASS」は、Global Navigation Satellite Systemの略語である。測位部14は、第1車両10の位置情報を取得する。
情報提供装置31の機能は、本実施形態に係る情報提供プログラムを、制御部11に含まれるプロセッサで実行することにより実現される。すなわち、情報提供装置31の機能は、ソフトウェアにより実現される。情報提供プログラムは、情報提供装置31の動作に含まれるステップの処理をコンピュータに実行させることで、当該ステップの処理に対応する機能をコンピュータに実現させるためのプログラムである。すなわち、情報提供プログラムは、コンピュータを情報提供装置31として機能させるためのプログラムである。
プログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、又は半導体メモリを使用できる。プログラムの流通は、例えば、プログラムを記録したDVD又はCD-ROMなどの可搬型記録媒体を販売、譲渡、又は貸与することによって行う。「DVD」は、Digital Versatile Discの略語である。「CD-ROM」は、Compact Disc Read Only Memoryの略語である。プログラムをサーバのストレージに格納しておき、ネットワークを介して、サーバから他のコンピュータにプログラムを転送することにより、プログラムを流通させてもよい。プログラムをプログラムプロダクトとして提供してもよい。
コンピュータは、例えば、可搬型記録媒体に記録されたプログラム又はサーバから転送されたプログラムを、一旦、メモリに格納する。そして、コンピュータは、メモリに格納されたプログラムをプロセッサで読み取り、読み取ったプログラムに従った処理をプロセッサで実行する。コンピュータは、可搬型記録媒体から直接プログラムを読み取り、プログラムに従った処理を実行してもよい。コンピュータは、コンピュータにサーバからプログラムが転送される度に、逐次、受け取ったプログラムに従った処理を実行してもよい。サーバからコンピュータへのプログラムの転送は行わず、実行指示及び結果取得のみによって機能を実現する、いわゆるASP型のサービスによって処理を実行してもよい。「ASP」は、Application Service Providerの略語である。プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるものが含まれる。例えば、コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータは、「プログラムに準ずるもの」に該当する。
情報提供装置31の一部又は全ての機能が、制御部11に含まれる専用回路により実現されてもよい。すなわち、情報提供装置31の一部又は全ての機能が、ハードウェアにより実現されてもよい。
第1車両10には、情報提供装置31のほかに、撮影部15、入力部16、及び出力部17が備えられている。第1車両10において、撮影部15、入力部16、及び出力部17を情報提供装置31の一部としてもよい。
撮影部15は、1つ以上の車載カメラである。車載カメラとしては、例えば、フロントカメラ、サイドカメラ、リアカメラ、又は車内カメラを使用できる。撮影部15は、第1車両10から画像を撮影する。すなわち、撮影部15は、第1車両10の外の画像を撮影する。撮影部15は、第1車両10の運転席など、第1車両10の中の画像も撮影する。
入力部16は、1つ以上の入力インタフェースである。入力インタフェースとしては、例えば、物理キー、静電容量キー、ポインティングデバイス、車載ディスプレイと一体的に設けられたタッチスクリーン、又は車載マイクを使用できる。入力部16は、情報提供装置31の動作に用いられる情報の入力を、第1車両10の運転手などのユーザから受け付ける。
出力部17は、1つ以上の出力インタフェースである。出力インタフェースとしては、例えば、車載ディスプレイ又は車載スピーカを使用できる。車載ディスプレイとしては、例えば、LCD又は有機ELディスプレイを使用できる。「LCD」は、Liquid Crystal Displayの略語である。「EL」は、Electro Luminescenceの略語である。出力部17は、情報提供装置31の動作によって得られる情報をユーザに向けて出力する。
運転支援装置32は、第2車両20に備えられている。運転支援装置32は、ナビゲーション装置などの車載機器として構成されてもよいし、又はスマートフォンなど、車載機器に接続して使用される電子機器として構成されてもよい。
運転支援装置32は、制御部21、記憶部22、通信部23、及び測位部24といった構成要素を備える。
制御部21は、1つ以上のプロセッサである。プロセッサとしては、CPUなどの汎用プロセッサ、又は特定の処理に特化した専用プロセッサを使用できる。制御部21には、1つ以上の専用回路が含まれてもよいし、又は制御部21において、1つ以上のプロセッサを1つ以上の専用回路に置き換えてもよい。専用回路としては、例えば、FPGA又はASICを使用できる。制御部21には、1つ以上のECUが含まれてもよい。制御部21は、運転支援装置32を含む第2車両20の各部を制御しながら、運転支援装置32の動作に関わる情報処理を実行する。
記憶部22は、1つ以上のメモリである。メモリとしては、例えば、半導体メモリ、磁気メモリ、又は光メモリを使用できる。メモリは、主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してよい。記憶部22には、運転支援装置32の動作に用いられる情報と、運転支援装置32の動作によって得られた情報とが記憶される。
通信部23は、1つ以上の通信モジュールである。通信モジュールとしては、例えば、DSRC、LTE、4G、又は5Gに対応した通信モジュールを使用できる。通信部23は、運転支援装置32の動作に用いられる情報を受信し、また運転支援装置32の動作によって得られる情報を送信する。
測位部24は、1つ以上の測位モジュールである。測位モジュールとしては、例えば、GPS、QZSS、GLONASS、又はGalileoに対応した測位モジュールを使用できる。測位部24は、第2車両20の位置情報を取得する。
運転支援装置32の機能は、本実施形態に係る運転支援プログラムを、制御部21に含まれるプロセッサで実行することにより実現される。すなわち、運転支援装置32の機能は、ソフトウェアにより実現される。運転支援プログラムは、運転支援装置32の動作に含まれるステップの処理をコンピュータに実行させることで、当該ステップの処理に対応する機能をコンピュータに実現させるためのプログラムである。すなわち、運転支援プログラムは、コンピュータを運転支援装置32として機能させるためのプログラムである。
運転支援装置32の一部又は全ての機能が、制御部21に含まれる専用回路により実現されてもよい。すなわち、運転支援装置32の一部又は全ての機能が、ハードウェアにより実現されてもよい。
第2車両20には、運転支援装置32のほかに、撮影部25、入力部26、及び出力部27が備えられている。第2車両20において、撮影部25、入力部26、及び出力部27を運転支援装置32の一部としてもよい。
撮影部25は、1つ以上の車載カメラである。車載カメラとしては、例えば、フロントカメラ、サイドカメラ、リアカメラ、又は車内カメラを使用できる。撮影部25は、第2車両20から画像を撮影する。すなわち、撮影部25は、第2車両20の外の画像を撮影する。撮影部25は、第2車両20の運転席など、第2車両20の中の画像も撮影する。
入力部26は、1つ以上の入力インタフェースである。入力インタフェースとしては、例えば、物理キー、静電容量キー、ポインティングデバイス、車載ディスプレイと一体的に設けられたタッチスクリーン、又は車載マイクを使用できる。入力部26は、運転支援装置32の動作に用いられる情報の入力を、第2車両20の運転手などのユーザから受け付ける。
出力部27は、1つ以上の出力インタフェースである。出力インタフェースとしては、例えば、車載ディスプレイ又は車載スピーカを使用できる。車載ディスプレイとしては、例えば、LCD又は有機ELディスプレイを使用できる。出力部27は、運転支援装置32の動作によって得られる情報をユーザに向けて出力する。
図1のほかに、図2を参照して、本実施形態に係る運転支援システム30の動作を説明する。運転支援システム30の動作は、本実施形態に係る運転支援方法に相当する。
ステップS101からステップS104の処理は、第1車両10で実行される。
ステップS101において、情報提供装置31の制御部11は、第1車両10の運転手画像を取得する。
具体的には、制御部11は、第1車両10の運転席の画像など、第1車両10の運転手の頭及び眼球を含む画像を撮影部15から取得する。
ステップS102において、制御部11は、第1車両10にて第1車両10の運転手が脇見をしたことをイベントとして検出する。
具体的には、制御部11は、ステップS101で取得した画像を解析して、第1車両10の運転手の視線方向を算出する。そして、制御部11は、第1車両10の運転手の視線が、第1車両10のフロントガラスの特定領域、ドアミラー、バックミラー、計器パネル、又はナビゲーション画面など、第1車両10の運転手が注視すべき対象に向けられているかどうかに応じて、第1車両10の運転手が脇見をしているかどうかを判定する。人の頭及び眼球を含む画像から視線方向を算出する技術を含む、運転手が脇見をしているかどうかを判定する技術としては、特許文献1又は2に記載の技術など、任意の従来技術を使用できる。
制御部11は、第1車両10の運転手が脇見をしていると判定した場合、出力部17を介して、第1車両10の運転手に注意を喚起するためのメッセージを出力してよい。このメッセージは表示されてもよいし、音声で出力されてもよい。
ステップS101及びステップS102の処理は、制御部11によりイベントが検出されるまで繰り返し実行される。制御部11によりイベントが検出された場合、ステップS103以降の処理が実行される。
ステップS103において、制御部11は、イベント位置情報41を取得する。イベント位置情報41は、制御部11によりイベントが検出されたときの第1車両10の位置情報である。
本実施形態では、制御部11は、対象画像42をさらに取得する。対象画像42は、第1車両10から撮影された、第1車両10の運転手による脇見の対象を含む画像である。
具体的には、制御部11は、現在時刻における第1車両10の位置情報をイベント位置情報41として測位部14から取得する。この位置情報は、例えば、GPS、QZSS、GLONASS、Galileo、又はこれらのうち2つ以上の組み合わせを利用して得られた、第1車両10の現在位置の2次元座標又は3次元座標である。制御部11は、ステップS102で算出した視線方向の画像を対象画像42として撮影部15から取得する。制御部11は、取得したイベント位置情報41を記憶部12に記憶するとともに、取得した対象画像42を、そのイベント位置情報41に対応付けて記憶部12に記憶する。
撮影部15は、第1車両10から対象画像42を撮影する際に、制御部11により制御されて、ステップS102で算出された視線方向にほぼ一致するように撮影方向を自動調整してよい。あるいは、撮影部15は、第1車両10から対象画像42を撮影する際に、制御部11により制御されて、第1車両10の前方、側方、及び後方といった複数の撮影方向の中から、ステップS102で算出された視線方向にほぼ一致する撮影方向を選択してもよい。
制御部11は、撮影部15から取得した対象画像42に対し、切り出し、拡大縮小、又は解像度変更などの加工を施した上で、加工後の対象画像42を記憶部12に記憶してもよい。
ステップS104において、情報提供装置31の通信部13は、制御部11により取得されたイベント位置情報41に示されている位置に向かって運転中の、第2車両20の運転手に注意を喚起するために、そのイベント位置情報41を提供する。
本実施形態では、通信部13は、制御部11により取得された対象画像42を、イベント位置情報41に示されている位置に向かって運転中の、第2車両20の運転手に提示するためにさらに提供する。
具体的には、制御部11は、記憶部12に記憶されたイベント位置情報41と、記憶部12に記憶され、そのイベント位置情報41に対応する対象画像42とを通信部13に入力する。通信部13は、制御部11から入力されたイベント位置情報41及び対象画像42を、車車間通信、路車間通信、又はネットワーク経由の通信によって、第2車両20の運転支援装置32に送信する。
通信部13は、イベント位置情報41及び対象画像42を、クラウドコンピューティングシステム又はその他のコンピューティングシステムに属するサーバを介して提供してもよい。
ステップS105からステップS108の処理は、第2車両20で実行される。
ステップS105において、運転支援装置32の通信部23は、第1車両10の情報提供装置31から提供されたイベント位置情報41を取得する。
本実施形態では、通信部23は、第1車両10の情報提供装置31から提供された対象画像42をさらに取得する。
具体的には、通信部23は、第1車両10の情報提供装置31から送信されたイベント位置情報41及び対象画像42を、車車間通信、路車間通信、又はネットワーク経由の通信によって受信する。制御部21は、通信部23により受信されたイベント位置情報41及び対象画像42を通信部23から取得する。制御部21は、取得したイベント位置情報41を記憶部22に記憶するとともに、取得した対象画像42を、そのイベント位置情報41に対応付けて記憶部22に記憶する。
ステップS106において、運転支援装置32の制御部21は、第2車両20の位置情報を取得する。
具体的には、制御部21は、現在時刻における第2車両20の位置情報を測位部24から取得する。この位置情報は、例えば、GPS、QZSS、GLONASS、Galileo、又はこれらのうち2つ以上の組み合わせを利用して得られた、第2車両20の現在位置の2次元座標又は3次元座標である。
ステップS107において、制御部21は、第2車両20の運転手が通信部23により取得されたイベント位置情報41に示されている位置に向かって運転中であるかどうかを判定する。すなわち、制御部21は、第2車両20がイベント位置情報41に示されている位置に接近中であるかどうかを判定する。
具体的には、制御部21は、ステップS106で取得した位置情報に示されている、第2車両20の現在位置と、記憶部22に記憶されたイベント位置情報41に示されている位置との間の距離を計算する。制御部21は、計算した距離を閾値と比較する。閾値は、1キロメートルといった固定値でもよいし、第2車両20が走行中の道路の制限速度に応じて動的に求められる値でもよいし、又は第2車両20の速度に応じて動的に求められる値でもよい。閾値は、固定値の場合、第2車両20が一般道路を走行中であれば1キロメートル、第2車両20が高速道路を走行中であれば3キロメートルといったように、第2車両20が走行中の道路の種別に応じて選ばれる値であってもよい。制御部21は、計算した距離が閾値よりも大きければ、第2車両20がイベント位置情報41に示されている位置に接近中でないと判定する。制御部21は、計算した距離が閾値よりも小さければ、第2車両20がイベント位置情報41に示されている位置に接近中である、すなわち、第2車両20の運転手がイベント位置情報41に示されている位置に向かって運転中であると判定する。
イベント位置情報41には、イベントが検出されたときの第1車両10の進行方向を示す情報が含まれていてもよい。その場合、制御部21は、ステップS106で取得した位置情報に示されている位置の変動に応じて、第2車両20の進行方向を判定する。制御部21は、計算した距離が閾値よりも小さく、かつ、判定した進行方向がイベント位置情報41に示されている進行方向と同じである場合に、第2車両20がイベント位置情報41に示されている位置に接近中であると判定する。
ステップS106及びステップS107の処理は、制御部21により第2車両20がイベント位置情報41に示されている位置に接近中であると判定されるまで繰り返し実行される。制御部21により第2車両20がイベント位置情報41に示されている位置に接近中であると判定された場合、ステップS108の処理が実行される。
ステップS108において、制御部21は、注意を喚起するための注意情報43を第2車両20の運転手に提示する。制御部21は、注意情報43を提示する手段として、出力部27を利用する。すなわち、出力部27は、制御部21により制御されて、注意情報43を第2車両20の運転手に提示するために出力する。
本実施形態では、制御部21は、通信部23により取得された対象画像42を注意情報43の少なくとも一部として第2車両20の運転手に提示する。制御部21は、対象画像42を提示する手段として、出力部27を利用する。すなわち、出力部27は、制御部21により制御されて、通信部23により取得された対象画像42を注意情報43の少なくとも一部として第2車両20の運転手に提示するために表示する。
具体的には、制御部21は、記憶部22に記憶された対象画像42を、「この先、脇見に注意」といった注意喚起のメッセージとともに注意情報43として出力部27に入力する。出力部27は、制御部21から入力された注意情報43を含む画面を表示する。この画面において、注意情報43に含まれる注意喚起のメッセージは、文字で表示される。同じ画面において、地図上の、イベント位置情報41に示されている位置にアイコンなどの図形が表示されてもよい。同じ地図上の第2車両20の現在位置にも別のアイコンなどの図形が表示されてよい。安全な運転に支障をきたさないように、画面内の情報量は適度に調整される。例えば、注意情報43に含まれる注意喚起のメッセージは、文字で表示される代わりに、音声で出力されてもよい。
注意情報43を含む画面が表示される時間の長さは、30秒といった固定時間でもよいし、又は第2車両20の位置に応じて動的に決められる時間でもよい。注意情報43を含む画面が表示される時間の長さは、第2車両20の位置に応じて動的に決められる場合、第2車両20がイベント位置情報41に示されている位置に到達するまでの時間でよい。安全な運転に支障をきたさないように、第2車両20が停止しているときなど、第2車両20の速度が規定値よりも遅いときのみ、注意情報43を含む画面を表示してもよい。
注意喚起のメッセージは、「この先で富士山が見えますが、脇見に注意して、安全な運転を心がけてください」といった、脇見の対象を知らせるメッセージでもよい。
その場合、ステップS103において、第1車両10の情報提供装置31の制御部11は、対象画像42を解析して、第1車両10の運転手による脇見の対象を認識する。画像内の対象を認識する技術としては、例えば、機械学習による画像認識技術を使用できる。制御部11は、認識した対象を知らせるメッセージを生成する。ステップS104において、情報提供装置31の通信部13は、イベント位置情報41のほかに、対象画像42を、制御部11により生成されたメッセージとともに注意情報43として第2車両20の運転支援装置32に提供する。ステップS105において、運転支援装置32の通信部23は、第1車両10の情報提供装置31から提供されたイベント位置情報41及び注意情報43を取得する。ステップS107で運転支援装置32の制御部21により第2車両20がイベント位置情報41に示されている位置に接近中であると判定された場合、ステップS108において、制御部21は、通信部23により取得された注意情報43を第2車両20の運転手に提示する。
上述のように、本実施形態では、情報提供装置31の制御部11は、第1車両10にて第1車両10の運転手が脇見をしたことをイベントとして検出する。制御部11は、イベントを検出したときの第1車両10の位置情報であるイベント位置情報41を取得する。情報提供装置31の通信部13は、制御部11により取得されたイベント位置情報41に示されている位置に向かって運転中の、第2車両20の運転手に注意を喚起するためにイベント位置情報41を提供する。運転支援装置32の制御部21は、イベント位置情報41を取得する。制御部21は、第2車両20がイベント位置情報41に示されている位置に到達する前に、注意を喚起するための注意情報43を第2車両20の運転手に提示する。したがって、本実施形態によれば、運転手が脇見をする可能性が高い箇所における運転の安全性が向上する。
本実施形態では、情報提供装置31の制御部11は、第1車両10から撮影された、脇見の対象を含む画像である対象画像42を取得する。情報提供装置31の通信部13は、制御部11により取得された対象画像42を、イベント位置情報41に示されている位置に向かって運転中の、第2車両20の運転手に提示するために提供する。運転支援装置32の制御部21は、対象画像42を注意情報43の少なくとも一部として第2車両20の運転手に提示する。したがって、本実施形態によれば、運転手が脇見をする可能性が高い箇所における運転の安全性がより一層向上する。
運転支援装置32の制御部21は、第2車両20が完全自動運転モードのときは、対象画像42を含む注意情報43を第2車両20の運転手に提示しなくてよい。完全自動運転モードは、SAEのレベル分けにおける「レベル5」に相当するが、「レベル4」を含んでもよいし、又は他の定義による自動運転レベルを含んでもよい。「SAE」は、Society of Automotive Engineersの略語である。
情報提供装置31は、クラウドコンピューティングシステム又はその他のコンピューティングシステムに属するサーバとして構成されてもよい。その場合、ステップS101からステップS104の処理は、サーバで実行される。第1車両10の運転手画像、第1車両10の位置情報、又は第1車両10の運転手の視線方向にほぼ一致する撮影方向の画像など、ステップS101からステップS104の処理に必要な情報は、第1車両10からサーバにアップロードされてよい。イベント位置情報41及び対象画像42は、サーバから第2車両20に配信されてよい。
(第2実施形態)
図3を参照して、本実施形態の概要を説明する。
第1実施形態では、第1車両10の制御部11が、第1車両10にて第1車両10の運転手が脇見をしたことをイベントとして検出する。これに対し、本実施形態では、第2車両20の制御部21が、第2車両20にて第2車両20の運転手が脇見をしたことをイベントとして検出する。イベントの検出時とは別の機会において、第2車両20の出力部27は、注意を喚起するための注意情報43を、制御部21によりイベントが検出されたときの第2車両20の位置と同じ位置に向かって運転中の、第2車両20の運転手に提示するために出力する。
第2車両20の運転手が過去に脇見をした箇所は、第2車両20の運転手が再び脇見をする可能性が高い箇所であるといえる。第2車両20の運転手は、その箇所に向かって再び運転しているときに、出力部27に出力された注意情報43を見るか又は聞くことで、前もって脇見に注意することができる。よって、本実施形態によれば、運転手が脇見をする可能性が高い箇所における運転の安全性が向上する。
第1実施形態のような第1車両10は不要であるため、第2車両20を単に「車両」と呼んでもよい。
図3を参照して、本実施形態に係る運転支援システム30の構成を説明する。第1実施形態と共通の部分については、説明を適宜省略又は簡略化する。
運転支援システム30は、運転支援装置32を備える。運転支援システム30は、第1実施形態のような情報提供装置31を備えなくてよい。
第1実施形態と同じように、運転支援装置32は、第2車両20に備えられている。
第1実施形態と同じように、第2車両20には、運転支援装置32のほかに、撮影部25、入力部26、及び出力部27が備えられている。
図3のほかに、図4を参照して、本実施形態に係る運転支援システム30の動作を説明する。第1実施形態と共通の部分については、説明を適宜省略又は簡略化する。運転支援システム30の動作は、本実施形態に係る運転支援方法に相当する。
ステップS201からステップS206の処理は、第2車両20で実行される。
ステップS201からステップS203の処理については、第1車両10、情報提供装置31の制御部11、記憶部12、及び測位部14、並びに撮影部15が、それぞれ第2車両20、運転支援装置32の制御部21、記憶部22、及び測位部24、並びに撮影部25に置き換わる点を除き、ステップS101からステップS103の処理と同じであるため、説明を省略する。
ステップS204の処理については、ステップS106の処理と同じであるため、説明を省略する。
ステップS205の処理については、第2車両20の外部から受信された位置情報ではなく、ステップS203において第2車両20の内部で取得された位置情報がイベント位置情報41として利用される点を除き、ステップS107の処理と同じであるため、説明を省略する。
ステップS206の処理については、第2車両20の外部から受信された画像ではなく、ステップS203において第2車両20の内部で取得された画像が対象画像42として利用される点を除き、ステップS108の処理と同じであるため、説明を省略する。
制御部21は、取得したイベント位置情報41及び対象画像42を記憶部22に記憶する代わりに、クラウドストレージなど、第2車両20の外部のストレージに記憶しておき、通信部23を介してイベント位置情報41及び対象画像42を取得して利用してもよい。
上述のように、本実施形態では、運転支援装置32の制御部21は、第2車両20にて第2車両20の運転手が脇見をしたことをイベントとして検出する。制御部21は、イベントを検出したときの第2車両20の位置情報であるイベント位置情報41を取得する。制御部21は、イベントの検出時とは別の機会に、第2車両20がイベント位置情報41に示されている位置に到達する前に、注意を喚起するための注意情報43を第2車両20の運転手に提示する。制御部21は、例えば、第2車両20にてイベントが発生した後、一定期間が経過してから第2車両20がイベントの発生地点を再び走行しようとするときに、注意情報43を第2車両20の運転手に提示する。したがって、本実施形態によれば、運転手が脇見をする可能性が高い箇所における運転の安全性が向上する。
本実施形態では、運転支援装置32の制御部21は、第2車両20から撮影された、脇見の対象を含む画像である対象画像42を取得する。制御部21は、イベントの検出時とは別の機会に、第2車両20がイベント位置情報41に示されている位置に到達する前に、対象画像42を注意情報43の少なくとも一部として第2車両20の運転手に提示する。制御部21は、例えば、第2車両20にてイベントが発生した後、一定期間が経過してから第2車両20がイベントの発生地点を再び走行しようとするときに、対象画像42を第2車両20の運転手に提示する。したがって、本実施形態によれば、運転手が脇見をする可能性が高い箇所における運転の安全性がより一層向上する。
本発明は上述の実施形態に限定されるものではない。例えば、ブロック図に記載の複数のブロックを統合してもよいし、又は1つのブロックを分割してもよい。フローチャートに記載の複数のステップを記述に従って時系列に実行する代わりに、各ステップを実行する装置の処理能力に応じて、又は必要に応じて、並列的に又は異なる順序で実行してもよい。その他、本発明の趣旨を逸脱しない範囲での変更が可能である。
10 第1車両
11 制御部
12 記憶部
13 通信部
14 測位部
15 撮影部
16 入力部
17 出力部
20 第2車両
21 制御部
22 記憶部
23 通信部
24 測位部
25 撮影部
26 入力部
27 出力部
30 運転支援システム
31 情報提供装置
32 運転支援装置
41 イベント位置情報
42 対象画像
43 注意情報

Claims (8)

  1. 車両にて前記車両の運転手が脇見をしたことがイベントとして検出されたときの前記車両の位置情報であるイベント位置情報を取得し、注意を喚起するための注意情報を、取得した前記イベント位置情報に示されている位置に向かって運転中の運転手に提示する制御部を備え
    前記制御部は、前記車両から撮影された、前記脇見の対象を含む画像である対象画像を前記注意情報の少なくとも一部として提示する運転支援装置。
  2. 前記制御部は、前記車両とは別の車両が前記イベント位置情報に示されている位置に到達する前に、前記注意情報を当該別の車両の運転手に提示する請求項1に記載の運転支援装置。
  3. 前記制御部は、前記イベントを検出し、前記イベントの検出時とは別の機会に、前記車両が前記イベント位置情報に示されている位置に到達する前に、前記注意情報を前記車両の運転手に提示する請求項1に記載の運転支援装置。
  4. 請求項1からのいずれか1項に記載の運転支援装置と、
    前記注意情報を出力する出力部と
    を備える車両。
  5. 車両にて前記車両の運転手が脇見をしたことをイベントとして検出し、前記イベントを検出したときの前記車両の位置情報であるイベント位置情報を取得する制御部と、
    前記制御部により取得された前記イベント位置情報に示されている位置に向かって運転中の運転手に注意を喚起するために前記イベント位置情報を提供する通信部と
    を備え
    前記制御部は、前記車両から撮影された、前記脇見の対象を含む画像である対象画像を取得し、
    前記通信部は、前記制御部により取得された前記対象画像を、前記イベント位置情報に示されている位置に向かって運転中の運転手に提示するために提供する情報提供装置。
  6. 前記対象画像を撮影する撮影部と、
    請求項に記載の情報提供装置と
    を備える車両。
  7. 請求項に記載の情報提供装置と、
    前記イベント位置情報を前記情報提供装置から取得し、注意を喚起するための注意情報を、前記イベント位置情報に示されている位置に向かって運転中の運転手に提示する運転支援装置と
    を備える運転支援システム。
  8. 制御部が、車両にて前記車両の運転手が脇見をしたことをイベントとして検出し、
    出力部が、注意を喚起するための注意情報を、前記制御部により前記イベントが検出されたときの前記車両の位置と同じ位置に向かって運転中の運転手に提示するために出力し、
    前記制御部が、前記車両から撮影された、前記脇見の対象を含む画像である対象画像を取得し、
    前記出力部が、前記制御部により取得された前記対象画像を、前記注意情報の少なくとも一部として出力する運転支援方法。
JP2018240119A 2018-12-21 2018-12-21 運転支援装置、車両、情報提供装置、運転支援システム、及び運転支援方法 Active JP7119984B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018240119A JP7119984B2 (ja) 2018-12-21 2018-12-21 運転支援装置、車両、情報提供装置、運転支援システム、及び運転支援方法
US16/712,100 US11072348B2 (en) 2018-12-21 2019-12-12 Driving assist device, vehicle, information providing device, driving assist system, and driving assist method
CN201911284889.XA CN111347975B (zh) 2018-12-21 2019-12-13 驾驶辅助装置、车辆、信息提供装置、驾驶辅助系统及驾驶辅助方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018240119A JP7119984B2 (ja) 2018-12-21 2018-12-21 運転支援装置、車両、情報提供装置、運転支援システム、及び運転支援方法

Publications (2)

Publication Number Publication Date
JP2020102033A JP2020102033A (ja) 2020-07-02
JP7119984B2 true JP7119984B2 (ja) 2022-08-17

Family

ID=71099270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018240119A Active JP7119984B2 (ja) 2018-12-21 2018-12-21 運転支援装置、車両、情報提供装置、運転支援システム、及び運転支援方法

Country Status (3)

Country Link
US (1) US11072348B2 (ja)
JP (1) JP7119984B2 (ja)
CN (1) CN111347975B (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010151942A (ja) 2008-12-24 2010-07-08 Toyota Motor Corp ドライビングシミュレータ
JP2016110449A (ja) 2014-12-08 2016-06-20 富士通テン株式会社 運転支援システムおよび運転支援方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6615137B2 (en) * 2001-06-26 2003-09-02 Medius, Inc. Method and apparatus for transferring information between vehicles
JP4551766B2 (ja) * 2002-10-15 2010-09-29 ボルボ テクノロジー コーポレイション 被験者の頭及び目の動きを分析する方法及び装置
JP3915655B2 (ja) 2002-10-25 2007-05-16 マツダ株式会社 車両用運転支援システム
JP4277081B2 (ja) * 2004-03-17 2009-06-10 株式会社デンソー 運転支援装置
US20100019932A1 (en) * 2008-07-24 2010-01-28 Tele Atlas North America, Inc. Driver Initiated Vehicle-to-Vehicle Anonymous Warning Device
WO2011114366A1 (ja) * 2010-03-16 2011-09-22 三菱電機株式会社 路車協調型安全運転支援装置
US20130096820A1 (en) 2011-10-14 2013-04-18 Continental Automotive Systems, Inc. Virtual display system for a vehicle
JP5910450B2 (ja) * 2012-10-03 2016-04-27 株式会社デンソー 車両用ナビゲーションシステム
JP2014095987A (ja) * 2012-11-08 2014-05-22 Denso Corp 車載機および車両安全制御システム
US9905131B2 (en) * 2015-12-29 2018-02-27 Thunder Power New Energy Vehicle Development Company Limited Onboard vehicle notification system
JP6485405B2 (ja) 2016-05-25 2019-03-20 株式会社デンソー 安全運転支援装置及び安全運転支援プログラム
US9937792B2 (en) * 2016-07-13 2018-04-10 Ford Global Technologies, Llc Occupant alertness-based navigation
CN106710307A (zh) * 2017-01-06 2017-05-24 汽-大众汽车有限公司 一种车辆辅助驾驶方法和装置
KR102463722B1 (ko) * 2018-02-20 2022-11-07 현대자동차주식회사 차량의 속도 설정 장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010151942A (ja) 2008-12-24 2010-07-08 Toyota Motor Corp ドライビングシミュレータ
JP2016110449A (ja) 2014-12-08 2016-06-20 富士通テン株式会社 運転支援システムおよび運転支援方法

Also Published As

Publication number Publication date
US20200198655A1 (en) 2020-06-25
JP2020102033A (ja) 2020-07-02
CN111347975B (zh) 2023-08-22
CN111347975A (zh) 2020-06-30
US11072348B2 (en) 2021-07-27

Similar Documents

Publication Publication Date Title
CN109791054B (zh) 信息输出控制装置及信息输出控制方法
JP6494782B2 (ja) 報知制御装置及び報知制御方法
WO2014095071A1 (en) System for a vehicle
US11873007B2 (en) Information processing apparatus, information processing method, and program
US11180082B2 (en) Warning output device, warning output method, and warning output system
KR102598953B1 (ko) 차량 제어 장치, 그를 포함한 시스템 및 그 방법
US20200175872A1 (en) Information providing system, server, onboard device, storage medium, and information providing method
US11713046B2 (en) Driving assistance apparatus and data collection system
JP2019008709A (ja) 車両、情報処理システム、情報処理装置、およびデータ構造
US11270136B2 (en) Driving support device, vehicle, information providing device, driving support system, and driving support method
JP6891926B2 (ja) 車両システム、車両システムで実行される方法、および運転者支援システム
WO2020105685A1 (ja) 表示制御装置、方法、及びコンピュータ・プログラム
JP7119984B2 (ja) 運転支援装置、車両、情報提供装置、運転支援システム、及び運転支援方法
US20190259275A1 (en) Information providing method and information providing system
KR101744718B1 (ko) 차량용 표시 시스템 및 그 제어방법
JP7159851B2 (ja) 運転支援装置、車両、情報提供装置、運転支援システム、及び運転支援方法
US11842661B2 (en) Control method and information display system
JP2020121607A (ja) 表示制御装置、方法、及びコンピュータ・プログラム
JP2020201647A (ja) 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム
CN111355925B (zh) 控制装置、车辆、图像显示系统和图像显示方法
KR102506862B1 (ko) 차량 제어 장치 및 방법
WO2020008876A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
JP2020091231A (ja) 情報提示システム、情報提示方法、プログラム、及び、移動体
KR20230001923A (ko) 운전자 시선 기반의 헤드업 디스플레이 영상 출력 제어 방법 및 장치
JP2020094861A (ja) 運転支援装置、運転支援プログラム、および、運転支援システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220718

R151 Written notification of patent or utility model registration

Ref document number: 7119984

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151