JP2020102031A - 運転支援装置、車両、情報提供装置、運転支援システム、及び運転支援方法 - Google Patents

運転支援装置、車両、情報提供装置、運転支援システム、及び運転支援方法 Download PDF

Info

Publication number
JP2020102031A
JP2020102031A JP2018240115A JP2018240115A JP2020102031A JP 2020102031 A JP2020102031 A JP 2020102031A JP 2018240115 A JP2018240115 A JP 2018240115A JP 2018240115 A JP2018240115 A JP 2018240115A JP 2020102031 A JP2020102031 A JP 2020102031A
Authority
JP
Japan
Prior art keywords
vehicle
event
target
control unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018240115A
Other languages
English (en)
Other versions
JP7159851B2 (ja
Inventor
卓郎 柳
Takuro Yanagi
卓郎 柳
麻貴 田村
Maki Tamura
麻貴 田村
睦実 松浦
Mutsumi Matsuura
睦実 松浦
井上 利彦
Toshihiko Inoue
利彦 井上
直樹 山室
Naoki Yamamuro
直樹 山室
林 貴志
Takashi Hayashi
貴志 林
孝広 志賀
Takahiro Shiga
孝広 志賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018240115A priority Critical patent/JP7159851B2/ja
Priority to US16/690,230 priority patent/US20200200560A1/en
Priority to CN201911195347.5A priority patent/CN111348049A/zh
Publication of JP2020102031A publication Critical patent/JP2020102031A/ja
Application granted granted Critical
Publication of JP7159851B2 publication Critical patent/JP7159851B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3655Timing of guidance instructions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

【課題】運転手が道路に存在する対象を間違えにくくなるようにする。【解決手段】運転支援装置32は、車両にて第1対象が第1対象と同じ道路に存在する第2対象と誤認されたことがイベントとして検出されたときの車両の位置情報であるイベント位置情報41と、車両から撮影された、第2対象を含む画像である対象画像42とを取得し、取得した対象画像42を、取得したイベント位置情報41に示されている位置に向かって運転中の運転手に提示する制御部21を備える。【選択図】図1

Description

本発明は、運転支援装置、車両、情報提供装置、運転支援システム、及び運転支援方法に関する。
特許文献1には、走行履歴情報に基づいて、交差点でユーザの走行経路が予定の走行経路から外れる間違い確率を求め、ユーザの車両が当該交差点を走行するときに、ユーザの間違い確率に応じた経路案内を行う技術が記載されている。
特開2008−064483号公報
車両の進行方向に複数の信号が並んでいる場合、又は複雑な交差点で複数の信号が似たような方向を向いている場合など、運転手が従うべき信号がわかりにくく、信号を間違えてしまうことがある。運転手が高速道路又は慣れない道路を運転中、ナビゲーション機能を利用しているにも関わらず、分岐又は交差点を間違えてしまうことがある。
特許文献1に記載の技術では、間違い確率が基準確率よりも高い場合、通常の「300m先、交差点を左折してください」といった経路案内よりも詳細な「300m先、ガソリンスタンドが角にある交差点を左折してください」といった経路案内が行われる。しかし、詳細な経路案内が必ずしもわかりやすいとは限らない。特に、複雑な交差点では、詳細な経路案内が却って混乱を招くおそれがある。目印がない交差点では、詳細な経路案内を行うこと自体難しい。
本発明の目的は、運転手が道路に存在する対象を間違えにくくなるようにすることである。
本発明の一実施形態に係る運転支援装置は、
車両にて第1対象が前記第1対象と同じ道路に存在する第2対象と誤認されたことがイベントとして検出されたときの前記車両の位置情報であるイベント位置情報と、前記車両から撮影された、前記第2対象を含む画像である対象画像とを取得し、取得した対象画像を、取得したイベント位置情報に示されている位置に向かって運転中の運転手に提示する制御部を備える。
本発明の一実施形態に係る情報提供装置は、
車両にて第1対象が前記第1対象と同じ道路に存在する第2対象と誤認されたことをイベントとして検出し、前記イベントを検出したときの前記車両の位置情報であるイベント位置情報と、前記車両から撮影された、前記第2対象を含む画像である対象画像とを取得する制御部と、
前記制御部により取得された対象画像を、前記制御部により取得されたイベント位置情報に示されている位置に向かって運転中の運転手に提示するために提供する通信部と
を備える。
本発明の一実施形態に係る運転支援方法では、
制御部が、車両にて第1対象が前記第1対象と同じ道路に存在する第2対象と誤認されたことをイベントとして検出し、
出力部が、前記車両から撮影された、前記第2対象を含む画像を、前記制御部により前記イベントが検出されたときの前記車両の位置と同じ位置に向かって運転中の運転手に提示するために表示する。
本発明の一実施形態によれば、運転手が道路に存在する対象を間違えにくくなる。
第1実施形態に係る運転支援システムの構成を示すブロック図である。 第1実施形態に係る運転支援システムの動作を示すフローチャートである。 第2実施形態に係る運転支援システムの構成を示すブロック図である。 第2実施形態に係る運転支援システムの動作を示すフローチャートである。
以下、本発明の実施形態について、図を参照して説明する。
各図中、同一又は相当する部分には、同一符号を付している。各実施形態の説明において、同一又は相当する部分については、説明を適宜省略又は簡略化する。
(第1実施形態)
図1を参照して、本実施形態の概要を説明する。
第1車両10の制御部11は、第1車両10にて第1対象が第1対象と同じ道路に存在する第2対象と誤認されたことをイベントとして検出する。第1車両10とは別の車両である第2車両20の出力部27は、第1車両10から撮影された、第2対象を含む画像を、第1車両10の制御部11によりイベントが検出されたときの第1車両10の位置と同じ位置に向かって運転中の、第2車両20の運転手に提示するために表示する。
第2車両20の運転手は、第1車両10の運転手により第1対象が第2対象と誤認されるというイベントが発生した位置に向かって運転しているときに、出力部27に表示された対象画像42を見ることで、第2対象の外観を目で確認しておくことができる。よって、本実施形態によれば、第1対象を第2対象と誤認する間違いが起こりにくくなる。すなわち、運転手が道路に存在する対象を間違えにくくなる。
対象画像42は、第2対象のみをアップにした画像でもよいが、本実施形態では、第2対象の周辺も含む画像である。そのため、第2車両20の運転手は、出力部27に表示された対象画像42を見ることで、第2対象の外観だけでなく、第2対象の周辺に何が見えるかも目で確認しておくことができる。よって、本実施形態によれば、第1対象を第2対象と誤認する間違いがより一層起こりにくくなる。
第1対象及び第2対象は、本実施形態では、信号、分岐、又は交差点であるが、同じ道路に存在する対象であればよく、道路上にある物又は場所でもよいし、あるいは道路に面している物又は場所でもよい。「物」には、標識などの小さい物から建物などの大きな物まで種々の物が含まれてよい。
第1車両10及び第2車両20は、いずれも任意の車両でよいが、本実施形態では、いずれも自動車である。第1車両10及び第2車両20の関係は、1対1の関係に限らず、1対多、多対1、及び多対多のいずれの関係でもよい。
図1を参照して、本実施形態に係る運転支援システム30の構成を説明する。
運転支援システム30は、情報提供装置31と、運転支援装置32とを備える。
情報提供装置31は、第1車両10に備えられている。情報提供装置31は、ナビゲーション装置などの車載機器として構成されてもよいし、又はスマートフォンなど、車載機器に接続して使用される電子機器として構成されてもよい。
情報提供装置31は、制御部11、記憶部12、通信部13、及び測位部14といった構成要素を備える。
制御部11は、1つ以上のプロセッサである。プロセッサとしては、CPUなどの汎用プロセッサ、又は特定の処理に特化した専用プロセッサを使用できる。「CPU」は、Central Processing Unitの略語である。制御部11には、1つ以上の専用回路が含まれてもよいし、又は制御部11において、1つ以上のプロセッサを1つ以上の専用回路に置き換えてもよい。専用回路としては、例えば、FPGA又はASICを使用できる。「FPGA」は、Field-Programmable Gate Arrayの略語である。「ASIC」は、Application Specific Integrated Circuitの略語である。制御部11には、1つ以上のECUが含まれてもよい。「ECU」は、Electronic Control Unitの略語である。制御部11は、情報提供装置31を含む第1車両10の各部を制御しながら、情報提供装置31の動作に関わる情報処理を実行する。
記憶部12は、1つ以上のメモリである。メモリとしては、例えば、半導体メモリ、磁気メモリ、又は光メモリを使用できる。メモリは、主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してよい。記憶部12には、情報提供装置31の動作に用いられる情報と、情報提供装置31の動作によって得られた情報とが記憶される。
通信部13は、1つ以上の通信モジュールである。通信モジュールとしては、例えば、DSRC、LTE、4G、又は5Gに対応した通信モジュールを使用できる。「DSRC」は、Dedicated Short Range Communicationsの略語である。「LTE」は、Long Term Evolutionの略語である。「4G」は、4th Generationの略語である。「5G」は、5th Generationの略語である。通信部13は、情報提供装置31の動作に用いられる情報を受信し、また情報提供装置31の動作によって得られる情報を送信する。
測位部14は、1つ以上の測位モジュールである。測位モジュールとしては、例えば、GPS、QZSS、GLONASS、又はGalileoに対応した測位モジュールを使用できる。「GPS」は、Global Positioning Systemの略語である。「QZSS」は、Quasi-Zenith Satellite Systemの略語である。QZSSの衛星は、準天頂衛星と呼ばれる。「GLONASS」は、Global Navigation Satellite Systemの略語である。測位部14は、第1車両10の位置情報を取得する。
情報提供装置31の機能は、本実施形態に係る情報提供プログラムを、制御部11に含まれるプロセッサで実行することにより実現される。すなわち、情報提供装置31の機能は、ソフトウェアにより実現される。情報提供プログラムは、情報提供装置31の動作に含まれるステップの処理をコンピュータに実行させることで、当該ステップの処理に対応する機能をコンピュータに実現させるためのプログラムである。すなわち、情報提供プログラムは、コンピュータを情報提供装置31として機能させるためのプログラムである。
プログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、又は半導体メモリを使用できる。プログラムの流通は、例えば、プログラムを記録したDVD又はCD−ROMなどの可搬型記録媒体を販売、譲渡、又は貸与することによって行う。「DVD」は、Digital Versatile Discの略語である。「CD−ROM」は、Compact Disc Read Only Memoryの略語である。プログラムをサーバのストレージに格納しておき、ネットワークを介して、サーバから他のコンピュータにプログラムを転送することにより、プログラムを流通させてもよい。プログラムをプログラムプロダクトとして提供してもよい。
コンピュータは、例えば、可搬型記録媒体に記録されたプログラム又はサーバから転送されたプログラムを、一旦、メモリに格納する。そして、コンピュータは、メモリに格納されたプログラムをプロセッサで読み取り、読み取ったプログラムに従った処理をプロセッサで実行する。コンピュータは、可搬型記録媒体から直接プログラムを読み取り、プログラムに従った処理を実行してもよい。コンピュータは、コンピュータにサーバからプログラムが転送される度に、逐次、受け取ったプログラムに従った処理を実行してもよい。サーバからコンピュータへのプログラムの転送は行わず、実行指示及び結果取得のみによって機能を実現する、いわゆるASP型のサービスによって処理を実行してもよい。「ASP」は、Application Service Providerの略語である。プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるものが含まれる。例えば、コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータは、「プログラムに準ずるもの」に該当する。
情報提供装置31の一部又は全ての機能が、制御部11に含まれる専用回路により実現されてもよい。すなわち、情報提供装置31の一部又は全ての機能が、ハードウェアにより実現されてもよい。
第1車両10には、情報提供装置31のほかに、撮影部15、入力部16、及び出力部17が備えられている。第1車両10において、撮影部15、入力部16、及び出力部17を情報提供装置31の一部としてもよい。
撮影部15は、1つ以上の車載カメラである。車載カメラとしては、例えば、フロントカメラ、サイドカメラ、リアカメラ、又は車内カメラを使用できる。撮影部15は、第1車両10から画像を撮影する。すなわち、撮影部15は、第1車両10の外の画像を撮影する。撮影部15は、第1車両10の運転席など、第1車両10の中の画像も撮影する。
入力部16は、1つ以上の入力インタフェースである。入力インタフェースとしては、例えば、物理キー、静電容量キー、ポインティングデバイス、車載ディスプレイと一体的に設けられたタッチスクリーン、又は車載マイクを使用できる。入力部16は、情報提供装置31の動作に用いられる情報の入力を、第1車両10の運転手などのユーザから受け付ける。
出力部17は、1つ以上の出力インタフェースである。出力インタフェースとしては、例えば、車載ディスプレイ又は車載スピーカを使用できる。車載ディスプレイとしては、例えば、LCD又は有機ELディスプレイを使用できる。「LCD」は、Liquid Crystal Displayの略語である。「EL」は、Electro Luminescenceの略語である。出力部17は、情報提供装置31の動作によって得られる情報をユーザに向けて出力する。
運転支援装置32は、第2車両20に備えられている。運転支援装置32は、ナビゲーション装置などの車載機器として構成されてもよいし、又はスマートフォンなど、車載機器に接続して使用される電子機器として構成されてもよい。
運転支援装置32は、制御部21、記憶部22、通信部23、及び測位部24といった構成要素を備える。
制御部21は、1つ以上のプロセッサである。プロセッサとしては、CPUなどの汎用プロセッサ、又は特定の処理に特化した専用プロセッサを使用できる。制御部21には、1つ以上の専用回路が含まれてもよいし、又は制御部21において、1つ以上のプロセッサを1つ以上の専用回路に置き換えてもよい。専用回路としては、例えば、FPGA又はASICを使用できる。制御部21には、1つ以上のECUが含まれてもよい。制御部21は、運転支援装置32を含む第2車両20の各部を制御しながら、運転支援装置32の動作に関わる情報処理を実行する。
記憶部22は、1つ以上のメモリである。メモリとしては、例えば、半導体メモリ、磁気メモリ、又は光メモリを使用できる。メモリは、主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してよい。記憶部22には、運転支援装置32の動作に用いられる情報と、運転支援装置32の動作によって得られた情報とが記憶される。
通信部23は、1つ以上の通信モジュールである。通信モジュールとしては、例えば、DSRC、LTE、4G、又は5Gに対応した通信モジュールを使用できる。通信部23は、運転支援装置32の動作に用いられる情報を受信し、また運転支援装置32の動作によって得られる情報を送信する。
測位部24は、1つ以上の測位モジュールである。測位モジュールとしては、例えば、GPS、QZSS、GLONASS、又はGalileoに対応した測位モジュールを使用できる。測位部24は、第2車両20の位置情報を取得する。
運転支援装置32の機能は、本実施形態に係る運転支援プログラムを、制御部21に含まれるプロセッサで実行することにより実現される。すなわち、運転支援装置32の機能は、ソフトウェアにより実現される。運転支援プログラムは、運転支援装置32の動作に含まれるステップの処理をコンピュータに実行させることで、当該ステップの処理に対応する機能をコンピュータに実現させるためのプログラムである。すなわち、運転支援プログラムは、コンピュータを運転支援装置32として機能させるためのプログラムである。
運転支援装置32の一部又は全ての機能が、制御部21に含まれる専用回路により実現されてもよい。すなわち、運転支援装置32の一部又は全ての機能が、ハードウェアにより実現されてもよい。
第2車両20には、運転支援装置32のほかに、撮影部25、入力部26、及び出力部27が備えられている。第2車両20において、撮影部25、入力部26、及び出力部27を運転支援装置32の一部としてもよい。
撮影部25は、1つ以上の車載カメラである。車載カメラとしては、例えば、フロントカメラ、サイドカメラ、リアカメラ、又は車内カメラを使用できる。撮影部25は、第2車両20から画像を撮影する。すなわち、撮影部25は、第2車両20の外の画像を撮影する。撮影部25は、第2車両20の運転席など、第2車両20の中の画像も撮影する。
入力部26は、1つ以上の入力インタフェースである。入力インタフェースとしては、例えば、物理キー、静電容量キー、ポインティングデバイス、車載ディスプレイと一体的に設けられたタッチスクリーン、又は車載マイクを使用できる。入力部26は、運転支援装置32の動作に用いられる情報の入力を、第2車両20の運転手などのユーザから受け付ける。
出力部27は、1つ以上の出力インタフェースである。出力インタフェースとしては、例えば、車載ディスプレイ又は車載スピーカを使用できる。車載ディスプレイとしては、例えば、LCD又は有機ELディスプレイを使用できる。出力部27は、運転支援装置32の動作によって得られる情報をユーザに向けて出力する。
図1のほかに、図2を参照して、本実施形態に係る運転支援システム30の動作を説明する。運転支援システム30の動作は、本実施形態に係る運転支援方法に相当する。
ステップS101からステップS104の処理は、第1車両10で実行される。
ステップS101において、情報提供装置31の制御部11は、第1車両10の位置情報を取得する。
具体的には、制御部11は、現在時刻における第1車両10の位置情報を測位部14から取得する。この位置情報は、例えば、GPS、QZSS、GLONASS、Galileo、又はこれらのうち2つ以上の組み合わせを利用して得られた、第1車両10の現在位置の2次元座標又は3次元座標である。
ステップS102において、制御部11は、第1車両10にて第1対象が第1対象と同じ道路Rxに存在する第2対象と誤認されたことをイベントEa、イベントEb、又はイベントEcとして検出する。
イベントEaは、第2対象を、第1車両10の位置において従うべき信号A2とし、第1対象を、信号A2とは別の信号A1としたときに、第1車両10の運転手により信号A1が信号A2と誤認されるというイベントである。イベントEaは、例えば、第1車両10の進行方向に信号A1及び信号A2が並んでいる場合、又は複雑な交差点で信号A1及び信号A2が似たような方向を向いている場合に発生し得る。
制御部11は、第1車両10の挙動が信号A2の点灯状態と信号A1の点灯状態とのいずれに則しているかに応じて、イベントEaの発生有無を判定する。
具体的には、制御部11は、ステップS101で取得した位置情報に示されている、第1車両10の現在位置が範囲Nx内であるかどうかを判定する。範囲Nxは、第1車両10の運転手が信号A2に従って運転すべきなのに、信号A1を信号A2と誤認し、信号A1に従って運転してしまう状況が発生するような第1車両10の位置範囲である。例えば、信号A1及び信号A2の両方を同時に視認できる位置範囲を便宜上の範囲Nxとして設定してもよい。制御部11は、第1車両10の現在位置が範囲Nx内でなければ、イベントEaが発生していないと判定する。制御部11は、第1車両10の現在位置が範囲Nx内であれば、その後の第1車両10の位置情報を測位部14から逐次取得するとともに、第1車両10の前方の画像など、信号A1及び信号A2を含む画像を撮影部15から逐次取得する。制御部11は、取得した位置情報に示されている位置の変動に応じて、第1車両10の前進、左折、右折、又は停止といった挙動を判定する。同時に、制御部11は、取得した画像を解析して、信号A1及び信号A2それぞれの点灯色、矢印があれば矢印の方向、及び点滅しているかどうかといった点灯状態を判定する。画像内の信号の点灯状態を認識する技術としては、例えば、機械学習による画像認識技術を使用できる。制御部11は、第1車両10の挙動と信号A2の点灯状態との判定結果から、第1車両10の挙動が信号A2の点灯状態に則しているかどうかを判定する。制御部11は、第1車両10の挙動が信号A2の点灯状態に則していれば、イベントEaが発生していないと判定する。制御部11は、第1車両10の挙動が信号A2の点灯状態に則していなければ、第1車両10の挙動と信号A1の点灯状態との判定結果から、第1車両10の挙動が信号A1の点灯状態に則しているかどうかを判定する。制御部11は、第1車両10の挙動が信号A1の点灯状態に則していなければ、イベントEaが発生していないと判定する。制御部11は、第1車両10の挙動が信号A1の点灯状態に則していれば、イベントEaが発生していると判定する。例えば、制御部11は、信号A2が赤色に点灯し、信号A1が青色に点灯しているときに、第1車両10が前進していれば、イベントEaが発生していると判定する。
本実施形態では、信号A1、信号A2、及び範囲Nxは予め定義されているものとするが、制御部11は、第1車両10の位置情報を測位部14から取得する度に、第1車両10と第1車両10の周辺にある信号群との位置関係から、信号A1、信号A2、及び範囲Nxを動的に特定してもよい。第1車両10の周辺にある信号群の位置は、例えば、地図情報から特定される。
制御部11は、第1車両10の挙動が信号A2の点灯状態に則していないと判定した場合、イベントEaの発生有無に関わらず、出力部17を介して、第1車両10の運転手に注意を喚起するためのメッセージを出力してよい。このメッセージは表示されてもよいし、音声で出力されてもよい。
制御部11は、第1車両10の運転手の視線が信号A2と信号A1とのいずれに向けられているかに応じて、イベントEaの発生有無を判定してもよい。
その場合、具体的には、制御部11は、ステップS101で取得した位置情報に示されている、第1車両10の現在位置が範囲Nx内であるかどうかを判定する。制御部11は、第1車両10の現在位置が範囲Nx内でなければ、イベントEaが発生していないと判定する。制御部11は、第1車両10の現在位置が範囲Nx内であれば、その後の第1車両10の位置情報を測位部14から逐次取得するとともに、第1車両10の運転席の画像など、第1車両10の運転手の頭及び眼球を含む画像を撮影部15から逐次取得する。制御部11は、取得した位置情報と、記憶部12に予め記憶され、信号A1及び信号A2それぞれの位置を示す地図情報とを用いて、第1車両10から信号A1及び信号A2それぞれへの相対方向を算出する。同時に、制御部11は、取得した画像を解析して、第1車両10の運転手の視線方向を算出する。人の頭及び眼球を含む画像から視線方向を算出する技術としては、任意の従来技術を使用できる。制御部11は、第1車両10から信号A2への相対方向と第1車両10の運転手の視線方向との算出結果から、第1車両10の運転手の視線が信号A2に向けられているかどうかを判定する。制御部11は、第1車両10の運転手の視線が信号A2に向けられていれば、イベントEaが発生していないと判定する。制御部11は、第1車両10の運転手の視線が信号A2に向けられていなければ、第1車両10から信号A1への相対方向と第1車両10の運転手の視線方向との算出結果から、第1車両10の運転手の視線が信号A1に向けられているかどうかを判定する。制御部11は、第1車両10の運転手の視線が信号A1に向けられていなければ、イベントEaが発生していないと判定する。制御部11は、第1車両10の運転手の視線が信号A1に向けられていれば、イベントEaが発生していると判定する。
制御部11は、第1車両10の運転手の視線が信号A2に向けられていないと判定した場合、イベントEaの発生有無に関わらず、出力部17を介して、第1車両10の運転手に注意を喚起するためのメッセージを出力してよい。このメッセージは表示されてもよいし、音声で出力されてもよい。
イベントEbは、第2対象を、ナビゲーション機能により設定された第1車両10の走行経路において道路Rxから別の道路Ryに進入すべき分岐B2とし、第1対象を、分岐B2とは別の分岐B1としたときに、第1車両10の運転手により分岐B1が分岐B2と誤認されるというイベントである。イベントEbは、例えば、高速道路において、分岐B2の1キロメートル手前の地点で、ナビゲーション機能により分岐B2についての案内が行われるとして、その地点と分岐B2との間に分岐B1がある場合に発生し得る。
制御部11は、第1車両10が分岐B2と分岐B1とのいずれで道路Rxから外れたかに応じて、イベントEbの発生有無を判定する。
具体的には、制御部11は、ステップS101で取得した位置情報を、記憶部12に予め記憶され、分岐B1の位置を示す地図情報と照合することで、第1車両10の現在位置が分岐B1又はその近傍であるかどうかを判定する。制御部11は、第1車両10の現在位置が分岐B1又はその近傍でなければ、イベントEbが発生していないと判定する。制御部11は、第1車両10の現在位置が分岐B1又はその近傍であれば、ステップS101で取得した位置情報を、記憶部12に記憶され、ナビゲーション機能により設定された走行経路を示す経路情報と照合することで、第1車両10が、設定された走行経路から外れているかどうかを判定する。制御部11は、第1車両10が、設定された走行経路から外れていなければ、イベントEbが発生していないと判定する。制御部11は、第1車両10が、設定された走行経路から外れていれば、イベントEbが発生していると判定する。例えば、制御部11は、道路Rxが高速道路であり、第1車両10が分岐B2よりも前の分岐B1で、その高速道路を降りていれば、イベントEbが発生していると判定する。
本実施形態では、分岐B1は、特定の分岐B2と誤認されやすい分岐として予め定義されているものとするが、制御部11は、ナビゲーション機能により分岐B2で道路Rxから道路Ryに進入する経路が設定されたときに、分岐B2と分岐B2の周辺にある他の分岐群との位置関係から、分岐B1を動的に特定してもよい。分岐B2の周辺にある他の分岐群の位置は、例えば、地図情報から特定される。
制御部11は、第1車両10が、設定された走行経路から外れていると判定した場合、イベントEbの発生有無に関わらず、出力部17を介して、第1車両10の運転手に注意を喚起するためのメッセージを出力してよい。このメッセージは表示されてもよいし、音声で出力されてもよい。
制御部11は、第1車両10が、設定された走行経路から外れていると判定した場合、ナビゲーション機能により第1車両10の走行経路を再設定してもよい。
イベントEcは、第2対象を、ナビゲーション機能により設定された第1車両10の走行経路において道路Rxから別の道路Ryに進入すべき交差点C2とし、第1対象を、交差点C2とは別の交差点C1としたときに、第1車両10の運転手により交差点C1が交差点C2と誤認されるというイベントである。イベントEcは、例えば、一般道路において、交差点C2の300メートル手前の地点で、ナビゲーション機能により交差点C2についての案内が行われるとして、その地点と交差点C2との間に交差点C1がある場合に発生し得る。
イベントEcを検出する処理については、分岐B1及び分岐B2が、それぞれ交差点C1及び交差点C2に置き換わる点を除き、イベントEbを検出する処理と同じであるため、説明を省略する。例えば、制御部11は、道路Rxが交差点C2で道路Ryと交差し、交差点C2よりも前の交差点C1で別の道路Rzと交差しているとき、第1車両10が交差点C1で右折又は左折して道路Rzに入っていれば、イベントEcが発生していると判定する。
制御部11によりイベントEa、イベントEb、又はイベントEcが検出された場合、ステップS101において、制御部11がイベント位置情報41を取得していたことになる。イベント位置情報41は、イベントEa、イベントEb、又はイベントEcが検出されたときの第1車両10の位置情報である。
制御部11によりイベントEa、イベントEb、又はイベントEcが検出された場合、ステップS103以降の処理が実行される。
ステップS103において、制御部11は、対象画像42を取得する。対象画像42は、第1車両10から撮影された、第2対象を含む画像である。
具体的には、撮影部15は、ステップS102で検出されたイベントがイベントEaであれば、制御部21により制御されて、第1車両10の前方の画像など、信号A2を含む画像を対象画像42として撮影する。撮影部15は、ステップS102で検出されたイベントがイベントEbであれば、制御部21により制御されて、第1車両10の前方の画像など、分岐B2を含む画像を対象画像42として撮影する。撮影部15は、ステップS102で検出されたイベントがイベントEcであれば、制御部21により制御されて、第1車両10の前方の画像など、交差点C2を含む画像を対象画像42として撮影する。制御部11は、撮影された対象画像42を撮影部15から取得する。制御部11は、取得した対象画像42を記憶部12に記憶するとともに、ステップS101で取得した位置情報を、その対象画像42に対応するイベント位置情報41として記憶部12に記憶する。
制御部11は、ステップS102でイベントを検出するために撮影部15から取得した画像を対象画像42として利用できるのであれば、対象画像42を撮影部15から新たに取得しなくてもよい。制御部11は、特に、ステップS102で検出されたイベントがイベントEaであれば、ステップS102で撮影部15から取得した、信号A2を含む画像を対象画像42として利用してよい。
制御部11は、撮影部15から取得した対象画像42に対し、切り出し、拡大縮小、又は解像度変更などの加工を施した上で、加工後の対象画像42を記憶部12に記憶してもよい。
ステップS104において、情報提供装置31の通信部13は、制御部11により取得された対象画像42を、制御部11により取得されたイベント位置情報41に示されている位置に向かって運転中の、第2車両20の運転手に提示するために提供する。
具体的には、制御部11は、記憶部12に記憶された対象画像42と、記憶部12に記憶され、その対象画像42に対応するイベント位置情報41とを通信部13に入力する。通信部13は、制御部11から入力された対象画像42及びイベント位置情報41を、車車間通信、路車間通信、又はネットワーク経由の通信によって、第2車両20の運転支援装置32に送信する。
通信部13は、対象画像42及びイベント位置情報41を、クラウドコンピューティングシステム又はその他のコンピューティングシステムに属するサーバを介して提供してもよい。
ステップS105からステップS108の処理は、第2車両20で実行される。
ステップS105において、運転支援装置32の通信部23は、第1車両10の情報提供装置31から提供された対象画像42及びイベント位置情報41を取得する。
具体的には、通信部23は、第1車両10の情報提供装置31から送信された対象画像42及びイベント位置情報41を、車車間通信、路車間通信、又はネットワーク経由の通信によって受信する。制御部21は、通信部23により受信された対象画像42及びイベント位置情報41を通信部23から取得する。制御部21は、取得した対象画像42を記憶部22に記憶するとともに、取得したイベント位置情報41を、その対象画像42に対応付けて記憶部22に記憶する。
ステップS106において、運転支援装置32の制御部21は、第2車両20の位置情報を取得する。
具体的には、制御部21は、現在時刻における第2車両20の位置情報を測位部24から取得する。この位置情報は、例えば、GPS、QZSS、GLONASS、Galileo、又はこれらのうち2つ以上の組み合わせを利用して得られた、第2車両20の現在位置の2次元座標又は3次元座標である。
ステップS107において、制御部21は、第2車両20の運転手が通信部23により取得されたイベント位置情報41に示されている位置に向かって運転中であるかどうかを判定する。すなわち、制御部21は、第2車両20がイベント位置情報41に示されている位置に接近中であるかどうかを判定する。
具体的には、制御部21は、ステップS106で取得した位置情報に示されている、第2車両20の現在位置と、記憶部22に記憶されたイベント位置情報41に示されている位置との間の距離を計算する。制御部21は、計算した距離を閾値と比較する。閾値は、300メートルといった固定値でもよいし、あるいは道路Rxの制限速度又は第2車両20の速度に応じて動的に求められる値でもよい。閾値は、固定値の場合、道路Rxが一般道路であれば300メートル、道路Rxが高速道路であれば1キロメートルといったように、道路Rxの種別に応じて選ばれる値であってもよい。制御部21は、計算した距離が閾値よりも大きければ、第2車両20がイベント位置情報41に示されている位置に接近中でないと判定する。制御部21は、計算した距離が閾値よりも小さければ、第2車両20がイベント位置情報41に示されている位置に接近中である、すなわち、第2車両20の運転手がイベント位置情報41に示されている位置に向かって運転中であると判定する。
イベント位置情報41には、イベントEa、イベントEb、又はイベントEcが検出されたときの第1車両10の進行方向を示す情報が含まれていてもよい。その場合、制御部21は、ステップS106で取得した位置情報に示されている位置の変動に応じて、第2車両20の進行方向を判定する。制御部21は、計算した距離が閾値よりも小さく、かつ、判定した進行方向がイベント位置情報41に示されている進行方向と同じである場合に、第2車両20がイベント位置情報41に示されている位置に接近中であると判定する。
制御部21により第2車両20がイベント位置情報41に示されている位置に接近中であると判定された場合、ステップS108の処理が実行される。
ステップS108において、運転支援装置32の制御部21は、通信部23により取得された対象画像42を第2車両20の運転手に提示する。制御部21は、対象画像42を提示する手段として、出力部27を利用する。すなわち、出力部27は、制御部21により制御されて、通信部23により取得された対象画像42を第2車両20の運転手に提示するために表示する。
具体的には、制御部21は、記憶部22に記憶された対象画像42を出力部27に入力する。出力部27は、制御部21から入力された対象画像42を含む画面を表示する。この画面において、信号A2に対応する交差点、分岐B2、又は交差点C2の名称が文字で表示されてもよいし、あるいは地図上の信号A2、分岐B2、又は交差点C2の位置にアイコンなどの図形が表示されてもよい。同じ地図上の第2車両20の現在位置にも別のアイコンなどの図形が表示されてよい。安全な運転に支障をきたさないように、画面内の情報量は適度に調整される。例えば、信号A2に対応する交差点、分岐B2、又は交差点C2の名称は、文字で表示される代わりに、音声で出力されてもよい。
対象画像42を含む画面が表示される時間の長さは、30秒といった固定時間でもよいし、あるいは第2車両20の位置に応じて動的に決められる時間でもよい。対象画像42を含む画面が表示される時間の長さは、第2車両20の位置に応じて動的に決められる場合、第2車両20が信号A2に対応する交差点、分岐B2、又は交差点C2を通過するまでの時間でもよいし、あるいは第2車両20がイベント位置情報41に示されている位置に到達するまでの時間でもよい。
上述のように、本実施形態では、情報提供装置31の制御部11は、第1車両10にて第1対象が第1対象と同じ道路Rxに存在する第2対象と誤認されたことをイベントEa、イベントEb、又はイベントEcとして検出する。制御部11は、イベントEa、イベントEb、又はイベントEcを検出したときの第1車両10の位置情報であるイベント位置情報41と、第1車両10から撮影された、第2対象を含む画像である対象画像42とを取得する。情報提供装置31の通信部13は、制御部11により取得された対象画像42を、制御部11により取得されたイベント位置情報41に示されている位置に向かって運転中の、第2車両20の運転手に提示するために提供する。運転支援装置32の制御部21は、イベント位置情報41及び対象画像42を取得する。制御部21は、第2車両20がイベント位置情報41に示されている位置に到達する前に、取得した対象画像42を第2車両20の運転手に提示する。したがって、本実施形態によれば、第1対象を第2対象と誤認する間違いが起こりにくくなる。すなわち、運転手が道路に存在する対象を間違えにくくなる。
本実施形態によれば、間違いが起こり得るポイントの手前で、信号A2、分岐B2、又は交差点C2といった対象の実際の画像を運転手に見せることで、運転手の間違いを確実に減らすことができる。その結果、交通の安全性が向上する。
運転支援装置32の制御部21は、第2車両20が完全自動運転モードのときは、対象画像42を第2車両20の運転手に提示しなくてよい。完全自動運転モードは、SAEのレベル分けにおける「レベル5」に相当するが、「レベル4」を含んでもよいし、又は他の定義による自動運転レベルを含んでもよい。「SAE」は、Society of Automotive Engineersの略語である。
情報提供装置31は、クラウドコンピューティングシステム又はその他のコンピューティングシステムに属するサーバとして構成されてもよい。その場合、ステップS101からステップS104の処理は、サーバで実行される。第1車両10の位置情報、第1車両10の前方の画像、第1車両10の運転席の画像、又は第1車両10の経路情報など、ステップS101からステップS104の処理に必要な情報は、第1車両10からサーバにアップロードされてよい。対象画像42及びイベント位置情報41は、サーバから第2車両20に配信されてよい。
(第2実施形態)
図3を参照して、本実施形態の概要を説明する。
第1実施形態では、第1車両10の制御部11が、第1車両10にて第1対象が第1対象と同じ道路に存在する第2対象と誤認されたことをイベントとして検出する。これに対し、本実施形態では、第2車両20の制御部21が、第2車両20にて第1対象が第1対象と同じ道路に存在する第2対象と誤認されたことをイベントとして検出する。第2車両20の出力部27は、第2車両20から撮影された、第2対象を含む画像を、制御部21によりイベントが検出されたときの第2車両20の位置と同じ位置に向かって運転中の、第2車両20の運転手に提示するために表示する。
第2車両20の運転手は、その運転手により第1対象が第2対象と誤認されるというイベントが発生した位置に向かって運転しているときに、出力部27に表示された対象画像42を見ることで、第2対象の外観を目で確認しておくことができる。よって、本実施形態によれば、再び第1対象を第2対象と誤認する間違いが起こりにくくなる。すなわち、運転手が道路に存在する対象を間違えにくくなる。
第1実施形態のような第1車両10は不要であるため、第2車両20を単に「車両」と呼んでもよい。
図3を参照して、本実施形態に係る運転支援システム30の構成を説明する。第1実施形態と共通の部分については、説明を適宜省略又は簡略化する。
運転支援システム30は、運転支援装置32を備える。運転支援システム30は、第1実施形態のような情報提供装置31を備えなくてよい。
第1実施形態と同じように、運転支援装置32は、第2車両20に備えられている。
第1実施形態と同じように、第2車両20には、運転支援装置32のほかに、撮影部25、入力部26、及び出力部27が備えられている。
図3のほかに、図4を参照して、本実施形態に係る運転支援システム30の動作を説明する。第1実施形態と共通の部分については、説明を適宜省略又は簡略化する。運転支援システム30の動作は、本実施形態に係る運転支援方法に相当する。
ステップS201からステップS206の処理は、第2車両20で実行される。
ステップS201からステップS203の処理については、第1車両10、情報提供装置31の制御部11、記憶部12、及び測位部14、並びに撮影部15が、それぞれ第2車両20、運転支援装置32の制御部21、記憶部22、及び測位部24、並びに撮影部25に置き換わる点を除き、ステップS101からステップS103の処理と同じであるため、説明を省略する。
ステップS204の処理については、ステップS106の処理と同じであるため、説明を省略する。
ステップS205の処理については、第2車両20の外部から受信された位置情報ではなく、ステップS201において第2車両20の内部で取得された位置情報がイベント位置情報41として利用される点を除き、ステップS107の処理と同じであるため、説明を省略する。
ステップS206の処理については、第2車両20の外部から受信された画像ではなく、ステップS203において第2車両20の内部で取得された画像が対象画像42として利用される点を除き、ステップS108の処理と同じであるため、説明を省略する。
制御部21は、取得したイベント位置情報41及び対象画像42を記憶部22に記憶する代わりに、クラウドストレージなど、第2車両20の外部のストレージに記憶しておき、通信部23を介してイベント位置情報41及び対象画像42を取得して利用してもよい。
上述のように、本実施形態では、運転支援装置32の制御部21は、第2車両20にて第1対象が第1対象と同じ道路Rxに存在する第2対象と誤認されたことをイベントEa、イベントEb、又はイベントEcとして検出する。制御部21は、イベントEa、イベントEb、又はイベントEcを検出したときの第2車両20の位置情報であるイベント位置情報41と、第2車両20から撮影された、第2対象を含む画像である対象画像42とを取得する。制御部21は、イベントEa、イベントEb、又はイベントEcの検出時とは別の機会に、第2車両20がイベント位置情報41に示されている位置に到達する前に、取得した対象画像42を第2車両20の運転手に提示する。制御部21は、例えば、第2車両20にてイベントEaが発生した後、一定期間が経過してから第2車両20がイベントEaの発生地点を再び走行しようとするときに、イベントEaの発生時に得られた対象画像42を第2車両20の運転手に提示する。したがって、本実施形態によれば、再び第1対象を第2対象と誤認する間違いが起こりにくくなる。すなわち、運転手が道路に存在する対象を間違えにくくなる。
本発明は上述の実施形態に限定されるものではない。例えば、ブロック図に記載の複数のブロックを統合してもよいし、又は1つのブロックを分割してもよい。フローチャートに記載の複数のステップを記述に従って時系列に実行する代わりに、各ステップを実行する装置の処理能力に応じて、又は必要に応じて、並列的に又は異なる順序で実行してもよい。その他、本発明の趣旨を逸脱しない範囲での変更が可能である。
10 第1車両
11 制御部
12 記憶部
13 通信部
14 測位部
15 撮影部
16 入力部
17 出力部
20 第2車両
21 制御部
22 記憶部
23 通信部
24 測位部
25 撮影部
26 入力部
27 出力部
30 運転支援システム
31 情報提供装置
32 運転支援装置
41 イベント位置情報
42 対象画像

Claims (11)

  1. 車両にて第1対象が前記第1対象と同じ道路に存在する第2対象と誤認されたことがイベントとして検出されたときの前記車両の位置情報であるイベント位置情報と、前記車両から撮影された、前記第2対象を含む画像である対象画像とを取得し、取得した対象画像を、取得したイベント位置情報に示されている位置に向かって運転中の運転手に提示する制御部を備える運転支援装置。
  2. 前記制御部は、前記車両とは別の車両が前記イベント位置情報に示されている位置に到達する前に、前記対象画像を当該別の車両の運転手に提示する請求項1に記載の運転支援装置。
  3. 前記制御部は、前記イベントを検出し、前記イベントの検出時とは別の機会に、前記車両が前記イベント位置情報に示されている位置に到達する前に、前記対象画像を前記車両の運転手に提示する請求項1に記載の運転支援装置。
  4. 請求項1から3のいずれか1項に記載の運転支援装置と、
    前記対象画像を表示する出力部と
    を備える車両。
  5. 車両にて第1対象が前記第1対象と同じ道路に存在する第2対象と誤認されたことをイベントとして検出し、前記イベントを検出したときの前記車両の位置情報であるイベント位置情報と、前記車両から撮影された、前記第2対象を含む画像である対象画像とを取得する制御部と、
    前記制御部により取得された対象画像を、前記制御部により取得されたイベント位置情報に示されている位置に向かって運転中の運転手に提示するために提供する通信部と
    を備える情報提供装置。
  6. 前記制御部は、前記車両の挙動が、前記車両の位置において従うべき信号である前記第2対象の点灯状態と、前記第2対象とは別の信号である前記第1対象の点灯状態とのいずれに則しているかに応じて、前記イベントの発生有無を判定する請求項5に記載の情報提供装置。
  7. 前記制御部は、前記車両の運転手の視線が、前記車両の位置において従うべき信号である前記第2対象と、前記第2対象とは別の信号である前記第1対象とのいずれに向けられているかに応じて、前記イベントの発生有無を判定する請求項5に記載の情報提供装置。
  8. 前記制御部は、前記車両が、ナビゲーション機能により設定された前記車両の走行経路において前記道路から別の道路に進入すべき分岐又は交差点である前記第2対象と、前記第2対象とは別の分岐又は交差点である前記第1対象とのいずれで前記道路から外れたかに応じて、前記イベントの発生有無を判定する請求項5に記載の情報提供装置。
  9. 前記対象画像を撮影する撮影部と、
    請求項5から8のいずれか1項に記載の情報提供装置と
    を備える車両。
  10. 請求項5から8のいずれか1項に記載の情報提供装置と、
    前記イベント位置情報及び前記対象画像を前記情報提供装置から取得し、前記対象画像を、前記イベント位置情報に示されている位置に向かって運転中の運転手に提示する運転支援装置と
    を備える運転支援システム。
  11. 制御部が、車両にて第1対象が前記第1対象と同じ道路に存在する第2対象と誤認されたことをイベントとして検出し、
    出力部が、前記車両から撮影された、前記第2対象を含む画像を、前記制御部により前記イベントが検出されたときの前記車両の位置と同じ位置に向かって運転中の運転手に提示するために表示する運転支援方法。
JP2018240115A 2018-12-21 2018-12-21 運転支援装置、車両、情報提供装置、運転支援システム、及び運転支援方法 Active JP7159851B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018240115A JP7159851B2 (ja) 2018-12-21 2018-12-21 運転支援装置、車両、情報提供装置、運転支援システム、及び運転支援方法
US16/690,230 US20200200560A1 (en) 2018-12-21 2019-11-21 Driving assistance device, vehicle, information provision device, driving assistance system, and driving assistance method
CN201911195347.5A CN111348049A (zh) 2018-12-21 2019-11-28 驾驶辅助装置、车辆、信息提供装置、驾驶辅助系统和驾驶辅助方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018240115A JP7159851B2 (ja) 2018-12-21 2018-12-21 運転支援装置、車両、情報提供装置、運転支援システム、及び運転支援方法

Publications (2)

Publication Number Publication Date
JP2020102031A true JP2020102031A (ja) 2020-07-02
JP7159851B2 JP7159851B2 (ja) 2022-10-25

Family

ID=71096813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018240115A Active JP7159851B2 (ja) 2018-12-21 2018-12-21 運転支援装置、車両、情報提供装置、運転支援システム、及び運転支援方法

Country Status (3)

Country Link
US (1) US20200200560A1 (ja)
JP (1) JP7159851B2 (ja)
CN (1) CN111348049A (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007225282A (ja) * 2004-03-31 2007-09-06 Pioneer Electronic Corp 情報提示装置、情報提示プログラム及び情報提示方法等
JP2008269178A (ja) * 2007-04-18 2008-11-06 Traffic Plus:Kk 交通情報表示装置
JP2012079105A (ja) * 2010-10-01 2012-04-19 Panasonic Corp 事故要因領域特定装置および事故要因領域特定方法
JP2014074626A (ja) * 2012-10-03 2014-04-24 Denso Corp 車両用ナビゲーションシステム
JP2018013440A (ja) * 2016-07-22 2018-01-25 五洋建設株式会社 工事関連車両の安全支援システム
JP2018101337A (ja) * 2016-12-21 2018-06-28 パナソニックIpマネジメント株式会社 ドライブレコーダ

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5397452B2 (ja) * 2011-11-01 2014-01-22 トヨタ自動車株式会社 運転支援装置
KR101843773B1 (ko) * 2015-06-30 2018-05-14 엘지전자 주식회사 차량 운전 보조 장치, 차량용 디스플레이 장치 및 차량
JP2017111469A (ja) * 2015-12-14 2017-06-22 富士通株式会社 道路標識視認判定システム、道路標識視認判定方法、及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007225282A (ja) * 2004-03-31 2007-09-06 Pioneer Electronic Corp 情報提示装置、情報提示プログラム及び情報提示方法等
JP2008269178A (ja) * 2007-04-18 2008-11-06 Traffic Plus:Kk 交通情報表示装置
JP2012079105A (ja) * 2010-10-01 2012-04-19 Panasonic Corp 事故要因領域特定装置および事故要因領域特定方法
JP2014074626A (ja) * 2012-10-03 2014-04-24 Denso Corp 車両用ナビゲーションシステム
JP2018013440A (ja) * 2016-07-22 2018-01-25 五洋建設株式会社 工事関連車両の安全支援システム
JP2018101337A (ja) * 2016-12-21 2018-06-28 パナソニックIpマネジメント株式会社 ドライブレコーダ

Also Published As

Publication number Publication date
CN111348049A (zh) 2020-06-30
US20200200560A1 (en) 2020-06-25
JP7159851B2 (ja) 2022-10-25

Similar Documents

Publication Publication Date Title
RU2719101C2 (ru) Способ и транспортное средство для оказания содействия водителям при смене полос движения на проезжей части дороги
US9638535B2 (en) Dynamic destination navigation system
US10885791B2 (en) Vehicle dispatch system, autonomous driving vehicle, and vehicle dispatch method
US20180272934A1 (en) Information presentation system
US20200307616A1 (en) Methods and systems for driver assistance
US10996070B2 (en) Route guidance apparatus and method
US11181386B2 (en) Navigation device, destination guiding system, and non-transitory recording medium
US10752260B2 (en) Driving assistance device for vehicle, non-transitory computer-readable storage medium, and control method
KR20190078664A (ko) 컨텐츠를 표시하기 위한 장치 및 방법
US20240092382A1 (en) Apparatus and method for assisting an autonomous vehicle and/or a driver of a vehicle
US11270136B2 (en) Driving support device, vehicle, information providing device, driving support system, and driving support method
JP2017129973A (ja) 運転支援装置および運転支援方法
JP2017062706A (ja) 走行支援システム、走行支援方法及びコンピュータプログラム
US20200294119A1 (en) Computer program product and computer-implemented method
JP5803624B2 (ja) 車両制御システム、車両制御装置、車両制御方法及びコンピュータプログラム
US20230166755A1 (en) Vehicle display control device, vehicle display control system, and vehicle display control method
US20220324387A1 (en) Display control system, display control method, and non-transitory storage medium
JP7159851B2 (ja) 運転支援装置、車両、情報提供装置、運転支援システム、及び運転支援方法
KR101744718B1 (ko) 차량용 표시 시스템 및 그 제어방법
US20230373526A1 (en) Driving assistance control device and driving assistance control method
US20200158521A1 (en) Automatic driving device
JP2013003594A (ja) 携帯端末装置およびこれを備えた運転評価システム
CN111347975B (zh) 驾驶辅助装置、车辆、信息提供装置、驾驶辅助系统及驾驶辅助方法
JP2017004339A (ja) 車両用運転者支援装置
JP6582798B2 (ja) 走行支援システム、走行支援方法及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220926

R151 Written notification of patent or utility model registration

Ref document number: 7159851

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151