JP2020093590A - 運転支援装置、ウェアラブル装置、運転支援システム、運転支援方法およびプログラム - Google Patents

運転支援装置、ウェアラブル装置、運転支援システム、運転支援方法およびプログラム Download PDF

Info

Publication number
JP2020093590A
JP2020093590A JP2018231103A JP2018231103A JP2020093590A JP 2020093590 A JP2020093590 A JP 2020093590A JP 2018231103 A JP2018231103 A JP 2018231103A JP 2018231103 A JP2018231103 A JP 2018231103A JP 2020093590 A JP2020093590 A JP 2020093590A
Authority
JP
Japan
Prior art keywords
driving support
driver
information
vehicle
driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018231103A
Other languages
English (en)
Other versions
JP7115276B2 (ja
Inventor
伊藤 和浩
Kazuhiro Ito
和浩 伊藤
宏光 目次
Hiromitsu Metsugi
宏光 目次
直樹 相川
Naoki Aikawa
直樹 相川
俊太郎 篠原
Toshitaro Shinohara
俊太郎 篠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018231103A priority Critical patent/JP7115276B2/ja
Priority to US16/705,613 priority patent/US11110933B2/en
Priority to CN201911237739.3A priority patent/CN111284498B/zh
Publication of JP2020093590A publication Critical patent/JP2020093590A/ja
Application granted granted Critical
Publication of JP7115276B2 publication Critical patent/JP7115276B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • B60K35/654Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the user being the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/162Visual feedback on control action
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/168Target or limit values
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/171Vehicle or relevant part thereof displayed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/179Distances to obstacles or vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Traffic Control Systems (AREA)
  • Instrument Panels (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

【課題】運転時の安全性を確保しつつ、ドライビングプレジャーを体感することができる運転支援装置、ウェアラブル装置、運転支援システム、運転支援方法およびプログラムを提供する。
【解決手段】運転支援装置1は、メモリと、ハードウェアを有するECU19と、を備え、ECU19は、運転者の視線に関する視線情報を取得し、この視線情報に基づいて、運転者の視野領域に車両の運転を支援する運転支援情報を出力する。
【選択図】図1

Description

本発明は、運転支援装置、ウェアラブル装置、運転支援システム、運転支援方法およびプログラムに関する。
車両の挙動に基づいて、運転者による車両の運転操作を評価する技術が知られている(例えば特許文献1参照)。この技術では、車両に生じる加速度等の挙動に基づいて、運転操作を評価する画像を生成し、この画像を車両の停止時または運転時にナビゲーションシステムの表示画面に表示することによって、運転者に運転操作の評価結果を提示する。
特開2006−347296号公報
しかしながら、上述した特許文献1では、運転者が運転時に視線の先をフロントウィンドウからナビゲーションシステムの表示画面に移動させるため、運転時の安全性に欠けるという問題点があった。
本発明は、上記に鑑みてなされたものであって、運転時の安全性を確保することができる運転支援装置、ウェアラブル装置、運転支援システム、運転支援方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る運転支援装置は、メモリと、ハードウェアを有するプロセッサと、を備え、前記プロセッサは、車両の運転席に着座した運転者の視線に関する視線情報を取得し、前記視線情報に基づいて、前記運転者の視野領域に前記車両の運転を支援する運転支援情報を出力する。
また、前記プロセッサは、前記視野領域内において前記車両に設けられた操作部材の直上の領域であって、前記操作部材と直交する直交方向の領域に前記運転支援情報を出力してもよい。
これによれば、操作部材の直上に運転支援情報が表示されるため、運転者は、運転支援情報を直感的に把握することができる。
また、前記プロセッサは、前記操作部材に対する前記運転者の操作量と前記車両の車速とを取得し、複数の車両の走行データに基づいて機械学習された学習済みモデルに対して、前記操作量と前記車速とを入力パラメータとして入力し、前記学習済みモデルから出力された出力パラメータの前記操作部材に対する推奨操作量と、前記操作量とを前記運転支援情報として出力してもよい。
これによれば、操作部材の直上に、実際の操作量と推奨操作量とが表示されるため、運転者は、実際の操作量と推奨操作量との差を把握しながら操作することができるので、ドライビングプレジャーを体感しながら、運転技術の向上を図ることができる。
また、前記プロセッサは、前記運転者の視線上における前記運転者と前記車両のフロントウィンドウとの間に前記運転支援情報を出力してもよい。
これによれば、運転者の視線上の領域であって、運転者と車両のフロントウィンドウとの間の領域に運転支援情報が表示されるため、運転者は、運転時の安全性を確保しつつ、ドライビングプレジャーを体感することができる。
また、前記プロセッサは、前記車両の挙動に関する挙動情報を取得し、前記挙動情報に基づいて、前記運転支援情報を生成し、前記運転支援情報を出力してもよい。
これによれば、車両の挙動に基づいた運転支援情報が表示するため、運転者は、車両に生じている挙動を直感的に把握しながら運転することができるので、運転技術の向上を図ることができる。
また、前記プロセッサは、凹面を有する受け部と前記凹面上を前記車両の前後および左右に生じる重力加速度の変化に応じて仮想的に移動可能な球部とを前記運転支援情報として出力してもよい。
これによれば、運転者は、車両の挙動を直感的に把握しながら運転することができるので、運転技術の向上を図ることができる。
また、前記プロセッサは、前記車両の車速を取得し、前記車速に基づいて、前記車両が移動状態であるか否かを判定し、前記車両が移動状態である場合、前記運転支援情報を前記運転者の視線上に出力してもよい。
これによれば、運転者は、運転時に車両の挙動を視線上で確認しながら直感的に把握することができるので、運転技術の向上を図ることができる。
また、前記プロセッサは、前記視野領域内における前記車両のステアリングホイール上に前記運転支援情報を出力してもよい。
これによれば、ステアリングホイール上に運転支援情報が表示されるため、運転者は、安全正を確保しつつ、直感的に把握することができる。
また、前記プロセッサは、前記ステアリングホイールにおける基準位置からの操舵量と前記車両の車速とを取得し、複数の車両の走行データに基づいて機械学習された学習済みモデルに対して、前記操舵量と前記車速とを入力パラメータとして入力し、前記学習済みモデルから出力された出力パラメータの前記ステアリングホイールに対する推奨操舵量と、前記基準位置と、前記操舵量との各々を前記運転支援情報として出力してもよい。
これによれば、ステアリングホイール上に、実際の操舵量と推奨操舵量とが表示されるため、運転者は、実際の操舵量と推奨操舵量との差を把握しながら操作することができるので、ドライビングプレジャーを体感しながら、運転技術の向上を図ることができる。
また、前記プロセッサは、前記運転者の操作能力の指標である操作レベルを取得し、前記操作レベルに基づいて、前記運転支援情報の表示内容を制御してもよい。
これによれば、運転者の操作レベルに基づいて、運転支援情報の表示内容が制御されるため、運転者に適した運転支援を行うことができる。
また、本発明に係るウェアラブル装置は、車両と双方向に通信可能であり、視野領域の光を透過しつつ、該視野領域に画像を仮想的に表示可能なウェアラブル装置であって、当該ウェアラブル装置を装着した運転者の視線に関する視線情報を検出する視線センサと、メモリと、ハードウェアを有するプロセッサであって、前記視線情報に基づいて、前記運転者の視野領域に前記車両の運転を支援する運転支援情報を出力するプロセッサと、を備える。
また、本発明に係る運転支援システムは、上記の運転支援装置と、前記運転支援装置と双方向に通信可能であり、視野領域の光を透過しつつ、該視野領域に画像を仮想的に表示可能なウェアラブル装置と、を備え、前記ウェアラブル装置は、当該ウェアラブル装置を装着した運転者の視線情報を検出する視線センサを備え、前記プロセッサは、前記視線情報に基づいて、前記運転者の視野領域に前記運転支援情報を前記ウェアラブル装置に出力する。
また、本発明に係る運転支援方法は、運転支援装置が実行する運転支援方法であって、車両の運転席に着座した運転者の視線に関する視線情報を取得し、メモリから読み出した前記視線情報に基づいて、前記運転者の視野領域に前記車両の運転を支援する運転支援情報を出力する。
また、本発明に係るプログラムは、運転支援装置に実行させるプログラムであって、車両の運転席に着座した運転者の視線に関する視線情報を取得し、前記視線情報に基づいて、前記運転者の視野領域に前記車両の運転を支援する運転支援情報を出力する。
本発明によれば、運転者の視線を含む視野領域に車両の運転を支援する運転支援情報を表示するため、運転者は、運転中に視野領域を変更することがないので、運転時の安全性を確保することができるという効果を奏する。
図1は、実施の形態1に係る車両に搭載される運転支援装置の機能構成を示すブロック図である。 図2は、実施の形態1に係る運転支援装置が実行する処理の概要を示すフローチャートである。 図3は、実施の形態1に係るECUが表示部に運転支援情報を表示させる際の表示位置を模式的に示す図である。 図4は、実施の形態1の変形例1に係るECUが表示部に運転支援情報を表示させる際の表示位置を模式的に示す図である。 図5は、実施の形態1の変形例2に係るECUが表示部に運転支援情報を表示させる際の表示位置を模式的に示す図である。 図6は、実施の形態1の変形例3に係るECUが表示部に運転支援情報を表示させる際の表示位置を模式的に示す図である。 図7は、実施の形態2に係る運転支援システムの概略構成を示す図である。 図8は、実施の形態2に係る運転支援システムの機能構成を示すブロック図である。 図9は、実施の形態2に係るウェアラブル装置の概略構成を示す図である。 図10は、実施の形態2に係る運転支援装置が実行する処理の概要を示すフローチャートである。 図11は、車両の停止時にECUがウェアラブル装置に運転支援情報を表示させる際の表示位置を模式的に示す図である。 図12は、車両の移動時にECUがウェアラブル装置に運転支援情報を表示させる際の表示位置を模式的に示す図である。 図13は、実施の形態2の変形例1に係るECUがウェアラブル装置に運転支援情報を表示させる際の表示位置を模式的に示す図である。 図14は、実施の形態2の変形例2に係るECUがウェアラブル装置に運転支援情報を表示させる際の表示位置を模式的に示す図である。 図15は、実施の形態2の変形例3に係るECUがウェアラブル装置に運転支援情報を表示させる際の表示位置を模式的に示す図である。 図16は、実施の形態2の変形例4に係るECUがウェアラブル装置に運転支援情報を表示させる際の表示位置を模式的に示す図である。 図17は、実施の形態2の変形例5に係るECUがウェアラブル装置に運転支援情報を表示させる際の表示位置を模式的に示す図である。 図18は、実施の形態3に係る運転支援システムの概略構成を示す模式図である。 図19は、実施の形態2,3の変形例に係るウェアラブル装置の概略構成を示す図である。 図20は、実施の形態2,3の変形例に係るウェアラブル装置の概略構成を示す図である。 図21は、実施の形態2,3の変形例に係るウェアラブル装置の概略構成を示す図である。 図22は、実施の形態2,3の変形例に係るウェアラブル装置の概略構成を示す図である。
以下、本発明を実施するための形態を図面とともに詳細に説明する。なお、以下の実施の形態により本発明が限定されるものでない。また、以下において、同一の部分には同一の符号を付して説明する。
(実施の形態1)
〔運転支援装置の構成〕
図1は、実施の形態1に係る車両に搭載される運転支援装置の機能構成を示すブロック図である。図1に示す運転支援装置1は、車両に搭載され、この車両に搭載された他のECU(Electronic Control Unit)と連携しながら車両内の運転者に対して運転を支援する。図1に示す運転支援装置1は、イグニッションスイッチ10(以下、「IGスイッチ10」という)と、車速センサ11と、操作センサ12と、ステアリングホイールセンサ13と、挙動センサ14と、通信部15と、視線センサ16と、表示部17と、学習済みモデル記憶部18と、ECU19と、を備える。
IGスイッチ10は、エンジンやモータ等の電気系統の始動および停止を受け付ける。IGスイッチ10は、オン状態となった場合、IG電源を始動させ、オフ状態となった場合、IG電源を停止させる。
車速センサ11は、車両の走行時における車速を検出し、この検出結果をECU19へ出力する。
操作センサ12は、運転者によるアクセルペダル、ブレーキペダルおよびクラッチペダルの各々の踏み込み量を示す操作量を検出し、この検出結果をECU19へ出力する。
ステアリングホイールセンサ13は、運転者によるステアリングホイールの操舵量を検出し、この検出結果をECU19へ出力する。
挙動センサ14は、車両の挙動を検出し、この検出結果をECU19へ出力する。ここで、車両の挙動とは、ピッチレート、ロールレート、ヨーレート、上下方向加速度、左右方向加速度および前後方向加速度等である。挙動センサ14は、加速度センサやジャイロセンサ等を用いて構成される。
通信部15は、ECU19の制御のもと、基地局およびネットワークを介して所定の通信規格に従って各種情報を図示しないサーバへ送信するとともに、サーバから各種情報を受信する。また、通信部15は、図示しないウェアラブル装置、他の車両またはユーザ端末装置等に対して所定の通信規格に従って各種情報を送信するとともに、各種情報をウェアラブル装置、他の車両またはユーザ端末装置等から受信する。通信部15は、無線通信可能な通信モジュールを用いて構成される。また、通信部15は、有線であっても無線であってもよい。
視線センサ16は、車両の運転席に着座した運転者の視線を検出し、この検出結果をECU19へ出力する。視線センサ16は、光学系と、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)と、メモリと、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のハードウェアを有するプロセッサを用いて構成される。視線センサ16は、例えば周知のテンプレートマッチングを用いて運転者の目の動かない部分を基準点(例えば目頭)として検出し、かつ、目の動く部分(例えば虹彩)を動点として検出し、この基準点と動点との位置関係に基づいて運転者の視線を検出する。なお、実施の形態1では、視線センサ16を可視カメラによって運転者の視線を検出しているが、これに限定されることなく、赤外カメラによって運転者の視線を検出してもよい。視線センサ16を赤外カメラによって構成する場合、赤外LED(Light Emitting Diode)等によって赤外光を運転者に照射し、赤外カメラで運転者を撮像することによって生成された画像データから基準点(例えば角膜反射)および動点(例えば瞳孔)を検出し、この基準点と動点との位置関係に基づいて運転者の視線を検出する。
表示部17は、車両のフロントウィンドウまたはインストルメントパネルに設けられ、ECU19の制御のもと、画像、映像および文字情報をフロントウィンドウに投影することによって表示する。表示部17は、例えばHUD(Head-UP Display)等を用いて構成される。具体的には、表示部17は、画像を投影する有機EL(Electro Luminescence)や液晶等の表示パネルを有する画像表示機と、この画像表示機から投影された画像が中間像として結像される拡散板と、拡散板で結像された中間像を拡大してフロントウィンドウに投影する拡大鏡等を用いて構成される。
学習済みモデル記憶部18は、複数の車両で取得された走行データを用いて機械学習された学習済みモデルを記憶する。ここで、走行データとは、車両の車速、アクセルペダル、ブレーキペダルおよびクラッチペダル等に対する操作量、ステアリングホイールに対する操舵量、車両に生じた加速度等の挙動情報、天候、渋滞状況、車両の位置情報および車両のギア情報である。また、学習済みモデルは、ニューラルネットワークを用いた深層学習に基づいて生成された学習済みモデルである。具体的には、学習済みモデルは、順伝搬型ニューラルネットワークであり、入力層、中間層および出力層を有する。入力層は、複数のノードからなり、各ノードには互いに異なる入力パラメータが入力される。中間層は、入力層からの入力を受け付ける複数のノードからなる層を含む多層の構造を有する。出力層は、中間層からの出力が入力され、出力パラメータを出力する。入力層の各ノードは、隣接する中間層の各ノードに対し、入力パラメータに所定の重みを乗じた値を有する信号を出力する。中間層は、入力層の各ノードからの出力に所定のバイアスを加えた値が入力される。このように、入力層の側から出力層の側へ向かう順方向に沿って順次繰り返すことにより、最終的に出力層から一つの出力パラメータが出力される。中間層が多層構造を有するニューラルネットワークを用いた機械学習は、深層学習と呼ばれる。実施の形態1では、入力パラメータが「車両の車速、アクセルペダル、ブレーキペダルおよびクラッチペダル等に対する操作量、ステアリングホイールに対する操舵量、車両に生じた加速度等の挙動情報および車両の位置情報」であり、出力パラメータが「操作部材に対する推奨操作量、ステアリングホイールに対する推奨操舵量、車両の車速および車両の走行ライン」である。また、学習済みモデルを記憶するとは、学習済みモデルにおけるネットワークパラメータや演算のアルゴリズム等の情報を記憶することを意味する。
ECU19は、運転支援装置1を構成する各部の動作を制御する。ECU19は、メモリと、CPU、GPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)、DSP(Digital Signal Processing)およびASIC(Application Specific Integrated Circuit)等のいずれかのハードウェアを有するプロセッサを用いて構成される。ECU19は、視線センサ16から取得した運転者の視線に関する視線情報に基づいて、運転者の視野領域に、運転支援情報を出力する。ここで、運転者の視野領域とは、静視野角の場合において、運転者の視線を基準(0度)したとき、視野角が水平方向の左右方向の各々において100度であり、垂直方向の上方向に60度であり、垂直方向の下方向に75度である。
また、ECU19は、運転者の視野領域内において車両に設けられた操作部材の領域であって、操作部材と直交する直交方向の領域(以下、単に「直上の領域」という)に運転支援情報を出力する。具体的には、ECU19は、学習済みモデル記憶部18が記憶する学習済みモデルに対して、操作センサ12から取得したアクセルペダルに対する運転者の操作量と、車速センサ11から取得した車両の車速とを入力パラメータとして入力し、学習済みモデルから出力された出力パラメータのアクセルペダルに対する推奨操作量を出力する。そして、ECU19は、操作量および推奨操作量がアクセルペダルの直上の領域に運転支援情報として投影されて表示されるように操作量および推奨操作量を表示部17へ出力する。
さらに、ECU19は、学習済みモデル記憶部18が記憶する学習済みモデルに対して、ステアリングホイールセンサ13から取得したステアリングホイールに対する運転者の操舵量と、車速センサ11から取得した車両の車速とを入力パラメータとして入力し、学習済みモデルから出力された出力パラメータのステアリングホイールに対する推奨操舵量を出力する。そして、ECU19は、操舵量および推奨操舵量がステアリングホイールの直上の領域に運転支援情報として投影されて表示されるように操舵量および推奨操舵量を表示部17へ出力する。
さらにまた、ECU19は、運転者の視線上における運転者と車両のフロントウィンドウとの間に運転支援情報を出力する。具体的には、ECU19は、挙動センサ4から取得した車両の挙動情報に基づいて、運転支援情報を生成し、この運転支援情報が運転者と車両のフロントウィンドウとの間に投影されて表示されるように運転支援情報を表示部17に出力する。ここで、視線上とは、運転者の視線を基準に視線を含む所定の範囲(例えば視線から5cm×5cmの範囲)で設定された視野領域内であればよい。なお、実施の形態1では、ECU19がプロセッサとして機能する。
〔運転支援装置の処理〕
次に、運転支援装置1が実行する処理について説明する。図2は、運転支援装置1が実行する処理の概要を示すフローチャートである。
図2に示すように、まず、ECU19は、視線センサ16が検出した運転者の視線に関する視線情報を取得し(ステップS101)、挙動センサ14から車両の挙動情報、操作センサ12から運転者の操作量に関する操作情報およびステアリングホイールセンサ13から運転者の操舵量に関する操舵情報を取得する(ステップS102)。
続いて、ECU19は、車両の車速、車両の挙動情報、運転者の操作情報、運転者の操舵情報を入力パラメータとして学習済みモデル記憶部18が記憶する学習済みモデル入力することによって、学習済みモデルにアクセルペダルの推奨操作量およびステアリングホイールの推奨操舵量の各々を出力パラメータとして算出させる(ステップS103)。
その後、ECU19は、運転者の視野領域に運転支援情報が表示されるように運転支援情報を表示部17へ出力することによって、表示部17に運転支援情報を投影させて表示させる(ステップS104)。
ここで、ECU19が出力する運転支援情報について詳細に説明する。図3は、ECU19が表示部17に運転支援情報を表示させる際の表示位置を模式的に示す図である。
図3に示すように、ECU19は、車両100に設けられた操作部材であるアクセルペダル101およびブレーキペダル102の直上の領域であって、運転者の視野領域内のフロントウィンドウW1の領域に運転支援情報M1が投影されて表示されるように運転支援情報M1を表示部17へ出力する。運転支援情報M1には、運転者がアクセルペダル101に対して実際に操作している操作量T1と、アクセルペダル101に対する推奨操作量T2とが含まれる。この場合、ECU19は、操作量T1および推奨操作量T2の各々を識別可能な表示態様、例えば操作量T1を赤色および推奨操作量T2を緑色で表示されるように表示部17へ出力してもよい。なお、ECU19は、アクセルペダル101に対する運転支援情報M1が表示されるように運転支援情報M1を表示部17に出力していたが、例えばアクセルペダル101と同様に、ブレーキペダル102の操作量および推奨操作量を含む運転支援情報を表示部17に出力してもよいし、ブレーキペダル102およびアクセルペダル101の各々の運転支援情報が並列して表示されるように2つの運転支援情報を表示部17に出力してもよい。
また、ECU19は、車両100のステアリングホイール103の直上の領域であって、運転者の視野領域内のフロントウィンドウW1の領域に運転支援情報M10が投影されて表示されるように運転支援情報M10を表示部17へ出力する。運転支援情報M10には、ステアリングホイール103の基準位置T10と、運転者がステアリングホイール103の基準位置(センター位置)から実際に操舵している操舵量T11と、ステアリングホイール103に対する推奨操舵量T12とが含まれる。この場合、ECU19は、基準位置T10、操舵量T11および推奨操舵量T13の各々を識別可能な表示態様、例えば基準位置T10を青色、操舵量T11を赤色および推奨操舵量T12を緑色で表示されるように表示部17へ出力してもよい。
さらに、ECU19は、運転者の視線上における運転者と車両のフロントウィンドウW1との間に運転支援情報G1が投影されて表示されるように運転支援情報G1を表示部17へ出力する。運転支援情報G1には、凹面を有し、椀状をなす受け部B1と、受け部B1上を車両100の前後および左右に生じる重力加速度の変化に応じて仮想的に移動可能な球部B2とが含まれる。ECU19は、挙動センサ14から入力された挙動情報に基づいて、球部B2を受け部B1上で移動するように表示部17へ出力する。なお、ECU19は、運転支援情報G1を立体的な形状で表示部17に表示させているが、これに限定されることなく、例えば2次元画像の矢印や図形を平面内で移動させて表示部17に表示させてもよい。
このように、運転者は、運転時に運転の視野領域を変更することなく、視線を動かすだけで、実際の操作量と推奨操作量とを直感的に把握することができるので、安全性を確保し、かつ、ドライビングプレジャーを体感しつつ、運転技術を向上させることができる。
図2に戻り、ステップS105以降の説明を続ける。
ステップS105において、ECU19は、IGスイッチ10がオフ状態となったか否かを判定する。ECU19によってIGスイッチ10がオフ状態であると判定された場合(ステップS105:Yes)、運転支援装置1は、本処理を終了する。これに対して、ECU19によってIGスイッチ10がオフ状態でないと判定された場合(ステップS105:No)、運転支援装置1は、ステップS101へ戻る。
以上説明した実施の形態1によれば、ECU19が運転者の視線情報に基づいて、運転者の視野領域に、車両の運転を支援する運転支援情報M1,M10,G1を出力するため、運転者は、運転中に視野領域を変更することがないので、運転時の安全性を確保することができる。
また、実施の形態1によれば、ECU19がアクセルペダル101の直上に運転支援情報M1が投影されて表示されるように運転支援情報M1を表示部17に出力するため、運転者は、運転支援情報M1を直感的に把握することができる。
また、実施の形態1によれば、ECU19がアクセルペダル101の直上に、実際の操作量T1と推奨操作量T2とが投影されて表示されるように操作量T1と推奨操作量T2とを表示部17に出力するため、運転者は、実際の操作量と推奨操作量との差を把握しながら操作することができるので、ドライビングプレジャーを体感しながら、運転技術の向上を図ることができる。
また、実施の形態1によれば、ECU19が運転者の視線上の領域であって、運転者と車両のフロントウィンドウW1との間の領域に運転支援情報G1が投影されて表示されるように運転支援情報G1を表示部17に出力するため、運転者は、運転時の安全性を確保しつつ、ドライビングプレジャーを体感することができる。
また、実施の形態1によれば、ECU19が車両の挙動に基づいた運転支援情報G1が投影されて表示されるように運転支援情報G1を表示部17に出力するため、運転者は、車両に生じている挙動を直感的に把握し、車両の挙動に応じた操作を行うことができるので、運転技術の向上を図ることができる。
また、実施の形態1によれば、ECU19が車両の前後および左右に生じる重力加速度の変化に応じて、球部B2を受け部B1上で移動させるため、運転者は、車両の挙動を直感的に把握しながら車両の挙動に応じた操作を行うことができるので、運転技術の向上を図ることができる。
なお、実施の形態1では、運転者が運転支援情報を視認可能にECU19が表示部17に運転支援情報を出力していたが、これに限定されることなく、例えばECU19は、車両に乗車した乗員の視線情報に基づいて、乗員の視野領域に、車両の運転を支援する運転支援情報が表示されるように表示部17に運転支援情報を出力するようにしてもよい。
(実施の形態1の変形例1)
次に、実施の形態1の変形例1について説明する。上述した実施の形態1では、車両100がオートマチックトランスミッション車の場合を想定していたが、実施の形態1の変形例1では、車両100がマニュアルトランスミッション車の場合を想定している。
図4は、実施の形態1の変形例1に係るECU19が表示部17に運転支援情報を表示させる際の表示位置を模式的に示す図である。
図4に示すように、ECU19は、上述した運転支援情報M1および運転支援情報G1に加えて、ブレーキペダル102に対する運転操作を支援する運転支援情報M20およびクラッチペダル105に対する運転操作を支援する運転支援情報M30を表示部17に出力することによって、表示部17に運転支援情報M20および運転支援情報M30を表示させる。この場合、ECU19は、ブレーキペダル102およびクラッチペダル105の各々の直上の領域に運転支援情報M20および運転支援情報M30が表示されるように表示部17に出力する。
運転支援情報M20には、運転者がブレーキペダル102に対して実際に操作している操作量T21と、ECU19がブレーキペダル102に対する運転者の操作量T21と学習済みモデルとに基づいて算出したブレーキペダル102に対する推奨操作量T22とが含まれる。この場合、ECU19は、操作量T21および推奨操作量T22の各々を識別可能な表示態様、例えば操作量T21を赤色および推奨操作量T22を緑色で表示されるように表示部17へ出力してもよい。
また、運転支援情報M30には、運転者がクラッチペダル105に対して実際に操作している操作量T31と、ECU19がクラッチペダル105に対する運転者の操作量T31に基づいて算出したクラッチペダル105に対する推奨操作量T32とが含まれる。この場合、ECU19は、操作量T31および推奨操作量T32の各々を識別可能な表示態様、例えば操作量T31を赤色および推奨操作量T32を緑色で表示されるように表示部17へ出力してもよい。
以上説明した実施の形態1の変形例1によれば、ECU19が運転者の視線情報に基づいて、運転者の視線を含む視野領域に、車両の運転を支援する運転支援情報M1,M20,M30,G1を出力するため、運転者は、運転中に視野領域を変更することがないので、運転時の安全性を確保することができる。
(実施の形態1の変形例2)
次に、実施の形態1の変形例2について説明する。図5は、実施の形態1の変形例2に係るECU19が表示部17に運転支援情報を表示させる際の表示位置を模式的に示す図である。
図5に示すように、ECU19は、アクセルペダル101の直上の領域であって、運転者の視野領域内に対応するフロントウィンドウW1の領域に運転支援情報M40,M41が投影されて表示されるように運転支援情報M40,M41を表示部17へ出力する。運転支援情報M40には、運転者がアクセルペダル101に対して実際に操作している操作量T41とアクセルペダル101に対する推奨操作量T42とが含まれる。さらに、運転支援情報M41には、運転者がブレーキペダル102に対して実際に操作している操作量T43とブレーキペダル102に対する推奨操作量T44とが含まれる。また、ECU19は、操作量T41,T43および推奨操作量T42,T44の各々を識別可能な表示態様で表示部17に出力してもよい。
以上説明した実施の形態1の変形例2によれば、ECU19が運転者の視線情報に基づいて、運転者の視線を含む視野領域に車両の運転を支援する運転支援情報M40,M41を出力するため、運転者は、運転中に視野領域を変更することがないので、運転時の安全性を確保することができる。
(実施の形態1の変形例3)
次に、実施の形態1の変形例3について説明する。図6は、実施の形態1の変形例3に係るECU19が表示部17に運転支援情報を表示させる際の表示位置を模式的に示す図である。
図6に示すように、ECU19は、アクセルペダル101およびブレーキペダル102の各々の直上の領域であって、運転者の視野領域内に対応するフロントウィンドウW1の領域に運転支援情報M42および運転支援情報M43が投影されて表示されるように運転支援情報M42および運転支援情報M43を表示部17へ出力する。運転支援情報M42には、運転者がアクセルペダル101に対して実際に操作している操作量T45とアクセルペダル101に対する推奨操作量T46とが含まれる。さらに、運転支援情報M43には、運転者がブレーキペダル102に対して実際に操作している操作量T47とブレーキペダル102に対する推奨操作量T48とが含まれる。また、ECU19は、操作量T45,T47および推奨操作量T46,T48の各々を識別可能な表示態様で表示部17に出力してもよい。
以上説明した実施の形態1の変形例3によれば、ECU19が運転者の視線情報に基づいて、運転者の視線を含む視野領域に車両の運転を支援する運転支援情報M42,M43を出力するため、運転者は、運転中に視野領域を変更することがないので、運転時の安全性を確保することができる。
(実施の形態2)
次に、実施の形態2について説明する。上述した実施の形態1では、表示部17が車両内に投影することによって運転支援情報を表示させていたが、実施の形態2では、ウェアラブル装置を用いて運転支援情報を表示する。以下において、上述した実施の形態1に係る運転支援装置1と同一の構成には同一の符号を付して詳細な説明は省略する。
〔運転支援システムの構成〕
図7は、実施の形態2に係る運転支援システムの概略構成を示す図である。図8は、実施の形態2に係る運転支援システムの機能構成を示すブロック図である。図9は、実施の形態2に係るウェアラブル装置の概略構成を示す図である。
図7〜図9に示す運転支援システム1000は、車両100に設けられた運転支援装置1Aと、運転者U1が装着可能であり、運転支援装置1Aと所定の通信規格に従って双方向に通信を行うウェアラブル装置2と、を備える。
〔運転支援装置の構成〕
まず、運転支援装置1Aの構成について説明する。図7〜図9に示す運転支援装置1Aは、上述した実施の形態1に係る運転支援装置1の構成のうち、視線センサ16および表示部17を備えない点、およびカーナビゲーションシステム20をさらに備える点以外は、運転支援装置1と同様の構成を有する。なお、運転支援装置1Aは、ウェアラブル装置2に内蔵されてもよい。
カーナビゲーションシステム20は、GPS(Global Positioning System)センサ201と、地図データベース202と、報知装置203と、を有する。
GPSセンサ201は、複数のGPS衛星や送信アンテナからの信号を受信し、受信した信号に基づいて車両100の位置を算出する。GPSセンサ201は、GPS受信センサ等を用いて構成される。なお、GPSセンサ201を複数個搭載し車両100の向き精度向上を図ってもよい。
地図データベース202は、各種の地図データを記憶する。地図データベース202は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の記録媒体を用いて構成されてもよい。
報知装置203は、画像、映像および文字情報を表示する表示部203aと、音声や警報音等の音を発生する音声出力部203bや骨伝導等を有してもよい。と、を有する。表示部203aは、液晶や有機EL等の表示ディスプレイを用いて構成される。音声出力部203bは、スピーカ等を用いて構成される。
このように構成されたカーナビゲーションシステム20は、GPSセンサ201によって取得した現在の車両100の位置を、地図データベース202が記憶する地図データに重ねることによって、車両100が現在走行している道路および目的地までの経路等を含む情報を、表示部203aと音声出力部203bとによって運転者に対して報知する。
〔ウェアラブル装置の構成〕
次に、ウェアラブル装置2の構成について説明する。図7〜図9に示すウェアラブル装置2は、運転者が装着自在であり、拡張現実(AR)を実現可能な眼鏡型の装置である。さらに、ウェアラブル装置2は、運転者の視野領域からの光を透過しつつ、運転者の視野領域内において仮想的な画像を視認できるように運転者の網膜の画像を結像させる装置である。ウェアラブル装置2は、撮像装置21と、9軸センサ22と、投影部24と、GPSセンサ25と、装着センサ26と、通信部27と、制御部28等と、を備える。
撮像装置21は、図9に示すように、複数設けられてもよい。撮像装置21は、制御部28の制御のもと、例えばユーザの視線の先を撮像することによって画像データを生成し、この画像データを制御部28へ出力する。撮像装置21は、1または複数のレンズで構成された光学系と、この光学系が集光した被写体像を受光することによって画像データを生成するCCDやCMOS等を用いて構成される。
9軸センサ22は、3軸ジャイロセンサ、3軸加速度センサおよび3軸地磁気センサ(コンパス)を用いて構成される。9軸センサ22は、ウェアラブル装置2に生じる角速度および加速度を検出し、この検出結果を制御部28へ出力する。また、9軸センサ22は、地磁気を検出することによって絶対方向を検出し、この検出結果を制御部28へ出力する。
視線センサ23は、ウェアラブル装置2の装着者である運転者の視線の向きを検出し、この検出結果を制御部28へ出力する。視線センサ23は、光学系と、CCDまたはCMOSと、メモリと、CPUやGPU等のハードウェアを有するプロセッサを用いて構成される。視線センサ23は、例えば周知のテンプレートマッチングを用いて運転者の目の動かない部分を基準点(例えば目頭)として検出し、かつ、目の動く部分(例えば虹彩)を動点として検出し、この基準点と動点との位置関係に基づいて運転者の視線の向きを検出する。
投影部24は、制御部28の制御のもと、画像、映像および文字情報をウェアラブル装置表示部(例えばレンズ部)や運転者の網膜に向けて投影する。投影部24は、RGBの各々のレーザ光を照射するRGBレーザビーム、レーザ光を反射するMEMSミラー、MEMSミラーから反射されたレーザ光を運転者の網膜へ投影する反射ミラー等を用いて構成される。
GPSセンサ25は、複数のGPS衛星からの信号を受信し、受信した信号に基づいてウェアラブル装置2の位置を算出する。GPSセンサ25は、算出したウェアラブル装置2の位置を制御部28へ出力する。GPSセンサ25は、GPS受信センサ等を用いて構成される。
装着センサ26は、ユーザの装着状態を検出し、この検出結果を制御部28へ出力する。装着センサ26は、例えばユーザがウェアラブル装置2を装着した際の圧力を検出する圧力センサ、ユーザの体温、脈拍、脳波、血圧および発汗状態等のバイタル情報を検出するバイタルセンサ等を用いて構成される。
通信部27は、制御部28の制御のもと、ネットワークを介して所定の通信規格に従って各種情報を運転支援装置1またはサーバへ送信するとともに、運転支援装置1またはサーバから各種情報を受信する。通信部27は、無線通信可能な通信モジュールを用いて構成される。
制御部28は、ウェアラブル装置2を構成する各部の動作を制御する。制御部28は、メモリと、CPU等のハードウェアを有するプロセッサを用いて構成される。
〔運転支援装置の処理〕
次に、運転支援装置1Aが実行する処理について説明する。図10は、運転支援装置1Aが実行する処理の概要を示すフローチャートである。
図10に示すように、ECU19は、運転者が車両100に乗車したか否かを判定する(ステップS201)。例えば、ECU19は、通信部15を介して取得したウェアラブル装置2のGPSセンサ25が検出した位置情報とカーナビゲーションシステム20のGPSセンサ201が検出した位置情報とに基づいて、車両100とウェアラブル装置2との距離を算出し、この算出した距離が所定値以上であるか否かを判定し、距離が所定値以上である場合、運転者が車両100から降車したと判定する一方、距離が所定値以上でない場合、運転者が車両100に乗車したと判定する。なお、ECU19は、距離以外にも、車両100に設けられたシートセンサ等の検出結果に基づいて、運転者が車両100に乗車したか否かを判定してもよい。ECU19によって運転者が車両100に乗車したと判定された場合(ステップS201:Yes)、運転支援装置1Aは、後述するステップS202へ移行する。これに対して、ECU19によって運転者が車両100に乗車していないと判定された場合(ステップS201:No)、運転支援装置1Aは、後述するステップS212へ移行する。
ステップS202において、ECU19は、運転者がウェアラブル装置2を装着しているか否かを判定する。具体的には、ECU19は、通信部15を介してウェアラブル装置2の装着センサ26から検出結果を示す装着信号を受信し、受信した装着信号に基づいて、運転者がウェアラブル装置2を装着しているか否かを判定する。ECU19によって運転者がウェアラブル装置2を装着していると判定された場合(ステップS202:Yes)、運転支援装置1Aは、後述するステップS203へ移行する。これに対して、ECU19によって運転者がウェアラブル装置2を装着していないと判定された場合(ステップS202:No)、運転支援装置1Aは、後述するステップS212へ移行する。
ステップS203において、ECU19は、運転者が車両100に運転支援設定を行っているか否かを判定する。具体的には、ECU19は、運転支援情報をウェアラブル装置2に表示させる運転支援設定を設定する図示しない操作部やスイッチ等の状態がオン状態となっているか否かを判定する。ECU19によって運転者が車両100に運転支援設定を行っていると判定された場合(ステップS203:Yes)、運転支援装置1Aは、後述するステップS204へ移行する。これに対して、ECU19によって運転者が車両100に運転支援設定を行っていないと判定された場合(ステップS203:No)、運転支援装置1Aは、後述するステップS212へ移行する。
ステップS204において、ECU19は、運転者の操作レベルを取得する。具体的には、ECU19は、通信部15を介して図示しないサーバからウェアラブル装置2に対応付けられた識別情報に応じた運転者の操作能力の指標である操作レベルを取得する。ここで、操作レベルとは、運転者による車両100の走行時間に応じて定められたレベルおよび上述した運転支援情報G1に基づいて運転された運転履歴に応じて定められたレベル等である。
続いて、ECU19は、運転者の操作レベルに基づいて、運転者の視野領域に運転支援情報をウェアラブル装置2へ出力することによって、ウェアラブル装置2に運転支援情報を表示させる(ステップS205)。ステップS206の後、運転支援装置1Aは、後述するステップS206へ移行する。
ここで、ECU19が出力する運転支援情報について詳細に説明する。図11は、ECU19が出力することによってウェアラブル装置2に運転支援情報を表示させる際の表示位置を模式的に示す図である。
図11に示すように、ECU19は、アクセルペダル101およびブレーキペダル102の各々の直上の領域であって、運転者の視野領域内におけるステアリングホイール103上の領域に運転支援情報M50および運転支援情報M51が表示されるように運転支援情報M50および運転支援情報M51をウェアラブル装置2へ出力する。運転支援情報M50には、運転者がアクセルペダル101に対して実際に操作している操作量T1と、アクセルペダル101に対する推奨操作量T2とが含まれる。また、運転支援情報M51には、運転者がブレーキペダル102に対して実際に操作している操作量T21と、ブレーキペダル102に対する推奨操作量T22とが含まれる。この場合、ECU19は、操作量T1,T3、操作量T21および推奨操作量T22の各々を識別可能な表示態様で表示されるように表示部17へ出力してもよい。
また、ECU19は、運転者の視野領域内におけるステアリングホイール103の一部と重なる領域に運転支援情報M53が表示されるように運転支援情報M53をウェアラブル装置2へ出力する。運転支援情報M52には、運転者がステアリングホイール103の基準位置T10(センター位置)から実際に操舵している操舵量T11と、ステアリングホイール103に対する推奨操舵量T12とが含まれる。
さらに、ECU19は、運転者の視線領域内におけるインストルメントパネル上の中央の領域に運転支援情報G1が表示されるように運転支援情報G1をウェアラブル装置2へ出力する。なお、ECU19は、運転者の視線領域内におけるインストルメントパネル上の中央の領域以外に限定されることなく、インストルメントパネル上であれば運転者の操作に応じて適宜変更してもよい。
また、図11に示す状況下で、ECU19は、運転者の操作レベルに基づいて、運転支援情報の表示内容を制限してもよい。具体的には、ECU19は、運転者の操作レベルが所定のレベル以上であるか否かを判定し、所定のレベル以上である場合、例えば運転支援情報G1のみが表示されるように運転支援情報G1をウェアラブル装置2へ出力する。これにより、運転者の操作レベルに応じた表示を行うことができるので、ドライビングプレジャーを体感しつつ、運転技術を向上させることができる。なお、図11に示す状況下において、ECU19は、図示しないスイッチ等の操作信号に基づいて、運転支援情報の表示内容を制限してもよい。例えば、ECU19は、図示しないスイッチ等から運転支援情報の表示を禁止する操作信号が入力された場合、運転支援情報の出力を停止してもよいし、図示しないスイッチからのレベルを指示する指示信号に応じて運転支援情報の表示内容を制御してもよい。これにより、運転者の趣向に応じた表示を行うことができる。
このように、運転者は、ウェアラブル装置2を介して、運転時に運転の視野領域を変更することなく、視線を動かすだけで、実際の操作量と推奨操作量とを直感的に把握することができるので、安全性を確保し、かつ、ドライビングプレジャーを体感しつつ、運転技術を向上させることができる。
図10に戻り、ステップS206以降の説明を続ける。
ECU19は、車速センサ11の検出結果に基づいて、車両100が走行中であるか否かを判定する。ECU19によって車両100が走行中であると判定された場合(ステップS206:Yes)、運転支援装置1Aは、後述するステップS207へ移行する。これに対して、ECU19によって車両100が走行中でないと判定された場合(ステップS206:No)、運転支援装置1Aは、後述するステップS212へ移行する。
ステップS207において、ECU19は、通信部15を介してウェアラブル装置2の視線センサ23から運転者の視線に関する視線情報を取得する。
続いて、ECU19は、挙動センサ14から車両100の挙動情報、操作センサ12から運転車の操作量に関する操作情報およびステアリングホイールセンサ13から運転車の操舵量に関する操舵情報を取得する(ステップS208)。
その後、ECU19は、車両100の車速、車両100の挙動情報、運転者の操作情報、運転者の操舵情報を入力パラメータとして学習済みモデル記憶部18が記憶する学習済みモデル入力することによって、学習済みモデルにアクセルペダル101の推奨操作量およびステアリングホイール103の推奨操舵量の各々を出力パラメータとして算出させる(ステップS209)。
続いて、ECU19は、運転者の視野領域に運転支援情報をウェアラブル装置2へ出力することによって、ウェアラブル装置2に運転支援情報を表示させる(ステップS210)。具体的には、図12に示すように、ECU19は、運転者の視線上における運転者と車両のフロントウィンドウW1との間に運転支援情報G1が表示されるように運転支援情報G1をウェアラブル装置2へ出力する。この場合、ECU19は、挙動センサ14から入力された挙動情報に基づいて、車両100の前後および左右に生じる重力加速度の変化に応じて球部B2を受け部B1上で移動するようにウェアラブル装置2へ出力する。これにより、運転者は、運転時に運転の視野領域を変更することなく、視線を動かすだけで、実際の操作量に対する操作レベルを直感的に把握することができるので、安全性を確保し、かつ、ドライビングプレジャーを体感しつつ、運転技術を向上させることができる。
その後、ECU19は、車速センサ11の検出結果に基づいて、車両100が停止したか否かを判定する(ステップS211)。ECU19によって車両100が停止したと判定された場合(ステップS211:Yes)、運転支援装置1Aは、後述するステップS212へ移行する。これに対して、ECU19によって車両100が停止していないと判定された場合(ステップS211:No)、運転支援装置1Aは、上述したステップS204へ戻る。
ステップS212において、ECU19は、IGスイッチ10がオフ状態となったか否かを判定する。ECU19によってIGスイッチ10がオフ状態であると判定された場合(ステップS212:Yes)、運転支援装置1Aは、本処理を終了する。これに対して、ECU19によってIGスイッチ10がオフ状態でないと判定された場合(ステップS212:No)、運転支援装置1Aは、ステップS201へ戻る。
以上説明した実施の形態2によれば、ECU19がステアリングホイール103上に運転支援情報が表示されるようにウェアラブル装置2へ出力するため、運転者は、安全正を確保しつつ、直感的に把握することができる。
また、実施の形態2によれば、ECU19が運転者の視線を含む視野領域内におけるステアリングホイール103上に、基準位置T10、操舵量T11および推奨操舵量T12の各々を運転支援情報M52としてウェアラブル装置2へ出力するため、運転者は、実際の操舵量と推奨操舵量との差を把握しながら操作することができるので、ドライビングプレジャーを体感しながら、運転技術の向上を図ることができる。
また、実施の形態2によれば、車両100が移動状態である場合、ECU19が運転支援情報G1を運転者の視線上の領域に表示されるようにウェアラブル装置2へ出力する一方、車両100が移動状態でない場合、ECU19が運転支援情報G1を車両100のインストルメントパネル104上の中央に表示されるように運転支援情報G1をウェアラブル装置2に出力するため、運転者は、運転時に車両100の挙動を視線上で確認しながら直感的に把握することができるので、運転技術の向上を図ることができる。
また、実施の形態2によれば、ECU19が運転者の操作能力の指標である操作レベルに基づいて、運転支援情報の表示内容を制御することによって、運転者に適した操作レベルの運転支援情報が表示されるので、運転者に適した運転支援を行うことができる。
なお、実施の形態2では、ECU19がステアリングホイール103上に運転支援情報が投影されて表示されるように運転支援情報をウェアラブル装置2へ出力していたが、ウェアラブル装置2の制御部28が視線センサ23から運転者の視線に関する視線情報を取得し、取得した視線情報に基づいて、運転者の視線を含む視野領域内に車両100の運転を支援する運転支援情報が投影部24によって投影されることで表示されるように制御してもよい。具体的には、制御部28は、撮像装置21から取得した画像データに基づいて、車両100の操作部材、例えばステアリングホイールの位置を検出し、この検出結果と視線とに基づいて、ステアリングホイール上に運転支援情報が投影して表示されるように投影部24を制御してもよい。この場合、制御部28がウェアラブル装置2のプロセッサとして機能する。
(実施の形態2の変形例1)
次に、実施の形態2の変形例1について説明する。実施の形態2の変形例1では、グリップハンドルに適用した例について説明する。
図13は、実施の形態2の変形例1に係るECU19が出力することによってウェアラブル装置2に表示させる運転支援情報の表示位置を模式的に示す図である。
図13に示すように、ECU19は、運転車の視野領域内におけるグリップハンドル103Aの直上の領域に運転支援情報M60が投影されて表示されるように運転支援情報M60をウェアラブル装置2へ出力する。運転支援情報M60には、グリップハンドル103Aに対する基準位置(水平位置)からの推奨操舵量T60と、基準位置からの角度を示す角度情報T61,T62,T63とが含まれる。
以上説明した実施の形態2の変形例1によれば、ECU19がグリップハンドル103Aの直上に運転支援情報M60が表示されるように運転支援情報M60をウェアラブル装置2へ出力するため、運転者は、安全正を確保しつつ、直感的に把握することができる。
(実施の形態2の変形例2)
次に、実施の形態2の変形例2について説明する。実施の形態2の変形例2では、操縦桿に適用した場合について説明する。
図14は、実施の形態2の変形例2に係るECU19がウェアラブル装置2に運転支援情報を表示させる際の表示位置を模式的に示す図である。
図14に示すように、ECU19は、運転者の視野領域内における操縦桿103Bの直上の領域に運転支援情報M61が表示されるように運転支援情報M61をウェアラブル装置2へ出力する。運転支援情報M61には、操縦桿103Bに対する推奨操作量T64,T65と、操縦桿103Bに対する基準位置からの推奨操舵量T66,T67と、が含まれる。推奨操作量T64は、ブレーキに対する推奨操作量を示し、推奨操作量T65は、アクセルに対する推奨操作量を示す。
以上説明した実施の形態2の変形例2によれば、ECU19が操縦桿103Bの直上に運転支援情報M61が表示されるように運転支援情報M61をウェアラブル装置2へ出力するため、運転者は、安全正を確保しつつ、直感的に把握することができる。
(実施の形態2の変形例3)
次に、実施の形態2の変形例3について説明する。上述した実施の形態2では、アクセルペダル101、ブレーキペダル102およびステアリングホイール103を用いた例を説明していたが、実施の形態2の変形例3では、アクセルバーおよび操縦桿との組み合わせであっても適用することができる。
図15は、実施の形態2の変形例3に係るECU19がウェアラブル装置2に運転支援情報を表示させる際の表示位置を模式的に示す図である。
図15に示すように、ECU19は、運転者の視野領域内におけるアクセルバー101Cの直上の領域に運転支援情報M62が表示されるように運転支援情報M62をウェアラブル装置2へ出力する。また、ECU19は、運転者の視野領域内における操縦桿103Cの直上の領域に運転支援情報M63が表示されるように運転支援情報M63をウェアラブル装置2へ出力する。さらに、ECU19は、運転者の視野領域内に運転支援情報G1が表示されるように運転支援情報G1をウェアラブル装置2へ出力する。運転支援情報M62には、アクセルバー101Cに対する基準位置からの推奨操作量T68,T69が含まれる。推奨操作量T68は、ブレーキに対する推奨操作量を示し、推奨操作量T69は、アクセルに対する推奨操作量を示す。運転支援情報M63には、操縦桿103Cに対する基準位置(直立情報)からの推奨操舵量T70,T71と、が含まれる。
以上説明した実施の形態2の変形例3によれば、ECU19がアクセルバー101Cの直上の領域に運転支援情報M62および操縦桿103Cの直上の領域に運転支援情報M63が投影して表示されるため、運転者は、安全正を確保しつつ、直感的に把握することができる。
(実施の形態2の変形例4)
次に、実施の形態2の変形例4について説明する。実施の形態2の変形例4では、ジョイスティックに適用する。
図16は、実施の形態2の変形例4に係るECU19がウェアラブル装置2に運転支援情報を表示させる際の表示位置を模式的に示す図である。
図16に示すように、ECU19は、運転者の視野領域内におけるジョイスティック101Dの直上の領域に運転支援情報M64,M65が表示されるようにウェアラブル装置2へ出力する。運転支援情報M64には、ジョイスティック101Dに対する基準位置からの推奨操作量T72,T73が含まれる。推奨操作量T72は、アクセルに対する推奨操作量を示し、推奨操作量T73は、ブレーキに対する推奨操作量を示す。運転支援情報M63には、ジョイスティック101Dに対する基準位置(直立情報)からの推奨操舵量T74,T75と、が含まれる。
以上説明した実施の形態2の変形例4によれば、ECU19がジョイスティック101Dの直上の領域に運転支援情報M64,M65が表示されるようにウェアラブル装置2へ出力するため、運転者は、安全正を確保しつつ、直感的に把握することができる。
(実施の形態2の変形例5)
次に、実施の形態2の変形例5について説明する。実施の形態2の変形例5では、グリップハンドル型のハンドルに適用する。
図17は、実施の形態2の変形例5に係るECU19がウェアラブル装置2に運転支援情報を表示させる際の表示位置を模式的に示す図である。
図17に示すように、ECU19は、運転者の視野領域内におけるグリップ型のハンドル101Eの直上の領域に運転支援情報M65および運転支援情報M66が表示されるようにウェアラブル装置2へ出力する。運転支援情報M65には、グリップ型のハンドル101Eに対する基準位置からの推奨操作量T79,T80が含まれる。推奨操作量T79、アクセルに対する推奨操作量を示し、推奨操作量T80は、ブレーキに対する推奨操作量を示す。また、運転支援情報M66には、グリップハンドル103Eの基準位置T77(水平位置)と、基準位置からの推奨操作量T78とが含まれる。
以上説明した実施の形態2の変形例5によれば、ECU19がグリップ型のハンドル101Eの直上の領域に運転支援情報M65,M65が表示されるようにウェアラブル装置2へ出力するため、運転者は、安全正を確保しつつ、直感的に把握することができる。
(実施の形態3)
次に、実施の形態3について説明する。上述した実施の形態1,2では、運転支援装置1,1AのECU19が運転者の視線情報に基づいて、運転者の視野領域内に運転支援情報が表示されるように出力していたが、実施の形態3では、サーバが運転支援装置およびウェアラブル装置の各々から車速情報、操作情報、挙動情報および視線情報の各々を取得することによってウェアラブル装置が投影する運転支援情報を制御する。なお、上述した実施の形態2に係る運転支援システム1000と同一の構成には同一の符号を付して詳細な説明は省略する。
図18は、実施の形態3に係る運転支援システムの概略構成を示す模式図である。図18に示す運転支援システム1001は、複数の車両100の各々に搭載された運転支援装置1Aと、運転者U1が装着したウェアラブル装置2と、サーバ300と、を備える。複数の運転支援装置1、ウェアラブル装置2およびサーバ300は、基地局400およびネットワーク500を介して相互に情報通信可能に構成されている。また、サーバ300は、基地局400およびネットワーク500を介してGPS衛星600から車両100の上空を撮像して画像データを取得する。
〔サーバの構成〕
次に、サーバ300の構成について説明する。サーバ300は、通信部301と、制御部302と、を備える。
通信部301は、制御部302の制御のもと、ネットワーク500および基地局400を介して所定の通信規格に従って各種情報を送信するとともに、各種情報を受信する。また、通信部301は、制御部302の制御のもと、各車両100の運転支援装置1およびウェアラブル装置2に対して所定の通信規格に従って各種情報を送信するとともに、GPS衛星600、各車両100の運転支援装置1およびウェアラブル装置2から各種情報を受信する。通信部301は、無線通信可能な通信モジュールを用いて構成される。
制御部302は、メモリと、CPU、GPU、FPGA、DSPおよびASIC等のいずれかのハードウェアを有するプロセッサを用いて構成される。制御部302は、通信部301を介してウェアラブル装置2の視線センサ23から取得した運転者の視線に関する視線情報に基づいて、運転者の視線を含む視野領域に運転支援情報が表示されるようにウェアラブル装置2へ出力する。具体的には、制御部302は、学習済みモデル記憶部303が記憶する学習済みモデルに対して、通信部301を介して操作センサ12から取得したアクセルペダルに対する運転者の操作量と、車速センサ11から取得した車両の車速とを入力パラメータとして入力し、学習済みモデル記憶部303が記憶する学習済みモデルから出力された出力パラメータのアクセルペダルに対する推奨操作量を取得する。そして、制御部302は、操作量および推奨操作量がアクセルペダルの直上の領域に運転支援情報として表示されるように操作量および推奨操作量をウェアラブル装置2へ出力する。
さらに、制御部302は、学習済みモデル記憶部303が記憶する学習済みモデルに対して、通信部301を介してステアリングホイールセンサ13から取得したステアリングホイールに対する運転者の操舵量と車速センサ11から取得した車両の車速とを入力パラメータとして入力し、学習済みモデル記憶部303が記憶する学習済みモデルから出力された出力パラメータのステアリングホイールに対する推奨操舵量を取得する。そして、制御部302は、通信部301を介して、操舵量および推奨操舵量がステアリングホイールの直上の領域に運転支援情報として表示されるように操舵量および推奨操舵量をウェアラブル装置2へ出力する。
さらにまた、制御部302は、通信部301を介して挙動センサ4から取得した車両の挙動情報に基づいて、運転支援情報を生成し、この運転支援情報が運転者と車両のフロントウィンドウとの間の領域に表示されるように運転支援情報をウェアラブル装置2に出力する。なお、実施の形態3では、制御部302がプロセッサとして機能する。
学習済みモデル記憶部303は、上述した実施の形態1に係る学習済みモデル記憶部18と同様の機械学習された学習済みモデルを記憶する。
以上説明した実施の形態3によれば、制御部302が通信部301を介して、運転者の視線を含む視野領域内におけるステアリングホイール103上に表示されるように運転支援情報をウェアラブル装置2へ出力するため、運転者は、安全正を確保しつつ、直感的に把握することができる。
(その他の実施の形態)
実施の形態2,3では、運転者が装着可能な眼鏡型のウェアラブル装置2を用いた例を説明していたが、これに限定されることなく、種々のウェアラブル装置に適用することができる。例えば図19に示すように撮像機能を有するコンタクトレンズ型のウェアラブル装置2Aであっても適用することができる。さらに、図20のウェアラブル装置2Bまたは図21の脳内チップ型のウェアラブル装置2Cのように運転者U1の脳へ直接的に伝達する装置であっても適用することができる。さらにまた、図22のウェアラブル装置2Dのようにバイザーを備えたヘルメット形状に構成されてもよい。この場合は、ウェアラブル装置2Dは、バイザーに画像を投影して表示するものであってもよい。
また、実施の形態2,3では、ウェアラブル装置2が運転者の網膜に投影することによって画像を視認させていたが、例えば眼鏡等のレンズに画像を投影して表示するものであってもよい。
また、実施の形態1〜3では、機械学習の一例としてニューラルネットワークを用いた深層学習を説明してきたが、それ以外の方法に基づく機械学習を適用してもよい。例えばサポートベクターマシン、決定木、単純ベイズ、k近傍法等、他の教師あり学習を用いてもよい。また、教師あり学習に代えて半教師あり学習を用いてもよい。
また、実施の形態1〜3では、入力パラメータとして車両の走行データ以外にも、例えば車車間通信や路車間通信等によって得られるデータを用いてもよい。
また、実施の形態1〜3では、上述してきた「部」を、「回路」などに読み替えることができる。例えば、制御部は、制御回路に読み替えることができる。
また、実施の形態1〜3に係る運転支援装置およびウェアラブル装置に実行させるプログラムは、インストール可能な形式または実行可能な形式のファイルデータでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB媒体、フラッシュメモリ等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、実施の形態1〜3に係る運転支援装置およびウェアラブル装置に実行させるプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。
なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本実施の形態を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。即ち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施の形態に限定されるものではない。従って、添付のクレームおよびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
1,1A 運転支援装置
2,2A,2B,2C,2D ウェアラブル装置
10 IGスイッチ
11 車速センサ
12 操作センサ
13 ステアリングホイールセンサ
14 挙動センサ
15,27,301 通信部
16 視線センサ
17 表示部
18,303 学習済みモデル記憶部
19 ECU
20 カーナビゲーションシステム
21 撮像装置
22 9軸センサ
23 視線センサ
24 投影部
25,201 GPSセンサ
26 装着センサ
28,302 制御部
100 車両
101 アクセルペダル
101C アクセルバー
101D ジョイスティック
101E ハンドル
102 ブレーキペダル
103 ステアリングホイール
103A グリップハンドル
103B,103C 操縦桿
103E グリップハンドル
105 クラッチペダル
300 サーバ
1000,1001 運転支援システム

Claims (14)

  1. メモリと、
    ハードウェアを有するプロセッサと、
    を備え、
    前記プロセッサは、
    車両の運転席に着座した運転者の視線に関する視線情報を取得し、
    前記視線情報に基づいて、前記運転者の視野領域に前記車両の運転を支援する運転支援情報を出力する、
    運転支援装置。
  2. 請求項1に記載の運転支援装置であって、
    前記プロセッサは、
    前記視野領域内において前記車両に設けられた操作部材の直上の領域であって、前記操作部材と直交する直交方向の領域に前記運転支援情報を出力する、
    運転支援装置。
  3. 請求項2に記載の運転支援装置であって、
    前記プロセッサは、
    前記操作部材に対する前記運転者の操作量と前記車両の車速とを取得し、
    複数の車両の走行データに基づいて機械学習された学習済みモデルに対して、前記操作量と前記車速とを入力パラメータとして入力し、
    前記学習済みモデルから出力された出力パラメータの前記操作部材に対する推奨操作量と、前記操作量とを前記運転支援情報として出力する、
    運転支援装置。
  4. 請求項1に記載の運転支援装置であって、
    前記プロセッサは、
    前記運転者の視線上における前記運転者と前記車両のフロントウィンドウとの間に前記運転支援情報を出力する、
    運転支援装置。
  5. 請求項4に記載の運転支援装置であって、
    前記プロセッサは、
    前記車両の挙動に関する挙動情報を取得し、
    前記挙動情報に基づいて、前記運転支援情報を生成し、
    前記運転支援情報を出力する、
    運転支援装置。
  6. 請求項5に記載の運転支援装置であって、
    前記プロセッサは、
    凹面を有する受け部と前記凹面上を前記車両の前後および左右に生じる重力加速度の変化に応じて仮想的に移動可能な球部とを前記運転支援情報として出力する、
    運転支援装置。
  7. 請求項4〜6のいずれか一つに記載の運転支援装置であって、
    前記プロセッサは、
    前記車両の車速を取得し、
    前記車速に基づいて、前記車両が移動状態であるか否かを判定し、
    前記車両が移動状態である場合、前記運転支援情報を前記運転者の視線上に出力する、
    運転支援装置。
  8. 請求項1に記載の運転支援装置であって、
    前記プロセッサは、
    前記視野領域内における前記車両のステアリングホイール上に前記運転支援情報を出力する、
    運転支援装置。
  9. 請求項8に記載の運転支援装置であって、
    前記プロセッサは、
    前記ステアリングホイールにおける基準位置からの操舵量と前記車両の車速とを取得し、
    複数の車両の走行データに基づいて機械学習された学習済みモデルに対して、前記操舵量と前記車速とを入力パラメータとして入力し、
    前記学習済みモデルから出力された出力パラメータの前記ステアリングホイールに対する推奨操舵量と、前記基準位置と、前記操舵量との各々を前記運転支援情報として出力する、
    運転支援装置。
  10. 請求項1〜9のいずれか一つに記載の運転支援装置であって、
    前記プロセッサは、
    前記運転者の操作能力の指標である操作レベルを取得し、
    前記操作レベルに基づいて、前記運転支援情報の表示内容を制御する、
    運転支援装置。
  11. 車両と双方向に通信可能であり、視野領域の光を透過しつつ、該視野領域に画像を仮想的に表示可能なウェアラブル装置であって、
    当該ウェアラブル装置を装着した運転者の視線に関する視線情報を検出する視線センサと、
    メモリと、
    ハードウェアを有するプロセッサであって、前記視線情報に基づいて、前記運転者の視野領域に前記車両の運転を支援する運転支援情報を出力するプロセッサと、
    を備える、
    ウェアラブル装置。
  12. 請求項1〜10のいずれか一つに記載の運転支援装置と、
    前記運転支援装置と双方向に通信可能であり、視野領域の光を透過しつつ、該視野領域に画像を仮想的に表示可能なウェアラブル装置と、
    を備え、
    前記ウェアラブル装置は、当該ウェアラブル装置を装着した運転者の視線情報を検出する視線センサを備え、
    前記プロセッサは、
    前記視線情報に基づいて、前記運転者の視野領域に前記運転支援情報を前記ウェアラブル装置に出力する、
    運転支援システム。
  13. 運転支援装置が実行する運転支援方法であって、
    車両の運転席に着座した運転者の視線に関する視線情報を取得し、
    メモリから読み出した前記視線情報に基づいて、前記運転者の視野領域に前記車両の運転を支援する運転支援情報を出力する、
    運転支援方法。
  14. 運転支援装置に実行させるプログラムであって、
    車両の運転席に着座した運転者の視線に関する視線情報を取得し、
    前記視線情報に基づいて、前記運転者の視野領域に前記車両の運転を支援する運転支援情報を出力する、
    プログラム。
JP2018231103A 2018-12-10 2018-12-10 運転支援装置、ウェアラブル装置、運転支援システム、運転支援方法およびプログラム Active JP7115276B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018231103A JP7115276B2 (ja) 2018-12-10 2018-12-10 運転支援装置、ウェアラブル装置、運転支援システム、運転支援方法およびプログラム
US16/705,613 US11110933B2 (en) 2018-12-10 2019-12-06 Driving support device, wearable device, driving support system, driving support method, and computer-readable recording medium
CN201911237739.3A CN111284498B (zh) 2018-12-10 2019-12-06 驾驶支援装置、系统、方法、可穿戴装置以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018231103A JP7115276B2 (ja) 2018-12-10 2018-12-10 運転支援装置、ウェアラブル装置、運転支援システム、運転支援方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2020093590A true JP2020093590A (ja) 2020-06-18
JP7115276B2 JP7115276B2 (ja) 2022-08-09

Family

ID=70972447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018231103A Active JP7115276B2 (ja) 2018-12-10 2018-12-10 運転支援装置、ウェアラブル装置、運転支援システム、運転支援方法およびプログラム

Country Status (3)

Country Link
US (1) US11110933B2 (ja)
JP (1) JP7115276B2 (ja)
CN (1) CN111284498B (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101183221B1 (ko) * 2012-01-10 2012-09-14 (주)셀텍 절삭유 공급 제어 시스템
JP2022084136A (ja) * 2020-11-26 2022-06-07 株式会社東海理化電機製作所 無線通信装置、システムおよびプログラム
USD991949S1 (en) * 2021-11-17 2023-07-11 Mazda Motor Corporation Portion of a display screen with graphical user interface
USD991273S1 (en) * 2021-11-17 2023-07-04 Mazda Motor Corporation Portion of a display screen with graphical user interface

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005096750A (ja) * 2003-08-29 2005-04-14 Crf Soc Consortile Per Azioni 自動車用計器パネルのためのビジュアルディスプレイ装置
JP2014196086A (ja) * 2013-03-29 2014-10-16 富士重工業株式会社 輸送機器用表示装置
JP2015168265A (ja) * 2014-03-04 2015-09-28 株式会社デンソー 車両用表示装置
US20160084661A1 (en) * 2014-09-23 2016-03-24 GM Global Technology Operations LLC Performance driving system and method
US20170274931A1 (en) * 2016-03-25 2017-09-28 Lg Electronics Inc. Display apparatus and vehicle having the same

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4698002B2 (ja) * 2000-07-11 2011-06-08 マツダ株式会社 車両の表示装置
JP2004197647A (ja) 2002-12-18 2004-07-15 Toyota Motor Corp 推奨と実行のアクセル開度対比により制御される自動車
JP4371081B2 (ja) 2005-06-14 2009-11-25 トヨタ自動車株式会社 運転評価装置
US8140241B2 (en) * 2005-12-28 2012-03-20 National University Corporation Nagoya University Driving action estimating device, driving support device, vehicle evaluating system, driver model creating device, and driving action determining device
JP2008230296A (ja) * 2007-03-16 2008-10-02 Mazda Motor Corp 車両用運転支援システム
JP4480755B2 (ja) * 2007-12-04 2010-06-16 カルソニックカンセイ株式会社 車両用ヘッドアップディスプレイ装置
JP2010083205A (ja) * 2008-09-29 2010-04-15 Denso Corp 衝突警戒車両認知支援装置
US20120215403A1 (en) * 2011-02-20 2012-08-23 General Motors Llc Method of monitoring a vehicle driver
KR101382772B1 (ko) * 2012-12-11 2014-04-08 현대자동차주식회사 디스플레이 시스템 및 방법
CN105377612B (zh) * 2013-01-04 2019-03-08 约翰逊控制技术公司 基于上下文的车辆用户界面重配置
US20160054563A9 (en) * 2013-03-14 2016-02-25 Honda Motor Co., Ltd. 3-dimensional (3-d) navigation
US20150054951A1 (en) * 2013-08-22 2015-02-26 Empire Technology Development, Llc Influence of line of sight for driver safety
JP6187413B2 (ja) 2014-08-19 2017-08-30 株式会社デンソー 車両用情報提示方法、車両用情報提示システム、車載装置
KR101973300B1 (ko) * 2014-10-17 2019-04-26 가부시키가이샤 리코 차량용 화상 표시 시스템
JP2018022958A (ja) * 2016-08-01 2018-02-08 株式会社デンソー 車両用表示制御装置及び車両用モニタシステム
JP6865006B2 (ja) * 2016-09-28 2021-04-28 矢崎総業株式会社 車両用表示装置
CN106643781A (zh) * 2016-12-14 2017-05-10 英业达科技有限公司 车辆导航显示系统及其方法
JP2018165692A (ja) * 2017-03-28 2018-10-25 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、提示システム
US11151813B2 (en) * 2017-06-28 2021-10-19 Zendrive, Inc. Method and system for vehicle-related driver characteristic determination
JP6986699B2 (ja) * 2017-07-04 2021-12-22 パナソニックIpマネジメント株式会社 表示制御システム、表示システム、移動体、表示制御方法及びプログラム
US10671868B2 (en) * 2017-10-02 2020-06-02 Magna Electronics Inc. Vehicular vision system using smart eye glasses
JP6666892B2 (ja) * 2017-11-16 2020-03-18 株式会社Subaru 運転支援装置及び運転支援方法
CN108944930B (zh) * 2018-07-05 2020-04-21 合肥工业大学 一种基于lstm的模拟驾驶员特性的自动跟车方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005096750A (ja) * 2003-08-29 2005-04-14 Crf Soc Consortile Per Azioni 自動車用計器パネルのためのビジュアルディスプレイ装置
JP2014196086A (ja) * 2013-03-29 2014-10-16 富士重工業株式会社 輸送機器用表示装置
JP2015168265A (ja) * 2014-03-04 2015-09-28 株式会社デンソー 車両用表示装置
US20160084661A1 (en) * 2014-09-23 2016-03-24 GM Global Technology Operations LLC Performance driving system and method
US20170274931A1 (en) * 2016-03-25 2017-09-28 Lg Electronics Inc. Display apparatus and vehicle having the same

Also Published As

Publication number Publication date
CN111284498B (zh) 2023-05-09
JP7115276B2 (ja) 2022-08-09
US20200180645A1 (en) 2020-06-11
US11110933B2 (en) 2021-09-07
CN111284498A (zh) 2020-06-16

Similar Documents

Publication Publication Date Title
JP7115276B2 (ja) 運転支援装置、ウェアラブル装置、運転支援システム、運転支援方法およびプログラム
US10455882B2 (en) Method and system for providing rear collision warning within a helmet
JP6608146B2 (ja) ライブ映像を有する仮想透過型インストルメントクラスタ
JP6497158B2 (ja) 表示装置、移動体
JP4978721B2 (ja) 運転支援装置
JP4735676B2 (ja) 走行支援装置
JP6946760B2 (ja) 移譲制御装置及び制御プログラム
CN112915549B (zh) 图像处理装置、显示系统、记录介质以及图像处理方法
US20190317328A1 (en) System and method for providing augmented-reality assistance for vehicular navigation
JP2018058544A (ja) 車載表示制御装置
JP2023052450A (ja) 頭部着用型の電子表示装置の操作方法および仮想コンテンツを表示する表示システム
US11605222B2 (en) Apparatus and system related to an intelligent helmet
US11376514B2 (en) Experience system, experience providing method, and computer readable recording medium
JP6418342B1 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
US9751607B1 (en) Method and system for controlling rotatable device on marine vessel
JP7147527B2 (ja) 支援装置、支援方法およびプログラム
JP6482431B2 (ja) 表示制御装置、表示装置および表示制御方法
US11990066B2 (en) System and method to adjust inclined heads-up display perspective
JP5915519B2 (ja) 音像定位装置、及び、プログラム
US20210201854A1 (en) Mobile calibration of displays for smart helmet
US20210208584A1 (en) Moving body control device, moving body control method, and computer readable recording medium
KR20170082757A (ko) 차량, 웨어러블 장치, 및 신호등 정보 제공 방법
JP2022142553A (ja) 画像表示制御装置、画像表示制御方法、及びプログラム
KR20190069199A (ko) 무인 자동차 가상체험 방법 및 시스템
JP2021157749A (ja) 画像生成装置及び画像生成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220711

R151 Written notification of patent or utility model registration

Ref document number: 7115276

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151