JP2018203169A - 運転意識推定装置 - Google Patents

運転意識推定装置 Download PDF

Info

Publication number
JP2018203169A
JP2018203169A JP2017113502A JP2017113502A JP2018203169A JP 2018203169 A JP2018203169 A JP 2018203169A JP 2017113502 A JP2017113502 A JP 2017113502A JP 2017113502 A JP2017113502 A JP 2017113502A JP 2018203169 A JP2018203169 A JP 2018203169A
Authority
JP
Japan
Prior art keywords
driving
vehicle
driver
visual
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017113502A
Other languages
English (en)
Other versions
JP6638701B2 (ja
Inventor
浩司 岸
Koji Kishi
浩司 岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2017113502A priority Critical patent/JP6638701B2/ja
Priority to CN201810568081.3A priority patent/CN109080641B/zh
Priority to DE102018113488.6A priority patent/DE102018113488B4/de
Priority to US16/002,021 priority patent/US10814880B2/en
Publication of JP2018203169A publication Critical patent/JP2018203169A/ja
Application granted granted Critical
Publication of JP6638701B2 publication Critical patent/JP6638701B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

【課題】運転者の運転意識を適切に推定することができる運転意識推定装置を提供する。
【解決手段】自車両の運転者の運転意識を運転構え度として推定する運転意識推定装置100であって、自車両の外部センサの検出結果に基づいて、運転構え度の推定に利用される視認対象を認識する視認対象認識部14と、運転者の視線を認識する運転者視線認識部15と、運転者視線認識部の認識した運転者の視線に基づいて、視認対象に対する運転者の視認反応指標を演算する視認反応指標演算部17と、視認反応指標に基づいて、運転構え度を推定する運転構え度推定部18と、を備える。
【選択図】図1

Description

本発明は、運転意識推定装置に関する。
従来、運転者の状況を考慮するシステムに関する技術文献として、特開2016−15137号公報が知られている。この公報には、自律走行を確実に継続できる残り時間であるリードタイムと、運転者が自動運転に介入(手動運転に対応)するまでのリアクションタイムを算出する車両用自律走行システムが示されている。このシステムでは、リードタイムとリアクションタイムとの差分であるコンフォートタイムがゼロになったとき、運転者に対する警告等の対応措置を行う。
特開2016−15137号公報
しかしながら、上述した従来のシステムでは、運転者の運転意識について適切な考慮がされていない。このため、従来のシステムでは、運転者の運転意識が高いときでも、コンフォートタイムがゼロになると警告等の対応措置が行われることで、運転者に煩わしさを感じさせるおそれがある。このように運転者の運転意識を考慮して警告等の車両制御を行うためには、十分な精度で運転者の運転意識を推定する必要がある。この点、運転意識の適切な推定について改善の余地が存在する。
そこで、本技術分野では、運転者の運転意識を適切に推定することができる運転意識推定装置を提供することが望まれている。
上記課題を解決するため、本発明の一態様に係る運転意識推定装置は、自車両の運転者の運転意識を運転構え度として推定する運転意識推定装置であって、自車両の外部センサの検出結果に基づいて、運転構え度の推定に利用される視認対象を認識する視認対象認識部と、運転者の視線を認識する運転者視線認識部と、運転者視線認識部の認識した運転者の視線に基づいて、視認対象に対する運転者の視認反応指標を演算する視認反応指標演算部と、視認反応指標に基づいて、運転構え度を推定する運転構え度推定部と、を備える。
本発明の一態様に係る運転意識推定装置によれば、運転意識の高い運転者は運転意識の低い運転者と比べて、前方の割込み車両等の視認対象に対する視認の反応が早いと考えられることから、視認反応指標に基づいて運転者の運転意識に関する運転構え度を適切に推定することができる。
上記の一態様に係る運転意識推定装置において、視認対象の刺激強度指標を演算する刺激強度指標演算部を更に備え、刺激強度指標演算部は、視認対象認識部が他車両を視認対象として認識した場合、自車両と他車両との相対状況及び他車両の視認面積のうち少なくとも一方に基づいて、他車両の刺激強度指標を演算し、運転構え度推定部は、刺激強度指標と視認反応指標とに基づいて、運転構え度を推定してもよい。
この運転意識推定装置によれば、視認対象として運転者に与える刺激が異なると運転者の反応も異なってくると考えられることから、視認対象である他車両と自車両との相対状況及び/又は他車両の視認面積から演算した他車両の刺激強度指標を考慮することで、より適切に運転構え度を推定することができる。
上記の一態様に係る運転意識推定装置において、視認対象の刺激強度指標を演算する刺激強度指標演算部を更に備え、刺激強度指標演算部は、視認対象認識部が道路形状を視認対象として認識した場合、道路形状の曲率半径及び道路形状における走行台数のうち少なくとも一方に基づいて、道路形状の刺激強度指標を演算し、運転構え度推定部は、刺激強度指標と視認反応指標とに基づいて、運転構え度を推定してもよい。
この運転意識推定装置によれば、視認対象として運転者に与える刺激が異なると運転者の反応も異なってくると考えられることから、カーブ、合流区間等の道路形状における曲率半径及び/又は走行台数(車両の左右方向や前後方向の加速度や回転角加速度を更に考慮してもよい)から演算した視認対象の刺激強度指標を考慮することで、より適切に運転構え度を推定することができる。
上記の一態様に係る運転意識推定装置において、視認対象の刺激強度指標を演算する刺激強度指標演算部を更に備え、刺激強度指標演算部は、視認対象認識部が道路上の設置物を視認対象として認識した場合、設置物の視認面積に基づいて、設置物の刺激強度指標を演算し、運転構え度推定部は、刺激強度指標と視認反応指標とに基づいて、運転構え度を推定してもよい。
この運転意識推定装置によれば、視認対象として運転者に与える刺激が異なると運転者の反応も異なってくると考えられることから、道路上の設置物の視認面積を考慮することで、より適切に運転構え度を推定することができる。
上記の一態様に係る運転意識推定装置において、運転者の瞬目状態を認識する瞬目状態認識部を更に備え、運転構え度推定部は、運転者の瞬目状態に基づいて運転構え度を修正してもよい。
この運転意識推定装置によれば、運転意識によって運転者の瞬目状態が変化することから瞬目状態に基づいて運転構え度を修正するので、運転意識が低いまま偶然に視認対象の方向を運転者が見ているときに誤って運転構え度を高く推定することを避けることができ、より適切に運転構え度を推定することができる。
上記の一態様に係る運転意識推定装置において、運転者視線認識部の認識した運転者の視線に基づいて運転者の視線の移動範囲を認識する移動範囲認識部を更に備え、運転構え度推定部は、移動範囲に基づいて運転構え度を修正してもよい。
この運転意識推定装置によれば、運転意識に応じて運転者の視線の移動範囲が変化することから移動範囲に基づいて運転構え度を修正するので、運転意識が低いまま偶然に視認対象の方向を運転者が見ているときに誤って運転構え度を高く推定することを避けることができ、より適切に運転構え度を推定することができる。
上記の一態様に係る運転意識推定装置において、自車両のカメラの撮像画像に基づいて自車両の前方の風景のオプティカルフローを認識するオプティカルフロー認識部を更に備え、運転構え度推定部は、オプティカルフロー認識部の認識したオプティカルフローと運転者視線認識部の認識した運転者の視線とに基づいて運転構え度を修正してもよい。
この運転意識推定装置によれば、運転意識の低い運転者の視線は風景の流れる方向であるオプティカルフローの向きに引きずられる傾向があることからオプティカルフローと運転者の視線とに基づいて運転構え度を修正することで、より適切に運転構え度を推定することができる。
上記の一態様に係る運転意識推定装置において、運転構え度推定部は、視認対象ごとに複数回の運転構え度の推定を行い、視認対象に応じて運転構え度の重み付けを行い、予め設定された時間内に推定された複数回分の運転構え度と重み付けとに基づいて統合運転構え度を演算してもよい。
この運転意識推定装置によれば、視認対象ごとに推定された複数回分の運転構え度と視認対象に応じた重み付けから統合運転構え度を演算することで、一時的な見逃しにより運転者の運転意識が過剰に低く推定されることを避けることができ、予め設定された時間内における総合的な運転者の運転意識に関する統合運転構え度を出力することが可能になる。
以上説明したように、本発明の種々の態様によれば、運転者の運転意識を適切に推定することができる。
第1の実施形態に係る運転意識推定装置を示すブロック図である。 (a)割込み車両の刺激強度指標の演算を説明するための図である。(b)割込み車両と自車両の横方向距離の時間変化を示すグラフである。(c)視認対象の面積重心から視線までの距離の時間変化を示すグラフである。 視認対象がカーブである場合の視認反応指標の演算を説明するための図である。 (a)自動運転中の自車両Mの走行中に現われた複数の視認対象の例を示す図である。(b)複数の視認対象の例に対応する統合運転構え度の時間変化を示すグラフである。 (a)自動運転中の自車両Mの走行中に現われた複数の視認対象の他の例を示す図である。(b)複数の視認対象の他の例に対応する統合運転構え度の時間変化を示すグラフである。 第1の実施形態に係る運転意識推定装置の運転構え度推定処理を示すフローチャートである。 第2の実施形態に係る運転意識推定装置を示すブロック図である。 第2の実施形態に係る運転意識推定装置の運転構え度推定処理を示すフローチャートである。 第3の実施形態に係る運転意識推定装置を示すブロック図である。 (a)運転者の視線の移動範囲の一例を示す図である。(b)運転者の視線の移動範囲の他の例を示す図である。 第3の実施形態に係る運転意識推定装置の運転構え度推定処理を示すフローチャートである。 第4の実施形態に係る運転意識推定装置を示すブロック図である。 自車両の前方の風景のオプティカルフローを説明するための図である。 第4の実施形態に係る運転意識推定装置の運転構え度推定処理を示すフローチャートである。
以下、本発明の実施形態について図面を参照して説明する。
[第1の実施形態]
図1に示す第1の実施形態に係る運転意識推定装置100は、運転者の運転意識に関する運転構え度[Readiness]の推定を行う装置である。運転意識推定装置100では、運転意識の高い運転者が能動的に視認しようとする視認対象を利用して運転構え度の推定を行う。視認対象、運転構え度について後述する。なお、運転意識推定装置100は、自車両の自動運転を実行する自動運転システムの一部を構成していてもよい。
[第1の実施形態に係る運転意識推定装置の構成]
以下、本実施形態に係る運転意識推定装置100の構成について説明する。図1に示すように、運転意識推定装置100は、装置を統括的に管理するECU[Electronic Control Unit]10を備えている。
ECU10は、CPU[Central Processing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]等を有する電子制御ユニットである。ECU10では、例えば、ROMに記憶されているプログラムをRAMにロードし、RAMにロードされたプログラムをCPUで実行することにより各種の機能を実現する。ECU10は、複数の電子制御ユニットから構成されていてもよい。
ECU10には、ドライバモニタカメラ1、外部センサ2、内部センサ3、GPS[Global Positioning System]受信部4、地図データベース5、HMI6が接続されている。また、ECU10は、自動運転ECU7と接続されている。
ドライバモニタカメラ1は、自車両のステアリングコラムのカバー上で運転者の正面の位置に設けられ、運転者の頭部を撮像する。ドライバモニタカメラ1は、運転者を複数方向から撮像するため、複数個設けられていてもよい。ドライバモニタカメラ1は、運転者を撮像した運転者画像をECU10へ送信する。
外部センサ2は、自車両の周辺環境を検出する検出機器である。外部センサ2は、カメラとレーダセンサとを含む。
カメラは、例えば、自車両のフロントガラスの裏側に設けられ、自車両の前方を撮像する。カメラは、自車両の背面及び側面に設けられていてもよい。カメラは、自車両周囲の撮像情報をECU10へ送信する。カメラは、単眼カメラであってもよく、ステレオカメラであってもよい。ステレオカメラは、両眼視差を再現するように配置された二つの撮像部を有している。
レーダセンサは、電波(例えばミリ波)又は光を利用して車両の周辺の障害物を検出する検出機器である。レーダセンサには、例えば、ミリ波レーダー又はライダー[LIDAR:Light Detection and Ranging]が含まれる。レーダセンサは、電波又は光を自車両の周辺に送信し、障害物で反射された電波又は光を受信することで障害物を検出する。レーダセンサは、検出した障害物情報をECU10へ送信する。障害物には、ガードレール、建物等の固定物の他、歩行者、自転車、他車両等が含まれる。
内部センサ3は、自車両の車両状態を検出する検出機器である。内部センサ3は、車速センサ、加速度センサ、及びヨーレートセンサを含む。車速センサは、自車両の速度を検出する検出器である。車速センサとしては、例えば、自車両の車輪又は車輪と一体に回転するドライブシャフト等に対して設けられ、車輪の回転速度を検出する車輪速センサが用いられる。車速センサは、検出した車速情報(車輪速情報)をECU10に送信する。
加速度センサは、自車両の加速度を検出する検出器である。加速度センサは、例えば、自車両の前後方向の加速度を検出する前後加速度センサと、自車両の横加速度を検出する横加速度センサとを含んでいる。加速度センサは、例えば、自車両の加速度情報をECU10に送信する。ヨーレートセンサは、自車両の重心の鉛直軸周りのヨーレート(回転角速度)を検出する検出器である。ヨーレートセンサとしては、例えばジャイロセンサを用いることができる。ヨーレートセンサは、検出した自車両のヨーレート情報をECU10へ送信する。
GPS受信部4は、3個以上のGPS衛星から信号を受信することにより、自車両の位置(例えば自車両の緯度及び経度)を測定する。GPS受信部4は、測定した自車両の位置情報をECU10へ送信する。なお、運転意識推定装置100は、GPSに代えて、外部センサ2の検出結果と地図情報を用いたSLAM[Simultaneous Localization and Mapping]技術により自車両の位置情報を取得してもよい。
地図データベース5は、地図情報を記憶するデータベースである。地図データベース5は、例えば、自車両に搭載されたHDD[Hard Disk Drive]内に形成されている。地図情報には、道路の位置情報、道路形状の情報(例えばカーブ、直線部の種別、カーブの曲率等)、道路の幅情報、道路の高さ情報、交差点、合流地点及び分岐地点の位置情報、及び建物の位置情報等が含まれる。地図情報には、案内板、標識等の道路上の設置物に関する位置情報が含まれていてもよい。なお、地図データベース5は、自車両と通信可能な管理センター等の施設のコンピュータに記憶されていてもよい。
HMI6は、運転意識推定装置100と運転者との間で情報の入出力を行うためのインターフェイスである。HMI6は、例えば、自車両のディスプレイ及びスピーカを備えている。HMI6は、ECU10からの制御信号に応じて、ディスプレイの画像出力及びスピーカからの音声出力を行う。HMI6は、HUD[Head Up Display]を備えていてもよい。
自動運転ECU7は、自車両に搭載され、自車両の自動運転を実行するための電子制御ユニットである。自動運転とは、運転者が運転操作をすることなく、自動で自車両を走行させる車両制御である。SAE[Society of Automotive Engineers]J3016には、自動運転の度合いに応じて自動運転レベル0〜自動運転レベル4が定められている。
自動運転ECU7は、GPS受信部4の自車両の位置情報、地図データベース5の地図情報、後述する自車両の走行環境及び車両状態に基づいて、予め設定された目的ルートに沿った走行計画を生成する。目的ルートは、自車両の乗員又は周知のナビゲーションシステムによって設定される。自動運転ECU7は、走行計画に沿って自動運転を実行する。自動運転ECU7は、自車両のアクチュエータ(エンジンアクチュエータ、操舵アクチュエータ、ブレーキアクチュエータ等)に制御信号を送信することで自動運転を実行する。自動運転ECU7は、周知の手法により走行計画を生成すると共に自動運転を実行する。
次に、ECU10の機能的構成について説明する。なお、以下に説明するECU10の機能の一部は、自車両と通信可能な管理センター等の施設のコンピュータ及び/又は自動運転ECU7において実行される態様であってもよい。また、ECU10は、自動運転ECU7と一体であってもよい。
ECU10は、運転者画像取得部11、走行環境認識部12、車両状態認識部13、視認対象認識部14、運転者視線認識部15、刺激強度指標演算部16、視認反応指標演算部17、及び運転構え度推定部18を備えている。
運転者画像取得部11は、ドライバモニタカメラ1から運転者画像を取得する。運転者画像取得部11は、ドライバモニタカメラ1が複数のカメラを有する場合には、各カメラの運転者画像を関連付けて取得する。
走行環境認識部12は、自車両の周囲の走行環境を認識する。走行環境認識部12は、外部センサ2の検出結果、GPS受信部4の位置情報、地図データベース5の地図情報、及び自動運転ECU7の自動運転に関する情報に基づいて、走行環境を認識する。走行環境認識部12は、周知の手法により自車両の周囲の走行環境を認識する。走行環境には、自車両の周囲の障害物の状況及び道路状況が含まれる。なお、走行環境認識部12は、必ずしも自動運転ECU7の情報を用いる必要はなく、外部センサ2の検出結果のみを利用してもよい。
走行環境認識部12は、外部センサ2の検出結果に基づいて、自車両の周囲の障害物の状況を認識する。自車両の周囲の障害物の状況には、自車両に対する障害物の位置、自車両に対する障害物の相対速度、自車両に対する障害物の移動方向等が含まれる。走行環境認識部12は、外部センサ2のカメラによる自車両前方の撮像画像に基づいて、周知の手法により白線認識を行なってもよい。走行環境認識部12は、周知の手法により、自車両の前方に割り込む割込み車両、制動中の先行車、自車両を側方から追い抜く追い抜き車両等を認識することができる。
また、走行環境認識部12は、外部センサ2の検出結果に基づいて、道路状況として自車両の前方の道路形状(カーブ、交差点、合流区間等)を認識する。走行環境認識部12は、周知の手法により、各道路形状における走行台数を認識してもよい。
具体的に、走行環境認識部12は、合流区間で自車両の車線に合流する車線上の他車両の走行台数を認識してもよい。走行環境認識部12は、外部センサ2の検出結果に基づいて、周知の手法により、道路上の設置物(案内板、標識、路面標示、及び信号機等)を認識してもよい。なお、走行環境認識部12は、自車両の位置情報と地図情報から自車両の前方の道路形状を認識してもよく、自車両の位置情報と地図情報から道路上の設置物を認識してもよい。
車両状態認識部13は、内部センサ3の検出結果に基づいて、走行中の自車両の状態を認識する。車両状態には、自車両の車速、自車両の加速度、自車両のヨーレートが含まれる。具体的に、車両状態認識部13は、車速センサの車速情報に基づいて、自車両の車速を認識する。車両状態認識部13は、加速度センサの加速度情報に基づいて、自車両の加速度(前後加速度及び横加速度)を認識する。車両状態認識部13は、ヨーレートセンサのヨーレート情報に基づいて、自車両のヨーレートを認識する。なお、ECU10は、必ずしも車両状態認識部13を有する必要はない。
視認対象認識部14は、走行環境認識部12の認識した走行環境に基づいて、運転者の運転構え度の推定に利用される視認対象を認識する。視認対象には、視認対象車、道路形状、道路上の設置物のうち少なくとも一つが含まれる。
視認対象車とは、運転者の運転構え度の推定に利用される他車両である。視認対象車には、自車両の前方に割り込む割込み車両、制動中(ブレーキランプ点灯中)の先行車、自動運転中の自車両に速度変化を生じさせた先行車、自車両を側方から追い抜く追い抜き車両のうち少なくとも一つが含まれる。
自動運転中の自車両に速度変化を生じさせた先行車には、先行車の減速等により自動運転中の自車両と先行車との距離が小さくなることで自車両の減速を生じさせた先行車、自動運転中の自車両が先行車を追従している場合に先行車が急加速することで自動運転により自車両の加速を生じさせた先行車等が含まれる。この場合の先行車は、自車両に所定値以上の減速度又は加速度を生じさせた先行車に限定してもよい。
視認対象となる道路形状には、カーブ、交差点、合流区間(自車両の走行車線と合流する車線も含む)、及び分岐区間(自車両の走行車線から分岐する車線も含む)のうち少なくとも一つが含まれる。視認対象となるカーブは、曲率半径が一定値(例えば640m)以下でカーブ長が一定長さ(例えば60m)以上のカーブに限ってもよい。視認対象となる道路上の設置物には、案内板、標識、路面標示、及び信号機等のうち少なくとも一つが含まれる。
視認対象認識部14は、例えば、走行環境認識部12の認識した走行環境に基づいて、自車両の隣接車線を走行する他車両と自車両との横方向距離(自車両の車幅方向の距離)が横方向距離閾値未満となったと判定した場合、当該他車両を視認対象車の割込み車両として認識する。なお、視認対象認識部14は、他車両が白線を跨いで自車両の走行車線に進入したときに、当該他車両を視認対象の割込み車両として認識してもよい。
視認対象認識部14は、外部センサ2のカメラの撮像画像に基づいて、先行車のブレーキランプの点灯を認識した場合、視認対象車として制動中の先行車を認識してもよい。なお、視認対象認識部14は、先行車の制動(減速)を判定することで、制動中の先行車を視認対象車として認識してもよい。
また、視認対象認識部14は、自動運転ECU7から自車両の自動運転に関する情報を取得することで、自動運転中の自車両に速度変化を生じさせた先行車を視認対象車として認識してもよい。視認対象認識部14は、走行環境認識部12の認識した走行環境に基づいて、自車両の側方を追い抜く追い抜き車両を視認対象車として認識してもよい。なお、視認対象認識部14は、渋滞等により自車両の車速が所定閾値以下であるときには追い抜き車両を視認対象車として認識しなくてもよい。視認対象認識部14は、車車間通信を利用して視認対象車を認識してもよい。
視認対象認識部14は、例えば、走行環境認識部12の認識した走行環境に基づいて、周知の手法により、視認対象となる道路形状及び設置物を認識することができる。視認対象認識部14は、車両の位置情報と地図情報とに基づいて、自車両から一定距離内に入った道路形状及び設置物を視認対象として認識してもよい。視認対象認識部14は、外部センサ2のカメラの撮像画像に基づいて、周知の画像処理等により運転者が視認対象を視認可能となったと判定できたときに、視認対象を認識してもよい。
運転者視線認識部15は、運転者画像取得部11の取得した運転者画像に基づいて、運転者の視線を認識する。運転者視線認識部15は、周知の手法により運転者画像から運転者の眼球及び眼球の動きを検出することで運転者の視線を認識する。
刺激強度指標演算部16は、視認対象認識部14が認識した視認対象の刺激強度指標を演算する。刺激強度指標とは、視認対象における運転者の視線の引き寄せやすさに関する指標である。
〈視認対象が視認対象車である場合〉
刺激強度指標演算部16は、視認対象認識部14が視認対象として他車両(視認対象車)を認識した場合、自車両と視認対象車との相対状況及び視認対象車の視認面積のうち少なくとも一方に基づいて、視認対象車の刺激強度指標を演算する。
自車両と視認対象車との相対状況には、自車両と視認対象車の車間距離、自車両と視認対象車の相対速度、自車両と視認対象車の車間時間[THW: Time Head-Way]、自車両と視認対象車の衝突余裕時間[TTC: Time To Collision]のうち少なくとも一つが含まれる。自車両と視認対象車の相対速度には、自車両の前後方向の相対速度及び自車両の横方向(車幅方向)の相対速度のうち少なくとも一つが含まれる。また、自車両と視認対象車との相対状況には、運転者から見た視認対象車の移動速度(運転者の視界における視認対象車の見かけの移動速度)も含まれる。
視認対象車の視認面積とは、運転者の視界において視認対象車が占める面積である。自車両の前方を撮像するカメラの撮像画像又は撮像画像に所定の画像処理(視点変換処理等)を施した画像を運転者の視界とみなすことができる。この場合には、画像上において視認対象車の占める面積が視認面積となる。視認面積は、視角(単位:deg)を用いた視角面積として認識されてもよい。
《視認対象車が割込み車両の場合》
視認対象車が割込み車両の場合について説明する。割込み車両とは、自車両の走行する車線である走行車線に隣接する隣接車線から自車両の前に割り込んできた他車両である。
図2(a)は、割込み車両の刺激強度指標の演算を説明するための図である。図2(a)は、自車両の前方を見る運転者の視界Gを示している。ここでは、外部センサ2のカメラから見た自車両前方の撮像画像に対して自車両の運転者から見た視点の画像に変換する視点変換処理を施すことで、運転者の視界Gを得ている。図2(a)に、割込み車両(トラック)Np、視界Gにおける割込み車両Npの横幅WN、視界Gにおける割込み車両Npの縦幅HNを示す。横幅WN及び縦幅HNは、例えば、単位をdegとして表現することができる。矢印DNは、視界Gにおける割込み車両Npの移動方向を示している。
図2(a)に示す状況において、視認対象認識部14は、割込み車両Npを視認対象車(視認対象)として認識する。視認対象認識部14は、例えば、隣接車線上で自車両より前方を走行する他車両と自車両との横方向距離(自車両の車幅方向の距離)が横方向閾値以下となった場合、当該他車両を視認対象車である割込み車両Npとして認識する。横方向閾値は、他車両が割込み車両(視認対象車)であるか否かを判定するために予め設定された閾値である。
刺激強度指標演算部16は、視認対象車として割込み車両Npが認識された場合、自車両と割込み車両Npとの相対状況と割込み車両Npの視認面積とに基づいて、割込み車両Npの刺激強度指標を演算する。
刺激強度指標演算部16は、自車両と割込み車両Npとの相対状況として、運転者の視界Gにおける割込み車両Npの横方向の移動速度を認識する。刺激強度指標演算部16は、カメラの撮像画像に基づいて、周知の画像処理により、運転者の視界Gにおける割込み車両Npの横方向の移動速度を認識することができる。運転者の視界Gにおける割込み車両Npの横方向の移動速度は、例えば単位:deg/secとして表わすことができる。また、刺激強度指標演算部16は、周知の画像処理によって、運転者の視界Gにおける割込み車両Npの視認面積(横幅WN×縦幅HN)を認識する。
なお、刺激強度指標演算部16は、現在の相対速度ではなく、現時点から一定時間前までの横方向の相対速度の最大値を採用することができる。同様に、刺激強度指標演算部16は、現在の視認面積ではなく、現時点から一定時間前までの視認面積の最大値を採用することができる。一定時間ではなく、視認対象認識部14が割込み車両Npを認識してから、後述する視認反応指標演算部17により運転者が割込み車両Npを視認したと判定されるまでの時間としてもよい。
刺激強度指標演算部16は、自車両と割込み車両Npとの横方向の相対速度と割込み車両Npの視認面積とに基づいて、割込み車両Npの刺激強度指標を演算する。刺激強度指標演算部16は、例えば、自車両と割込み車両Npとの横方向の相対速度に割込み車両Npの視認面積を乗じた値を割込み車両Npの刺激強度指標として演算する。
《視認対象車が追い越し車両の場合》
刺激強度指標演算部16は、視認対象車として追い越し車両が認識された場合、自車両と追い越し車両との相対状況と追い越し車両の大きさとに基づいて、追い越し車両の刺激強度指標を演算する。
刺激強度指標演算部16は、走行環境認識部12の認識した走行環境に基づいて、自車両と追い越し車両との相対状況として自車両の前後方向における自車両と追い越し車両との相対速度を認識する。刺激強度指標演算部16は、走行環境認識部12の認識した走行環境に基づいて、実際の追い越し車両の大きさを認識する。実際の追い越し車両の大きさとは、例えば自車両のレーダーで検出された追い越し車両の大きさ(全長、高さ等)である。
刺激強度指標演算部16は、自車両の前後方向における自車両と追い越し車両との相対速度と追い越し車両の大きさとに基づいて、追い越し車両の刺激強度指標を演算する。刺激強度指標演算部16は、予め設定された演算式又はテーブルデータを用いて、追い越し車両の刺激強度指標を演算することができる。刺激強度指標演算部16は、例えば、自車両と追い越し車両との相対速度が大きいほど追い越し車両の刺激強度指標を大きな値として演算する。また、刺激強度指標演算部16は、追い越し車両の大きさが大きいほど追い越し車両の刺激強度指標を大きな値として演算してもよい。
《視認対象車が制動中の先行車の場合》
刺激強度指標演算部16は、視認対象車として制動中の先行車(ブレーキランプが点灯中の先行車)が認識された場合、自車両と先行車との相対状況と先行車のブレーキランプの輝度コントラストとに基づいて、先行車の刺激強度指標を演算する。先行車は、自車両の走行車線上で自車両の一つ前を走行する車両である。ブレーキランプの輝度コントラストとは、運転者の視界Gにおけるブレーキランプの輝度と背景の輝度とのコントラストである。ブレーキランプの輝度コントラストは、周知の画像処理によって求めることができる。
刺激強度指標演算部16は、走行環境認識部12の認識した走行環境に基づいて、自車両と先行車との相対状況として、自車両と先行車との車間距離を認識する。刺激強度指標演算部16は、外部センサ2のカメラの撮像画像に基づいて、先行車のブレーキランプの輝度コントラストを認識する。
刺激強度指標演算部16は、自車両と先行車との車間距離と、先行車のブレーキランプの輝度コントラストとに基づいて、先行車の刺激強度指標を演算する。刺激強度指標演算部16は、予め設定された演算式又はテーブルデータを用いて、先行車の刺激強度指標を演算することができる。刺激強度指標演算部16は、例えば、先行車のブレーキランプの輝度コントラストが大きいほど先行車の刺激強度指標を大きい値として演算する。刺激強度指標演算部16は、自車両と先行車との車間距離が小さいほど先行車の刺激強度指標を大きい値として演算してもよい。刺激強度指標演算部16は、自車両と先行車との相対車速、自車両と先行車との相対加速度等を考慮して刺激強度指標を演算してもよい。
《視認対象車が自動運転中の自車両に速度変化を生じさせた先行車である場合》
刺激強度指標演算部16は、視認対象車として自動運転中の自車両に速度変化を生じさせた先行車が認識された場合、先行車の視認面積及び自車両の加速度(又は減速度)に基づいて、先行車の刺激強度指標を演算する。
刺激強度指標演算部16は、外部センサ2のカメラの撮像画像に基づいて、運転者の視界Gにおける先行車の視認面積を認識する。刺激強度指標演算部16は、車両状態認識部13の認識した車両状態に基づいて、自車両の加速度又は減速度を認識する。刺激強度指標演算部16は、先行車の視認面積及び自車両の加速度(又は減速度)に基づいて、予め設定された演算式又はテーブルデータを用いて、先行車の刺激強度指標を演算する。刺激強度指標演算部16は、例えば、先行車の視認面積が大きいほど先行車の刺激強度指標を大きい値として演算する。刺激強度指標演算部16は、自車両の加速度(又は減速度)が大きいほど先行車の刺激強度指標を大きい値として演算してもよい。
〈視認対象が道路形状の場合〉
刺激強度指標演算部16は、視認対象認識部14が道路形状を視認対象として認識した場合、道路形状の曲率又は道路形状における走行台数に基づいて、道路形状の刺激強度指標を演算する。
《視認対象がカーブの場合》
具体的に、刺激強度指標演算部16は、視認対象がカーブである場合、走行環境認識部12の認識したカーブの曲率半径と車両状態認識部13の認識した自車両の車速に基づいて、カーブの刺激強度指標を演算する。刺激強度指標演算部16は、例えば、カーブの曲率半径に自車両の車速を乗じた値をカーブの刺激強度指標として演算する。なお、刺激強度指標演算部16は、カーブの曲率半径を自車両の走行履歴(位置情報と白線認識情報又はヨーレート情報が関連付けられた走行履歴)から認識してもよい。
《視認対象が合流区間の場合》
刺激強度指標演算部16は、視認対象が合流区間である場合、走行環境認識部12の認識した合流区間の走行台数に基づいて、合流区間の刺激強度指標を演算する。合流区間は、例えば、地図上に予め設定された合流地点から手前側に所定距離の区間とすることができる。合流区間の走行台数は、自車両の走行車線上の走行台数を除き、走行車線に合流する車線上の走行台数としてもよい。なお、分岐区間の場合も合流区間と同様である。
《視認対象が交差点の場合》
刺激強度指標演算部16は、視認対象が交差点である場合、走行環境認識部12の認識した交差点の走行台数に基づいて、交差点の刺激強度指標を演算する。走行台数をカウントする交差点の範囲は、例えば、地図上に予め交差点として設定された範囲とすることができる。
〈視認対象が設置物の場合〉
刺激強度指標演算部16は、視認対象認識部14が設置物を視認対象として認識した場合、設置物の視認面積に基づいて、設置物の刺激強度指標を演算する。刺激強度指標演算部16は、カメラの撮像画像に基づいて、周知の画像処理により、運転者の視界Gにおける設置物の視認面積を認識する。刺激強度指標演算部16は、例えば、設置物の視認面積を刺激強度指標として演算する。なお、刺激強度指標演算部16は、視認対象の設置物が信号機である場合には、信号機の視認面積及び信号機の輝度コントラストに基づいて刺激強度指標を演算してもよい。
視認反応指標演算部17は、視認対象に対する運転者の視認反応指標を演算する。視認反応指標とは、視認対象に対する運転者の視線の反応に関する指標である。視認反応指標演算部17は、視認対象認識部14の認識した視認対象と運転者視線認識部15の認識した運転者の視線とに基づいて、視認反応指標を演算する。
視認反応指標演算部17は、例えば、視認対象認識部14によって視認対象が認識されてから運転者が視認対象を視認するまでの反応時間(反応遅れ)に基づいて、視認反応指標を演算する。視認反応指標演算部17は、周知の手法により運転者の視線が視認対象上に位置すると判定されたとき、運転者が視認対象を視認すると認識してもよい。
ここで、図2(b)は、割込み車両Npと自車両の横方向距離の時間変化を示すグラフである。図2(b)の縦軸は割込み車両Npと自車両の横方向距離、横軸は時間である。図2(b)に、視認対象認識部14が視認対象としての割込み車両Npを認識した時点t1を示す。図2(b)では、視認対象認識部14は、割込み車両Npと自車両の横方向距離が0.5m以下となったときに、視認対象として割込み車両を認識している。
図2(c)は、視認対象の面積重心から視線までの距離の時間変化を示すグラフである。図2(c)の縦軸は視認対象の面積重心から視線までの距離、横軸は時間である。視認対象の面積重心から視線までの距離とは、運転者の視界G上において、視認対象の視認面積の面積重心から運転者の視線までの距離を意味する。面積重心は、例えば、視認対象の視認面積の中心の位置である。視認反応指標演算部17は、視認対象認識部14の認識した視認対象と運転者視線認識部15の認識した運転者の視線に基づいて、周知の手法により、視認対象の面積重心から視線までの距離を認識する。
図2(c)に、視認反応指標演算部17により運転者が視認対象を視認したと認識された時点t2を示す。また、時点t1から時点t2までの経過時間Tを示す。経過時間Tは、運転者が視認対象を視認するまでの反応時間に相当する。図2(b)及び図2(c)に示す状況において、視認反応指標演算部17は、例えば、運転者が視認対象を視認するまでの反応時間の逆数を視認反応指標として演算する。
なお、ここでは、割込み車両Npが視認対象である場合について説明したが、運転者が視認対象を視認するまでの反応時間は、全ての種類の視認対象の視認反応指標の演算に用いることが可能である。
また、視認反応指標演算部17は、視認対象認識部14が視認対象を認識した時点から一定時間内に運転者が視認対象を視認したか否かの判定結果に基づいて、視認反応指標の演算を行なってもよい。視認反応指標演算部17は、例えば、視認対象認識部14が追い抜き車両を視認対象として認識した場合、認識した時点から一定時間内に運転者が追い抜き車両を視認したか否かを判定する。視認反応指標演算部17は、一定時間内に運転者が追い抜き車両を視認した場合、予め設定された値(例えば1)を視認反応指標として演算する。視認反応指標演算部17は、一定時間内に運転者が追い抜き車両を視認しなかった場合、予め設定された値(例えば0.1)を視認反応指標として演算する。
視認反応指標演算部17は、視認対象がカーブである場合、運転者がカーブの先を視認している時間の長さとTP出現時間長とに基づいて、カーブに対する運転者の視認反応指標を演算してもよい。ここで、図3は、視認対象がカーブである場合の視認反応指標の演算を説明するための図である。図3に、カーブR、カーブRの左側の白線L1、カーブRの右側の白線L2、自車両M、自車両Mの正面方向D、自車両Mから伸びる接線D、接線DとカーブRの内側の白線L2との交点であるタンジェントポイントTP、接線Dを挟むように伸びる破線D1,D2を示す。また、自車両の正面方向Dと接線Dとのなす角度をθとする。カーブRは、例えば、自車両Mから100m以内で曲率半径が640m以下であり、且つ、カーブ長が60m以上のカーブである。
図3において、自車両Mから伸びる接線Dの始点は自車両Mの運転席である。破線D1,D2の始点も同じである。破線D1は、自車両Mの運転席を基準として接線Dを一定角度α1(例えば5deg)だけ左側に移動させた直線である。同様に、破線D2は、自車両Mの運転席を基準として接線Dを一定角度α2(例えば5deg)だけ右側に移動させた直線である。α1とα2は一例として同じ値である。
図3に示す状況において、視認反応指標演算部17は、運転者の視線が破線D1と破線D2との間に位置する場合、運転者がカーブの先を視認していると判定する。視認反応指標演算部17は、運転者がカーブの先を視認している時間をカウントする。
また、視認反応指標演算部17は、車両状態認識部13の認識した車両状態、自車両の位置情報、及び地図情報に基づいて、運転者がタンジェントポイントTPを視認できる時間の長さであるTP出現時間長を演算する。視認反応指標演算部17は、自車両Mの正面方向Dと接線Dとのなす角度θが一定角度(例えば10deg)以上となったときにTP出現時間長のカウントを開始し、自車両Mの正面方向Dと接線Dとのなす角度θが一定角度未満となったとき、TP出現時間長のカウントを終了してもよい。視認反応指標演算部17は、例えば、運転者がカーブの先を視認している時間の長さをTP出現時間長で除した値をカーブに対する運転者の視認反応指標として演算する。
運転構え度推定部18は、刺激強度指標演算部16の演算した視認対象の刺激強度指標と視認反応指標演算部17の演算した視認対象に対する運転者の視認反応指標とに基づいて、運転者の運転構え度を推定する。
運転構え度推定部18は、例えば、視認反応指標を刺激強度指標で除した値に予め設定された係数を乗じた値を運転構え度として推定する。この点を下記の式(1)として示す。式(1)においてαiは、視認対象iに対応して予め設定された係数である。
Figure 2018203169
運転構え度推定部18は、視認対象ごとに複数回の運転構え度の推定を行うと共に、視認対象に応じて運転構え度の重み付けを行う。運転構え度推定部18は、例えば、視認対象の刺激強度指標に応じて運転構え度の重み付けを行う。運転構え度推定部18は、視認対象の刺激強度指標が重み付け用閾値未満である場合、刺激強度指標が重み付け用閾値以上である場合と比べて、当該視認対象における運転構え度の重み付けの値を大きくする。重み付け用閾値は予め設定された閾値である。運転構え度推定部18は、視認対象の刺激強度指標が大きいほど、当該視認対象における運転構え度の重み付けの値を大きくしてもよい。
運転構え度推定部18は、視認対象の視認面積に応じて運転構え度の重み付けを行ってもよい。運転構え度推定部18は、視認対象の視認面積が視認面積閾値未満である場合、刺激強度指標が大きい場合であっても、見逃しが生じやすいと考えられることから、視認対象の視認面積が視認面積閾値以上である場合と比べて、運転構え度の重み付けの値を小さくしてもよい。視認面積閾値は、予め設定された値である。運転構え度推定部18は、視認対象が視認対象車又は設置物である場合に限って、視認面積に応じた運転構え度の重み付けを行ってもよい。また、運転構え度推定部18は、視認対象がカーブである場合、カーブの曲率に応じて運転構え度の重み付けを行ってもよい。運転構え度推定部18は、カーブの曲率が大きいほど運転構え度の重み付けの値を大きくしてもよい。
運転構え度推定部18は、予め設定された時間内に複数回分の運転構え度が推定された場合、複数回分の運転構え度を統合して統合運転構え度を演算する。予め設定された時間内とは、例えば、統合運転構え度の演算開始の時点(現時点)から一定時間内である。統合運転構え度は下記の式(2)として演算することができる。βiは、統合運転構え度を演算するための視認対象ごとの重み付け係数である。nは一定時間内に現われた視認対象の数である。mは一定時間内に現われた視認対象の種類の総数である。
Figure 2018203169
ここで、図4(a)は、自動運転中の自車両Mの走行中に現われた複数の視認対象の例を示す図である。図4(a)に、視認対象が現われた状況C1〜C6を示す。状況C1は、視認対象である追い抜き車両N1に自車両Mが追い抜かれた状況である。状況C2は、視認対象である追い抜き車両N2に自車両Mが追い抜かれた状況である。状況C3は、先行車N3に追い付いて自車両Mが減速したことで先行車が視認対象となった状況である。
状況C4は、視認対象の標識Gp1の下を自車両Mが通り抜けた状況である。標識Gp1は、やや小さめの標識であるため刺激強度指標は小さい値となる。状況C5は、視認対象である分岐区間を自車両Mが走行した状況である。状況C6は、視認対象である合流区間を自車両Mが走行した状況である。状況C6において、自車両Mの走行車線に合流する車線上には他車両N4が存在しており、自動運転中の自車両Mは他車両N4を回避するように車線変更を行なった。
図4(b)は、複数の視認対象の例に対応する統合運転構え度の時間変化を示すグラフである。図4(b)の縦軸は統合運転構え度、横軸は時間である。図4(b)に示すように、運転構え度推定部18は、現時点から過去5分間に現われた視認対象に対する刺激強度指標と視認反応指標とを用いて上述した式(2)から統合運転構え度を求めることができる。
図4(b)に示す閾値Thは、一例として注意喚起用の閾値である。運転構え度推定部18は、統合運転構え度が閾値Th以下となった場合、運転者に運転意識が低下していることを注意喚起してもよい。運転構え度推定部18は、HMI6に制御信号を送信することで、ディスプレイへの画像表示及び/又はスピーカからの音声出力により運転者へ注意喚起を行う。なお、運転構え度推定部18は、運転席に振動機構が備えられている場合、振動により運転者に注意喚起を行ってもよい。
図4(a)及び図4(b)に示すように、運転構え度推定部18は、状況C1において運転者は追い抜き車両N1を視認したため統合運転構え度を増加させた。運転構え度推定部18は、状況C2においても、運転者は追い抜き車両N2を視認したため統合運転構え度を維持した。運転構え度推定部18は、状況C3において、先行車N3に追い付いて自車両Mが減速したが運転者の視認の反応が中程度であったため、やや統合運転構え度を減少させた。運転構え度推定部18は、状況C4において、運転者が標識Gp1を視認したため、統合運転構え度を少し増加させた。運転構え度推定部18は、状況C5において、運転者は分岐区間を視認したため、統合運転構え度を少し増加させた。同様に、運転構え度推定部18は、状況C6において、運転者は合流区間を視認したため、統合運転構え度を少し増加させた。
続いて、図5(a)は、自動運転中の自車両Mの走行中に現われた複数の視認対象の他の例を示す図である。図5(a)に、視認対象が現われた状況C7〜C11を示す。状況C7は、視認対象である追い抜き車両N5に自車両Mが追い抜かれた状況である。状況C8は、自車両Mと先行車N7との間に視認対象である割込み車両N6が割り込んで来た状況である。状況C9は、視認対象の標識Gp2の下を自車両Mが通り抜けた状況である。標識Gp2は、図4(a)の標識Gp1と比べて大きい標識であるため、刺激強度指標も大きい値となる。状況C10は、先行車N9が制動してブレーキランプが点灯した状況である。状況C11は、同じ先行車N9が再び制動してブレーキランプが点灯した状況である。
図5(b)は、複数の視認対象の他の例に対応する統合運転構え度の時間変化を示すグラフである。図5(b)の縦軸は統合運転構え度、横軸は時間である。図5(a)及び図5(b)に示すように、運転構え度推定部18は、状況C7において運転者は追い抜き車両N5を視認したため統合運転構え度を増加させた。運転構え度推定部18は、状況C8において運転者が割込み車両N6を視認しなかったため、統合運転構え度を大きく減少させた。このとき、運転構え度推定部18は、統合運転構え度が閾値Th以下となったため、運転者に対して転者に運転意識が低下していることを注意喚起してもよい。
運転構え度推定部18は、状況C9において運転者が標識Gp2を視認しなかったため、統合運転構え度を更に減少させた。運転構え度推定部18は、状況C10において運転者が制動中の先行車N9に対する視認が大きく遅れたため、統合運転構え度を少し減少させた。運転構え度推定部18は、状況C11において運転者が制動中の先行車N9を視認しなかったため、統合運転構え度を更に減少させた。
なお、運転構え度推定部18は、必ずしも上述した式(2)を用いて統合運転構え度を演算する必要はない。運転構え度推定部18は、予め設定された時間内に同じ種類の視認対象が複数回現われた場合に、各視認対象から推定された複数回分の運転構え度の平均値を統合運転構え度として演算してもよい。視認対象の種類は、割込み車両、追い抜き車両、制動中の先行車、自動運転中の自車両に速度変化を生じさせた先行車、道路形状、設置物等に分けることができる。視認対象の種類として、道路形状を更に細かく区別してもよく、設置物を更に細かく区別してもよい。運転構え度推定部18は、予め設定された時間内に複数の種類の視認対象が現われた場合であって、視認対象の視認反応指標が同じ基準で表わされる場合、複数の種類の視認対象から推定された複数回分の運転構え度の平均値を統合運転構え度として演算してもよい。視認反応指標が同じ基準で表わされる場合とは、例えば複数の視認反応指標が反応時間で表わされる場合又は視認反応指標が視認頻度(視認の確立)で現わされる場合等である。なお、統合運転構え度は、平均値ではなく、後に推定された運転構え度(現時点に近い運転構え度)ほど重み付けを大きくし、後に推定された運転構え度の値に近くなるように演算されてもよい。
その他、運転構え度推定部18は、必ずしも統合運転構え度を演算する必要はない。運転構え度推定部18は、現在の運転構え度が予め設定された注意喚起用の閾値以下となった場合に、運転意識が低下していることを運転者に注意喚起してもよい。運転構え度推定部18は、統合運転構え度又は運転構え度が閾値Th以下となった場合、自動運転ECU7に信号を送信することで自動運転の内容を変更させてもよい。運転構え度推定部18は、必ずしも視認対象ごとに複数回の運転構え度の推定を行う必要はなく、必ずしも重み付けを行う必要はない。
〈第1の実施形態の運転構え度推定処理〉
次に、第1の実施形態に係る運転意識推定装置100における運転構え度推定処理について図6を参照して説明する。図6は、運転意識推定装置100の運転構え度推定処理を示すフローチャートである。図6のフローチャートに示す処理は、例えば、自動運転の実行時に開始される。なお、図6のフローチャートに示す処理は、ACC[Adaptive Cruise Control]、LKA[Lane KeepingAssist]等の運転支援制御の実行時又は運転者の手動運転時に開始されてもよい。
図6に示すように、運転意識推定装置100のECU10は、S10として、視認対象認識部14により視認対象を認識したか否かを判定する。視認対象認識部14は、走行環境認識部12の認識した走行環境に基づいて、運転者の運転構え度の推定に利用される視認対象を認識する。
ECU10は、視認対象を認識しないと判定された場合(S10:NO)、今回の処理を終了する。その後、ECU10は、予め設定された終了条件が満たされない場合、一定時間後に再びS10から判定を繰り返す。終了条件は、例えば、自動運転の終了、自車両MのイグニッションOFF等である。ECU10は、視認対象を認識したと判定された場合(S10:YES)、S12に移行する。
S12において、ECU10は、刺激強度指標演算部16により視認対象の刺激強度指標を演算する。刺激強度指標演算部16は、視認対象が他車両(視認対象車)である場合、自車両と視認対象車との相対状況及び視認対象車の視認面積のうち少なくとも一方に基づいて、視認対象車の刺激強度指標を演算する。刺激強度指標演算部16は、視認対象が道路形状である場合、道路形状の曲率又は道路形状における走行台数に基づいて、道路形状の刺激強度指標を演算する。刺激強度指標演算部16は、視認対象が設置物である場合、設置物の視認面積に基づいて、設置物の刺激強度指標を演算する。
S14において、ECU10は、視認反応指標演算部17により視認対象に対する運転者の視認反応指標を演算する。視認反応指標演算部17は、視認対象認識部14の認識した視認対象と運転者視線認識部15の認識した運転者の視線とに基づいて、視認反応指標を演算する。
S16において、ECU10は、運転構え度推定部18により運転構え度を推定する。運転構え度推定部18は、刺激強度指標演算部17の演算した視認対象の刺激強度指標と視認反応指標演算部17の演算した視認対象に対する運転者の視認反応指標とに基づいて、運転者の運転構え度を推定する。運転構え度推定部18は、例えば、上述した式(1)を用いて運転構え度を推定する。運転構え度推定部18は、上述した式(2)を用いて統合運転構え度を演算してもよい。
〈第1の実施形態に係る運転意識推定装置の作用効果〉
以上説明した第1の実施形態に係る運転意識推定装置100によれば、運転意識の高い運転者は運転意識の低い運転者と比べて、前方の割込み車両等の視認対象に対する視認の反応が早いと考えられることから、視認反応指標に基づいて運転者の運転意識に関する運転構え度を適切に推定することができる。
また、運転意識推定装置100によれば、視認対象として運転者に与える刺激が異なると運転者の反応も異なってくると考えられることから、視認対象の刺激強度指標を考慮することで、より適切に運転構え度を推定することができる。
具体的に、運転意識推定装置100は、視認対象が他車両(視認対象車)である場合に、視認対象車と自車両との相対状況及び/又は視認対象車の視認面積から演算した視認対象車の刺激強度指標を考慮することで、より適切に運転構え度を推定することができる。また、運転意識推定装置100は、視認対象がカーブ、合流区間等の道路形状である場合に、道路形状における曲率半径及び/又は走行台数から演算した視認対象の刺激強度指標を考慮することで、より適切に運転構え度を推定することができる。運転意識推定装置100は、視認対象が標識等の設置物である場合に、道路上の設置物の視認面積を考慮することで、より適切に運転構え度を推定することができる。
また、運転意識推定装置100は、視認対象ごとに推定された複数回分の運転構え度と視認対象に応じた重み付けから統合運転構え度を演算することで、一時的な見逃しにより運転者の運転意識が過剰に低く推定されることを避けることができ、予め設定された時間内における総合的な運転者の運転意識に関する統合運転構え度を出力することが可能になる。
[第2の実施形態]
図7は、第2の実施形態に係る運転意識推定装置を示すブロック図である。図7に示す第2の実施形態に係る運転意識推定装置200は、第1の実施形態と比べて、運転者の瞬目状態に基づいて運転構え度を修正する点が異なっている。
〈第2の実施形態に係る運転意識推定装置の構成〉
具体的に、図7に示す運転意識推定装置200のECU20は、第1の実施形態と比べて、瞬目状態認識部21を備えている点と、運転構え度推定部22の機能とが異なっている。第1の実施形態と同じ又は相当する構成には同じ符号を付し、重複する説明を省略する。
瞬目状態認識部21は、運転者画像取得部11の取得した運転者画像に基づいて、周知の画像処理により、運転者の瞬目状態を認識する。瞬目状態には、瞬目時間長が少なくとも含まれる。瞬目時間長とは、一回の瞬目における時間の長さである。瞬目状態には、一定時間当たりの瞬目回数が含まれてもよい。
運転構え度推定部22は、瞬目状態認識部21の認識した運転者の瞬目状態に基づいて、運転構え度を修正する。運転構え度推定部22は、予め設定された演算式又はテーブルデータを用いて、運転構え度を修正することができる。ここでは、運転構え度推定部22は、視認反応指標演算部17により運転者が視認対象を視認していると判定されている間の運転者の瞬目状態に基づいて、当該視認対象に対応する運転者の運転構え度を修正する。
具体的に、運転構え度推定部22は、例えば下記の式(3)によって運転構え度を修正する。式(3)において、基準瞬目時間長は予め設定された固定値である。平均瞬目時間長は、運転者が視認対象を視認している間の瞬目時間長の平均値である。
Figure 2018203169
なお、運転構え度推定部22は、平均瞬目時間長が基準瞬目時間長以上である場合に、運転構え度に所定係数(0以上1未満の係数)を乗じることで、運転構え度の修正を行なってもよい。運転構え度推定部22は、運転意識の高い運転者が視認対象を視認する場合(興味ある対象を視認する場合)には、一定時間当たりの瞬目回数が減少することから、一定時間当たりの瞬目回数が所定閾値以下であるとき運転構え度を増加させる修正を行なってもよい。運転構え度推定部22は、運転者が視認対象を視認しているか否かに関わらず、一定時間の運転者の瞬目状態に基づいて運転構え度を修正してもよい。
〈第2の実施形態の運転意識推定処理〉
次に、第2の実施形態に係る運転意識推定装置200における運転意識推定処理について図8を参照して説明する。図8は、第2の実施形態に係る運転意識推定装置200の運転構え度推定処理を示すフローチャートである。図8に示すフローチャートの処理は、図6に示す第1の実施形態のフローチャートと同様の条件で開始することができる。なお、図8のS20〜S24は、図6のS10〜S14と同じであるため説明を簡略化する。
図8に示すように、運転意識推定装置200のECU20は、S20として、視認対象認識部14により視認対象を認識したか否かを判定する。ECU20は、視認対象を認識しないと判定された場合(S20:NO)、今回の処理を終了する。その後、ECU20は、予め設定された終了条件が満たされない場合、一定時間後に再びS20から判定を繰り返す。ECU20は、視認対象を認識したと判定された場合(S20:YES)、S22に移行する。
S22において、ECU20は、刺激強度指標演算部16により視認対象の刺激強度指標を演算する。S24において、ECU20は、視認反応指標演算部17により視認対象に対する運転者の視認反応指標を演算する。
S26において、ECU20は、瞬目状態認識部21により運転者の瞬目状態を認識する。瞬目状態認識部21は、運転者画像取得部11の取得した運転者画像に基づいて、周知の画像処理により、運転者の瞬目状態を認識する。
S28において、ECU20は、運転構え度推定部22により運転構え度の推定及び修正を行う。運転構え度推定部22は、第1の実施形態の運転構え度推定部18と同様にして運転構え度を推定する。運転構え度推定部22は、瞬目状態認識部21の認識した運転者の瞬目状態に基づいて、運転構え度を修正する。運転構え度推定部22は、例えば、上述した式(3)によって運転構え度の修正を行う。
〈第2の実施形態に係る運転意識推定装置の作用効果〉
以上説明した第2の実施形態に係る運転意識推定装置200によれば、運転意識によって運転者の瞬目状態が変化することから瞬目状態に基づいて運転構え度を修正するので、運転意識が低いまま偶然に視認対象の方向を運転者が見ているときに誤って運転構え度を高く推定することを避けることができ、より適切に運転構え度を推定することができる。
[第3の実施形態]
図9は、第3の実施形態に係る運転意識推定装置を示すブロック図である。図9に示す第3の実施形態に係る運転意識推定装置300は、第1の実施形態と比べて、運転者の視線の移動範囲に基づいて運転構え度を修正する点が異なっている。
〈第3の実施形態に係る運転意識推定装置の構成〉
具体的に、図9に示す運転意識推定装置300のECU30は、第1の実施形態と比べて、移動範囲認識部31を備えている点と、運転構え度推定部32の機能とが異なっている。第1の実施形態と同じ又は相当する構成には同じ符号を付し、重複する説明を省略する。
移動範囲認識部31は、運転者画像取得部11の取得した運転者画像と外部センサ2のカメラの撮像画像に基づいて、周知の手法により、運転者の視線が移動した範囲である移動範囲を認識する。移動範囲認識部31は、例えば、現時点から一定時間過去までの間における運転者の視線の移動範囲を認識する。運転者の視線の移動範囲とは、運転者の視界G上における運転者の視線(視点)の移動軌跡が含まれる範囲である。
ここで、図10(a)は、運転者の視線の移動範囲の一例を示す図である。図10(a)に、現時点から一定時間過去までの運転者の視線の移動軌跡Scと運転者の視線の移動範囲SV1とを示す。図10(a)の3degの意味については後述する。図10(a)に示すように、移動範囲認識部31は、運転者の視界Gにおける視線の移動軌跡Scを検出し、移動軌跡Scを内包する最小の円範囲として移動範囲SV1を認識してもよい。
運転構え度推定部32は、移動範囲認識部31の認識した運転者の視線の移動範囲に基づいて、運転構え度を修正する。運転構え度推定部32は、例えば、移動範囲認識部31が円範囲として認識した運転者の視線の移動範囲の直径が移動範囲閾値未満である場合、運転意識の低い運転者が偶然に視認対象を視認している可能性があることから、運転構え度を小さい値に修正する。運転構え度推定部32は、運転者の視線の移動範囲の直径が移動範囲閾値以上である場合、運転構え度を修正しない。移動範囲閾値は、予め設定された閾値であり、例えば3degとすることができる。
運転構え度推定部32は、図10(a)における運転者の視線の移動範囲SV1は直径が3deg未満であるため、運転構え度を修正する。運転構え度推定部32は、例えば、所定係数(0以上1未満の係数)を運転構え度に乗じることで、運転構え度の修正を行う。一方、図10(b)は、運転者の視線の移動範囲の他の例を示す図である。図10(b)の移動範囲SV2は、図10(a)の移動範囲SV1より大きく、直径が3degを超えている。このため、運転構え度推定部32は、図10(b)における運転者の視線の移動範囲SV2に基づいて、運転構え度の修正を行なわない。
なお、運転構え度推定部32は、下記の式(4)によって運転構え度の修正を行なってもよい。
Figure 2018203169
〈第3の実施形態の運転意識推定処理〉
次に、第3の実施形態に係る運転意識推定装置300における運転意識推定処理について図11を参照して説明する。図11は、第3の実施形態に係る運転意識推定装置300の運転構え度推定処理を示すフローチャートである。図11に示すフローチャートの処理は、図6に示す第1の実施形態のフローチャートと同様の条件で開始することができる。なお、図11のS30〜S34は、図6のS10〜S14と同じであるため説明を簡略化する。
図11に示すように、運転意識推定装置300のECU30は、S30として、視認対象認識部14により視認対象を認識したか否かを判定する。ECU30は、視認対象を認識しないと判定された場合(S30:NO)、今回の処理を終了する。その後、ECU30は、予め設定された終了条件が満たされない場合、一定時間後に再びS30から判定を繰り返す。ECU30は、視認対象を認識したと判定された場合(S30:YES)、S32に移行する。
S32において、ECU30は、刺激強度指標演算部16により視認対象の刺激強度指標を演算する。S34において、ECU30は、視認反応指標演算部17により視認対象に対する運転者の視認反応指標を演算する。
S36において、ECU30は、移動範囲認識部31により運転者の視線の移動範囲を認識する。移動範囲認識部31は、運転者画像取得部11の取得した運転者画像と外部センサ2のカメラの撮像画像に基づいて、周知の手法により、現時点から一定時間過去までの間に運転者の視線が移動した範囲である移動範囲を認識する。
S38において、ECU30は、運転構え度推定部32により運転構え度の推定及び修正を行う。運転構え度推定部32は、第1の実施形態の運転構え度推定部18と同様にして運転構え度を推定する。運転構え度推定部32は、移動範囲認識部31により運転者の視線の移動範囲に基づいて、運転構え度を修正する。運転構え度推定部32は、例えば、運転者の視線の移動範囲の直径が移動範囲閾値以上である場合、運転構え度の修正を行なわない。運転構え度推定部32は、運転者の視線の移動範囲の直径が移動範囲閾値未満である場合、所定係数を乗じることで運転構え度を小さい値にする修正を行う。
〈第3の実施形態に係る運転意識推定装置の作用効果〉
以上説明した第3の実施形態に係る運転意識推定装置300によれば、運転意識に応じて運転者の視線の移動範囲が変化することから移動範囲に基づいて運転構え度を修正するので、運転意識が低いまま偶然に視認対象の方向を運転者が見ているときに誤って運転構え度を高く推定することを避けることができ、より適切に運転構え度を推定することができる。
[第4の実施形態]
図12は、第4の実施形態に係る運転意識推定装置を示すブロック図である。図12に示す第4の実施形態に係る運転意識推定装置400は、第1の実施形態と比べて、運転者の視線の移動範囲に基づいて運転構え度を修正する点が異なっている。
〈第4の実施形態に係る運転意識推定装置の構成〉
具体的に、図12に示す運転意識推定装置400のECU40は、第1の実施形態と比べて、オプティカルフロー認識部41を備えている点と、運転構え度推定部42の機能とが異なっている。第1の実施形態と同じ又は相当する構成には同じ符号を付し、重複する説明を省略する。
オプティカルフロー認識部41は、外部センサ2のカメラの撮像画像に基づいて、周知の画像処理により、自車両Mの前方の風景のオプティカルフローを認識する。ここで、図13は、自車両Mの前方の風景のオプティカルフローを説明するための図である。図13では、理解しやすくするため自車両Mのフロントガラス越しの風景を示している。図13に、自車両MのフロントガラスF、自車両Mの左側におけるオプティカルフローの矢印P、自車両Mの右側におけるオプティカルフローの矢印P、ある時点T1における運転者の視線の位置Sc1、時点T1より後の時点T2における運転者の視線の位置Sc2を示す。時点T1と時点T2の差は例えば0.1秒である。
オプティカルフロー認識部41は、図13に示すように、自車両Mの走行により自車両Mの前方の風景は後ろに向かって流れることから、矢印P及び矢印Pのようなオプティカルフローを認識する。
運転構え度推定部42は、オプティカルフロー認識部41の認識したオプティカルフローと運転者視線認識部15の認識した運転者の視線とに基づいて、運転構え度を修正する。運転構え度推定部42は、運転意識が低い運転者は風景の流れに視線が引きずられると考えられることから、図13に示すようにオプティカルフローの向きと運転者の視線の移動方向(位置の変化の向き)が一致する場合、運転構え度を小さい値に修正する。
なお、オプティカルフローの向きと運転者の視線の移動方向が一致するとは、完全一致である必要はない。オプティカルフローの向きから一定角度の範囲内に運転者の視線の移動方向が含まれる場合、オプティカルフローの向きと運転者の視線の移動方向が一致すると判定してもよい。一定角度の範囲とは、例えば運転者の視界G又はフロントガラスF上で、上向きに3deg、下向きに3degの範囲である。
運転構え度推定部42は、例えば、オプティカルフローの向きと運転者の視線の移動方向が一致する時間長が一致時間長閾値(例えば1秒)以上である場合、当該時間長に応じて運転構え度を修正する。運転構え度推定部42は、下記の式(5)によって運転構え度を修正してもよい。一致時間長とは、オプティカルフローの向きと運転者の視線の移動方向が一致している時間の長さである。
Figure 2018203169
〈第4の実施形態の運転意識推定処理〉
次に、第4の実施形態に係る運転意識推定装置400における運転意識推定処理について図14を参照して説明する。図14は、第4の実施形態に係る運転意識推定装置400の運転構え度推定処理を示すフローチャートである。図14に示すフローチャートの処理は、図6に示す第1の実施形態のフローチャートと同様の条件で開始することができる。なお、図14のS40〜S44は、図6のS10〜S14と同じであるため説明を簡略化する。
図14に示すように、運転意識推定装置400のECU40は、S40として、視認対象認識部14により視認対象を認識したか否かを判定する。ECU40は、視認対象を認識しないと判定された場合(S40:NO)、今回の処理を終了する。その後、ECU40は、予め設定された終了条件が満たされない場合、一定時間後に再びS40から判定を繰り返す。ECU40は、視認対象を認識したと判定された場合(S40:YES)、S42に移行する。
S42において、ECU40は、刺激強度指標演算部16により視認対象の刺激強度指標を演算する。S44において、ECU40は、視認反応指標演算部17により視認対象に対する運転者の視認反応指標を演算する。
S46において、ECU40は、オプティカルフロー認識部41により自車両Mの前方の風景のオプティカルフローを認識する。オプティカルフロー認識部41は、外部センサ2のカメラの撮像画像に基づいて、周知の画像処理により、自車両Mの前方の風景のオプティカルフローを認識する。
S48において、ECU40は、運転構え度推定部42により運転構え度の推定及び修正を行う。運転構え度推定部42は、第1の実施形態の運転構え度推定部18と同様にして運転構え度を推定する。運転構え度推定部42は、オプティカルフロー認識部41の認識したオプティカルフローと運転者視線認識部15の認識した運転者の視線とに基づいて、運転構え度を修正する。運転構え度推定部42は、例えば、オプティカルフローの向きと運転者の視線の移動方向が一致する時間長が一致時間長閾値(例えば1秒)以上である場合、上述した式(5)によって運転構え度を小さい値に修正する。
〈第4の実施形態に係る運転意識推定装置の作用効果〉
以上説明した第4の実施形態に係る運転意識推定装置400によれば、運転意識の低い運転者の視線は風景の流れる方向であるオプティカルフローの向きに引きずられる傾向があることからオプティカルフローと運転者の視線とに基づいて運転構え度を修正することで、より適切に運転構え度を推定することができる。
以上、本発明の好適な実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。本発明は、上述した実施形態を始めとして、当業者の知識に基づいて種々の変更、改良を施した様々な形態で実施することができる。
例えば、第2実施形態の運転意識推定装置200、第3の実施形態の運転意識推定装置300及び第4の実施形態の運転意識推定装置400の何れか二つの実施形態を組み合わせて採用してもよく、三つ全ての実施形態を組み合わせて採用してもよい。
運転意識推定装置100〜400は、必ずしも自動運転ECU7と接続されている必要はなく、自動運転システムの一部を構成する必要はない。また、運転意識推定装置100〜400は、必ずしも刺激強度指標演算部16を備える必要はない。運転意識推定装置100〜400は、視認反応指標演算部17の演算した視認反応指標から運転構え度を推定してもよい。運転意識推定装置100〜400は、例えば、視認反応指標に基づいて、予め設定された演算式又はテーブルデータから運転構え度を推定することができる。運転意識推定装置100〜400は、視認反応指標の値を運転構え度として採用してもよい。
刺激強度指標演算部16は、視認対象が割込み車両である場合、割込み車両の視認面積及び運転者の視界Gにおける割込み車両Npの横方向の移動速度の他、割込み車両のウインカーランプの輝度コントラストに基づいて、割込み車両の刺激強度指標を演算してもよい。刺激強度指標演算部16は、割込み車両の視認面積及び運転者の視界Gにおける割込み車両Npの横方向の移動速度のうち一方のみを用いて、割込み車両の刺激強度指標を演算してもよい。
刺激強度指標演算部16は、視認対象が追い抜き車両である場合、自車両Mと追い抜き車両との相対速度及び追い抜き車両の大きさのうち一方のみに基づいて、追い抜き車両の刺激強度指標を演算してもよい。刺激強度指標演算部16は、視認対象が制動中の先行車である場合、自車両Mと先行車との車間距離及び相対速度のうち一方のみに基づいて、先行車の刺激強度指標を演算してもよい。刺激強度指標演算部16は、視認対象が自動運転中の自車両に速度変化を生じさせた先行車である場合、先行車の視認面積のみに基づいて、先行車の刺激強度指標を演算してもよい。なお、自動運転中の自車両に速度変化を生じさせた先行車は、ACC等の運転支援制御中の自車両に速度変化を生じさせた先行車であってもよい。刺激強度指標演算部16は、視認対象がカーブである場合、カーブの曲率半径のみに基づいて、カーブの刺激強度指標を演算してもよい。
視認反応指標演算部17は、視認対象がカーブである場合に、運転者の眼球の移動頻度と運転者の眼球の移動距離に基づいて、視認反応指標を演算してもよい。運転者の眼球の移動頻度とは、一定時間内(例えば1秒内)に運転者の眼球が移動した回数である。運転者の眼球の移動頻度及び移動距離は周知の定義を用いることができる。
視認反応指標演算部17は、運転者画像取得部11の認識した運転者画像に基づいて、眼球運動(サッケード)に関する周知の手法により、運転者の眼球の移動頻度と運転者の眼球の移動距離とを求めることができる。自車両のカーブ走行中において運転意識の高い運転者は自車両が進むごとにカーブの更に先を視認するように眼球を頻繁に短距離で移動させる一方で、運転意識が低い運転者は流れる風景に眼球が追従したり、一点を見続け眼球運動が狭い範囲に留まるため移動回数が減って移動距離が増える。視認反応指標演算部17は、例えば、下記の式(6)によってカーブに対する運転者の視認反応指標を求めることができる。
Figure 2018203169
視認反応指標演算部17は、複数の同種の視認対象において運転者が視認対象を視認した確率に基づいて、視認反応指標を演算してもよい。運転者が視認対象を視認した確率は、例えば、現時点から一定時間内に、ある種類の視認対象を運転者が視認した回数を当該種類の視認対象の出現回数で除して求めることができる。具体的に、視認反応指標演算部17は、一定時間内に割込み車両が複数回出現した場合に、運転者がそれぞれの割込み車両を視認した回数(一つの割込み車両に対して一回のみカウント)から、運転者が割込み車両を視認した確率を求めてもよい。視認反応指標演算部17は、運転者が割込み車両を視認した確率に基づいて、一定時間内における視認反応指標を演算する。全ての種類の視認対象において運転者が視認対象を視認した確率を視認反応指標の演算に用いることができる。
運転意識推定装置100は、視認対象にウインカー点灯中の先行車を含めてもよい。運転意識の高い運転者であれば、先行車がウインカーを点灯させた場合、当該先行車を視認すると考えることができる。視認対象認識部14は、例えば外部センサ2のカメラの撮像画像に基づいて、ウインカー点灯中の先行車を認識することができる。刺激強度指標演算部16は、ウインカー点灯中の先行車が視認対象である場合、自車両と先行車との相対状況(例えば車間距離)と先行車のウインカーの輝度コントラストとに基づいて、先行車の刺激強度指標を演算する。視認反応指標演算部17は、視認対象認識部14によってウインカー点灯中の先行車が視認対象として認識されてから運転者が視認対象を視認するまでの反応時間に基づいて、視認反応指標を演算する。運転構え度推定部18は、刺激強度指標演算部17の演算した視認対象の刺激強度指標と視認反応指標演算部17の演算した視認対象に対する運転者の視認反応指標とに基づいて、ウインカー点灯中の先行車に対応する運転者の運転構え度を推定する。
運転意識推定装置100は、視認対象に自車両Mのミラー(バックミラー、サイドミラー等)を含めてもよい。運転意識の高い運転者は自車両のミラーをチェックする頻度が高いと考えることができる。刺激強度指標演算部16は、走行環境認識部12の認識した走行環境に基づいて、後続車が存在すると判定した場合、後続車が存在しないと判定した場合と比べて、バックミラーの刺激強度指標を大きい値にする。刺激強度指標演算部16は、隣接車線上に後方車両が存在すると判定した場合、当該後方車両が存在しないと判定した場合と比べて、隣接車線側のサイドミラーの刺激強度指標を大きい値にする。なお、運転意識推定装置100は、必ずしもミラーの刺激強度指標を演算する必要はない。
視認反応指標演算部17は、運転者によるミラーの視認頻度に基づいて、ミラーの視認反応指標を演算する。視認反応指標演算部17は、運転者視線認識部15の認識した運転者の視線に基づいて、運転者によるミラーの視認頻度を求めることができる。運転構え度推定部18は、ミラーの刺激強度指標とミラーに対する運転者の視認反応指標とに基づいて、運転構え度を推定する。
1…ドライバモニタカメラ、2…外部センサ、3…内部センサ、4…GPS受信部、5…地図データベース、6…HMI、7…自動運転ECU、10,20,30,40…ECU、11…運転者画像取得部、12…走行環境認識部、13…車両状態認識部、14…視認対象認識部、15…運転者視線認識部、16…刺激強度指標演算部、17…視認反応指標演算部、18,22,32,42…運転構え度推定部、21…瞬目状態認識部、31…移動範囲認識部、41…オプティカルフロー認識部、100,200,300,400…運転意識推定装置。

Claims (8)

  1. 自車両の運転者の運転意識を運転構え度として推定する運転意識推定装置であって、
    前記自車両の外部センサの検出結果に基づいて、前記運転構え度の推定に利用される視認対象を認識する視認対象認識部と、
    前記運転者の視線を認識する運転者視線認識部と、
    前記運転者視線認識部の認識した前記運転者の視線に基づいて、前記視認対象に対する前記運転者の視認反応指標を演算する視認反応指標演算部と、
    前記視認反応指標に基づいて、前記運転構え度を推定する運転構え度推定部と、
    を備える、運転意識推定装置。
  2. 前記視認対象の刺激強度指標を演算する刺激強度指標演算部を更に備え、
    前記刺激強度指標演算部は、前記視認対象認識部が他車両を前記視認対象として認識した場合、前記自車両と前記他車両との相対状況及び前記他車両の視認面積のうち少なくとも一方に基づいて、前記他車両の前記刺激強度指標を演算し、
    前記運転構え度推定部は、前記刺激強度指標と前記視認反応指標とに基づいて、前記運転構え度を推定する、請求項1に記載の運転意識推定装置。
  3. 前記視認対象の刺激強度指標を演算する刺激強度指標演算部を更に備え、
    前記刺激強度指標演算部は、前記視認対象認識部が道路形状を前記視認対象として認識した場合、前記道路形状の曲率半径及び前記道路形状における走行台数のうち少なくとも一方に基づいて、前記道路形状の前記刺激強度指標を演算し、
    前記運転構え度推定部は、前記刺激強度指標と前記視認反応指標とに基づいて、前記運転構え度を推定する、請求項1に記載の運転意識推定装置。
  4. 前記視認対象の刺激強度指標を演算する刺激強度指標演算部を更に備え、
    前記刺激強度指標演算部は、前記視認対象認識部が道路上の設置物を前記視認対象として認識した場合、前記設置物の視認面積に基づいて、前記設置物の前記刺激強度指標を演算し、
    前記運転構え度推定部は、前記刺激強度指標と前記視認反応指標とに基づいて、前記運転構え度を推定する、請求項1に記載の運転意識推定装置。
  5. 前記運転者の瞬目状態を認識する瞬目状態認識部を更に備え、
    前記運転構え度推定部は、前記運転者の瞬目状態に基づいて前記運転構え度を修正する、請求項1〜4のうち何れか一項に記載の運転意識推定装置。
  6. 前記運転者視線認識部の認識した前記運転者の視線に基づいて前記運転者の視線の移動範囲を認識する移動範囲認識部を更に備え、
    前記運転構え度推定部は、前記移動範囲に基づいて前記運転構え度を修正する、請求項1〜5のうち何れか一項に記載の運転意識推定装置。
  7. 前記自車両のカメラの撮像画像に基づいて前記自車両の前方の風景のオプティカルフローを認識するオプティカルフロー認識部を更に備え、
    前記運転構え度推定部は、前記オプティカルフロー認識部の認識した前記オプティカルフローと前記運転者視線認識部の認識した前記運転者の視線とに基づいて前記運転構え度を修正する、請求項1〜6のうち何れか一項に記載の運転意識推定装置。
  8. 前記運転構え度推定部は、前記視認対象ごとに複数回の前記運転構え度の推定を行い、前記視認対象に応じて前記運転構え度の重み付けを行い、予め設定された時間内に推定された複数回分の前記運転構え度と前記重み付けとに基づいて統合運転構え度を演算する、請求項1〜7のうち何れか一項に記載の運転意識推定装置。
JP2017113502A 2017-06-08 2017-06-08 運転意識推定装置 Active JP6638701B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017113502A JP6638701B2 (ja) 2017-06-08 2017-06-08 運転意識推定装置
CN201810568081.3A CN109080641B (zh) 2017-06-08 2018-06-05 驾驶意识推定装置
DE102018113488.6A DE102018113488B4 (de) 2017-06-08 2018-06-06 Fahrbewusstseinsabschätzvorrichtung
US16/002,021 US10814880B2 (en) 2017-06-08 2018-06-07 Driving consciousness estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017113502A JP6638701B2 (ja) 2017-06-08 2017-06-08 運転意識推定装置

Publications (2)

Publication Number Publication Date
JP2018203169A true JP2018203169A (ja) 2018-12-27
JP6638701B2 JP6638701B2 (ja) 2020-01-29

Family

ID=64458073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017113502A Active JP6638701B2 (ja) 2017-06-08 2017-06-08 運転意識推定装置

Country Status (4)

Country Link
US (1) US10814880B2 (ja)
JP (1) JP6638701B2 (ja)
CN (1) CN109080641B (ja)
DE (1) DE102018113488B4 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021043773A (ja) * 2019-09-12 2021-03-18 Kddi株式会社 符号化パラメータ特徴量を利用した対象識別方法、装置及びプログラム
JP2021093033A (ja) * 2019-12-11 2021-06-17 トヨタ自動車株式会社 運転意識推定装置

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10502574B2 (en) * 2016-09-20 2019-12-10 Waymo Llc Devices and methods for a sensor platform of a vehicle
JP2020050221A (ja) * 2018-09-28 2020-04-02 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 制御装置及び制御方法
JP2020050220A (ja) * 2018-09-28 2020-04-02 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 制御装置及び制御方法
CN109902637B (zh) * 2019-03-05 2021-03-19 长沙智能驾驶研究院有限公司 车道线检测方法、装置、计算机设备和存储介质
CN111723828A (zh) * 2019-03-18 2020-09-29 北京市商汤科技开发有限公司 注视区域检测方法、装置及电子设备
KR20210079946A (ko) * 2019-12-20 2021-06-30 주식회사 만도 차량 및 그 제어 방법
JP2021105958A (ja) * 2019-12-27 2021-07-26 マツダ株式会社 ドライバ状態推定装置およびドライバ状態推定方法
JP7331729B2 (ja) * 2020-02-19 2023-08-23 マツダ株式会社 運転者状態推定装置
JP7331728B2 (ja) * 2020-02-19 2023-08-23 マツダ株式会社 運転者状態推定装置
JP7279685B2 (ja) 2020-04-23 2023-05-23 トヨタ自動車株式会社 情報処理システム
JP7302554B2 (ja) 2020-09-03 2023-07-04 トヨタ自動車株式会社 立ち乗り式車両
CN112277958B (zh) * 2020-10-27 2022-02-11 武汉光庭信息技术股份有限公司 一种驾驶员制动行为分析方法
US11328591B1 (en) * 2021-01-25 2022-05-10 Ford Global Technologies, Llc Driver assistance system for drivers using bioptic lenses
CN114103998B (zh) * 2021-12-03 2024-03-19 智己汽车科技有限公司 一种基于驾驶员视线的智能驾驶车辆控制方法、系统及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099899A (ja) * 2001-09-25 2003-04-04 Toyota Central Res & Dev Lab Inc 運転行動危険度演算装置
JP2008084219A (ja) * 2006-09-28 2008-04-10 Aisin Seiki Co Ltd 前方カーブ警報装置
JP2010039933A (ja) * 2008-08-07 2010-02-18 Toyota Motor Corp 脇見運転判定装置
JP2015138308A (ja) * 2014-01-21 2015-07-30 アルパイン株式会社 運転支援装置、運転支援方法及び運転支援プログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6575902B1 (en) 1999-01-27 2003-06-10 Compumedics Limited Vigilance monitoring system
EP1961622B1 (en) * 2005-12-12 2018-06-13 Panasonic Intellectual Property Corporation of America Safety-travel assistance device
DE102008007149B4 (de) 2007-03-30 2019-05-02 Volkswagen Ag Verfahren und Vorrichtung zum Erzeugen, Steuern und Auslösen eines Warnsignals in einem Kraftfahrzeug
WO2010032491A1 (ja) * 2008-09-19 2010-03-25 パナソニック株式会社 注意散漫検出装置、注意散漫検出方法およびコンピュータプログラム
EP2401963B1 (en) * 2009-10-15 2016-09-14 Panasonic Intellectual Property Management Co., Ltd. Driving attention amount determination device, method, and computer program
DE102011084367A1 (de) 2011-10-12 2013-04-18 Bayerische Motoren Werke Aktiengesellschaft Feststellen der fahrerseitigen Wahrnehmung eines in der Umgebung eines Kraftfahrzeugs befindlichen Objektes
US9235987B2 (en) * 2011-11-17 2016-01-12 GM Global Technology Operations LLC System and method for closed-loop driver attention management
DE102012214852B4 (de) 2012-08-21 2024-01-18 Robert Bosch Gmbh Verfahren und Vorrichtung zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs
CN103770733B (zh) * 2014-01-15 2017-01-11 中国人民解放军国防科学技术大学 一种驾驶员安全驾驶状态检测方法及装置
DE102014212596A1 (de) 2014-06-30 2015-12-31 Robert Bosch Gmbh Autonomes Fahrsystem für ein Fahrzeug bzw. Verfahren zur Durchführung des Betriebs
US9845097B2 (en) * 2015-08-12 2017-12-19 Ford Global Technologies, Llc Driver attention evaluation
CN105599773B (zh) * 2015-12-29 2019-02-01 山东科技大学 一种基于车辆运动姿态的驾驶员状态提示装置及其方法
JP6699831B2 (ja) 2016-04-28 2020-05-27 トヨタ自動車株式会社 運転意識推定装置
JP6548850B2 (ja) 2017-03-03 2019-07-24 三菱電機株式会社 作業適性判定装置、作業適性判定方法、及び作業適性判定プログラム
DE102017111468A1 (de) 2017-05-24 2018-11-29 Automotive Safety Technologies Gmbh Fahrzeugsystem und Verfahren zum Bestimmen, ob ein Fahrzeuginsasse ein fahrzeugexternes Objekt wahrgenommen hat

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099899A (ja) * 2001-09-25 2003-04-04 Toyota Central Res & Dev Lab Inc 運転行動危険度演算装置
JP2008084219A (ja) * 2006-09-28 2008-04-10 Aisin Seiki Co Ltd 前方カーブ警報装置
JP2010039933A (ja) * 2008-08-07 2010-02-18 Toyota Motor Corp 脇見運転判定装置
JP2015138308A (ja) * 2014-01-21 2015-07-30 アルパイン株式会社 運転支援装置、運転支援方法及び運転支援プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021043773A (ja) * 2019-09-12 2021-03-18 Kddi株式会社 符号化パラメータ特徴量を利用した対象識別方法、装置及びプログラム
JP7145830B2 (ja) 2019-09-12 2022-10-03 Kddi株式会社 符号化パラメータ特徴量を利用した対象識別方法、装置及びプログラム
JP2021093033A (ja) * 2019-12-11 2021-06-17 トヨタ自動車株式会社 運転意識推定装置
US11661070B2 (en) 2019-12-11 2023-05-30 Toyota Jidosha Kabushiki Kaisha Driving consciousness estimation device
JP7358958B2 (ja) 2019-12-11 2023-10-11 トヨタ自動車株式会社 運転意識推定装置

Also Published As

Publication number Publication date
US10814880B2 (en) 2020-10-27
JP6638701B2 (ja) 2020-01-29
DE102018113488B4 (de) 2023-02-02
CN109080641A (zh) 2018-12-25
CN109080641B (zh) 2021-04-20
DE102018113488A1 (de) 2018-12-20
US20180354523A1 (en) 2018-12-13

Similar Documents

Publication Publication Date Title
JP6638701B2 (ja) 運転意識推定装置
US11803026B2 (en) Camera system for intelligent driver assistance system, and driver assistance system and method
JP7416176B2 (ja) 表示装置
US9952058B2 (en) Driver visibility detection system and method for detecting driver visibility
US10232772B2 (en) Driver assistance system
CN112771592B (zh) 用于警告机动车的驾驶员的方法、控制设备及机动车
JP2018081624A (ja) 車両システム
JP2017033542A (ja) 情報表示装置
US11008012B2 (en) Driving consciousness estimation device
CN109720343B (zh) 车辆控制设备
JP2018127084A (ja) 自動運転車両
JP2020080114A (ja) 報知装置
WO2020189238A1 (ja) 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム
JP2024029051A (ja) 車載表示装置、方法およびプログラム
JP7255608B2 (ja) 表示制御装置、方法、及びコンピュータ・プログラム
JP2020060674A (ja) 地図情報システム
JP2020201647A (ja) 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム
US11897482B2 (en) Autonomous vehicle control for changing grip completion status in real-time to prevent unnecessary warning issuance
EP4102323B1 (en) Vehicle remote control device, vehicle remote control system, vehicle remote control method, and vehicle remote control program
JP7358958B2 (ja) 運転意識推定装置
CN117208000A (zh) 用于警告车辆用户以防临时危险情况的用于车辆的方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191209

R151 Written notification of patent or utility model registration

Ref document number: 6638701

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151