JP2019091329A - 認知時機推定装置及び認知時機推定方法 - Google Patents

認知時機推定装置及び認知時機推定方法 Download PDF

Info

Publication number
JP2019091329A
JP2019091329A JP2017220578A JP2017220578A JP2019091329A JP 2019091329 A JP2019091329 A JP 2019091329A JP 2017220578 A JP2017220578 A JP 2017220578A JP 2017220578 A JP2017220578 A JP 2017220578A JP 2019091329 A JP2019091329 A JP 2019091329A
Authority
JP
Japan
Prior art keywords
driver
information
driving scene
driving
timing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017220578A
Other languages
English (en)
Other versions
JP6598141B2 (ja
Inventor
由佳 峯岸
Yuka Minegishi
由佳 峯岸
圭一 富井
Keiichi Tomii
圭一 富井
靖崇 梶原
Yasutaka Kajiwara
靖崇 梶原
孝宏 栃岡
Takahiro Tochioka
孝宏 栃岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2017220578A priority Critical patent/JP6598141B2/ja
Priority to DE102018008973.9A priority patent/DE102018008973B4/de
Priority to CN201811354153.0A priority patent/CN109795504B/zh
Priority to US16/192,557 priority patent/US10713511B2/en
Publication of JP2019091329A publication Critical patent/JP2019091329A/ja
Application granted granted Critical
Publication of JP6598141B2 publication Critical patent/JP6598141B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3484Personalized, e.g. from learned user behaviour or user-defined profiles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3655Timing of guidance instructions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

【課題】適切な時機に運転者に情報を提示すべく、運転者の認知行動の時機を十分正確に推定することができる認知時機推定装置及び認知時機推定方法を提供する。【解決手段】本発明は、適切な時機に運転者に情報を提示するために、車両の運転シーンに基づいて運転者の認知行動の時機を推定する認知時機推定装置(2)であって、運転者の運転操作に関する情報、又は車両が走行する走行経路に関する情報を取得する走行情報取得手段(4)と、この走行情報取得手段が取得した情報に基づいて、車両の運転シーンの区切りを推定する運転シーン推定手段(6)と、運転者の眼の動きを検出する運転者情報検出手段(8)と、運転シーン推定手段によって推定された運転シーンの区切りと、運転者情報検出手段によって検出された運転者の眼の動きに基づいて、運転者の認知行動の時機を推定する認知時機推定手段(10)と、を有することを特徴としている。【選択図】図4

Description

本発明は、認知時機推定装置に関し、特に、適切な時機に運転者に情報を提示するために、車両の運転シーンに基づいて運転者の認知行動の時機を推定する認知時機推定装置及び認知時機推定方法に関する。
特開2013−250663号公報(特許文献1)には、運転シーン認識装置が記載されている。この運転シーン認識装置においては、運転者による操作や、車両の挙動を検出し、これらの情報の微分値に相当する微分値情報が検出される。さらに、これら運転者による操作や車両の挙動の情報、及びそれらの微分値情報に基づいて、車両の状態に対応する記号列が生成され、この記号列を分節化したドライビングワードの並びから運転シーンが認識されている。また、特許文献1記載の運転シーン認識装置では、検出された運転者の操作や車両挙動に基づいて、例えば、運転者が車線変更を開始しようとしている運転シーンや、車両を駐車しようとしている運転シーンを認識している。さらに、認識されたこれらの運転シーンにおいて、自動的に変更先車線の後方の状況を画像表示したり、自動的に駐車支援システムをオンにしたりして、運転が支援される。
特開2013−250663号公報
しかしながら、特許文献1記載の運転シーン認識装置では、車両における運転シーンの区切りを十分な精度で推定することができず、適切な時機に運転者に情報を提示することができないという問題がある。即ち、車両を運転している運転者に提示すべき情報は多数存在し、これら多くの情報が全て表示されていると、運転者は表示されている情報の中から今現在の運転状況において必要な情報を選び出して認識しなければならない。多くの情報の中から必要な情報を選び出して認識する作業は極めて繁雑であり、運転者の混乱を招く原因ともなるので、情報が提示されていたとしても運転者はこれを十分に活用することができない。これに対し、多数の情報の中から、運転者による認知行動の時機に合わせて必要な情報を提示することにより、運転者は提示された情報を容易に認識することが可能となり、運転行動に情報を十分に活用することが可能になる。
従って、本発明は、適切な時機に運転者に情報を提示すべく、運転者の認知行動の時機を十分正確に推定することができる認知時機推定装置及び認知時機推定方法を提供することを目的としている。
上述した課題を解決するために、本発明は、適切な時機に運転者に情報を提示するために、車両の運転シーンに基づいて運転者の認知行動の時機を推定する認知時機推定装置であって、運転者の運転操作に関する情報、又は車両が走行する走行経路に関する情報を取得する走行情報取得手段と、この走行情報取得手段が取得した情報に基づいて、車両の運転シーンの区切りを推定する運転シーン推定手段と、運転者の眼の動きを検出する運転者情報検出手段と、運転シーン推定手段によって推定された運転シーンの区切りと、運転者情報検出手段によって検出された運転者の眼の動きに基づいて、運転者の認知行動の時機を推定する認知時機推定手段と、を有することを特徴としている。
このように構成された本発明においては、走行情報取得手段が、運転者の運転操作に関する情報、又は車両が走行する走行経路に関する情報を取得し、この情報に基づいて、運転シーン推定手段により走行中の車両の運転シーンの区切りが推定される。一方、運転者情報検出手段は運転者の眼の動きを検出する。認知時機推定手段は、運転シーン推定手段によって推定された運転シーンの区切りと、運転者情報検出手段によって検出された運転者の眼の動きに基づいて、運転者の認知行動の時機を推定する。
車両を運転している運転者は、周囲の道路状況等に常に一定の注意を向けているのではなく、1つの運転シーンに対する運転行動を開始する少し前に、車両の周辺交通環境等を認知し、これに基づいて次の運転シーンにおける運転計画を立てて運転行動を行っているものと考えられる。従って、運転中における運転シーンの区切りの近辺においてみられる、運転者による認知行動の時機に合わせて適切な情報を提示することにより、運転者は提示された情報に注意を向け易く、情報を十分に活用することが可能になる。しかしながら、本件発明者の研究によれば、運転者による認知行動は、運転シーンの区切り毎に常に現れるのではなく、運転者の個性や、習熟度によって認知行動を行う時機が異なっており、運転者の認知行動の時機を特定することは困難である。
本件発明者は、更に研究を進めた結果、運転者が認知行動を行っている場合には、運転シーンの区切りと運転者の眼の動きの間に一定の関係があることが明らかとなった。上記のように構成された本発明によれば、認知時機推定手段は、運転シーン推定手段によって推定された運転シーンの区切りと、運転者情報検出手段によって検出された運転者の眼の動きに基づいて運転者の認知行動の時機を推定するので、運転者の認知行動の時機を十分正確に推定することができる。これにより、運転者が注意を向けた時機に必要な情報を提示することが可能になり、運転者は提示された情報を十分に活用することができる。
本発明において、好ましくは、認知時機推定手段は、運転シーン推定手段によって運転シーンの区切りが推定されている時点以前の所定時間以内に、運転者情報検出手段によって運転者の所定量以上の視線の動き、又は運転者のまばたきが検出された場合に、その運転シーンの区切りにおいて運転者の認知行動が行われたと推定する。
本件発明者の研究により、車両の運転者は、現在の運転シーンから次の運転シーンに移行する直前に、次の運転シーンにおける道路状況等を把握するための認知行動を行い、次の運転シーンの計画を立てながら運転を続けていることが明らかとなってきた。そして、このように次の運転シーンにおける道路状況等を把握する際に、運転者は或る程度大きく視線を動かしたり、まばたきをしたりすることが明らかとなった。上記のように構成された本発明によれば、運転シーンの区切りが推定されている時点以前の所定時間以内に、運転者の所定量以上の視線の動き、又はまばたきが検出された場合に、その運転シーンの区切りにおいて運転者の認知行動が行われたと推定するので、運転者の認知行動を正確に推定することができる。
本発明において、好ましくは、さらに、運転者に情報を提示する情報提示装置を有し、この情報提示装置は、認知時機推定手段によって運転者の認知行動が行われると推定されている運転シーンの区切りの所定時間前に、次の運転シーンに対応した情報を運転者に提示する。
このように構成された本発明によれば、認知行動が行われると推定されている運転シーンの区切りの所定時間前に次の運転シーンに対応した情報が提示されるので、運転者は認知行動を行う際に、適時に次の運転シーンに関する情報を取得することができ、提示された情報を有効に活用することができる。これにより、運転者は、次の運転シーンにおける運転計画を立てやすくなり、運転者の負担を軽減することができる。
また、本発明は、適切な時機に運転者に情報を提示するために、車両の運転シーンに基づいて運転者の認知行動の時機を推定する認知時機推定方法であって、運転者の運転操作に関する情報、又は車両が走行する走行経路に関する情報を取得する走行情報取得ステップと、この走行情報取得ステップにおいて取得された情報に基づいて、走行中の車両の運転シーンの区切りを推定する運転シーン推定ステップと、運転者の眼の動きを検出する運転者情報検出ステップと、運転シーン推定ステップにおいて推定された運転シーンの区切りと、運転者情報検出ステップにおいて検出された運転者の眼の動きに基づいて、運転者の認知行動の時機を推定する認知時機推定ステップと、を有することを特徴としている。
本発明の認知時機推定装置及び認知時機推定方法によれば、適切な時機に運転者に情報を提示すべく、運転者の認知行動の時機を十分正確に推定することができる。
車両を運転している運転者の運転リソースの投入量を概念的に示す図である。 本発明の実施形態による認知時機推定装置の概略構成を示すブロック図である。 本発明の実施形態の認知時機推定装置を使用して走行する走行経路の一例を示す図である。 本発明の実施形態の認知時機推定装置による処理を示すフローチャートである。 図3に示す走行経路において推定される認知行動の時機の一例を示す図である。
次に、添付図面を参照して、本発明の実施形態による認知時機推定装置、及び認知時機推定方法を説明する。
図1は、車両を運転している運転者の運転リソースの投入量を概念的に示す図である。
図1の実線に示すように、或る程度習熟した運転者は、車両の運転中、常に一定の運転リソースを投入しているのではなく、運転シーンに応じて必要な時機に運転リソースを集中的に投入し、それ以外のときは運転リソースの投入量が少なくなることが知られている。即ち、運転者は、車両の運転中、周辺交通環境を或る程度先まで見通して運転計画を立て、この計画に沿って車両を走行させた後、再び先方の周辺交通環境を見通して運転計画を立てることを繰り返しながら運転を継続している。運転者の注意力(運転リソース)は、この運転計画を立てる際に集中的に投入され、運転計画に沿って走行している際には運転リソースの投入量が少なくなる。即ち、運転者は運転計画を立てる際に、多くの運転リソースを投入して認知行動を行い、次の運転シーンにおける周辺交通環境に関する情報を集中的に取得する。これに対して、運転の初心者等では、図1の破線に示すように、常に最高レベルに近い運転リソースを投入してしまう傾向があり、長時間運転を継続すると、極度に疲労が蓄積する場合がある。或いは、図1の一点鎖線に示すように、常に運転リソースの投入量が少ない運転者では、十分に安全な運転をできない可能性がある。
このように、或る程度習熟した運転者が投入する運転リソースは、走行中、運転シーンの所定の区切りごとにピーク値を持つが、ピーク値が現れる運転シーンの区切りは運転者毎に異なっており、運転者の個性や、運転の習熟度、運転している走行経路に対する慣れ等に依存するものと考えられる。例えば、習熟度の高い運転者や、慣れた走行経路を運転している運転者の場合には、周辺交通環境を遠方まで一時に把握することができるので、運転リソースのピーク値が現れる間隔が長くなる傾向があると考えられる。
一方、運転者に周辺交通環境に関する情報を提示して運転のサポートを行うとすれば、運転者が多くの運転リソースを投入して認知行動を行い、次の運転シーンに関する情報を収集しようとしている時機(タイミング)にこれを提示するのが効果的であると考えられる。運転者が次の運転シーンに関する情報を収集すべく認知行動を行っている時機に、次の運転シーンに関する情報を提示することにより、運転者は情報を容易に受け入れ、十分に活用することができる。本実施形態の認知時機推定装置及び認知時機推定方法は、このような、運転者が多くの運転リソースを投入して認知行動を行っている時機を、十分正確に推定することを目的とするものである。
次に、図2乃至図5を参照して、本発明の実施形態による認知時機推定装置及び認知時機推定方法の構成及び作用を説明する。
図2は、本発明の実施形態による認知時機推定装置の概略構成を示すブロック図である。図3は、本実施形態の認知時機推定装置を使用して走行する走行経路の一例を示す図である。図4は、本実施形態の認知時機推定装置による処理を示すフローチャートである。図5は、図3に示す走行経路において推定される認知行動の時機の一例を示す図である。
図2に示すように、本実施形態の認知時機推定装置は、車両に搭載された車両コントローラ1に内蔵されている。即ち、車両コントローラ1は、マイクロプロセッサ、メモリ、インターフェイス回路、及びこれらを作動させるソフトウェア等(以上、図示せず)により構成されているが、本実施形態の認知時機推定装置2は、これらが作動する機能の一部として実現されている。また、認知時機推定装置2は、走行情報取得手段4と、運転シーン推定手段6と、運転者情報検出手段8と、認知時機推定手段10によって実現されている。
また、車両コントローラ1には、カーナビゲーションシステム12、通信装置14、ドライバモニタカメラ16、運転操作センサ18、及び情報提示装置であるディスプレイ20が接続されている。
カーナビゲーションシステム12は、ナビゲーション情報として、車両周辺の地図データや、運転者が設定した目的地までの経路情報を車両コントローラ1に送るように構成されている。
通信装置14は、GPS衛星からの電波の受信等、一般的な電波の送受信の他、車車間通信により、運転中の車両の近くを走行する車両、近くに駐停車している車両からの電波を受信し、周辺に存在する車両の情報を取得できるように構成されている。また、通信装置14は、路車間通信により、車両の周辺に居る歩行者等の情報も取得できるように構成されている。
ドライバモニタカメラ16は、車両の運転席で運転している運転者の頭部等を前方から撮影するように構成されている。ドライバモニタカメラ16から送られた画像データは、車両コントローラ1において画像解析され、運転者の状態が検出されるようになっている。
運転操作センサ18は、運転者の車両に対する操作を検出するように構成されたセンサであり、このようなセンサとして、操蛇角センサ、アクセルペダルセンサ、ブレーキペダルセンサ等がある。各センサからの信号は、車両コントローラ1に入力され、運転者による車両の運転操作が解析される。
ディスプレイ20は、車両の運転席から視認可能な位置に配置された表示装置であり、運転者に提示すべき情報が表示されるように構成されている。また、ディスプレイ20は、カーナビゲーションシステム12の一部を構成するものであっても良く、タッチパネルを備えることにより、情報入力装置を兼ねたものであっても良い。
次に、図3乃至図5を参照して、本発明の実施形態による認知時機推定装置2の作用を説明する。
まず、図3に示すように、自宅Hに居る運転者は、車両のカーナビゲーションシステム12を使用して、目的地Pに至る走行経路を入力する。入力された走行経路に関する情報は、認知時機推定装置2に備えられた走行情報取得手段4によって取得される。
次に、認知時機推定装置2に備えられた運転シーン推定手段6は、走行情報取得手段4によって取得された情報に基づいて、車両の運転シーンの区切りを推定する。図3に示す例においては、運転シーン推定手段6は、運転シーンとして、自宅Hから交差点C1を左折する前までの運転シーンa、交差点C1を左折した後、交差点C2を通過する前までの運転シーンb、交差点C2を通過した後、交差点C3を左折するまでの運転シーンc、交差点C3を左折した後、カーブBに進入する前までの運転シーンd、カーブBに進入した後、カーブBが終了するまでの運転シーンe、カーブBが終了した後、交差点C4を左折する前までの運転シーンf、及び、交差点C4を左折した後、目的地に到着するまでの運転シーンgの7つの運転シーンを抽出する。しかしながら、運転者が意識する運転シーン(一連の運転操作)には個人差があり、全ての運転者が、運転シーン推定手段6が抽出した個々の運転シーンに移行する直前に認知行動を行い、運転計画を立てるものではない。
次に、図4及び図5を参照して、車両が図3の走行経路を走行した場合における本発明の実施形態による認知時機推定装置2の作用、及び認知時機推定方法を説明する。
まず、運転者が車両に備えられたカーナビゲーションシステム12を操作して、図3に示す走行経路(目的地)を設定すると、図4のステップS1において走行情報取得ステップとして、設定された走行経路の地図データが、認知時機推定装置2の走行情報取得手段4によって取得される。
次に、ステップS2において、運転者が設定した走行経路は、過去に走行した履歴があるか否かが判断される。走行履歴がない場合にはステップS3に進み、走行履歴がある場合にはステップS8に進む。
過去に走行履歴がない場合には、ステップS3において、認知時機推定装置2の運転シーン推定手段6は、運転シーン推定ステップとして、走行経路から運転シーンの区切りを推定する。図3に示す例においては、運転シーン推定手段6は、走行経路に基づいて上述した運転シーンa乃至gを推定する。さらに、運転シーン推定手段6は、或る運転シーンから次の運転シーンに移行することが想定される時点よりも所定時間前の時点を、運転者が認知行動を行う時機である基準認知時機として設定する。このように、過去に走行履歴がない経路を走行する場合には、運転者が認知行動を行う可能性がある時機を基準認知時機として仮設定する。好ましくは、基準認知時機は、運転シーンの移行が想定される時点よりも約1.5秒乃至約1秒前の時点に設定する。
即ち、図5に破線で示すように、運転シーン推定手段6は、走行経路における運転シーンa乃至gの区切りを、図5の時刻t3、t6、t9、t12、t15、及びt18に設定し、これらの時刻の所定の認知準備時間Tr前の時点を基準認知時機t1、t4、t7、t10、t13、及びt16として仮設定する。
次に、運転者が車両の運転を開始すると、車両に搭載されたドライバモニタカメラ16が、運転者情報検出ステップとして、運転者の頭部の画像を所定の時間間隔で撮影する。撮影された画像のデータは順次車両コントローラ1に送られ、認知時機推定装置2の運転者情報検出手段8は、画像データを画像解析して、運転者の視線の動き、及びまばたきの有無を検出する。画像解析により運転者の眼の動きである所定量以上の視線の動き、又はまばたきが検出されると、運転者情報検出手段8は、図5の下段に示すように所定のパルス信号を発生する。なお、運転者の視線の動きには、運転者が眼球を動かすことによる眼の動き、及び運転者が頭部を動かすことによる眼の動きが含まれる。図5に示す例では、時刻t2とt3の間、時刻t3とt4の間等において、運転者の眼の動きが検出され、パルス信号が発生している。
さらに、運転者が車両を走行させ、運転シーンaから運転シーンbへの移行が想定される時刻t3の所定の認知準備時間Tr(約1秒〜約1.5秒)前である時刻t1になると、認知時機推定装置2はディスプレイ20に信号を送り、次の運転シーンである運転シーンbに対応した情報を表示する。なお、運転シーンaから運転シーンbへの移行時刻は、カーナビゲーションシステム12を介して得られる車両の位置情報、車両の走行速度から推定することができる。このように推定された時刻の認知準備時間Tr前に次の運転シーンに対応した情報が表示される。
ここで、運転シーンbに対応した情報とは、運転シーンbにおいて走行することが予定されている走行区間に駐停車されている車両の情報、歩行者の情報、その走行区間において行われている道路工事の情報等である。これらの情報は、車車間通信又は路車間通信を介して通信装置14から得たり、カーナビゲーションシステム12を介して得ることができる。なお、このようにしてディスプレイ20に表示される次の運転シーンに対応した情報は車両の走行に関係した情報であり、道路沿いにある飲食店や、コンビニエンスストアに関する情報等、運転者や乗員の嗜好に関わる情報は含まれない。
次に、図4のステップS5においては、運転シーンaと運転シーンbの間の区切りにおいて、運転者が認知行動を行っているか否かが、運転者情報検出手段8の出力信号に基づいて推定される。即ち、認知時機推定装置2の認知時機推定手段10は、認知時機推定ステップとして、運転シーン推定手段6によって推定された運転シーンの区切りと、運転者情報検出手段8によって検出された運転者の眼の動きに基づいて、運転者の認知行動の時機を推定する。
本実施形態においては、運転シーン推定手段6によって運転シーンの区切りが推定されている時点以前の所定の認知行動時間Ts以内に、運転者情報検出手段8によって運転者の眼の動きが検出された場合に、その運転シーンの区切りにおいて運転者の認知行動が行われたと推定される。好ましくは、所定の認知行動時間Tsは、認知準備時間Trよりも短い、約0.5秒乃至約1秒に設定する。
図5に示す例においては、時刻t3以前の所定の認知行動時間Ts以内(時刻t2とt3の間)に、運転者情報検出手段8によって運転者の眼の動きが検出されているので、運転シーンaと運転シーンbの間の区切りにおいて、運転者の認知行動が行われたものと推定される。
次いで、図4のステップS6においては、運転シーンaと運転シーンbの間の区切りにおいて、運転者が認知行動を行ったことが記憶される。
さらに、ステップS7においては、ステップS6において処理された運転シーンの区切りが、運転シーン推定手段6によって推定されている最後の運転シーンに関するものであるか否かが判断される。最後の運転シーンである場合には、図4に示すフローチャートの1回の処理が終了する。最後の運転シーンでない場合には、ステップS4に戻り、ステップS3において設定された次の基準認知タイミングに関する処理が実行される。このようにして、設定されている走行経路の最後の運転シーンまで同様の処理が繰り返される。
図5に示す例では、運転シーンbと運転シーンcの間の区切りの時刻t6よりも認知準備時間Tr前の時刻t4において、次の運転シーンである運転シーンcに対応した情報が表示されている。しかしながら、時刻t6以前の認知行動時間Ts以内(時刻t5とt6の間)に、運転者情報検出手段8によって運転者の眼の動きが検出されていないので、運転シーンbと運転シーンcの間の区切りにおいて、運転者の認知行動は行われていないものと推定されている。即ち、図5に示す例では、運転者は、運転シーン推定手段6によって推定された運転シーンbと運転シーンcを単一の運転シーンとして意識しており、運転シーンbに移行する直前に、運転シーンcに関する認知行動をも行っているものと考えられる。
なお、運転シーンbにおいて、時刻t3とt4の間に運転者の眼の動きが検出されているが、この運転者の眼の動きは、運転シーンの間の区切りの近傍で(直前に)行われたものではないので、運転者による認知行動は行われていないと判断されている。このように、運転者の眼の動きと運転シーンの間の区切りの間の関係に基づいて運転者の認知行動の有無を推定することにより、運転者による脇見等の、認知行動とは関係のない視線の動きやまばたきを排除することができる。
同様に、運転シーンcと運転シーンdの間の区切りの時刻t9において、運転者の認知行動が行われていると推定され、運転シーンdと運転シーンeの間の区切りの時刻t12において、運転者の認知行動が行われていると推定され、運転シーンeと運転シーンfの間の区切りの時刻t15において、運転者の認知行動が行われていると推定され、運転シーンfと運転シーンgの間の区切りの時刻t18において、運転者の認知行動が行われていると推定されている。このように、認知時機推定装置2は、図3に示す自宅Hから目的地Pの間の走行経路において、図5に示すように、その間の*印を付した各運転シーンの区切りの直前に運転者が認知行動を行っていると推定し、これが車両コントローラ1のメモリ(図示せず)に記憶される。
一方、図4に示すフローチャートのステップS2において、設定された走行経路に対する走行履歴があると判断された場合には、ステップS8に進む。ステップS8においては、同一の走行経路を以前走行したときに記憶された、運転者による認知行動の時機がメモリ(図示せず)から読み込まれる。
次に、ステップS9においては、運転者が意識している運転シーンの区切り(図5において*印を付した区切り)の認知準備時間Tr前に、次の運転シーンに対応した情報がディスプレイ20に表示される。図5に示す例においては、運転者が意識している運転シーンaと運転シーンbの間の区切り(時刻t3)よりも認知準備時間Tr前の時刻t1において、運転者が単一の運転シーンであると認識している運転シーンb及びcに関する情報がディスプレイ20に表示される。運転者は時刻t1頃において運転シーンb及びcに対する認知行動を行い、この間の運転計画を立てていると考えられる。このため、運転者は適時に次の運転シーンに対応した情報を取得することができ、ディスプレイ20に表示された情報を十分に活用することができる。
なお、図4に示すフローチャートのステップS8以下において実行される処理における各運転シーンの区切りの時刻は、現在走行中の車両がその区切りに到達すると推定される時刻であり、以前実行されたステップS3以下の処理における時刻と同じにはならない。
一方、運転シーンbと運転シーンcの間の区切り(時刻t6)において、運転者が認知行動を行っていないことが記憶されているので、その直前の時刻t4においては、ディスプレイ20への情報の表示は実行されない。以後、認知時機推定装置2は、時刻t7において運転シーンd及びeに対応する情報の表示を行い、時刻t13において運転シーンfに対応する情報の表示を行い、時刻t16において運転シーンgに対応する情報の表示を行って、図4に示すフローチャートの1回の処理が終了する。
本発明の実施形態の認知時機推定装置2によれば、認知時機推定手段10は、運転シーン推定手段6によって推定された運転シーンの区切り(図3)と、運転者情報検出手段8によって検出された運転者の眼の動きに基づいて運転者の認知行動の時機を推定する(図5において*印を付した区切り)ので、運転者の認知行動の時機を十分正確に推定することができる。これにより、運転者が注意を向けた時機に必要な情報を提示することが可能になり、運転者は提示された情報を十分に活用することができる。
また、本実施形態の認知時機推定装置2によれば、運転シーンの区切りが推定されている時点(図5の時刻t3、t6、t9、t12、t15、及びt18)以前の所定時間(Ts)以内に、運転者の所定量以上の視線の動き、又はまばたきが検出された場合に、その運転シーンの区切り(図5の時刻t3、t9、t15、及びt18)において運転者の認知行動が行われたと推定するので、運転者の認知行動を正確に推定することができる。
さらに、本実施形態の認知時機推定装置2によれば、認知行動が行われると推定されている運転シーンの区切り(図5の時刻t3、t9、t15、及びt18)の所定時間前(Tr)に次の運転シーンに対応した情報が提示されるので、運転者は認知行動を行う際に、適時に次の運転シーンに関する情報を取得することができ、提示された情報を有効に活用することができる。
以上、本発明の好ましい実施形態を説明したが、上述した実施形態に種々の変更を加えることができる。特に、上述した実施形態においては、走行情報取得手段は、カーナビゲーションシステムに入力された走行経路を取得し、この情報に基づいて運転シーン推定手段が運転シーンの区切りを推定していたが、走行情報取得手段が運転操作センサに関する情報を取得するように本発明を構成することもできる。即ち、操蛇角センサ、アクセルペダルセンサ等の運転操作センサによる検出データを走行情報取得手段が取得し、このデータに基づいて運転シーン推定手段が運転シーンの区切りを推定するように本発明を構成することもできる。或いは、入力された走行経路の情報及び運転操作センサの情報の両方を使用して、運転シーンの区切りを推定するように本発明を構成することもできる。
また、上述した実施形態においては、情報提示装置としてディスプレイが備えられ、次の運転シーンに対応した情報がディスプレイに表示されていたが、情報提示装置として、スピーカ等の音声発生装置を備えるように本発明を構成することもできる。さらに、上述した実施形態においては、認知時機推定装置の機能は、全て、車両に搭載された車両コントローラのマイクロプロセッサ等により実現されていたが、認知時機推定装置の機能の少なくとも一部が、車両コントローラとの間で情報通信可能なサーバー上で実行されるように本発明を構成することもできる。
1 車両コントローラ
2 認知時機推定装置
4 走行情報取得手段
6 運転シーン推定手段
8 運転者情報検出手段
10 認知時機推定手段
12 カーナビゲーションシステム
14 通信装置
16 ドライバモニタカメラ
18 運転操作センサ
20 ディスプレイ(情報提示装置)

Claims (4)

  1. 適切な時機に運転者に情報を提示するために、車両の運転シーンに基づいて運転者の認知行動の時機を推定する認知時機推定装置であって、
    運転者の運転操作に関する情報、又は車両が走行する走行経路に関する情報を取得する走行情報取得手段と、
    この走行情報取得手段が取得した情報に基づいて、車両の運転シーンの区切りを推定する運転シーン推定手段と、
    運転者の眼の動きを検出する運転者情報検出手段と、
    上記運転シーン推定手段によって推定された運転シーンの区切りと、上記運転者情報検出手段によって検出された運転者の眼の動きに基づいて、運転者の認知行動の時機を推定する認知時機推定手段と、
    を有することを特徴とする認知時機推定装置。
  2. 上記認知時機推定手段は、上記運転シーン推定手段によって運転シーンの区切りが推定されている時点以前の所定時間以内に、上記運転者情報検出手段によって運転者の所定量以上の視線の動き、又は運転者のまばたきが検出された場合に、その運転シーンの区切りにおいて運転者の認知行動が行われたと推定する請求項1記載の認知時機推定装置。
  3. さらに、運転者に情報を提示する情報提示装置を有し、この情報提示装置は、上記認知時機推定手段によって運転者の認知行動が行われると推定されている運転シーンの区切りの所定時間前に、次の運転シーンに対応した情報を運転者に提示する請求項1又は2に記載の認知時機推定装置。
  4. 適切な時機に運転者に情報を提示するために、車両の運転シーンに基づいて運転者の認知行動の時機を推定する認知時機推定方法であって、
    運転者の運転操作に関する情報、又は車両が走行する走行経路に関する情報を取得する走行情報取得ステップと、
    この走行情報取得ステップにおいて取得された情報に基づいて、走行中の車両の運転シーンの区切りを推定する運転シーン推定ステップと、
    運転者の眼の動きを検出する運転者情報検出ステップと、
    上記運転シーン推定ステップにおいて推定された運転シーンの区切りと、上記運転者情報検出ステップにおいて検出された運転者の眼の動きに基づいて、運転者の認知行動の時機を推定する認知時機推定ステップと、
    を有することを特徴とする車両における認知時機推定方法。
JP2017220578A 2017-11-16 2017-11-16 認知時機推定装置及び認知時機推定方法 Active JP6598141B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017220578A JP6598141B2 (ja) 2017-11-16 2017-11-16 認知時機推定装置及び認知時機推定方法
DE102018008973.9A DE102018008973B4 (de) 2017-11-16 2018-11-14 Schätzvorrichtung, Fahrassistenzvorrichtung, Verfahren und Computerprogrammprodukt
CN201811354153.0A CN109795504B (zh) 2017-11-16 2018-11-14 认知时机推定装置以及认知时机推定方法
US16/192,557 US10713511B2 (en) 2017-11-16 2018-11-15 Method and device for estimating recognition timing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017220578A JP6598141B2 (ja) 2017-11-16 2017-11-16 認知時機推定装置及び認知時機推定方法

Publications (2)

Publication Number Publication Date
JP2019091329A true JP2019091329A (ja) 2019-06-13
JP6598141B2 JP6598141B2 (ja) 2019-10-30

Family

ID=66335370

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017220578A Active JP6598141B2 (ja) 2017-11-16 2017-11-16 認知時機推定装置及び認知時機推定方法

Country Status (4)

Country Link
US (1) US10713511B2 (ja)
JP (1) JP6598141B2 (ja)
CN (1) CN109795504B (ja)
DE (1) DE102018008973B4 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112668548A (zh) * 2021-01-15 2021-04-16 重庆大学 一种驾驶员发呆检测方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010190733A (ja) * 2009-02-18 2010-09-02 Toyota Motor Corp ナビゲーション装置
WO2016166791A1 (ja) * 2015-04-13 2016-10-20 三菱電機株式会社 運転支援装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009128210A (ja) 2007-11-26 2009-06-11 Sanyo Electric Co Ltd ナビゲーション装置
US20100324818A1 (en) 2009-06-19 2010-12-23 Gm Global Technology Operations, Inc. Presentation of navigation instructions using variable content, context and/or formatting
US8405714B2 (en) * 2010-06-03 2013-03-26 Panasonic Corporation Pupil hidden state detecting apparatus and vehicle-mounted camera employing the same
JP5681611B2 (ja) 2011-11-09 2015-03-11 株式会社日立製作所 ナビゲーションシステム、ナビゲーション装置、方法及びサーバ
JP5867296B2 (ja) 2012-05-30 2016-02-24 株式会社デンソー 運転シーン認識装置
US10293833B2 (en) * 2012-10-17 2019-05-21 Toyota Jidosha Kabushiki Kaisha Driving assistance apparatus
MX359676B (es) * 2012-12-11 2018-10-05 Shultz Sarah Sistemas y metodos para detectar inhibicion del parpadeo como un marcador de trascendencia de estimulo percibido e implicado.
US9751534B2 (en) 2013-03-15 2017-09-05 Honda Motor Co., Ltd. System and method for responding to driver state
EP2977975B1 (en) * 2013-03-22 2017-08-16 Toyota Jidosha Kabushiki Kaisha Driving assistance device
JP5821917B2 (ja) * 2013-09-20 2015-11-24 トヨタ自動車株式会社 運転支援装置
JP6324262B2 (ja) 2014-08-22 2018-05-16 三菱電機株式会社 安全運転支援システム
DE112016000308T5 (de) 2015-01-09 2017-10-19 Harman International Industries, Incorporated Techniken zum Einstellen des Detaillierungsgrads von Fahranweisungen
JP6699831B2 (ja) * 2016-04-28 2020-05-27 トヨタ自動車株式会社 運転意識推定装置
US9925872B1 (en) 2016-11-14 2018-03-27 Denso International America, Inc. System for monitoring driver alertness and adapting vehicle settings thereto
JP6540663B2 (ja) 2016-11-18 2019-07-10 トヨタ自動車株式会社 車両システム
US10562378B2 (en) * 2017-04-14 2020-02-18 Sakai Display Products Corporation Shading device for vehicle
DE102017007705A1 (de) 2017-08-14 2019-02-14 Preh Car Connect Gmbh Ausgeben einer Manöveranweisung mittels einer Navigationseinrichtung

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010190733A (ja) * 2009-02-18 2010-09-02 Toyota Motor Corp ナビゲーション装置
WO2016166791A1 (ja) * 2015-04-13 2016-10-20 三菱電機株式会社 運転支援装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112668548A (zh) * 2021-01-15 2021-04-16 重庆大学 一种驾驶员发呆检测方法及系统

Also Published As

Publication number Publication date
US20190147276A1 (en) 2019-05-16
US10713511B2 (en) 2020-07-14
DE102018008973A1 (de) 2019-05-16
CN109795504A (zh) 2019-05-24
DE102018008973A8 (de) 2019-06-27
DE102018008973B4 (de) 2022-05-19
JP6598141B2 (ja) 2019-10-30
CN109795504B (zh) 2022-05-13

Similar Documents

Publication Publication Date Title
US10496889B2 (en) Information presentation control apparatus, autonomous vehicle, and autonomous-vehicle driving support system
EP3276586A1 (en) Automatic driving assistance device, control method, program, and storage medium
CN105365819B (zh) 驾驶辅助装置和驾驶辅助方法
US8200422B2 (en) Information presentation apparatus, information presentation method, information presentation program, and computer-readable recording medium
JP2018185229A (ja) 経路検索システム,経路検索プログラム及び経路検索方法
JP2014108643A (ja) 走行制御装置
JP6631569B2 (ja) 運転状態判定装置、運転状態判定方法及び運転状態判定のためのプログラム
CN115662171A (zh) 变道提示方法、装置、电子设备及车辆
CN113631411B (zh) 显示控制装置、显示控制方法及记录介质
JP6598141B2 (ja) 認知時機推定装置及び認知時機推定方法
JP2013181959A (ja) 車載装置
JP2019096108A (ja) 運転支援装置
JP2013003887A (ja) 車両操作診断装置、車両操作診断方法及びコンピュータプログラム
JP7376996B2 (ja) 車両の危険状況判別装置、車両の危険状況判別方法、及びプログラム
JP2010197071A (ja) 経路探索装置
JP7107060B2 (ja) 運転支援方法及び運転支援装置
US11222552B2 (en) Driving teaching device
JP2010085203A (ja) ナビゲーション装置及び案内誘導方法
JP5293127B2 (ja) 運転支援装置
US10766412B1 (en) Systems and methods for notifying other road users of a change in vehicle speed
JP2019101634A (ja) 情報提示制御装置、情報提示制御方法及びプログラム
CN109689461A (zh) 集中度判定装置、集中度判定方法和用于集中度判定的程序
US20240174233A1 (en) Vehicle control device, vehicle control method, and non-transitory storage medium storing a vehicle control program
JP2014104840A (ja) 車載画像処理装置
JP2019053436A (ja) 運転負荷演算装置及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190401

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190909

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190922

R150 Certificate of patent or registration of utility model

Ref document number: 6598141

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150