JP6917708B2 - 運転者監視システム - Google Patents

運転者監視システム Download PDF

Info

Publication number
JP6917708B2
JP6917708B2 JP2016253786A JP2016253786A JP6917708B2 JP 6917708 B2 JP6917708 B2 JP 6917708B2 JP 2016253786 A JP2016253786 A JP 2016253786A JP 2016253786 A JP2016253786 A JP 2016253786A JP 6917708 B2 JP6917708 B2 JP 6917708B2
Authority
JP
Japan
Prior art keywords
driver
vehicle
monitoring system
mobile terminal
driver monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016253786A
Other languages
English (en)
Other versions
JP2017157196A (ja
Inventor
英稔 森田
英稔 森田
将史 渡邊
将史 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to PCT/JP2017/007544 priority Critical patent/WO2017150466A1/ja
Priority to US15/780,056 priority patent/US10640123B2/en
Publication of JP2017157196A publication Critical patent/JP2017157196A/ja
Application granted granted Critical
Publication of JP6917708B2 publication Critical patent/JP6917708B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/082Selecting or switching between different modes of propelling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0053Handover processes from vehicle to occupant
    • B60W60/0055Handover processes from vehicle to occupant only part of driving tasks shifted to occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0059Estimation of the risk associated with autonomous or manual driving, e.g. situation too complex, sensor failure or driver incapacity
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • G05D1/0061Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements for transition from automatic pilot to manual pilot and vice versa
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0809Driver authorisation; Driver identity check
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0881Seat occupation; Driver or passenger presence
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Studio Devices (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Processing (AREA)

Description

本発明は、例えば自動運転などの際に、運転席に着座している運転者(即ちドライバ)の状態を監視することができる運転者監視システムに関する。
従来、車両を運転している運転者の状態を監視する運転者監視システムとして、車載カメラを使って運転者の顔を撮影し、その顔画像から瞼の開閉状態や視線の向き等を検出して、運転者の状態を認識する技術が知られている。
そして、この技術によって、運転者の状態が運転に適切でない状態と判断された場合には、各種の方法によって、運転者に注意を喚起する技術が知られている。例えば、車載のディスプレイでの表示、スピーカによる音声等による報知、シートベルトの巻き上げ、シートの振動等により、運転者に注意を喚起する技術が知られている。
また、近年では、自動運転の技術が開発されているが、この自動運転の際にも、運転者が何らかの形で運転に関与する事態は起こりえる。例えば、自動運転中に、前方カメラやレーダ等によっても道路状態等を精度良く検出できず、そのため、自動運転に適さない状態となる場合も考えられる。
この対策として、自動運転に適した状況かどうかを判定して、自動運転に適した状況でない場合には、注意喚起する技術が知られている。そして、この注意喚起を行う場合には、上述した瞼の開閉状態等から運転者の覚醒状態を判断して、適切な注意喚起を行う技術が開示されている(特許文献1参照)。
特開2015−32054号公報
しかしながら、上述した従来技術でも、必ずしも好適に対応できない場合が考えられる。
例えば自動運転のレベルによっては、運転者がハンドル(即ちステアリングホイール)から手を離すことができるが、そのときに、運転者がスマホ等の携帯端末(即ち携帯機)を操作していると、運転者の状態をうまく検出できないことがある。
つまり、車載カメラによって運転者の顔を撮影し、その顔画像から運転者の状態を判定する技術では、運転者が手元の携帯端末の画面を見ていると、車載カメラでは顔画像を得ることができず、そのため運転者の状態を判定できないことがある。
ところが、自動運転では、状況によっては自動運転を継続できない場合もあるので、運転者がハンドルから手を離しているときでも、そのような場合にすぐに運転者による運転操作が可能な状態、即ち、運転者によるバックアップタスクが可能な状態であることが必要とされる。
そのため、自動運転においては、運転者がバックアップタスクが可能であることを監視し、バックアップタスクが可能でない状態の場合、例えば運転者が眠っている場合等には、運転者に注意を喚起する必要がある。
しかしながら、従来の車載カメラを用いる技術では、顔画像が得られないので、運転者がバックアップタスクが可能であるかどうかの判定ができないという問題がある。
また、自動運転でない場合でも、例えば車載カメラによる撮影状況が好ましくないときなどには、運転者の状態を把握することが難しいことがある。
本発明は、こうした問題に鑑みてなされたものであり、車両が例えば自動運転による走行中のような状態において、運転者が携帯機を操作するような場合に、運転者の状態を把握して、運転者に対して適切な警告等の対応が可能な運転者監視システムを提供することを目的とする。
本発明の一つの態様は、表示画面(11a)と該表示画面に対向する側を撮影可能に配置された撮影装置(5)とを備えた携帯機(1)と、自車両の制御を行う車両制御装置(3)と、の間で通信を行って、前記自車両の運転者を監視する運転者監視システムである。
この運転監視システムは、前記自車両の走行中に、該自車両の運転者が前記携帯機の表示画面を見ているかどうかを、前記撮影装置によって撮影された画像に基づいて判定する乗員状態判定部(43)と、前記乗員状態判定部によって、前記運転者が前記携帯機の前記表示画面を見ていると判定された場合には、警報を発する安全制御部(45)と、を備える。
この構成によれば、自車両の走行中に、撮影装置によって撮影された画像に基づいて、自車両の運転者が携帯機の表示画面を見ているかどうかを判定することができる。よって、運転者が携帯機の表示画面を見ていると判定された場合には、適切な警報を発することができる。つまり、運転者の状態を把握して、適切な警告(即ち注意喚起)を行うことができるので、より安全な運転が可能になるという効果がある。
本発明の他の態様は、表示画面(11a)と該表示画面に対向する側を撮影可能に配置された撮影装置(5)とを備えた携帯機(1)と、自車両の制御を行う車両制御装置(3)と、の間で通信を行って、前記自車両の運転者を監視する運転者監視システムである。
この運転者監視システムは、前記自車両の自動運転中に、該自車両の運転者が前記携帯機の表示画面を見ているかどうかを、前記撮影装置によって撮影された画像に基づいて判定する乗員状態判定部(43)と、前記乗員状態判定部によって、前記運転者が前記携帯機の前記表示画面を見ていると判定された場合には、警報を発する制御及び前記運転者の運転に利用可能な情報を提供する制御のうち少なくとも一方の制御を行う安全制御部(45)と、を備える。
この構成によれば、自車両の自動運転中に、撮影装置によって撮影された画像に基づいて、自車両の運転者が携帯機の表示画面を見ているかどうかを判定することができる。よって、運転者が携帯機の表示画面を見ていると判定された場合には、適切な警報を発することができる。つまり、運転者の状態を把握して、適切な警告を報知することができるので、より安全な運転が可能になるという効果がある。
特に、自動運転の場合には、運転者がハンドルから手を離して、携帯機を操作することが考えられる。しかし、前記構成によれば、自動運転中に、携帯機の撮影装置によって撮影された運転者の画像(例えば顔画像)から、例えば運転者の意識状態の程度等を把握することができる。
よって、例えば運転者が自動運転から直ぐに運転を代わることができる状態でない場合、即ちバックアップタスクが可能でない状態の場合などには、それに応じて必要な警報を発することができるので、運転の安全性が大きく向上するという顕著な効果を奏する。
また、自動運転中に運転者が携帯機の表示画面を見ている場合に、例えば自動運転から運転者が運転を代わったときに運転者が利用可能な情報、例えば車両の前方の画像や周囲の情報などのバックアップタスクの際に有用な情報を、表示画面に表示することができる。これにより、安全性が一層向上するという利点がある。
なお、乗員状態判定部や安全制御部は、少なくとも一方が、携帯機側にあっても自車両側にあってもよい、或いは、両方にあってもよい。
なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。
第1実施形態の運転者監視システムを示すブロック図である。 携帯端末のメモリに記憶されているデータを示す説明図である。 車両制御装置のメモリに記憶されているデータを示す説明図である。 携帯端末のマイコンにて実施される内容を機能的に示すブロック図である。 車両制御装置のマイコンにて実施される内容を機能的に示すブロック図である。 走行前に携帯端末のマイコンにて実施される処理を示すフローチャートである。 走行前に車両制御装置のマイコンにて実施される処理を示すフローチャートである。 走行時に車両制御装置のマイコンにて実施される運転者監視処理を示すフローチャートである。 安全制御部による注意喚起の内容を示す説明図である。 乗員状態判定部による処理を行う装置等を示す説明図である。
以下に本発明の実施形態を図面とともに説明する。
[1.第1実施形態]
[1−1.基本構成]
まず、第1実施形態の運転者監視システムの構成について説明する。
図1に示すように、本第1実施形態における運転者監視システムは、スマートフォン(即ちスマホ)等の携帯端末1と、車両に搭載されて車両の動作を制御する車両制御装置3とが、通信により連携して機能するシステムである。
前記車両は、運転者(即ちドライバ)の運転操作による走行と各種の自動化のレベルに応じた自動運転による走行が可能な車両である。なお、ここで車両とは、運転者の携帯端末1との通信が可能な自車両である。
以下、各構成について説明する。
<携帯端末>
携帯端末1は、周知のように、運転者等が携帯可能な通信装置(即ち携帯機)の一種であり、外部の基地局や自車両等との間で情報の送受信が可能な装置である。
なお、ここでは、携帯端末1としてスマホを例に挙げて説明するが、それに限られるものではない。また、携帯端末1に代えて、ゲーム機やノートパソコン等の各種の装置を使用できる。この場合には、各装置に対応して、入力装置として、操作スイッチやキーボード等を用いることができる。
携帯端末1は、カメラ5、マイク7、ジャイロ9、表示装置(即ちディスプレイ)11、スピーカ13、振動モータ15等を備えている。また、携帯端末1の動作を制御するマイクロコンピュータ(即ちマイコン)17や、外部との通信を行うアンテナ等を有する通信部19を備えている。なお、通信部19としては、無線通信に限らず、USB等を用いた有線通信を行う装置を採用できる。
このうち、カメラ5は、例えばCCDカメラであり、携帯端末1を操作する人(例えば所有者)の顔等を撮影できるように、ディスプレイ11側(即ち表示画面11a側)に配置されている。つまり、表示画面11aに向かい合う側、即ち表示画面11aに対向する側を撮影可能なように、例えば表示画面11aの周囲等に配置されている。
ディスプレイ11は、液晶等の表示画面11aを備えるとともに、その表示画面11aに文字や画像等を表示する表示装置である。なお、周知のように、表示画面11aはタッチパネルとしての機能、即ち入力装置としての機能も有している。なお、ディスプレイ11は、入力装置としての機能を有していなくともよい。
スピーカ13は、音声や音により、必要に応じて、携帯端末1の使用者に警報等の情報を報知するものである。
振動モータ15は、携帯端末1自身を振動させることにより、携帯端末1の使用者に警報等の情報を報知するものである。
マイコン17は、周知のCPU17a、ROM17b、RAM17c、EEPROM17d等を備えた電子制御装置である。
このうち、ROM17bは、電源を切断しても記憶内容を保持する必要のあるデータやプログラムを記憶する。EEOROM17dは、電源を切断しても記憶内容を保持する必要のあるデータ(例えば認証データ)を記憶する。RAM17cは、データを一時的に格納する。CPU17aは、ROM17b等に記憶されたプログラム等に従って処理を実行する。
通信部19は、外部の基地局や車両制御装置3等との間で、例えばカメラ5で撮影した顔画像のデータなど、各種の情報の送受信が可能な装置である。なお、通信部19は、無線通信又は有線通信により、車両制御装置3側と通信が可能である。
前記携帯端末1の各種の機能は、CPU17aが非遷移的実体的記録媒体に格納されたプログラムを実行する実行することにより実現される。この例では、ROM17bが、プログラムを格納した非遷移的実体的記録媒体に該当する。また、プログラムの実行により、プログラムに対応する方法が実行される。なお、携帯端末1を構成するマイコンの数は1つでも複数でもよい。なお、これらの点については、車両制御装置3のマイコン21でも同様である。
<車両制御装置>
車両制御装置3は、各種のセンサからの情報等に基づいて、各種のアクチュエータを駆動させて車両の動作を制御したり、後述する運転者監視処理等を行う電子制御装置である。
この車両制御装置3は、周知のCPU21a、ROM21b、RAM21c、EEPROM21d等を備えたマイコン21や、アンテナ等を用いて外部の基地局や他車両や携帯端末1等との間で情報の送受信が通信部23を備えている。なお、通信部23は、無線通信又は有線通信により、携帯端末1の通信部19と通信が可能である
また、車両制御装置3には、運転用センサ類25、自車両センサ類27、周辺監視装置29、スイッチ類31、ディスプレイ33、アクチュエータ類35、ナビゲーション装置37等が接続されている。
このうち、マイコン21については、基本的に、前記携帯端末1側のマイコン17と同様である。
運転用センサ類25としては、運転者の状態を検出するドライバカメラ25a等の各種のセンサが挙げられる。ドライバカメラ25aは、運転席の前方に配置された例えばCCDカメラであり、運転者の顔等を撮影して、その顔画像等を車両制御装置3に送信する。
なお、他のセンサとしては、運転者が運転席に着座したことを検出する着座センサ、ハンドルやシートベルト等に取り付けられて運転者の心拍等を検出する心電センサ等が挙げられる。
自車両センサ類27は、自車両の動作を検出するセンサであり、例えば車速センサ、加速度センサ、ヨーレートセンサ、ステアリングセンサ等、各種のセンサが挙げられる。また、GPS等の自車両の位置を検出する装置も挙げられる。
周辺監視装置29は、車両(即ち自車両)の周囲の状況を監視する装置であり、各種のレーダ、前方カメラ、後方カメラ、側方カメラ、超音波センサ等、各種の装置が挙げられる。
スイッチ類31としては、例えば自動運転の許可又は禁止を指示するスイッチ等が挙げられる。
ディスプレイ33は、例えば車両のダッシュボード等に取り付けられた表示装置であり、その表示画面は、周知のようにタッチパネルとしての機能、即ち入力装置としての機能も有している。
アクチュエータ類35としては、車両の駆動力をスロットル等を用いて調節する制動用アクチュエータ、車両の制動力をホイールシリンダ等を利用して調節する制動用アクチュエータ、車両の操舵角を操舵用モータを利用して調節する操舵用アクチュエータ等が挙げられる。その他、エアコンやスピーカや室内のライト等も挙げられる。
ナビゲーション装置37は、地図情報や自車両の位置情報等に基づいて、走行経路の案内等が可能な周知の装置である。
また、上述した運転者監視システムには、携帯端末1や車両制御装置3以外に、例えばウェアラブル装置39を用いてもよい。このウェアラブル装置39では、運転者の心拍や脈拍や脳波等を検出し、その情報を、携帯端末1や車両制御装置3等に送信することができる。
ウェアラブル装置39としては、腕時計タイプのものや頭に装着するヘッドギアタイプのもの等が挙げられる。
[1−2.メモリの記憶内容]
次に、後述する運転者監視処理を行うために、携帯端末1や車両制御装置3のメモリに記憶される記憶内容について説明する。
<携帯端末>
図2に示すように、携帯端末1のメモリ(例えばEEPROM17d)には、携帯端末1の所有者の情報が予め登録されて記憶されている。
この所有者の情報としては、所有者を識別できる顔画像に基づく認証情報が挙げられる。なお、それ以外には、例えば、網膜、掌、指紋等の各種の認証情報が挙げられる。
また、EEPROM17dには、今回の制御を行う際の通信相手の車両、即ち携帯端末1の所有者が運転が許可されている自車両の情報も記憶されている。なお、車両の情報としては、車両を区別する番号(例えば車両ID)が挙げられる。
<車両制御装置>
図3に示すように、車両制御装置3のメモリ(例えばEEPROM21d)には、自車両の運転が許可されている運転者が予め登録されて記憶されている。
この運転者の情報としては、運転者を識別できる顔画像に基づく認証情報が挙げられる。なお、それ以外には、例えば、網膜、掌、指紋等の各種の認証情報が挙げられる。
また、EEPROM21dには、今回の制御を行う際の通信相手の携帯端末1の情報が記憶されている。この携帯端末1の情報としては、携帯端末1を区別する番号(例えば携帯端末ID)が挙げられる。
更に、EEPROM21dには、携帯端末1の所有者の情報が記憶されている。この所有者の情報としては、所有者を区別する番号(例えば所有者ID)が挙げられる。
なお、本第1実施形態では、携帯端末1の所有者は、前記車両の運転が許可されている運転者であるので、後述する運転者監視処理を実施する際には、少なくとも、携帯端末1の所有者と運転者とが一致する必要がある。
[1−3.マイコンの機能的な内容]
次に、各マイコン17、21にて実施される内容を、機能的に説明する。
<携帯端末>
図4に示すように、携帯端末1側のマイコン17は、処理プログラムが実行する処理内容として、即ち機能的に、第1の画像認識部41、第1の乗員状態判定部43、第1の安全制御部45、ディスプレイ制御部47、アクチュエータ制御部49、スマホアプリ部51を備えている。
このうち、第1の画像認識部41は、カメラ5で撮影された画像に基づいて、その画像中に顔を示す顔画像を認識する。そして、例えば、顔画像から、撮影された人が当該携帯端末1の所有者であるかどうかを判断する。
第1の乗員状態判定部43は、自車両の走行中に、例えば自動運転中に、自車両の運転者が携帯端末1の表示画面11aを見ているかどうかを、カメラ5によって撮影された画像に基づいて判定する。ここでは、自車両の運転者が携帯端末1の所有者であることを予め確認するので、携帯端末1の所有者が表示画面11aを見ているかどうかを判定すればよい。なお、自車両の走行状態については、車両制御装置3側から得ることができる。
更に、第1の乗員状態判定部43では、カメラ5によって撮影された画像(即ち顔画像)に基づいて、運転者の意識状態の程度を判定することができる。この意識状態の程度とは、意識がはっきりしているかどうかの程度(即ちレベル)であり、例えば覚醒度が挙げられる。
この意識状態の程度(例えば覚醒度)が、顔画像から得られる例えば瞼の開閉状態や、心拍や脈拍や脳波等から検出できることは、例えば特許第5139470号公報等に記載のように周知であるので、その説明は省略する。
また、心拍等の検出が可能なウェアラブル装置39を用いる場合には、その心拍等の情報を加味して、意識状態の程度を判定してもよい。
なお、この第1の乗員状態判定部43は、車両制御装置3側の機能としてもよい。つまり、携帯端末1側から受信した顔画像の情報に基づいて、車両制御装置3にて、上述した状態判定を行ってもよい。
第1の安全制御部45は、走行中に、例えば自動運転中に、運転者が携帯端末1の表示画面11aを見ていると判定された場合には、その走行状態に対応して必要な警報を発することができる。また、運転者が運転する際に利用可能な情報、例えばバックアップタスクに有用な情報(例えば監視情報)を提供することができる。なお、第1の乗員状態判定部43によって判定された運転者の意識状態の程度(例えば覚醒度)に基づいて、警報の内容を設定することができる。
前記第1の安全制御部45は、例えばディスプレイ11、スピーカ13、振動モータ15を用いて、携帯端末1から運転者に対して警報を発することができる。また、ディスプレイ11等を用いて前記監視情報を提供してもよい。
なお、この第1の安全制御部45は、車両制御装置3側の機能としてもよい。つまり、携帯端末1側から受信した顔画像の情報等に基づいて、例えば車両制御装置3にて状態判定を行って、上述した警報を発してもよい。この場合、警報は携帯端末1側で行ってもよいし、車両制御装置3側で行ってもよい。
ディスプレイ制御部47は、ディスプレイ11による表示やタッチパネルとしての機能を制御する。
アクチュエータ制御部49は、携帯端末1自身をアクチュエータとして機能させる場合の動作を制御する。具体的には、上述したように、例えばディスプレイ11、スピーカ13、振動モータ15をアクチュエータとして用いて、携帯端末1から運転者に対して警報を発することができる。
スマホアプリ部51は、周知のように、携帯端末1にインストールされた各種のアプリケーションの動作を制御する。
<車両制御装置>
図5に示すように、車両制御装置3側のマイコン17は、処理プログラムが実行する処理内容として、即ち機能的に、第2の画像認識部61、第2の乗員状態判定部63、自車両状態検出部65、周辺情報検出部67、第2の安全制御部69、自動運転制御部71を有する車両制御部73、ディスプレイ制御部75、アクチュエータ制御部77を備えている。
このうち、第2の乗員状態判定部63は、第2の画像認識部61からの情報に基づいて、運転者の認識を行ったり、運転者の各種の状態を判定する。例えば、ドライバカメラ25aからの画像に基づいて、運転席に着座した人が、当該車両の運転を許可されている人か否かを判定する。
また、この第2の乗員状態判定部63では、運転者の意識状態の程度、例えば覚醒度や眠たさの程度を検出する(即ち意識検出部として機能する)。例えば、周知のように、ドライバカメラ25aからの顔画像の情報、例えば瞼の開閉状態に基づいて、意識状態の程度を検出することができる。或いは、周知のように、ウェアラブル装置39やハンドルやシートベルト等に装着された心電センサ等からの情報、例えば心拍のゆらぎ等に基づいて、意識状態の程度を検出することができる。
自車両状態検出部65は、自車両センサ類27からの情報に基づいて、車速、加速度、ヨーレート、操舵角等のような、自車両の走行状態を検出する。また、自動運転が実施されているかどうかや、自動運転のレベルの情報等を検出する。
周辺情報検出部67は、レーダや前方カメラ等の周辺監視装置29からの情報に基づいて、自車両の前方等の道路状態や周囲の車両等の情報を検出する。
車両制御部73は、例えばスイッチ類31、ディスプレイ33のタッチパネル、第2の乗員状態検出部63、自車両状態検出部65、周辺情報検出部67等からの情報などに基づいて、自車両の走行を制御する。
また、自動運転を行う場合には、自動運転制御部71は、上述した各種の情報に基づいて、自動運転による走行を制御する。なお、自動運転等の走行の制御を行う場合には、ナビゲーション装置37からの地図情報等を参照することができる。
第2の安全制御部69は、携帯端末1側と同様に、走行中に、例えば自動運転中に、運転者が携帯端末1の表示画面11aを見ていると判定された場合には、その走行状態に対応して必要な警報を発する。例えば、ディスプレイ33、アクチュエータ類35を用いて、車両自身により運転者に対して警報を発することができる。
具体的には、警報を発する方法としては、ディスプレイ33での表示や、スピーカでの音声や音による報知が挙げられる。また、警報を発していることを気付かせるため等の目的で、エアコンを制御して冷風等を運転者に送ったり、室内のランプの点灯状態を変化させたりする方法が挙げられる。さらに、座席やハンドルを振動させる方法、シートベルトを巻き上げる方法が挙げられる。また、車両の動作を制御して、蛇行走行させたり、ブレーキによる制動制御、例えば断続的に弱いブレーキがかかるようなブレーキ制動を行ってもよい。
また、第2の安全制御部69は、運転者が運転する際に利用可能な情報、例えばバックアップタスクに有用な情報を提供することができる。なお、情報の提供は、前記ディスプレイ33以外に、フロントガラスに画像等を表示するヘッドアップディスプレイ等を利用できる。
ディスプレイ制御部75は、ディスプレイ33による表示やタッチパネルとしての機能を制御する。
アクチュエータ制御部77は、車両側の各種の装置をアクチュエータとして機能させる場合の動作を制御する。具体的には、上述したように、例えばディスプレイ33、スピーカ、ランプ、駆動用や制動用や操舵用のアクチュエータ等をアクチュエータとして用いて、車両側から運転者に対して警報を発したり、情報を提供することができる。
なお、ここでは、上述したように、携帯端末1と車両制御装置3とで各種の機能の役割を分担したが、それ以外の方法として、例えば、顔の撮影は携帯端末1のカメラ5で行うが、それ以降の処理や制御は、携帯端末1側及び車両制御装置3側のどちらか一方で適宜分担してもよい。或いは、携帯端末1側及び車両制御装置3側の両方で処理や制御を実施してもよい。
[1−4.自動運転レベルに応じた制御内容]
次に、自動運転のレベルと、自動運転のレベルに応じて実施される運転者監視処理の制御内容について説明する。
ここで、自動運転を行うか否かは、例えば運転者のスイッチ類31やディスプレイ33のタッチパネル等からの指示により決定することができる。
また、後述する自動運転のレベルも、同様に運転者の指示により選択できるが、例えば車両側にて、自動運転が可能な条件が満たされた場合に、その満たされた条件に応じて、適宜自動的に自動運転のレベルを設定してもよい。
更に、自動運転の中止は、運転者の指示により決定することができるが、自動運転が可能な条件が満たさなくなった場合に、適切な警告の後に、自動運転を解除する際の安全が確認された段階で、自動運転を解除してもよい。
自動運転のレベルとは、どの程度まで自動化するかの指標であり、この自動運転のレベルとしては、例えば下記表1、表2に示すレベルを採用できる。
Figure 0006917708
この表1において、レベル0が、自動運転ではない運転者の操作による運転である。また、レベル5が、運転者が関与せずに車両自身が全て判断して走行する完全な自動運転である。そして、レベル1〜4が、運転者と車両とが共同して運転する半自動運転である。つまり、必要に応じて、運転者が操作したり車両自身が運転するシステムである。
Figure 0006917708
なお、表2にて、「Hands-on」とは、走行中に、運転者がハンドルに手をおいて操作する必要があることを示し、「Hands-off」とは、走行中に、運転者がハンドルから手を離
すことが可能な状態を示している。
また、「Eye-on」とは、走行中に、運転者が自動運転に代わって運転が可能なように周囲を監視する必要があることを示し、「Eye-off」とは、走行中に、運転者が周囲を監視
する必要がない状態を示している。
なお、特定の条件とは、例えば自動運転が可能な車線であることを示す条件等である。
本第1実施形態では、下記表3に示すように、走行状態、詳しくは自動運転のレベルに応じて警告の内容を設定し必要な情報を提供している。
Figure 0006917708
具体的には、レベル0の場合、即ち運転者が操作して運転している場合に、携帯端末(例えばスマホ)1の表示画面11aが見られた場合には、安全面で問題がある。
そこで、例えば「運転に集中して下さい」等の警告を行う。例えば、携帯端末1側や車両側から、ディスプレイ11、33やスピーカ13等を用い、表示や音声等によって前記警告を行う。
レベル1の場合、即ち運転者の支援が必要な状態で走行している場合に、携帯端末1の表示画面11aが見られた場合にも、何らかの対策が望まれる。
そこで、前記レベル0と同様に、同様な装置を用いて、例えば「運転に集中して下さい」等の警告を行う。
レベル2の場合、即ち部分的な自動運転の場合に、携帯端末1の表示画面11aが見られた場合にも、何らかの対策が望まれる。
そこで、前記と同様な装置を用いて、例えば「周囲の監視をして下さい」等の警告を行う。つまり、運転者はハンドルから手を離すことが可能であるが、周囲から目を逸らすことは適切ではないので、周囲の監視を促す警告を行う。
また、この警告の際に、携帯端末1を利用して、運転者による運転の際に利用可能な情報、例えば周囲の監視を行う場合に必要な情報(即ち監視情報)を提供する制御を行ってもよい。例えば前方カメラで撮影した映像、自車両の走行予定経路、周囲の車両の情報を、例えば表示画面11aの一部に表示してもよい。これにより、安全性が一層向上する。なお、前記監視情報を表示画面11aの全体に表示してもよい。
レベル3の場合で、且つ、運転者が携帯端末1を操作しており、且つ、運転者の意識状態(即ち意識レベル)が高い場合には、運転者はいつでも自身の運転に切り替えることができる。つまり、バックアップタスクが可能であるので、バックアップタスクを実施する場合の補助となる制御、即ち、表3の提示(A)である制御Aを行う。尚、意識レベルの高低は、所定の判定値に基づいて判定できる。
具体的には、周囲の監視を行う場合に必要な監視情報として、例えば前方カメラで撮影した映像、自車両の走行予定経路、周囲の車両の情報を、例えばフロントガラスに投影して表示する等の制御を行う。
また、携帯端末1の表示画面11a等を用いて、前記監視情報を提供してもよい。なお、監視情報の提供は、車両側及び携帯端末1側の少なくとも一方で実施することができる。
レベル3の場合で、且つ、運転者が携帯端末1を操作しており、且つ、運転者の意識状態低い又は低くなりそうな場合には、バックアップタスクが十分に行えない可能性がある。そこで、前記制御Aによる情報の提供を行うとともに、例えば「次のサービスエリア(即ちSA)で休んで下さい」等の警告を行う。
また、上述したように、携帯端末1の表示画面11a等を用いて、前記監視情報を提供してもよい。なお、監視情報の提供は、車両側及び携帯端末1側の少なくとも一方で実施することができる。
レベル3の場合で、且つ、運転者が携帯端末1を操作しており、且つ、運転者の操作が必要又は操作の必要がありそうな場合には、バックアップタスクの必要性が高い。そこで、状況に応じて、例えば「運転操作を代わって下さい」や「運転操作を代わる準備をして下さい」等の警告を行う。
また、上述したように、携帯端末1の表示画面11a等を用いて、前記監視情報を提供してもよい。なお、監視情報の提供は、車両側及び携帯端末1側の少なくとも一方で実施することができる。
レベル4の場合で、自動走行が可能な条件が外れる又は外れそうになった場合、例えば自動走行可能区間が終了する又は終了しそうになった場合、運転者による操作が必要である。そこで、状況に応じて、例えば「自動走行可能区間が終了します」や「間もなく(例えば10分後に)自動走行区間が終了します」等の警告を行う。
また、上述したように、携帯端末1の表示画面11a等を用いて、前記監視情報を提供してもよい。なお、監視情報の提供は、車両側及び携帯端末1側の少なくとも一方で実施することができる。
レベル5の場合で、携帯端末1の表示画面11aを見ているうちに、目的地に到達した場合には、例えば「目的地に到達しました」等の警告を行う。
なお、後述するように、自動化のレベルに応じて制御が実施されるが、その制御は、前記表3等の0〜5のレベルによる区分に加え、前記表3の各レベル(例えばレベル3)を更に細かく分ける各欄のような区分に応じて制御が行われる。つまり、自動運転のレベルに応じて制御を行う場合には、前記0〜5のレベルに限定されるものではなく、0〜5のレベルよりも更に細分化された区分に応じて実施される。
[1−5.処理]
次に、運転者監視システムにて実施される処理内容、即ち運転者監視処理について説明する。
<走行前の携帯端末側の処理>
なお、以下の走行前の処理は、例えば自車両のイグニッションスイッチがオンにされた時点等に開始することができる。また、以降の各フローチャートの図面では、ステップをSと記す。
まず、走行前に携帯端末1にて実施される事前の処理について説明する。
図6に示すように、ステップ100では、携帯端末1のカメラ5で、携帯端末1の操作者を撮影する。
続くステップ110では、撮影された画像(例えば顔画像)から、前記EEPROM17dに記憶された認証情報に基づいて、操作者が携帯端末1の適正な所有者か否かを判定する。ここで肯定判断されるとステップ120に進み、一方否定判断されると一旦本処理を終了する。
ステップ120では、携帯端末1を適正な所有者が操作しているので、車両制御装置3との通信を行う。具体的には、携帯端末1の情報(例えば携帯端末ID)と所有者の情報を車両制御装置3に送信する。また、車両制御装置3から、車両を特定する情報(例えば車両ID)を受信する。
続くステップ130では、車両制御装置3から受信した情報に基づいて、車両が特定の登録された車両であるか否かを判定する。つまり、携帯端末1の所有者が運転可能な車両であるか否かを判定する。ここで肯定判断されるとステップ140に進み、一方否定判断されると一旦本処理を終了する。
ステップ140では、通信相手の車両が携帯端末1の所有者が運転可能な車両であるので、後述する運転者監視処理を許可する。つまり、処理に必要な情報(例えば顔画像)の送信を許可し、一旦本処理を終了する。
<走行前の車両制御装置側の処理>
次に、走行前に車両制御装置3にて実施される事前の処理について説明する。
図7に示すように、ステップ200では、車両側のドライバカメラ25aで、運転席に着座している人の顔等を撮影する。なお、運転席に着座していることは、例えば運転席の着座センサ等から検出することができる。
続くステップ210では、撮影された画像(例えば顔画像)から、前記EEPROM21dに記憶された認証情報に基づいて、着座している人が車両の運転を許可されている適正な運転者か否かを判定する。ここで肯定判断されるとステップ220に進み、一方否定判断されると一旦本処理を終了する。
ステップ220では、運転席に適正な運転者が着座しているので、携帯端末1との通信を行う。具体的には、車両の情報(例えば車両ID)と運転者の情報を携帯端末1に送信する。また、携帯端末1から、携帯端末1を特定する情報(例えば携帯端末ID)や、携帯端末1のカメラ5で撮影された顔画像を受信する。
続くステップ230では、携帯端末1から受信した例えば携帯端末IDを用いて、携帯端末1が特定の登録された携帯端末1であるか否かを判定する。ここで肯定判断されるとステップ240に進み、一方否定判断されると一旦本処理を終了する。
ステップ240では、携帯端末1から受信した顔画像の情報を用い、EEPROM21dに記憶されている運転者の顔画像の認証情報に基づいて、当該受信した顔画像が運転者の顔画像か否かを判定する。なお、運転者と携帯端末1の所有者とは、一致する必要があるので、ここで行う運転者の顔画像の一致の判定は、所有者の顔画像の一致の判定と同じである。ここで肯定判断されるとステップ250に進み、一方否定判断されると一旦本処理を終了する。
ステップ250では、通信相手の携帯端末1を操作している人が車両の運転を許可されている運転者であるので、後述する運転者監視処理を許可する。つまり、処理に必要な情報、例えば携帯端末1側のアクチュエータを駆動する情報等の送信を許可し、一旦本処理を終了する。
<走行中の処理>
ここでは、車両制御装置3が実行する運転者監視処理について、図8のフローチャートを用いて説明する。
図8に示すように、ステップ300では、自車両が走行中か否かを判定する。ここで肯定判断されるとステップ310に進み、一方否定判断されると一旦本処理を終了する。例えば車速センサからの情報に基づいて、自車速が例えば5km/時以上であれば、走行中と判定する。
ステップ310では、自動運転中であるか否かを判定する。ここで肯定判断されるとステップ330に進み、一方否定判断されるとステップ320に進む。例えば、車両制御装置3に対して、スイッチ類31やディスプレイ33のタッチパネル等から自動運転を指示する信号が入力され、それによって開始された自動運転が継続されている場合には、自動運転中であると判定する。
なお、自動運転中には、そのことを示すフラグ(例えば自動運転フラグ)や自動運転のレベルを示すフラグ(例えばレベルフラグ)等が設定され、それらのフラグは、RAM21cやEEPROM21dに記憶される。
ステップ320では、現在、運転者の運転操作による走行中であるので、運転者が携帯端末1の表示画面11aを見ているか否かを判定する。ここで肯定判断されるとステップ390に進み、一方否定判断されると一旦本処理を終了する。
つまり、携帯端末1から送信された表示画面11aを見ている側の画像、例えば運転者の顔画像に基づいて、運転者が表示画面11aを見ているか否かを判定する。なお、運転者が表示画像を見ているかどうかは、顔の向きや目の瞳の向き等から判定することができる。つまり、顔や瞳が正面を見ている場合には、運転者が表示画面11aを見ていると判定できる。
そして、自動運転でないにもかかわらず、運転者が携帯端末1の表示画面11aを見ている場合には、安全上問題があるので、ステップ390に進んで、その状況に対応した適切な警告を行う。具体的には、前記表3のレベル0に対応する処理として、例えば「運転に集中して下さい」等の警告を行い、一旦本処理を終了する。
なお、この警告の動作は、車両側の各種の装置、例えばディスプレイ33での表示やアクチュエータ類35による音声による報知等で行うことができる。また、携帯端末1側の各種の装置、例えばディスプレイ11での表示やスピーカ13による音声による報知等で行ってもよい。或いは、車両側と携帯端末1側の両方で行ってもよい。なお、これらの警告の動作については、以下同様である。
また、この警告と同時に、警告が重要なことを知らせるために、携帯端末1や車両側の装置を振動させたり、エアコン等の駆動を制御する等により、注意を喚起させてもよい。なお、これらの注意の喚起についても、以下同様である。
一方、ステップ330では、自動運転中に、目的地に到達したか否かを判定する。ここで肯定判断されるとステップ390に進み、一方否定判断されるとステップ340に進む。なお、目的地に到達したどうかは、ナビゲーション装置37等からの情報によって判定することができる。
そして、ステップ390では、自動運転中に、目的地に到達したので、その状況に対応した適切な警告を行う。具体的には、前記表3のレベル5に対応する処理として、例えば「目的地に到達しました」等の警告を行い、一旦本処理を終了する。
一方、ステップ340では、自動運転中において、運転者が携帯端末1の表示画面11aを見ているか否かを判定する。ここで肯定判断されるとステップ350に進み、一方否定判断されると一旦本処理を終了する。
ステップ350では、自動走行可能条件が終了か又は終了に近づいたかを判定する。ここで肯定判断されるとステップ390に進み、一方否定判断されるとステップ360に進む。
つまり、自動運転による走行(即ち自動走行)が可能な区間が終了するか又は間もなく終了するかを、例えばナビゲーション装置37や路側機等からの情報に基づいて判定する。なお、自動走行が可能な区間の終了又は間もなく終了するか否かは、ナビゲーション装置37の地図情報に基づいて、自車両が自動走行が可能な区間のどの位置を走行しているかによって判定することができる。
そして、ステップ390では、自動走行が可能な区間が終了するか又は間もなく終了するという状態となったので、その状況に対応した適切な警告を行う。具体的には、前記表3のレベル4に対応する処理として、例えば「自動走行可能区間が終了します」又は「間もなく自動走行可能区間が終了します」等の警告を行い、一旦本処理を終了する。
なお、このとき、上述したように、車両側や携帯端末1側より、前記監視情報の提供を行ってもよい。
一方、ステップ360では、運転者による操作(即ちバックアップタスク)が必要な状態又は必要となりそうな状態か否かを判定する。即ち、運転者の操作が必要な場合又は運転者の操作が必要となることが予測される場合か否かを判定する。ここで肯定判断されるとステップ390に進み、一方否定判断されるとステップ370に進む。
例えば、運転者によるバックアップタスクが必要な状態又は必要となりそうな状態としては、自動運転に必要な情報が得られにくくなった状態が挙げられる。例えば、バックアップタスクが必要な状態としては、天候の悪化等によって、前方カメラの画像が得られない状態や画像の精度が低下した状態、道路の白線が薄くなって道路を正確に把握できない状態など各種の状態が挙げられる。また、運転者によるバックアップタスクが必要となりそうな状態としては、自動運転に必要な情報が徐々に低減する状態等が挙げられる。
そして、ステップ390では、運転者によるバックアップタスクが必要な状態又は必要となりそうな状態となったので、その状況に対応した適切な警告を行う。具体的には、前記表3のレベル3の第3欄に対応する処理として、例えば「運転操作を代わって下さい」又は「運転操作を代わる準備をして下さい」等の警告を行い、一旦本処理を終了する。
なお、このとき、上述したように、車両側や携帯端末1側より、前記監視情報の提供を行ってもよい。
前記運転者によるバックアップタスクが必要な状態としては、上述したように、天候や道路状況等によって、自動運転に必要な情報が得られない状態が挙げられる。また、運転者によるバックアップタスクが必要となりそうな状態としては、自動運転に必要な情報の精度が低下する状態や、情報量が低下する状態等が挙げられる。
一方、ステップ370では、運転者の意識状態の程度(即ちレベル)を検出する。例えば、携帯端末1のカメラ5で撮影された顔画像に基づいて、周知にように、例えば瞼の開閉状態から意識レベルとして覚醒度を検出する。例えば、瞼が閉じている割合が通常より多い場合には、覚醒度が低下したと判定する。
また、ウェアラブル装置39やその他の測定装置を用いて、心拍や脈拍や脳波を検出できる場合には、それらの生体情報を用いて覚醒度を判定してもよい。或いは、顔画像から得られる覚醒度の情報に、これらの生体情報を加味して、より精度のよい覚醒度判定を行ってもよい。
続くステップ380では、運転者の意識レベルが警告が必要なレベルか否かを判定する。ここで肯定判断されるとステップ390に進み、一方否定判断されるとステップ400に進む。
ステップ390では、意識レベルが低いので、その状況に対応した適切な警告を行う。具体的には、前記表3のレベル3の第2欄に対応する処理として、例えば「起きて下さい」又は「次のSAで休んで下さい」等の警告を行う。また、それとともに、運転者によるバックアップタスクを実施する際に必要な情報の提供を行い、即ち前記制御Aを実施し、一旦本処理を終了する。
一方、ステップ400では、意識レベルが高いので、その状況に対応した適切な処理を行う。具体的には、前記表3のレベル3の第1欄に対応する処理として、例えば運転者によるバックアップタスクを実施する際に必要な情報を提供し、一旦本処理を終了する。
なお、ここでは、車両制御装置3が実行する運転者監視処理について説明したが、同様な処理を、携帯端末1側で行ってもよい。
例えば、携帯端末1にて、前記図8に示す運転者監視処理に必要な情報を、車両制御装置3側から受信し、その情報に基づいて、前記図8に示す運転者監視処理を実施してもよい。なお、警告や情報の提供については、上述したように、携帯端末1側に行ってもよいし、車両側で行ってもよい。
[1−6.効果]
以上詳述した第1実施形態によれば、以下の効果が得られる。
また、
(1a)本第1実施形態では、自車両の走行中に、例えば自動走行中に、自車両の運転者が携帯端末1の表示画面11aを見ているかどうかを、カメラ5によって撮影された画像に基づいて判定し、運転者が携帯端末1の表示画面11aを見ていると判定された場合には、警報を発することができる。
また、自動走行中には、自動化のレベルや覚醒度の程度に応じて、車両側や携帯端末1側から、運転者のバックアップタスクに有用な監視情報を提供することができる。
従って、運転の安全性が向上するという効果がある。
(1b)本第1実施形態では、自車両が自動運転中に、自動運転のレベルに応じて、警報の内容を設定するので、運転者はその警報の内容に応じて適切な対応をとることができる。
(1c)本第1実施形態では、カメラ5によって撮影された画像に基づいて、或いは、例えばウェアラブル装置39等の他の装置からの情報に基づいて、運転者の意識状態の程度を判定し、その意識状態の程度に基づいて警報の内容を設定することができる。よって、運転者はその警報の内容に応じて適切な対応をとることができる。
(1d)本第1実施形態では、自車両において、周囲の状況を精度良く検出できない等の理由によって、運転者の操作が必要な場合又は運転者の操作の必要がありそうな場合、言い換えると、車両側にて、自動運転に適さない状態となった場合又は自動運転に適さない状態となることが予測される場合には、警報を発することができる。よって、運転者は容易に自動運転に代わって運転することが可能になるので、運転の安全性が向上する。
(1e)本第1実施形態では、自動走行が終了する条件が満たされた場合又は自動走行が終了することが予測される場合には、警報を発することができる。よって、運転者は容易に自動運転に代わって運転することが可能になるので、運転の安全性が向上する。
(1f)本第1実施形態では、自動運転によって自車両が目的に到着した場合には、到着した内容に関する警報を発することができる。
[1−7.特許請求の範囲と第1実施形態との関係]
本第1実施形態における、表示画面11a、カメラ5、携帯端末1、車両制御装置3、第1、第2の乗員状態判定部43、63、第1、第2の安全制御部45、69が、それぞれ、本発明における、表示画面、撮影装置、携帯機、車両制御装置、乗員状態判定部、安全制御部、の一例に相当する。
[2.第2実施形態]
次に、第2実施形態について説明するが、前記第1実施形態と同様な内容については、説明を省略又は簡略化する。なお、第1実施形態と同様な構成については、同じ番号を使用して説明する。
本第2実施形態では、前記表1のレベル3又はレベル4の制御を行っている場合に、運転の状況が変化した場合には、レベル1又はレベル2の制御を行うものである。
(2a)レベル3からレベル1への切り替えの制御
レベル3の場合で、且つ、運転者が携帯端末1を操作しており、且つ、運転者の操作が必要又は操作の必要がありそうな場合に、例えば道路の白線が認識できない場合に、レベル1の制御に切り替えるときには、例えば「ステアリング操作を代わって下さい」等の警告を行う。
なお、このときには、レベルの変化に応じて、車両の制御の切り替えを行う。
(2b)レベル3からレベル2への切り替えの制御
レベル3の場合で、且つ、運転者が携帯端末1を操作しており、且つ、運転者の操作が必要又は操作の必要がありそうな場合に、例えば道路の白線が認識できない場合に、レベル2の制御に切り替えるときには、例えば「監視タスクを代わって下さい」や「前を見て運転して下さい」等の警告を行う。ここで、監視タスクとは、バックアップタスクが可能なような周囲等の監視に関する作業である。
なお、このときには、レベルの変化に応じて、車両の制御の切り替えを行う。
(2c)レベル4からレベル1への切り替えの制御
レベル4の場合で、例えば運転者が携帯端末1を見て寝てても、自動走行が可能な条件が外れる又は外れそうになった場合、例えば自動走行可能区間が終了する又は終了しそうになった場合に、例えば道路の白線が認識できない状況となって、レベル1の制御に切り替えるときには、例えば「ステアリング操作を代わって下さい」等の警告を行う。
なお、このときには、レベルの変化に応じて、車両の制御の切り替えを行う。
(2d)レベル4からレベル2への切り替えの制御
レベル4の場合で、例えば運転者が携帯端末1を見て寝てても、自動走行が可能な条件が外れる又は外れそうになった場合、例えば自動走行可能区間が終了する又は終了しそうになった場合に、例えば道路の白線が認識できない状況となって、レベル2の制御に切り替えるときには、例えば「監視タスクを代わって下さい」や「前を見て運転して下さい」等の警告を行う。
なお、このときには、レベルの変化に応じて、車両の制御の切り替えを行う。
[3.他の実施形態]
以上、本発明の実施形態について説明したが、本発明は前記実施形態に限定されるものではなく、本発明の技術的範囲に属する限り種々の形態を採ることができる。
(3a)例えば、上記実施形態では、前記表1〜表3に示すように自動運転のレベルを区分したが、例えば下記表4に示すような他の自動運転のレベルの区分を採用してもよい。
Figure 0006917708
この場合、表4のレベル1、レベル2、レベル3、レベル4が、それぞれ、前記表1のレベル1、レベル2、レベル3、レベル4又は5に相当する。従って、対応するレベルに応じた警告等の制御を行えばよい。
(3b)前記実施形態では、携帯機としてスマホ等の携帯端末を例に挙げたが、それ以外に、操作する人を撮影できるカメラを備えるとともに、車両側と通信が可能な各種の携帯機を用いることができる。
例えば、タブレット端末、スマート・ウォッチ、電子書籍用端末、ゲーム機、ノートパソコン等が挙げられる。
(3c)前記実施形態では、携帯端末又は車両制御装置にて、運転者監視処理を行ったが、運転者監視処理に必要な情報を、例えば基地局等に送信し、インターネットを介して例えばサーバ側にて運転者監視処理を行い、警告等を携帯端末や車両にて実施させるようにすることもできる。
(3d)前記実施形態では、自動運転を実施可能な車両を例に挙げたが、本発明は、自動運転を行わない車両にも適用できる。その場合は、前記図8の処理において、ステップ300から、ステップ320に進み、その判定結果に応じて、ステップ390に進むか又は一旦本処理を終了する。つまり、その他のステップの処理は行わない。これによって、自動走行でない場合でも、走行中における安全性が一層向上するという利点がある。
(3e)覚醒度を判定する方法としては、上述した方法以外に、使用する携帯機に応じて各種の方法が挙げられる。例えば操作スイッチ、タッチパネル、キーボード、マウス(タッチパッド)の操作頻度、マイクからの発話に基づいて、覚醒度の判定を行ってもよい。
つまり、携帯機の表示画面を見ている場合には、その表示画面の表示内容と連動して、適切な動作をしているか等によって、覚醒度を判定することができる。例えば適切な入力が要求されている場合に、適切な入力がされていない場合や、その入力の頻度が少ない場合や、入力の速度が遅い場合等には、覚醒度が低下していると判定することが可能である。
(3f)安全制御部にて警告を行う場合に、運転者に注意を喚起する方法としては、各種の方法が挙げられる。例えば、音、音声、光、振動、風、温度、及び自車両の走行状態の制御の少なくとも1種によって、警報を発したり、注意を喚起することができる(図9参照)。
(3g)携帯端末を把持や操作しているときには、携帯端末のカメラを起動して撮影し、その画像を用いて、運転者の状態を監視したり推定(従って判定)することできる。
ここで、携帯端末が把持されていることは、例えば携帯端末のディスプレイがオンになって、何らかの画像等が表示されていることにより判定できる。また、携帯端末が操作されていることは、タッチパネル等により何からの操作がなされていることにより判定できる。さらに、この把持や操作を、Gセンサを用いて複合的に判断してもよい。
或いは、車両に取り付けられたカメラ(例えばドライバカメラ等のカメラ)によって撮影された画像に基づいて、携帯端末の把持や操作を判断してもよい。
なお、携帯端末が把持や操作されていないときには、車両のカメラによって、運転者の状態を監視したり推定することができる。
(3h)車両のカメラによって運転者の状態を監視したり推定することができるときに、携帯端末のカメラを起動して撮影して、運転者の状態を監視したり推定してもよい。これにより、運転者の状態の監視や推定の精度を上げることができる。
なお、車両のカメラと携帯端末のカメラの両方で撮影する場合に、両方の画像を用いることができるが、どちらか一方の画像を用いてもよい。
(3i)車両のカメラで運転者の状態が把握できないとき、例えば顔画像が得られないときや目の画像が得られないときには、携帯端末のカメラを起動して撮影することができる。
(3j)携帯端末のカメラで車両のカメラを代替できるときは、車両のカメラを使用しなくともよい。例えば、携帯端末が、車両の所定位置にクレードルやホルダによって取り付けられた場合や、例えば充電する位置に配置された場合などに、この携帯端末のカメラを車両のカメラの代わりに用いてもよい。
また、車両にカメラが搭載されていない場合には、この携帯端末のカメラを、運転者の状態を判定するためのカメラとして使用してもよい。
(3k)運転者の状態を判定するための処理(例えば乗員状態判定部の処理)の一部又は全部を、携帯端末、自車両の制御装置(例えば自車両の動作を制御する車両制御装置)、他車両の制御装置(例えば他車両の動作を制御する車両制御装置)、及び車両以外の装置のうち、少なくとも1種にて行ってもよい(図10参照)。
例えば、携帯端末や自車両の車両制御装置以外にて、上述した処理を行う場合には、携帯端末や自車両の車両制御装置の演算処理の負担を軽減できる。また、演算処理の負担を軽減することにより、携帯端末や自車両の車両制御装置にて又は他の装置にて、例えば複数回の判定や多くのデータを用いた判定処理を行うことができるので、判定精度を向上できる。
なお、車両以外の装置としては、クラウドサーバなどが挙げられる。また、他車両としては、自動運転により連動して制御される複数のトラック等のうちの他車両が挙げられる。
(3l)携帯端末側のマイコンに、乗員状態判定部の一部又は全体の機能を配置することにより、通信量を低減することができる。
(3m)また、前記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてもよい。また、前記実施形態の構成の一部を省略してもよい。また、前記実施形態の構成の少なくとも一部を、他の前記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。
(3n)さらに、上述した運転者監視システムの他、当該運転者監視システムを構成要素とするシステム、当該運転者監視システムとしてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、運転者監視を行う方法など、種々の形態で本発明を実現することもできる。
また、運転者監視システム、詳しくは車両制御装置や携帯機が実行する機能の一部又は全部を、一つあるいは複数のIC等によりハードウェア的に構成してもよい。
1…携帯端末、3…車両制御装置、5…カメラ、25a…ドライバカメラ、17、21…マイコン、11、33…ディスプレイ、43…第1の乗員状態判定部、45…第1の安全制御部、63…第2の乗員状態判定部、69…第2の安全制御部

Claims (13)

  1. 表示画面(11a)と該表示画面に対向する側を撮影可能に配置された撮影装置(5)とを備えた携帯機(1)と、
    自車両の制御を行う車両制御装置(3)と、
    の間で通信を行って、前記自車両の運転者を監視する運転者監視システムであって、
    前記自車両の自動運転中に、該自車両の運転者が前記携帯機の表示画面を見ているかどうかを、前記撮影装置によって撮影された画像に基づいて判定する乗員状態判定部(43)と、
    前記乗員状態判定部によって、前記運転者が前記携帯機の前記表示画面を見ていると判定された場合には、警報を発する制御を行う安全制御部(45)と、
    を備え、
    前記安全制御部は、前記自動運転のレベルに応じて設定された警告の内容の前記警報を発する制御を行う、運転者監視システム。
  2. 請求項1に記載の運転者監視システムであって、
    前記乗員状態判定部によって、前記運転者が前記携帯機の前記表示画面を見ていると判定された場合には、前記安全制御部にて、前記警報を発する制御を行うと共に、前記運転者の運転に利用可能な情報を提供する制御を行う、運転監視システム。
  3. 表示画面(11a)と該表示画面に対向する側を撮影可能に配置された撮影装置(5)とを備えた携帯機(1)と、
    自車両の制御を行う車両制御装置(3)と、
    の間で通信を行って、前記自車両の運転者を監視する運転者監視システムであって、
    前記自車両の自動運転中に、該自車両の運転者が前記携帯機の表示画面を見ているかどうかを、前記撮影装置によって撮影された画像に基づいて判定する乗員状態判定部(43)と、
    前記乗員状態判定部によって、前記運転者が前記携帯機の前記表示画面を見ていると判定された場合において、前記運転者の操作が必要な場合又は前記運転者の操作が必要となることが予測される場合には、警報を発する制御を行う安全制御部(45)と、
    を備えた運転者監視システム。
  4. 請求項3に記載の運転者監視システムであって、
    前記安全制御部は、前記自動運転のレベルに応じて、前記警報の内容を設定する、運転者監視システム。
  5. 請求項3または請求項4に記載の運転者監視システムであって、
    前記乗員状態判定部によって、前記運転者が前記携帯機の前記表示画面を見ていると判定された場合において、前記運転者の操作が必要な場合又は前記運転者の操作が必要となることが予測される場合には、前記安全制御部にて、前記警報を発する制御を行うと共に、前記運転者の運転に利用可能な情報を提供する制御を行う、運転監視システム。
  6. 請求項1から請求項5までのいずれか1項に記載の運転者監視システムであって、
    前記乗員状態判定部は、前記撮影装置によって撮影された画像に基づいて、前記運転者の意識状態の程度を判定し、
    前記安全制御部は、前記乗員状態判定部によって判定された前記運転者の意識状態の程度に基づいて、前記警報の内容の設定を行う、運転者監視システム。
  7. 請求項1から請求項6までのいずれか1項に記載の運転者監視システムであって、
    前記安全制御部は、前記自動運転が終了する条件が満たされた場合又は前記自動運転が終了することが予測される場合には、前記警報を発する、運転者監視システム。
  8. 請求項1から請求項7までのいずれか1項に記載の運転者監視システムであって、
    前記安全制御部は、前記自動運転によって前記自車両が目的に到着した場合には、前記到着した内容に関する警報を発する、運転者監視システム。
  9. 請求項1から請求項8までのいずれか1項に記載の運転者監視システムであって、
    前記安全制御部は、前記携帯機及び前記自車両の少なく一方から、前記警報を発する、運転者監視システム。
  10. 請求項1から請求項9までのいずれか1項に記載の運転者監視システムであって、
    前記安全制御部は、音、音声、光、振動、風、温度、及び前記自車両の走行状態の制御の少なくとも1種によって、前記警報を発する、運転者監視システム。
  11. 請求項1から請求項10までのいずれか1項に記載の運転者監視システムであって、
    前記乗員状態判定部は、前記携帯機又は前記車両制御装置に設けられている、運転者監視システム。
  12. 請求項1から請求項11までのいずれか1項に記載の運転者監視システムであって、
    前記運転者の状態を判定するための処理の一部又は全部は、前記携帯機、前記自車両の制御装置、他車両の制御装置、及び車両以外の装置のうち、少なくとも1種にて行う、運転者監視システム。
  13. 請求項12に記載の運転者監視システムであって、
    前記車両以外の装置とは、クラウドサーバである、運転者監視システム。
JP2016253786A 2016-02-29 2016-12-27 運転者監視システム Active JP6917708B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2017/007544 WO2017150466A1 (ja) 2016-02-29 2017-02-27 運転者監視システム
US15/780,056 US10640123B2 (en) 2016-02-29 2017-02-27 Driver monitoring system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016037694 2016-02-29
JP2016037694 2016-02-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020040235A Division JP7060031B2 (ja) 2016-02-29 2020-03-09 運転者監視システム

Publications (2)

Publication Number Publication Date
JP2017157196A JP2017157196A (ja) 2017-09-07
JP6917708B2 true JP6917708B2 (ja) 2021-08-11

Family

ID=59810609

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016253786A Active JP6917708B2 (ja) 2016-02-29 2016-12-27 運転者監視システム
JP2020040235A Active JP7060031B2 (ja) 2016-02-29 2020-03-09 運転者監視システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020040235A Active JP7060031B2 (ja) 2016-02-29 2020-03-09 運転者監視システム

Country Status (2)

Country Link
US (1) US10640123B2 (ja)
JP (2) JP6917708B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11250514B2 (en) * 2016-02-15 2022-02-15 Allstate Insurance Company Early notification of non-autonomous area
JP6686869B2 (ja) * 2016-12-22 2020-04-22 株式会社デンソー 運転交代制御装置、及び運転交代制御方法
JP6702217B2 (ja) * 2017-02-06 2020-05-27 株式会社デンソー 自動運転装置
JP6897417B2 (ja) 2017-08-16 2021-06-30 住友電気工業株式会社 制御装置、制御方法、およびコンピュータプログラム
JP2019152942A (ja) * 2018-03-01 2019-09-12 矢崎エナジーシステム株式会社 点呼システム
JP6890103B2 (ja) * 2018-05-15 2021-06-18 日本電信電話株式会社 測位システム、測位方法、およびプログラム
JP7154071B2 (ja) * 2018-09-07 2022-10-17 株式会社エヌ・ティ・ティ・データ 運転状態監視支援システム、運転状態監視支援方法及びプログラム
CN115567891A (zh) * 2019-06-05 2023-01-03 华为技术有限公司 自动驾驶信息指示方法、自动驾驶信息获取方法、自动驾驶信息发送方法及装置
KR20190122606A (ko) * 2019-10-11 2019-10-30 엘지전자 주식회사 차량 내 객체 모니터링 장치 및 방법
JP7081844B2 (ja) * 2020-11-11 2022-06-07 株式会社コムテック 検出システム
JP7447853B2 (ja) * 2021-03-22 2024-03-12 トヨタ自動車株式会社 覚醒状態判定システム及び自動運転装置
CN113183971B (zh) * 2021-06-04 2023-03-10 苏州智加科技有限公司 驾驶员状态监测方法、装置、车载终端及可读存储介质
DE102021124175A1 (de) 2021-09-20 2023-03-23 Bayerische Motoren Werke Aktiengesellschaft Elektrofahrzeug mit Vibrationen zur Emotionalisierung von elektrischen Fahrzeugantrieben, Verfahren, Steuerung und Aktor hierfür
WO2023148834A1 (ja) * 2022-02-02 2023-08-10 三菱電機株式会社 機器状態監視装置および機器状態監視方法

Family Cites Families (119)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
LU75977A1 (ja) * 1976-10-12 1978-05-16
US4359724A (en) * 1980-04-28 1982-11-16 Ronald R. Zimmerman Eyelid movement detector
JPS60592A (ja) * 1983-06-15 1985-01-05 三菱電機株式会社 いねむり防止装置
US4953111A (en) * 1987-02-12 1990-08-28 Omron Tateisi Electronics Co. Doze detector
US5239337A (en) * 1990-08-20 1993-08-24 Nikon Corporation Apparatus for ordering to phototake with eye-detection
JP3369201B2 (ja) * 1991-10-02 2003-01-20 マツダ株式会社 覚醒度維持装置
JP3293308B2 (ja) * 1994-03-10 2002-06-17 三菱電機株式会社 人物状態検出装置
US5689241A (en) * 1995-04-24 1997-11-18 Clarke, Sr.; James Russell Sleep detection and driver alert apparatus
US5570698A (en) * 1995-06-02 1996-11-05 Siemens Corporate Research, Inc. System for monitoring eyes for detecting sleep behavior
JP3183161B2 (ja) * 1996-04-12 2001-07-03 三菱自動車工業株式会社 覚醒度推定装置
US6400835B1 (en) * 1996-05-15 2002-06-04 Jerome H. Lemelson Taillight mounted vehicle security system employing facial recognition using a reflected image
FR2773521B1 (fr) * 1998-01-15 2000-03-31 Carlus Magnus Limited Procede et dispositif pour surveiller en continu l'etat de vigilance du conducteur d'un vehicule automobile, afin de detecter et prevenir une tendance eventuelle a l'endormissement de celui-ci
US6661345B1 (en) * 1999-10-22 2003-12-09 The Johns Hopkins University Alertness monitoring system
US6478425B2 (en) * 2000-12-29 2002-11-12 Koninlijke Phillip Electronics N. V. System and method for automatically adjusting a lens power through gaze tracking
US7202793B2 (en) * 2002-10-11 2007-04-10 Attention Technologies, Inc. Apparatus and method of monitoring a subject and providing feedback thereto
US7202792B2 (en) * 2002-11-11 2007-04-10 Delphi Technologies, Inc. Drowsiness detection system and method
US6859144B2 (en) * 2003-02-05 2005-02-22 Delphi Technologies, Inc. Vehicle situation alert system with eye gaze controlled alert signal generation
US7682024B2 (en) * 2003-03-13 2010-03-23 Plant Charles P Saccadic motion sensing
US6989754B2 (en) * 2003-06-02 2006-01-24 Delphi Technologies, Inc. Target awareness determination system and method
JP4841425B2 (ja) * 2003-06-06 2011-12-21 ボルボ テクノロジー コーポレイション 運転者の行動解釈に基づいて自動車のサブシステムを制御する方法および機構
JP4206928B2 (ja) * 2004-01-19 2009-01-14 株式会社デンソー 衝突可能性判定装置
EP1613082A1 (en) * 2004-06-30 2006-01-04 Sony Ericsson Mobile Communications AB Face image correction
US20060011399A1 (en) * 2004-07-15 2006-01-19 International Business Machines Corporation System and method for controlling vehicle operation based on a user's facial expressions and physical state
JP2006071619A (ja) * 2004-08-03 2006-03-16 Denso Corp ナビゲーション装置およびプログラム
JP4687266B2 (ja) * 2004-10-20 2011-05-25 富士ゼロックス株式会社 注意喚起装置および方法ならびに情報処理システム
JP2006130010A (ja) * 2004-11-04 2006-05-25 Denso Corp 視覚認識支援装置
US7438418B2 (en) * 2005-02-23 2008-10-21 Eyetracking, Inc. Mental alertness and mental proficiency level determination
WO2006091893A2 (en) * 2005-02-23 2006-08-31 Eyetracking, Inc. Mental alertness level determination
JP2008531142A (ja) * 2005-03-04 2008-08-14 スリープ・ダイアグノスティックス・プロプライアタリー・リミテッド 覚醒の測定
US7301465B2 (en) * 2005-03-24 2007-11-27 Tengshe Vishwas V Drowsy driving alarm system
JP4735310B2 (ja) 2005-04-15 2011-07-27 株式会社デンソー 走行支援装置
US7301464B2 (en) * 2005-05-24 2007-11-27 Electronic Data Systems Corporation Process and method for safer vehicle navigation through facial gesture recognition and operator condition monitoring
US20070009139A1 (en) * 2005-07-11 2007-01-11 Agere Systems Inc. Facial recognition device for a handheld electronic device and a method of using the same
US20140143061A1 (en) * 2006-11-22 2014-05-22 Raj Abhyanker Garage sales in a geo-spatial social network
US20090015425A1 (en) * 2007-07-13 2009-01-15 Sony Ericsson Mobile Communications Ab Camera of an electronic device used as a proximity detector
US8560157B2 (en) * 2007-09-19 2013-10-15 Topcon Positioning Systems, Inc. Partial manual control state for automated vehicle navigation system
JP4966816B2 (ja) * 2007-10-25 2012-07-04 株式会社日立製作所 視線方向計測方法および視線方向計測装置
WO2009069235A1 (ja) * 2007-11-30 2009-06-04 Pioneer Corporation ハンズフリー通話装置、通話制御方法、通話制御プログラム、および記録媒体
US8340368B2 (en) * 2008-06-11 2012-12-25 Hyundai Motor Company Face detection system
JP4737239B2 (ja) * 2008-06-20 2011-07-27 トヨタ自動車株式会社 運転支援装置
US8552850B2 (en) * 2010-02-17 2013-10-08 Honeywell International Inc. Near-to-eye tracking for adaptive operation
JP5139470B2 (ja) 2010-04-28 2013-02-06 トヨタ自動車株式会社 眠気度推定装置および眠気度推定方法
US20110316666A1 (en) * 2010-06-25 2011-12-29 Kabushiki Kaisha Toshiba Information device, computer program product and method thereof
US10120438B2 (en) * 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
US20120306637A1 (en) * 2011-06-01 2012-12-06 Johnson Controls Technology Company System and method for selectively altering content of a vehicle interface
US9082235B2 (en) * 2011-07-12 2015-07-14 Microsoft Technology Licensing, Llc Using facial data for device authentication or subject identification
WO2013051307A1 (ja) * 2011-10-06 2013-04-11 本田技研工業株式会社 警報装置
US8494481B1 (en) * 2011-11-02 2013-07-23 Amazon Technologies, Inc. Mobile alarm device
JP5630518B2 (ja) * 2012-03-14 2014-11-26 株式会社デンソー 運転支援装置
US20130322705A1 (en) * 2012-05-30 2013-12-05 Google Inc. Facial and fingerprint authentication
JP5914653B2 (ja) * 2012-06-15 2016-05-11 株式会社日立製作所 刺激呈示システム
JP2015522844A (ja) * 2012-06-29 2015-08-06 エシロール アンテルナシオナル (コンパニー ジェネラル ドプティック) 一対の累進式眼用レンズを決定する方法
WO2014022906A1 (en) * 2012-08-10 2014-02-13 Cnv Systems Ltd. Mobile device system for measurement of cardiovascular health
DE112013004672B4 (de) * 2012-09-25 2018-04-05 Fujitsu Ten Limited Fahrzeugseitige Vorrichtung, Kommunikationsverfahren und Programm
EP2713307B1 (en) * 2012-09-28 2018-05-16 Accenture Global Services Limited Liveness detection
US9834221B2 (en) * 2012-10-19 2017-12-05 Autoliv Development Ab Driver attentiveness detection method and device
US10482753B2 (en) * 2013-01-04 2019-11-19 Minnesota Imaging And Engineering Llc Infection control monitoring system
US20140197922A1 (en) * 2013-01-16 2014-07-17 Cygnus Broadband, Inc. System and method for positive identification on a mobile device
JP2014154901A (ja) * 2013-02-05 2014-08-25 Nec Casio Mobile Communications Ltd 携帯電子機器、その制御方法及びプログラム
JP2014172554A (ja) * 2013-03-12 2014-09-22 Calsonic Kansei Corp カメラ付き表示装置
US9858832B1 (en) * 2013-03-14 2018-01-02 Allstate Insurance Company Interactive driver development
JP2014178971A (ja) * 2013-03-15 2014-09-25 Denso Corp 車両用衝突警報装置
US20140347458A1 (en) * 2013-05-23 2014-11-27 Ford Global Technologies, Llc Cellular phone camera for driver state estimation
US20140375810A1 (en) * 2013-06-21 2014-12-25 Digimarc Corporation Vehicular safety methods and arrangements
KR101470190B1 (ko) * 2013-07-09 2014-12-05 현대자동차주식회사 자율주행 시스템의 고장 처리 장치 및 그 방법
JP6142718B2 (ja) * 2013-07-31 2017-06-07 株式会社デンソー 運転支援装置、および運転支援方法
US9571619B2 (en) * 2013-09-04 2017-02-14 Honda Motor Co., Ltd. Electronic communication system, in-vehicle unit, and control method
EP2848488B2 (en) * 2013-09-12 2022-04-13 Volvo Car Corporation Method and arrangement for handover warning in a vehicle having autonomous driving capabilities
US20150116197A1 (en) * 2013-10-24 2015-04-30 Johnson Controls Technology Company Systems and methods for displaying three-dimensional images on a vehicle instrument console
JP6462209B2 (ja) * 2013-12-03 2019-01-30 浜松ホトニクス株式会社 計測装置及び計測方法
JP6206142B2 (ja) * 2013-12-03 2017-10-04 日産自動車株式会社 情報表示装置
US20150164323A1 (en) * 2013-12-16 2015-06-18 Medtronic Minimed, Inc. Secure communications between elements in a wireless network
US9346400B2 (en) * 2013-12-20 2016-05-24 Ford Global Technologies, Llc Affective user interface in an autonomous vehicle
US9406177B2 (en) * 2013-12-20 2016-08-02 Ford Global Technologies, Llc Fault handling in an autonomous vehicle
JP2015132997A (ja) * 2014-01-14 2015-07-23 株式会社日本自動車部品総合研究所 情報提示システム、送信装置及び受信装置
US9580081B2 (en) * 2014-01-24 2017-02-28 Tobii Ab Gaze driven interaction for a vehicle
JP2015141053A (ja) * 2014-01-27 2015-08-03 アイシン・エィ・ダブリュ株式会社 自動運転支援システム、自動運転支援方法及びコンピュータプログラム
US20150221341A1 (en) * 2014-01-31 2015-08-06 Audi Ag System and method for enhanced time-lapse video generation using panoramic imagery
JP6213282B2 (ja) * 2014-02-12 2017-10-18 株式会社デンソー 運転支援装置
US10424199B2 (en) * 2014-02-13 2019-09-24 Mitsubishi Electric Corporation Communication apparatus, operation assistance apparatus, and operation assistance system
US9465388B1 (en) * 2014-03-03 2016-10-11 Google Inc. Remote assistance for an autonomous vehicle in low confidence situations
JP6221873B2 (ja) * 2014-03-21 2017-11-01 アイシン・エィ・ダブリュ株式会社 自動運転支援装置、自動運転支援方法及びプログラム
WO2015161244A2 (en) * 2014-04-18 2015-10-22 Gentex Corporation Trainable transceiver and camera systems and methods
JP6409318B2 (ja) * 2014-04-25 2018-10-24 日産自動車株式会社 情報呈示装置及び情報呈示方法
RU2669501C2 (ru) * 2014-04-25 2018-10-11 Ниссан Мотор Ко., Лтд. Устройство представления информации и способ представления информации
US9820114B2 (en) * 2014-05-09 2017-11-14 Jessica Greenhut System and method for testing blood alcohol level and transmitting the results using a mobile device
JP2015217798A (ja) * 2014-05-16 2015-12-07 三菱電機株式会社 車載情報表示制御装置
US9547798B2 (en) * 2014-05-20 2017-01-17 State Farm Mutual Automobile Insurance Company Gaze tracking for a vehicle operator
JP6265146B2 (ja) * 2014-05-27 2018-01-24 株式会社デンソー 注意喚起装置
JP6557457B2 (ja) * 2014-07-25 2019-08-07 クラリオン株式会社 画像表示システム、画像表示方法、及び表示装置
US9824578B2 (en) * 2014-09-03 2017-11-21 Echostar Technologies International Corporation Home automation control using context sensitive menus
KR101612824B1 (ko) * 2014-11-20 2016-04-15 현대자동차주식회사 Hmd를 이용한 운전자 상태 모니터링 방법 및 장치
US9483059B2 (en) * 2014-11-26 2016-11-01 Toyota Motor Engineering & Manufacturing North America, Inc. Method to gain driver's attention for autonomous vehicle
CN117087697A (zh) * 2014-12-12 2023-11-21 索尼公司 自动驾驶控制设备以及自动驾驶控制方法和程序
KR101677648B1 (ko) * 2014-12-22 2016-11-18 엘지전자 주식회사 차량 제어 장치 및 그 제어 방법
ES2660309T3 (es) * 2015-02-10 2018-03-21 Juan Dominguez-Montes Sistema de reproducción estereoscópica por transparencia
WO2016151750A1 (ja) * 2015-03-24 2016-09-29 パイオニア株式会社 地図情報記憶装置、自動運転制御装置、制御方法、プログラム及び記憶媒体
KR102043060B1 (ko) * 2015-05-08 2019-11-11 엘지전자 주식회사 자율 주행 장치 및 이를 구비한 차량
JP6573193B2 (ja) * 2015-07-03 2019-09-11 パナソニックIpマネジメント株式会社 判定装置、判定方法、および判定プログラム
JP6237725B2 (ja) * 2015-07-27 2017-11-29 トヨタ自動車株式会社 乗員情報取得装置及び車両制御システム
KR20170015115A (ko) * 2015-07-30 2017-02-08 삼성전자주식회사 자율 주행 차량 및 자율 주행 차량 제어 방법
US10220705B2 (en) * 2015-08-12 2019-03-05 Madhusoodhan Ramanujam Sharing autonomous vehicles
US9996756B2 (en) * 2015-08-31 2018-06-12 Lytx, Inc. Detecting risky driving with machine vision
US10053001B1 (en) * 2015-09-24 2018-08-21 Apple Inc. System and method for visual communication of an operational status
DE102015220237A1 (de) * 2015-10-16 2017-04-20 Zf Friedrichshafen Ag Fahrzeugsystem und Verfahren zur Aktivierung einer Selbstfahreinheit zum autonomen Fahren
EP3378722B1 (en) * 2015-11-19 2024-02-21 Sony Group Corporation Drive assistance device and drive assistance method, and moving body
JP2017097519A (ja) * 2015-11-20 2017-06-01 オムロン株式会社 自動運転支援装置、自動運転支援システム、自動運転支援方法、プログラムおよび記録媒体
JP6641916B2 (ja) * 2015-11-20 2020-02-05 オムロン株式会社 自動運転支援装置、自動運転支援システム、自動運転支援方法および自動運転支援プログラム
KR20170069734A (ko) * 2015-12-11 2017-06-21 삼성전자주식회사 정보 제공을 위한 전자 장치 및 방법
JP2017111469A (ja) * 2015-12-14 2017-06-22 富士通株式会社 道路標識視認判定システム、道路標識視認判定方法、及びプログラム
US11250514B2 (en) * 2016-02-15 2022-02-15 Allstate Insurance Company Early notification of non-autonomous area
JP6369487B2 (ja) * 2016-02-23 2018-08-08 トヨタ自動車株式会社 表示装置
JP6460008B2 (ja) * 2016-02-25 2019-01-30 トヨタ自動車株式会社 自動運転装置
DE102016207353A1 (de) * 2016-04-29 2017-11-02 Robert Bosch Gmbh Verfahren und Vorrichtung zum Detektieren eines Benutzens eines elektronischen Geräts durch einen Fahrer für ein Fahrzeug
US10025383B2 (en) * 2016-07-20 2018-07-17 Toyota Motor Engineering & Manufacturing North America, Inc. Automatic pause and resume of media content during automated driving based on driver's gaze
US20180229654A1 (en) * 2017-02-16 2018-08-16 Regents Of The University Of Minnesota Sensing application use while driving
US10882453B2 (en) * 2017-04-01 2021-01-05 Intel Corporation Usage of automotive virtual mirrors
JP7074528B2 (ja) * 2018-03-27 2022-05-24 本田技研工業株式会社 情報処理装置及びプログラム
JP7063672B2 (ja) * 2018-03-27 2022-05-09 本田技研工業株式会社 情報処理装置及びプログラム

Also Published As

Publication number Publication date
JP2017157196A (ja) 2017-09-07
US10640123B2 (en) 2020-05-05
JP2020102252A (ja) 2020-07-02
US20180345980A1 (en) 2018-12-06
JP7060031B2 (ja) 2022-04-26

Similar Documents

Publication Publication Date Title
JP7060031B2 (ja) 運転者監視システム
CN107415938B (zh) 基于乘员位置和注意力控制自主车辆功能和输出
CN110892351B (zh) 车辆控制装置和车辆控制方法
JP7203035B2 (ja) 情報処理装置および情報処理方法
US10192171B2 (en) Method and system using machine learning to determine an automotive driver's emotional state
EP3245093B1 (en) Cognitive load driving assistant
KR101655818B1 (ko) 웨어러블 글래스, 그 제어 방법 및 차량 제어 시스템
US20170343375A1 (en) Systems to dynamically guide a user to an autonomous-driving vehicle pick-up location by augmented-reality walking directions
KR101730321B1 (ko) 운전자 보조 장치 및 그 제어방법
US20180000398A1 (en) Wearable device and system for monitoring physical behavior of a vehicle operator
US20180229654A1 (en) Sensing application use while driving
JP6733293B2 (ja) 情報処理装置
US20200160703A1 (en) Method, Mobile User Device, and Computer Program for Producing Visual Information for at Least One Occupant of a Vehicle
US20190317328A1 (en) System and method for providing augmented-reality assistance for vehicular navigation
US10674003B1 (en) Apparatus and system for identifying occupants in a vehicle
JP2016076037A (ja) 車両用情報提示装置
JP6063854B2 (ja) 車両用表示システム
JP6891926B2 (ja) 車両システム、車両システムで実行される方法、および運転者支援システム
WO2017150466A1 (ja) 運転者監視システム
JP2020126435A (ja) 車両制御装置
JP2020050204A (ja) 車両の走行制御方法及び走行制御装置
JP2019081450A (ja) 表示装置、表示制御方法、及びプログラム
JP2019105941A (ja) 走行支援方法及び走行支援装置
CN110910611A (zh) 提醒方法、系统、终端及车辆
KR101655826B1 (ko) 웨어러블 글래스, 그 제어 방법 및 차량 제어 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190708

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200309

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200309

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200323

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200324

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20200522

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200526

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200825

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210129

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210209

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210511

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210622

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210720

R150 Certificate of patent or registration of utility model

Ref document number: 6917708

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150