JP6811834B2 - 運転状態判定装置および運転状態判定方法 - Google Patents

運転状態判定装置および運転状態判定方法 Download PDF

Info

Publication number
JP6811834B2
JP6811834B2 JP2019500084A JP2019500084A JP6811834B2 JP 6811834 B2 JP6811834 B2 JP 6811834B2 JP 2019500084 A JP2019500084 A JP 2019500084A JP 2019500084 A JP2019500084 A JP 2019500084A JP 6811834 B2 JP6811834 B2 JP 6811834B2
Authority
JP
Japan
Prior art keywords
face
driver
unit
information
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019500084A
Other languages
English (en)
Other versions
JPWO2018150485A1 (ja
Inventor
永 菅原
永 菅原
亮介 虎間
亮介 虎間
雄大 中村
雄大 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2018150485A1 publication Critical patent/JPWO2018150485A1/ja
Application granted granted Critical
Publication of JP6811834B2 publication Critical patent/JP6811834B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18145Cornering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/30Road curve radius
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/179Human faces, e.g. facial parts, sketches or expressions metadata assisted face recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Geometry (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

この発明は、車両を運転する運転者の状態を判定する技術に関するものである。
従来、車両を運転する運転者の状態を判定する技術として、運転者の顔向きまたは視線を検出し、検出した視線の方向が、設定された正常範囲から逸脱する場合に、運転者が脇見運転をしていると判定する技術がある。しかし、運転者の視野範囲および当該視野範囲における正常範囲には個人差がある。また、当該正常範囲は、運転者の姿勢等によっても変わりうる。そのため、運転者の視野範囲および当該視野範囲における正常範囲は、運転者毎に設定される、または運転者の姿勢等に応じて設定されるのが望ましい。例えば、特許文献1には、手形状検出手段により検出された手の形状が予め設定された設定開始形状であるときには、方向検出手段により検出された顔向きまたは視線の方向に基づいて、脇見正常判定範囲の中心位置を設定する脇見判定装置が開示されている。
特開2013−164663号公報
上記特許文献1に記載された脇見判定装置によれば、脇見正常判定範囲の中心位置を設定するためには、運転者が予め設定された設定開始形状である手の形状をとる必要がある。そのため、運転者毎に脇見正常判定範囲を設定することは可能であるが、当該設定のために運転者は予め設定された動作を行うことを求められるという課題があった。
この発明は、上記のような課題を解決するためになされたもので、運転者が予め設定された動作を行うことなく、運転者毎に運転状態を判定するための、運転者の定常状態を設定することを目的とする。
この発明に係る運転状態判定装置は、運転者の顔画像から、運転者の顔の特徴点に関する位置情報を、顔特徴点として検出する顔特徴点検出部と、顔特徴点検出部が検出した顔特徴点から、運転者の顔の状態を示す顔情報を検出する顔情報検出部と、顔情報検出部が検出した顔情報を参照し、顔情報検出部が検出した顔情報から、予め設定された時間区間での顔情報の頻度分布を作成する頻度分布作成部と、頻度分布作成部が作成した頻度分布から、顔情報の最頻値を算出する最頻値算出部と、最頻値算出部が算出した顔情報の最頻値から、運転者の定常状態を示す基準値を算出する基準値算出部と、基準値算出部が算出した基準値に基づいて正常視認範囲を設定し、顔情報検出部が検出した顔情報から、運転者が正常視認範囲外の領域を視認しているか否か判定を行い、判定の結果に基づき運転者の運転状態を判定する運転状態判定部とを備えるものである。
この発明によれば、運転者に予め設定された動作を行うことを求めることなく、運転者毎に運転状態を判定するための、運転者の定常状態を設定することができる。
実施の形態1に係る運転状態判定装置の構成を示すブロック図である。 図2A、図2Bは、実施の形態1に係る運転状態判定装置のハードウェア構成例を示す図である。 図3A,図3B,図3Cは、実施の形態1に係る運転状態判定装置の顔特徴点検出部の検出処理を示す図である。 図4A,図4Bは、実施の形態1に係る運転状態判定装置の顔情報検出部の目の開閉状態の検出を示す図である。 図5A,図5B,図5Cは、実施の形態1に係る運転状態判定装置の顔情報検出部の顔特徴点の位置関係を示す情報および顔向きの検出を示す図である。 実施の形態1に係る運転状態判定装置の顔情報検出部の目の扁平率の検出を示す図である。 実施の形態1に係る運転状態判定装置の頻度分布作成部が参照する有効顔位置領域の一例を示す図である。 実施の形態1に係る運転状態判定装置の基準値算出処理の動作を示すフローチャートである。 図9A,図9Bは、実施の形態1に係る運転状態判定装置の運転状態判定部が設定した正常視認範囲の一例を示す図である。 実施の形態1に係る運転状態判定装置の運転状態判定処理の動作を示すフローチャートである。 図11A,図11B,図11Cは、実施の形態1に係る運転状態判定装置の運転状態判定部による正常視認範囲の補正の一例を示す図である。 図12A,図12Bは、実施の形態1に係る運転状態判定装置の運転状態判定部による正常視認範囲の補正の一例を示す図である。 実施の形態2に係る運転状態判定装置の構成を示すブロック図である。 実施の形態2に係る運転状態判定装置の認証部の動作を示すフローチャートである。 実施の形態3に係る運転状態判定装置の構成を示すブロック図である。 実施の形態3に係る運転状態判定装置の認証部の動作を示すフローチャートである。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る運転状態判定装置100の構成を示すブロック図である。
運転状態判定装置100は、顔画像取得部101、顔特徴点検出部102、顔情報検出部103、操作情報取得部104、頻度分布作成部105、最頻値算出部106、基準値算出部107および運転状態判定部108を備える。
図1に示すように、運転状態判定装置100は、例えば警告装置200に接続される。
顔画像取得部101は、車両に搭載されたカメラ等のキャプチャ画像に基づいて、運転者の少なくとも頭部領域全体を含む顔画像を取得する。顔画像取得部101は、顔画像を顔特徴点検出部102に出力する。
顔特徴点検出部102は、顔画像取得部101が取得した顔画像から、目、鼻、および口等の顔を構成するパーツが含まれる顔領域を検出する。顔特徴点検出部102は、検出した顔領域から、顔を構成する各パーツに関する位置情報を、運転者の顔の特徴点として検出する。以下、運転者の顔の特徴点を、「顔特徴点」と記載する。顔特徴点検出部102は、顔を構成する各パーツに関する位置情報として、当該各パーツの構成要素の顔画像上の位置、または、当該各パーツの構成要素の顔画像上の座標を示す情報を取得する。
顔情報検出部103は、顔特徴点検出部102が検出した顔特徴点を用いて、顔情報を検出する。
顔情報とは、運転者の顔の状態を示す情報であり、例えば、顔特徴点の位置関係、運転者の目の開閉状態、運転者の視線、運転者の顔向き、運転者の姿勢、運転者の目の扁平率、運転者の視認範囲、運転者の視認エリア、運転者の顔への装着物の着脱、および運転者の顔におけるコントラストの発生を示す情報である。なお、装着物とは、例えば、メガネ、サングラス、またはマスクである。
上述した、顔特徴点の位置関係を示す情報とは、顔特徴点検出部102が検出した目、鼻および口等の顔画像上の座標の位置関係を示す情報であり、鼻の位置が目に近い、鼻の位置が口に近い等である。より具体的には、運転者がカメラ等を正面から見た場合、顔情報検出部103は、鼻の横位置は両目の中央に位置することを示す位置関係を示す情報を取得する。また、運転者がカメラ等に対して真横を向いた場合、顔情報検出部103は、口に対してどのくらいの高さに位置しているかを示す位置関係を示す情報を取得する。なお、運転者がカメラ等に対して正面または真横を向くことが頻繁に発生しない場合には、顔情報検出部103は、一定時間内に検出した鼻等の位置関係を示す情報から、運転者がカメラ等を正面から見た場合、または運転者がカメラ等に対して真横を向いた場合の鼻等の位置関係を示す情報を推測して取得する。
操作情報取得部104は、CAN(Controller Area Network)またはOBD(On-board Diagnosis)等から、運転者が搭乗している車両の操作状態を示す車両操作情報を取得する。車両操作情報とは、例えば、車両の舵角情報、車速情報、ターンシグナル情報、ドアの開閉情報、運転者によるシートベルトの着脱を示す情報、運転者のシートへの着座を示す情報、シートポジションの変更を示す情報、またはシフトポジションのドライブモードへの移行を示す情報である。
頻度分布作成部105は、顔情報検出部103が検出した顔情報を参照し、運転者の顔に予め設定された変化が生じた場合に、予め設定された時間区間における顔情報の頻度分布を作成する。さらに、頻度分布作成部105は、操作情報取得部104が取得した車両操作情報を参照し、車両に対して予め設定された車両操作が行われた場合に、予め設定された時間区間における顔情報の頻度分布を作成する。
運転者の顔に予め設定された変化が生じた場合とは、例えば運転者の顔への装着物の着脱または装着物の着用の仕方の変化によるずれがあった場合、または運転者の顔に外光が入射してコントラストが発生した場合等である。
車両に対して予め設定された車両操作が行われた場合とは、車両のドアの開閉操作、車両のシートベルトの着脱操作、車両の座席への着座、車両の座席位置の変更操作、またはシフトレバーのドライブへの移行操作等が発生した場合である。
頻度分布作成部105は、少なくとも顔情報検出部103が検出した顔情報を参照できれば顔情報の頻度分布を作成することが可能である。
最頻値算出部106は、頻度分布作成部105が作成した顔情報の頻度分布から、発生頻度が最も高い顔情報を最頻値として算出する。
基準値算出部107は、最頻値算出部106が算出した顔情報の最頻値から、運転者毎の最適化パラメータを算出する。基準値算出部107は、予め設定された正常な運転状態における顔情報の値に対して、算出した運転者毎の最適化パラメータを適用し、運転者毎の運転時の定常状態を示す顔情報の値(以下、基準値と記載する)を算出する。基準値は、1つの値を示す情報であってもよいし、または、ある値の範囲を示す情報であってもよい。
運転状態判定部108は、基準値算出部107が算出した基準値と、顔情報検出部103から入力される現在の顔情報とを比較し、運転者の運転状態を判定する。運転状態判定部108は、運転者が脇見をしている状態か否かの判定、または、運転者が居眠りをしている状態か否かの判定等、現在の運転状態が正常な運転状態から逸脱する状態であるか否かの判定を行う。例えば、運転状態判定部108は、基準値算出部107が算出した基準値に基づいて、運転者毎の正常視認範囲を設定し、当該設定した正常視認範囲と、現在の視認範囲とを比較し、運転者の脇見状態を判定する。運転状態判定部108は、運転状態の判定結果を警告装置200等に出力する。
警告装置200は、運転状態判定部108から、現在の運転状態が正常な運転状態から逸脱する状態であるとの判定結果が入力されると、車両の運転手を含めた乗員に対して、警告を出力する。
次に、運転状態判定装置100のハードウェア構成例を説明する。
図2Aおよび図2Bは、運転状態判定装置100のハードウェア構成例を示す図である。
運転状態判定装置100における顔画像取得部101、顔特徴点検出部102、顔情報検出部103、操作情報取得部104、頻度分布作成部105、最頻値算出部106、基準値算出部107および運転状態判定部108の各機能は、処理回路により実現される。即ち、運転状態判定装置100は、上記各機能を実現するための処理回路を備える。当該処理回路は、図2Aに示すように専用のハードウェアである処理回路100aであってもよいし、図2Bに示すようにメモリ100cに格納されているプログラムを実行するプロセッサ100bであってもよい。
図2Aに示すように、顔画像取得部101、顔特徴点検出部102、顔情報検出部103、操作情報取得部104、頻度分布作成部105、最頻値算出部106、基準値算出部107および運転状態判定部108が専用のハードウェアである場合、処理回路100aは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-programmable Gate Array)、またはこれらを組み合わせたものが該当する。顔画像取得部101、顔特徴点検出部102、顔情報検出部103、操作情報取得部104、頻度分布作成部105、最頻値算出部106、基準値算出部107および運転状態判定部108の各部の機能それぞれを処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路で実現してもよい。
図2Bに示すように、顔画像取得部101、顔特徴点検出部102、顔情報検出部103、操作情報取得部104、頻度分布作成部105、最頻値算出部106、基準値算出部107および運転状態判定部108がプロセッサ100bである場合、各部の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ100cに格納される。プロセッサ100bは、メモリ100cに記憶されたプログラムを読み出して実行することにより、顔画像取得部101、顔特徴点検出部102、顔情報検出部103、操作情報取得部104、頻度分布作成部105、最頻値算出部106、基準値算出部107および運転状態判定部108の各機能を実現する。即ち、顔画像取得部101、顔特徴点検出部102、顔情報検出部103、操作情報取得部104、頻度分布作成部105、最頻値算出部106、基準値算出部107および運転状態判定部108は、プロセッサ100bにより実行されるときに、後述する図8および図10に示す各ステップが結果的に実行されることになるプログラムを格納するためのメモリ100cを備える。また、これらのプログラムは、顔画像取得部101、顔特徴点検出部102、顔情報検出部103、操作情報取得部104、頻度分布作成部105、最頻値算出部106、基準値算出部107および運転状態判定部108の手順または方法をコンピュータに実行させるものであるともいえる。
ここで、プロセッサ100bとは、例えば、CPU(Central Processing Unit)、処理装置、演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、またはDSP(Digital Signal Processor)などのことである。
メモリ100cは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性または揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
なお、顔画像取得部101、顔特徴点検出部102、顔情報検出部103、操作情報取得部104、頻度分布作成部105、最頻値算出部106、基準値算出部107および運転状態判定部108の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、運転状態判定装置100における処理回路100aは、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。
次に、顔特徴点検出部102、顔情報検出部103、頻度分布作成部105および基準値算出部107について、より詳細に説明する。
まず、顔特徴点検出部102について、図3を参照しながら説明する。
図3は、実施の形態1に係る運転状態判定装置100の顔特徴点検出部102の検出処理を示す図である。図3Aは顔画像を示す図であり、図3Bは顔領域を示す図であり、図3Cは顔特徴点を示す図である。
顔特徴点検出部102は、顔画像取得部101から顔画像を取得する。例えば、顔特徴点検出部102は、図3Aに示す顔画像300を取得する。顔特徴点検出部102は、顔画像取得部101から取得した顔画像に対して、顔を構成する各パーツが含まれる顔領域を検出する。例えば、顔特徴点検出部102は、図3Aの顔画像300に対して、図3Bに示す顔領域301を検出する。
顔特徴点検出部102は、検出した顔領域301内で、例えば図3Cに示すように、目に関して、両目尻311、両目頭312、両上瞼313および両下瞼314の位置情報を取得する。顔特徴点検出部102は、顔領域301内で、例えば図3Cに示すように、鼻に関して、鼻根315、鼻尖316、鼻背および鼻翼の位置情報を取得する。顔特徴点検出部102は、顔領域301内で、例えば図3Cに示すように、口に関して、上唇317、下唇318および口角319の位置情報を取得する。顔特徴点検出部102が取得する各パーツの構成要素の位置情報は、図3Aで示した顔画像300の始点Oからの位置、または図3Aで示した顔画像300における座標を示す情報である。これらの位置情報が、顔特徴点として検出される。
次に、顔情報検出部103について、図4から図6を参照しながら説明する。
図4から図6は、実施の形態1に係る運転状態判定装置100の顔情報検出部103の検出処理を示す図である。図4Aおよび図4Bは目の開閉状態の検出を示す図であり、図5A、図5Bおよび図5Cは顔特徴点の位置関係を示す情報および顔向きの検出を示す図であり、図6は目の扁平率の検出を示す図である。
顔情報検出部103は、顔特徴点に含まれる目に関する位置情報のうち、上瞼の位置情報および下瞼の位置情報から、目が開いているか、または目が閉じているかを検出し、さらに目の開き度合いを算出する。
図4Aに示すように、顔情報検出部103は、上瞼313の位置情報および下瞼314の位置情報から上瞼313と下瞼314との間の距離Paを算出する。図4Aの例では、顔情報検出部103は、算出した距離Paが設定値よりも長いことから、目が開いていると検出する。また、図4Bの例では、顔情報検出部103は、算出した距離Pbが設定値よりも短いことから、目が閉じていると検出する。また、顔情報検出部103は、算出した距離Pa、Pbと、予め設定された距離の値とを比較し、目の開き度合いを算出する。さらに、顔情報検出部103は、目に関する位置情報に基づいて、目の領域を特定し、特定した目の領域内で輝度が最も低い領域を探索する。顔情報検出部103は、探索した輝度が最も低い領域から虹彩または瞳孔の位置を求め、運転者の視線を検出する。
顔情報検出部103は、顔特徴点から得られる、目、鼻、および口の互いの位置関係を示す情報を取得する。また、顔情報検出部103は、取得した目、鼻、および口の互いの位置関係を示す情報から運転者の顔向きを検出する。例えば、図5Aから図5Cに示すように、顔情報検出部103は、鼻尖と両目の位置関係を取得する。また、顔情報検出部103は、鼻尖と両目の位置関係から、運転者Xの顔の変位量を推定して運転者Xの顔向きを検出する。
図5Aの場合、顔情報検出部103は、鼻尖316が左目の目尻311を通る直線Qa付近に位置していることから、運転者Xの顔向きは右であると検出する。
図5Bの場合、顔情報検出部103は、鼻尖316が両目頭312の間に位置していることから、運転者Xの顔向きは正面であると検出する。
図5Cの場合、顔情報検出部103は、鼻尖316が右目の目尻311を通る直線Qb付近に位置していることから、運転者Xの顔向きは左であると検出する。
また、図5Bで示したように、顔情報検出部103は、運転者が正面を向いているときに鼻尖が位置する点を通る直線Qcを利用して、運転者Xの顔の上下の向きを検出する。直線Qcは、運転者が上下方向および左右方向のいずれにおいても正面を向いている状態の顔画像から、予め求められたものである。顔情報検出部103は、鼻尖316が直線Qcよりも上側に位置しているか、下側に位置しているかに応じて、運転者Xの顔向きが上向きであるか、または下向きであるかを検出する。
さらに、顔情報検出部103は、顔特徴点に含まれる目に関する位置情報のうち、上瞼、下瞼、目尻および目頭の位置情報から目の扁平率を算出する。
例えば、顔情報検出部103は、図6に示すように、上瞼313と下瞼314との間の距離Paから目の高さを求め、目尻311と目頭312との間の距離Pcから目の幅を求める。顔情報検出部103は、求めた目の幅(距離Pc)を目の高さ(距離Pa)で除算し、目の扁平率を算出する。
さらに、顔情報検出部103は、運転者の視認範囲を検出する。運転者の視認範囲とは、運転者の正面視に対して、眼球運動だけで瞬時に情報を受容することができる範囲(有効視野)である。顔情報検出部103は、運転者の視認範囲として、例えば運転者の正面視に対して、水平方向に±15°、垂直方向の上方向に8°および垂直方向の下方向に12°の範囲と検出する。なお、上述した運転者の正面視に対する水平方向および垂直方向の値は変更可能なパラメータである。上記の数値は一例であり、それぞれ他の値が設定されてもよい。
顔情報検出部103は、上述した視認範囲に替えて、運転者の視認エリアを取得してもよい。運転者の視認エリアは、車両が備える構造物のうちいずれの構造物が運転者の有効視野に含まれるかを示す情報で表される。例えば、運転者の有効視野内にメータディスプレイとCID(Center Information Display)とが含まれる場合、顔情報検出部103は、視認エリアとしてメータディスプレイとCIDとを示す情報を視認エリアとして取得する。
具体的には、顔情報検出部103は、車両が備える構造物のうち、メータディスプレイ、CID、HUD(Head-up Display)、左右のサイドミラーおよびバックミラー等の、運転者が視認可能な構造物の設置位置を示す情報を予め取得しているものとする。また、顔情報検出部103は、顔画像取得部101に入力される顔画像を撮像するカメラの設置位置を示す情報を予め取得しているものとする。
顔情報検出部103は、例えば、顔特徴点に含まれる鼻尖の位置から求めた奥行き距離に基づいて、運転者の顔とカメラとの相対位置を算出する。顔情報検出部103は、当該相対位置、および、カメラと各構造物との相対位置関係を用いて、運転者の有効視野に、いずれの構造物が存在するかを示す情報を取得し、視認エリアとして出力する。
なお、Aピラーの位置、ダッシュボードの位置、およびCIDが格納されたバイザー位置等が予め測定され、顔情報検出部103は、これらの位置を予め取得しているものとしてもよい。この場合、顔情報検出部103は、これらの位置に基づいて境界が規定される各エリアを利用して、乗員の視認エリアを、ウインドシールド、ドライバーサイドウィンドウ、パセンジャーサイドウィンドウ、またはセンターコンソール領域等として出力する。
また、顔情報検出部103は、顔特徴点および顔画像自体に基づき、運転手の顔に対して装着物の着脱または装着物のずれがあったかどうかを検出する。
また、顔情報検出部103は、顔画像取得部101が取得した顔画像の輝度と、顔特徴点検出部102が検出した顔特徴点とを用いて、顔特徴点の付近でのみ輝度が変化しているか否かを判定する。
顔情報検出部103は、輝度の変化が顔特徴点の付近のみでなく顔領域全体で発生していると判定した場合には、例えば車両に搭載されたカメラ等のAE(Auto Exposure)機能を用いて、顔領域全体の平均輝度を調整するように露光時間を補正する。
顔情報検出部103は、顔特徴点の付近でのみ輝度が変化していると判定した場合には、例えば外光の影響により、顔にコントラストが発生していると判定し、当該コントラストの発生を、顔情報として検出する。
次に、頻度分布作成部105について説明する。
頻度分布作成部105は、顔情報検出部103が検出した顔情報を参照し、運転者の顔に予め設定された変化が生じた場合に、予め設定された時間区間における顔情報の頻度分布を作成する。さらに、頻度分布作成部105は、操作情報取得部104が取得した車両操作情報を参照し、車両に対して予め設定された車両操作が行われた場合に、予め設定された時間区間における顔情報の頻度分布を作成する。
顔特徴点検出部102による顔特徴点の検出は、搭乗者が車両を使用している間、例えば所定周期毎に随時行われ、顔情報検出部103は検出された顔特徴点から常時顔情報を検出して記憶領域(図示しない)に記憶されているものとする。運転状態判定装置100においては、運転状態判定の精度向上のため、記憶された顔情報のうち、どの時間区間の顔情報を頻度分布の作成に利用するかが予め設定されている。
まず、頻度分布作成部105が、運転者の顔に関する変化が生じた場合に、予め設定された時間区間における顔情報の頻度分布を作成する場合について説明する。
運転状態判定装置100においては、顔情報が示す運転者の顔の状態のうち、顔への装着物の着脱、装着物のずれ、または顔にコントラストが発生したことが、頻度分布作成部105による頻度分布作成の起点となる運転者の顔に関する変化として予め設定されている。
頻度分布作成部105は、顔情報検出部103から、顔への装着物の着脱、または装着物のずれを検出したことを示す顔情報が入力された場合に、予め設定された時間区間における顔情報の頻度分布の作成を開始する。
さらに、頻度分布作成部105は、顔情報検出部103から、顔にコントラストが発生したことを示す顔情報が入力された場合に、予め設定された時間区間における顔情報の頻度分布の作成を開始する。
次に、頻度分布作成部105が、予め設定された車両操作が行われた場合に予め設定された時間区間における顔情報の頻度分布を作成する場合について説明する。
運転状態判定装置100においては、車両操作のうち、例えば、ドアの開閉、シートベルトの着脱、シートへの着座、シートポジションの変更およびシフトポジションのドライブモードへの移行が、頻度分布作成部105による頻度分布作成の起点となる車両操作として予め設定されている。
頻度分布作成部105は、操作情報取得部104から予め設定された車両操作が行われたことを示す車両操作情報を取得したことを起点として、予め設定された時間区間における顔情報の頻度分布の作成を開始する。
頻度分布作成部105は、顔情報検出部103が検出した顔領域の位置が、予め設定した有効顔位置領域に存在している場合のみの顔情報を、頻度分布作成に利用することとしてもよい。ここで、有効顔位置領域とは、運転者が運転席に着座した場合に顔領域が位置する範囲を規定した領域である。
図7は、実施の形態1に係る運転状態判定装置100の頻度分布作成部105が参照する有効顔位置領域の一例を示す図である。
有効顔位置領域Rは、例えば、運転席に設けられたヘッドレスト、または座席の背もたれ等の位置に基づいて予め設定されている。
また、頻度分布作成部105は、顔情報検出部103が検出した運転者の顔向きが予め設定された一定範囲内の顔向きである場合の顔情報のみ、または運転者の視線または運転者の顔向きの前フレームからの変動量が一定の値より小さい場合の顔情報のみ、頻度分布作成に利用することとしてもよい。
次に、基準値算出部107について説明する。
基準値算出部107は、最頻値算出部106が算出した最頻値を用いて、運転者毎の最適化パラメータを算出する。基準値算出部107は、予め設定された正常な運転状態における顔情報の値に対して、算出した運転者毎の最適化パラメータを適用し、基準値を算出する。基準値は、上述した通り運転者毎の正常な運転状態における顔情報の値である。ここで、正常な運転状態とは、運転者が運転している際の正面視における顔向き、または運転者の定常状態における目の扁平率等である。
基準値算出部107は、車両が走行している際に、予め設定されたタイミングで基準値を算出して更新する。基準値算出部107が基準値を算出して更新するタイミングは任意に設定可能である。例えば、基準値算出部107において、運転者の運転状態での正面視における顔向きについては、更新タイミングは5分毎など、頻度が比較的高めとなる値に設定され、運転者の定常状態における目の扁平率については、更新タイミングは1時間毎等、頻度が比較的低めとなる値に設定される。このように更新タイミングは、各項目の特性に合わせて設定することが可能である。
次に、運転状態判定装置100の動作について説明する。運転状態判定装置100の動作は、基準値算出処理の動作と、運転状態判定処理の動作とに分けて説明する。
まず、図8のフローチャートを参照しながら、基準値算出処理の動作について説明する。
図8は、実施の形態1に係る運転状態判定装置100の運転状態の正常範囲の算出処理の動作を示すフローチャートである。なお、図8のフローチャートでは、頻度分布作成部105が、顔情報および車両操作情報を参照して顔情報の頻度分布を作成する場合を例に説明する。
顔画像取得部101が顔画像を取得すると(ステップST1)、顔特徴点検出部102は取得された顔画像から、顔を構成するパーツが含まれる顔領域を検出する(ステップST2)。顔特徴点検出部102は、ステップST2で検出した顔領域内に存在する顔を構成する各パーツの位置情報を取得する(ステップST3)。顔情報検出部103は、ステップST3で取得された顔を構成する各パーツの位置情報から顔情報を検出する(ステップST4)。ステップST4においては、顔画像に基づいてコントラストの発生を示す顔情報を検出してもよい。
頻度分布作成部105は、ステップST4で検出された顔情報を参照し、運転者の顔に予め設定された変化が生じたか、および車両操作情報を参照し、車両に対して予め設定された車両操作が行われたか否か判定を行う(ステップST5)。運転者の顔に予め設定された変化が生じていない、且つ車両に対して予め設定された車両操作が行われていない場合(ステップST5;NO)、ステップST1の処理に戻る。一方、運転者の顔に予め設定された変化が生じた、または車両に対して予め設定された車両操作が行われた場合(ステップST5;YES)、頻度分布作成部105は、予め設定された時間区間における顔情報の頻度分布を作成する(ステップST6)。
最頻値算出部106は、ステップST6で作成された頻度分布から、顔情報の最頻値を算出する(ステップST7)。基準値算出部107は、ステップST7で算出された顔情報の最頻値から運転者毎の最適化パラメータを算出する(ステップST8)。基準値算出部107は、予め設定された正常な運転状態における顔情報の値に対してステップST8で算出した最適化パラメータを適用して基準値を算出する(ステップST9)。基準値算出部107は、ステップST9で算出した基準値を運転状態判定部108に適用し(ステップST10)、ステップST1の処理に戻る。
なお、図8のフローチャートの繰り返し処理において、ステップST6では少なくとも1回は運転者の顔に予め設定された変化が生じた(ステップST5;YES)との判定結果に基づいて顔情報の頻度分布が作成されるものとする。
また、図8のフローチャートでは、頻度分布作成部105が顔情報および車両操作情報を参照する場合を例に示したが、頻度分布作成部105は、顔情報のみを参照して判定を行い、顔情報の頻度分布を作成することが可能である。
運転状態判定部108は、ステップST10で適用された基準値に基づいて、正常視認範囲を設定する。運転状態判定部108が設定する正常視認範囲の一例を図9に示す。
図9は、実施の形態1に係る運転状態判定装置100の運転状態判定部108が設定した正常視認範囲の一例を示す図である。
図9Aは正常視認範囲を上方から見た図であり、図9Bは正常視認範囲を運転者Xの視点位置から見た図である。
図9Aにおいて、角度θ1の範囲が正常視認範囲Sであり、当該正常視認範囲S以外の範囲(例えば、角度θ2および角度θ3の範囲)が脇見運転であると判定される領域になる。
図9Bの正常視認範囲S内の基点T(0,0)が運転者の正面視の顔向きを示している。基点Tに対して上下左右方向の範囲(図9Bの例では、上方向+15deg、下方向−20deg、左方向−20deg、右方向+30deg)は、基準値算出部107が算出した基準値に基づいて設定される。
なお、図9A、図9Bで示した正常視認範囲は一例であり、これらの範囲に限定されるものではない。
また、車両が、運転者が手動で運転する手動運転モード、および車両側で自動的に運転制御する自動運転モードを備え、自動運転モードに複数の自動運転レベルが存在する場合に、運転状態判定部108は車両の自動運転レベルに基づいて、正常視認範囲Sを動的に変更させてもよい。
例えば、前方車両に追従するモードで、車間距離および走行速度に対する注意力を軽減できるが、その他に関しては手動運転と同等の注意力が必要であるレベル(自動運転レベル1)から、自車両の運転を全自動で行うモードで、運転者による運転操作および危険回避操作等の必要はないレベル(自動運転レベル3)までの自動運転レベルが存在するものとする。例えば、この自動運転レベル3では、図9Bで示した正常視認範囲Sを上下左右方向に広げて脇見運転であると判定する範囲を狭めてもよい。
次に、図10のフローチャートを参照しながら、運転状態判定処理の動作について説明する。
図10は、実施の形態1に係る運転状態判定装置100の運転状態判定処理の動作を示すフローチャートである。図10のフローチャートでは、運転者の運転状態として、運転者が脇見運転をしているか否かの判定を行う場合を例に説明する。
運転状態判定部108は、基準値算出部107が算出した基準値に基づいて、上述した正常視認範囲を設定しているものとして説明を行う。
運転状態判定部108は、操作情報取得部104から入力されるギア情報および車速情報を参照し、車両が走行状態であるか否か判定を行う(ステップST21)。車両が走行中でなかった場合(ステップST21;NO)、ステップST21の判定処理を繰り返す。一方、車両が走行中であった場合(ステップST21;YES)、運転状態判定部108は、操作情報取得部104から入力されるターンシグナル情報を参照し、車両が旋回動作中であるか否か判定を行う(ステップST22)。車両が旋回動作中であった場合(ステップST22;YES)、ステップST21の処理に戻り、上述した処理を繰り返す。これは、右左折時の車両旋回動作中の脇見判定はDD(Driver Distruction)となる可能性が高いこと、および脇見範囲の特定が困難であることから、脇見判定を実施しない。
一方、車両が旋回動作中でなかった場合(ステップST22;NO)、運転状態判定部108は、操作情報取得部104から入力される舵角情報を参照して車両の旋回方向を予測し、正常視認範囲の方向を補正する(ステップST23)。さらに運転状態判定部108は、操作情報取得部104から入力される車速情報を参照して、正常視認範囲またはステップST23で方向を補正した正常視認範囲の広がり角度を補正する(ステップST24)。運転状態判定部108は、顔情報検出部103から入力される運転者の視線、または運転者の顔向きから、運転者がステップST23およびステップST24で補正して得られた正常視認範囲外の領域を一定時間以上視認しているか否か判定を行う(ステップST25)。
一定時間以上視認している場合(ステップST25;YES)、運転状態判定部108は運転者が脇見運転を行っていると判定する(ステップST26)。運転状態判定部108は、例えば警告装置200に対して脇見運転を警告するように指示する処理を行い(ステップST27)、ステップST21の処理に戻る。一方、一定時間以上視認していない場合(ステップST25;NO)、運転状態判定部108は運転者が脇見運転をしていないと判定し(ステップST28)、ステップST21の処理に戻る。
上述した図10のフローチャートのステップST23の正常視認範囲の方向の補正について図11を参照しながら説明する。
図11は、実施の形態1に係る運転状態判定装置100の運転状態判定部108による正常視認範囲の補正の一例を示す図である。
図11Aは、車両Yが左方向に旋回していると予測した場合に、図9Aで示した正常視認範囲Sを運転者Xに対して左側に向けて正常視認範囲Saとし、方向を補正する場合を示している。図11Cは、車両Yが右方向に旋回していると予測した場合に、図9Aで示した正常視認範囲Sを運転者Xに対して右側に向けて正常視認範囲Sbとし、方向を補正する場合を示している。なお、図11Bに示したように、車両Yが直進方向に走行していると予測した場合には、正常視認範囲Sの方向の補正は行わない。
上述したフローチャートのステップST24の正常視認範囲の広がり角度の補正について図12を参照しながら説明する。
図12は、実施の形態1に係る運転状態判定装置100の運転状態判定部108による正常視認範囲の補正の一例を示す図である。
図12Aは、車両Yが下限閾値以下の低速で走行している場合に、図9Aで示した正常視認範囲Sの広がり角度を広げて正常視認範囲Scとする補正を示している。図12Bは、車両Yが上限閾値以上の高速で走行している場合に、図9Aで示した正常視認範囲Sの広がり角度を狭めて正常視認範囲Sdとする補正を行っている。なお、車両が閾値範囲内の車速で走行している場合には、正常視認範囲Sの広がり角度の補正は行わない。
運転状態判定部108は、図10のフローチャートで示した脇見運転判定処理以外にも、運転者が居眠り運転を行っていないか否かの判定処理等を行うことができる。
以上のように、実施の形態1によれば、運転者の顔画像から、運転者の顔の特徴点に関する位置情報を、顔特徴点として検出する顔特徴点検出部102と、検出された顔特徴点から、運転者の顔の状態を示す顔情報を検出する顔情報検出部103と、顔情報を参照し、運転者の顔に予め設定された変化が生じた場合に、検出された顔情報から、予め設定された時間区間での顔情報の頻度分布を作成する頻度分布作成部105と、作成された頻度分布から、顔情報の最頻値を算出する最頻値算出部106と、算出された顔情報の最頻値から、運転者の定常状態を示す基準値を算出する基準値算出部107と、算出された基準値と、検出された顔情報とを比較し、運転者の運転状態を判定する運転状態判定部108とを備えるように構成したので、運転者に予め設定された動作を行うことを求めることなく、運転者毎に運転状態を判定するための基準値を算出することができる。また、当該基準値に基づいて、運転者毎に運転状態を判定するための正常視認範囲を設定することができる。これらにより、運転者の個人差の影響により、運転状態の判定結果の精度が低下するのを緩和することができる。
また、この実施の形態1によれば、運転者が搭乗している車両の操作状態を示す車両操作情報を取得する操作情報取得部104を備え、頻度分布作成部105は、取得された前記車両操作情報を参照し、前記車両に対して予め設定された車両操作が行われた場合に、前記頻度分布を作成するように構成したので、運転者に予め設定された動作を行うことを求めることなく、運転者毎に運転状態を判定するための正常視認範囲を設定することができる。
また、この実施の形態1によれば、顔情報検出部が、顔情報として、運転者の顔への装着物の着脱を検出するように構成したので、運転開始後に変動が予測される挙動も考慮した運転状態の判定を行うことができる。
なお、上述した実施の形態1で示した、基準値算出処理および運転状態判定処理は、車両の走行中に適宜繰り返し実行される処理である。
また、上述した実施の形態1では、顔情報検出部103が検出した顔情報および操作情報取得部104が取得した車両操作情報を参照して顔情報の頻度分布を作成する場合を示したが、頻度分布作成部105は、少なくとも顔情報検出部103が検出した顔情報を参照できれば顔情報の頻度分布を作成することか可能である。この点は、以下の実施の形態2および実施の形態3においても同様である。
実施の形態2.
この実施の形態2では、運転者の顔認証を行う構成を示す。
図13は、実施の形態2に係る運転状態判定装置100Aの構成を示すブロック図である。
実施の形態2に係る運転状態判定装置100Aは、図1に示した実施の形態1の運転状態判定装置100に、認証情報記憶部109および認証部110を追加して構成している。また、頻度分布作成部105および基準値算出部107に替えて、頻度分布作成部105aおよび基準値算出部107aを備えて構成している。
以下では、実施の形態1に係る運転状態判定装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
基準値算出部107aは、実施の形態1で示した処理によって算出した基準値を、運転者の識別情報と紐付けて、認証情報記憶部109に記憶する。運転者の識別情報は、例えば入力装置(図示しない)を介して基準値算出部107aに入力される。
認証情報記憶部109は、基準値算出部107aが算出した基準値と、運転者の識別情報とを紐付けて記憶する領域である。認証情報記憶部109は、運転状態判定装置100が備えてもよいし、車両に搭載されたその他の車載機器(図示しない)が備えてもよいし、外部サーバ(図示しない)が備えていてもよい。
認証部110は、顔情報検出部103が検出した顔情報と、認証情報記憶部109に記憶された基準値との照合を行う。認証部110は、顔情報と一致した基準値に紐付けられた運転者の識別情報を参照し、運転者の認証を行う。認証部110は、運転者の認証に成功した場合には、運転状態判定部108に対して、運転状態の判定開始を指示する。また、認証部110は、運転者の認証に成功したことを示す情報を、例えばモニタまたはスピーカ等で構成される出力装置400に出力する。また、認証部110は、運転者の認証に失敗した場合には、認証に失敗したことを示す情報を、例えば出力装置400に出力する。
運転状態判定部108は、認証情報記憶部109に記憶された基準値と、顔情報検出部103から入力される運転者の顔情報とを比較し、運転者の運転状態を判定する。なお、運転状態判定部108は、実施の形態1と同様に基準値算出部107aから入力される基準値と、顔情報検出部103から入力される運転者の顔情報とを比較し、運転者の運転状態を判定してもよい。運転状態判定部108の運転状態の判定処理は、実施の形態1と同様である。
頻度分布作成部105aは、実施の形態1で示した処理によって算出した顔情報の時間変化を用いて、認証情報記憶部109に記憶された基準値を更新する。
頻度分布作成部105aは、実施の形態1で示したように、運転者の顔への装着物の着脱を契機として、顔情報の時間変化を算出し、認証情報記憶部109に記憶された基準値を更新する。認証情報記憶部109は、基準値を、顔への装着物の種類、例えばメガネ、サングラスおよびマスク等に応じて分類して記憶するのが好適である。また、頻度分布作成部105aは、顔への装着物を外したタイミングでは、欠損していた顔情報を重点的に更新して顔情報を補間するように、認証情報記憶部109に記憶された基準値を更新してもよい。
同様に、頻度分布作成部105aは、実施の形態1で示したように、運転者の顔の一部の領域においてコントラストが発生したことを契機として、顔情報の時間変化を算出し、認証情報記憶部109に記憶された基準値を更新する。
次に、運転状態判定装置100Aのハードウェア構成例を説明する。なお、実施の形態1と同一の構成の説明は省略する。
運転状態判定装置100Aにおける頻度分布作成部105a、基準値算出部107aおよび認証部110は、図2Aで示した処理回路100a、または図2Bで示したメモリ100cに格納されるプログラムを実行するプロセッサ100bである。
次に、運転状態判定装置100Aによる運転者の認証動作について説明する。
図14は、実施の形態2に係る運転状態判定装置100Aの認証部110の動作を示すフローチャートである。図14で示す運転者の認証動作は、例えば運転者が運転席に座ったとき等、運転者が車両に乗車した際に行われる。
認証部110は、顔情報検出部103から顔情報が入力されると(ステップST31)、入力された顔情報と、認証情報記憶部109に記憶された基準値との照合を行う(ステップST32)。認証部110は、照合結果を参照し運転者の認証に成功したか否か判定を行う(ステップST33)。運転者の認証に成功した場合(ステップST33;YES)、認証部110は、運転状態判定部108に対して運転状態の判定開始を指示する(ステップST34)。また、認証部110は、運転者の認証に成功したことを示す情報を、出力装置400に出力し(ステップST35)、処理を終了する。
一方、運転者の認証に成功しなかった場合(ステップST33;NO)、認証部110は、運転者の認証に失敗したことを示す情報を出力装置400に出力する(ステップST36)。その後、フローチャートはステップST31の処理に戻り、上述した処理を繰り返す。
以上のように、この実施の形態2によれば、基準値算出部107aが算出した基準値を、運転者の識別情報と紐付けて記憶した認証情報記憶部109と、取得された顔情報と、記憶された基準値とを照合し、運転者の認証を行う認証部110とを備えるように構成したので、運転者毎に算出された基準値に基づいて、運転者の認証を行うことができる。これにより、運転者の個人差の影響により、認証結果の精度が低下するのを緩和することができる。
また、この実施の形態2によれば、顔情報検出部103が、顔情報として、運転者の顔への装着物の着脱または装着物のずれを検出した、または運転者の顔においてコントラストの発生を検出した場合に、算出した運転者の顔の特徴点の変化に基づいて認証情報記憶部109に記憶した基準値を更新するように構成したので、運転開始後に変動が予測される運転者の顔への装着物の着脱、または運転者の着座姿勢、外光の影響等を考慮して、運転者を認証することができ。
また、運転状態判定部は、認証部が運転者の認証が完了した場合に認証情報記憶部109に記憶された基準値と、顔情報検出部103が検出した顔情報とを比較し、運転者の運転状態を判定するように構成したので、運転開始後に変動が予測される運転者の顔への装着物の着脱、または運転者の着座姿勢、外光の影響等を考慮して、運転状態を判定することができる。
実施の形態3.
この実施の形態3では、運転者毎の顔情報の時間変化を、車両周辺の情報と共に記憶し、当該運転者の認証を行う構成を示す。
図15は、実施の形態3に係る運転状態判定装置100Bの構成を示すブロック図である。
実施の形態3に係る運転状態判定装置100Bは、図13に示した実施の形態2の運転状態判定装置100Aに、周辺情報取得部111を追加して構成している。また、基準値算出部107a、運転状態判定部108、認証情報記憶部109および認証部110に替えて、基準値算出部107b、運転状態判定部108a、認証情報記憶部109aおよび認証部110aを備えて構成している。
以下では、実施の形態2に係る運転状態判定装置100の構成要素と同一または相当する部分には、実施の形態2で使用した符号と同一の符号を付して説明を省略または簡略化する。
周辺情報取得部111は、外部装置(図示しない)から入力される現在の天候情報、日時情報および交通情報等(以下、車両周辺情報と記載する)を取得する周辺情報取得部111は、取得した車両周辺情報を基準値算出部107b、運転状態判定部108aおよび認証部110aに出力する。基準値算出部107bは、算出した基準値を、運転者の識別情報および当該基準値を算出した際の車両周辺情報と紐付けて、認証情報記憶部109aに記憶させる。認証情報記憶部109aは、基準値算出部107bが算出した基準値と、運転者の識別情報および車両周辺情報とを紐付けて記憶する領域である。
認証部110aは、周辺情報取得部111から入力される現在の車両周辺情報を取得する。認証部110aは、取得した車両周辺情報に一致または類似する車両周辺情報が紐付けられた基準値と、顔情報検出部103が検出した顔情報との照合を行う。認証部110aは、顔情報と一致した基準値に紐付けられた運転者の識別情報を参照し、運転者の認証を行う。認証部110aは、実施の形態2と同様に運転者の認証に成功した場合には、運転状態判定部108aに対して、運転状態の判定開始を指示し、運転者の認証に成功したことを示す情報を出力装置400に出力する。また、認証部110aは、運転者の認証に失敗した場合には、認証に失敗したことを示す情報を、例えば出力装置400に出力する。
認証情報記憶部109aが、基準値を現在の天候情報および日時情報を紐付けて記憶することにより、認証部110aにおいて、天候または日時によって運転者の撮像画像に生じる光の変化を考慮した認証を行うことができる。
また、認証情報記憶部109aが、基準値を交通情報に紐付けて記憶することにより、認証部110aにおいて、道路の混雑度合いによって運転者の撮像画像に生じる表情等の変化を考慮した認証を行うことができる。
運転状態判定部108aは、取得した車両周辺情報に一致または類似する車両周辺情報が紐付けられた基準値と、顔情報検出部103から入力される運転者の顔情報とを比較し、運転者の運転状態を判定する。運転状態判定部108aは、周辺情報取得部111から入力される車両周辺情報を考慮した基準値を用いて運転状態を判定することにより、運転者の撮像画像に生じる光の変化、または表情の変化を考慮して運転状態を判定することができる。
なお、運転状態判定部108aは、実施の形態1と同様に基準値算出部107bから入力される基準値と、顔情報検出部103から入力される運転者の顔情報とを比較し、運転者の運転状態を判定してもよい。
次に、運転状態判定装置100Bのハードウェア構成例を説明する。なお、実施の形態1と同一の構成の説明は省略する。
運転状態判定装置100Bにおける基準値算出部107b、運転状態判定部108a、認証部110aおよび周辺情報取得部111は、図2Aで示した処理回路100a、または図2Bで示したメモリ100cに格納されるプログラムを実行するプロセッサ100bである。
次に、運転状態判定装置100Bによる運転者の認証動作について説明する。
図16は、実施の形態3に係る運転状態判定装置100Bの認証部110aの動作を示すフローチャートである。図16で示す運転者の認証動作は、例えば運転者が運転席に座ったとき等、運転者が車両に乗車した際に行われる。なお、以下では、実施の形態2に係る運転状態判定装置100Aと同一のステップには図14で使用した符号と同一の符号を付し、説明を省略または簡略化する。
認証部110aは、顔情報検出部103から顔情報が入力されると(ステップST31)、周辺情報取得部111から車両周辺情報を取得する(ステップST41)。認証部110aは、認証情報記憶部109に記憶された基準値のうち、ステップST41で取得した車両周辺情報に一致または類似する車両周辺情報に紐付けられた基準値と、入力された顔情報との照合を行う(ステップST42)。その後、ステップST33の処理に進む。
以上のように、この実施の形態3によれば、車両の周辺の環境情報を取得する周辺情報取得部111を備え、認証情報記憶部109aは、基準値算出部107bが算出した基準値を、運転者の識別情報および取得された環境情報と紐付けて記憶するように構成したので、車両の周辺の環境を考慮して、運転者を認証し、運転状態を判定することができる。これにより、車両の周辺の環境の影響により、認証結果の精度が低下するのを緩和することができる。
上述した実施の形態1から実施の形態3において示した各構成の機能の一部を、運転状態判定装置100,100A,100Bと接続されたサーバ装置が行うように構成してもよい。また、上述した実施の形態1から実施の形態3において示した運転状態判定装置100,100A,100Bの各構成の機能の一部を、乗員のスマートフォンなどの携帯端末が実行するように構成してもよい。
上記以外にも、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、または各実施の形態の任意の構成要素の省略が可能である。
この発明に係る運転状態判定装置は、判定精度の向上が求められるドライバモニタリングシステム等に適用し、運転者毎に設定された正常範囲に基づいて運転状態等を判定するのに適している。
100,100A,100B 運転状態判定装置、101 顔画像取得部、102 顔特徴点検出部、103 顔情報検出部、104 操作情報取得部、105、105a 頻度分布作成部、106 最頻値算出部、107,107a,107b 基準値算出部、108,108a 運転状態判定部、109,109a 認証情報記憶部、110,110a 認証部、111 周辺情報取得部。

Claims (18)

  1. 運転者の顔画像から、前記運転者の顔の特徴点に関する位置情報を、顔特徴点として検出する顔特徴点検出部と、
    前記顔特徴点検出部が検出した前記顔特徴点から、前記運転者の顔の状態を示す顔情報を検出する顔情報検出部と、
    前記顔情報検出部が検出した前記顔情報を参照し、前記顔情報検出部が検出した前記顔情報から、予め設定された時間区間での前記顔情報の頻度分布を作成する頻度分布作成部と、
    前記頻度分布作成部が作成した前記頻度分布から、前記顔情報の最頻値を算出する最頻値算出部と、
    前記最頻値算出部が算出した前記顔情報の最頻値から、定常状態を示す基準値を示す基準値を算出する基準値算出部と、
    前記基準値算出部が算出した前記基準値に基づいて正常視認範囲を設定し、前記顔情報検出部が検出した前記顔情報から、前記運転者が前記正常視認範囲外の領域を視認しているか否か判定を行い、前記判定の結果に基づき前記運転者の運転状態を判定する運転状態判定部とを備えた運転状態判定装置。
  2. 前記運転者が搭乗している車両の操作状態を示す車両操作情報を取得する操作情報取得部を備え、
    前記頻度分布作成部は、前記操作情報取得部が取得した前記車両操作情報を参照し、前記車両に対して予め設定された車両操作が行われた場合に、前記頻度分布を作成することを特徴とする請求項1記載の運転状態判定装置。
  3. 前記顔情報検出部は、前記顔特徴点検出部が検出した前記顔特徴点から、前記運転者の顔領域の位置を検出し、
    前記頻度分布作成部は、前記顔領域の位置が、前記運転者が着座した場合に顔領域が位置すると設定された有効顔位置領域内である場合に、前記頻度分布を作成することを特徴とする請求項1記載の運転状態判定装置。
  4. 前記頻度分布作成部は、前記顔情報検出部がある時点で検出した前記顔情報と、当該ある時点から1つ前のタイミングで検出した前記顔情報との差が一定範囲内にある場合に、前記頻度分布を作成することを特徴とする請求項1記載の運転状態判定装置。
  5. 前記頻度分布作成部は、前記顔情報検出部が前記運転者の顔への装着物の着脱、または前記装着物のずれを検出した場合に、前記頻度分布を作成することを特徴とする請求項1記載の運転状態判定装置。
  6. 前記頻度分布作成部は、前記顔情報検出部が前記運転者の顔のコントラストの発生を検出した場合に、前記頻度分布を作成することを特徴とする請求項1記載の運転状態判定装置。
  7. 前記頻度分布作成部は、前記操作情報取得部が前記車両のドアの開閉操作、前記車両のシートベルトの着脱操作、前記車両の座席への着座、前記車両の座席位置の変更操作、および前記車両のシフトレバーのドライブへの移行操作のうちの少なくともいずれか1つを示す情報を取得した場合に、前記頻度分布を作成することを特徴とする請求項2記載の運転状態判定装置。
  8. 前記顔情報検出部は、前記顔情報として、前記顔特徴点の位置関係を示す情報、前記運転者の目の開閉状態、前記運転者の視線、前記運転者の顔向き、前記運転者の目の扁平率、前記運転者の視認範囲、前記運転者の視認エリアのうち、少なくともいずれか1つを検出することを特徴とする請求項1記載の運転状態判定装置。
  9. 前記運転状態判定部は、前記運転者が搭乗している車両が、前記運転者が手動で運転する手動運転モード、および前記車両側で自動的に運転制御する自動運転モードを有し、当該自動運転モードに複数の自動運転レベルが存在する場合に、前記自動運転レベルに応じて前記正常視認範囲を変更することを特徴とする請求項1記載の運転状態判定装置。
  10. 前記運転状態判定部は、前記自動運転レベルが全自動に近づくほど、前記正常視認範囲を広げることを特徴とする請求項9記載の運転状態判定装置。
  11. 前記運転者が搭乗している車両の操作状態を示す車両操作情報を取得する操作情報取得部を備え、
    前記頻度分布作成部は、前記操作情報取得部が取得した前記車両操作情報を参照し、前記車両に対して予め設定された車両操作が行われた場合に、前記頻度分布を作成し、
    前記運転状態判定部は、前記操作情報取得部から入力される舵角情報を参照して前記車両の旋回方向を予測し、前記正常視認範囲の方向を補正することを特徴とする請求項1記載の運転状態判定装置。
  12. 前記運転者が搭乗している車両の操作状態を示す車両操作情報を取得する操作情報取得部を備え、
    前記頻度分布作成部は、前記操作情報取得部が取得した前記車両操作情報を参照し、前記車両に対して予め設定された車両操作が行われた場合に、前記頻度分布を作成し、
    前記運転状態判定部は、前記操作情報取得部から入力される車速情報を参照して、前記車両の車速に応じて、前記正常視認範囲の広がり角度を補正することを特徴とする請求項1記載の運転状態判定装置。
  13. 前記基準値算出部が算出した前記基準値を、前記運転者の識別情報と紐付けて記憶した認証情報記憶部と、
    前記顔情報検出部が取得した前記顔情報と、前記認証情報記憶部に記憶された前記基準値とを照合し、前記運転者の認証を行う認証部とを備えた請求項1記載の運転状態判定装置。
  14. 前記頻度分布作成部は、前記顔情報検出部が、前記顔情報として、前記運転者の顔への装着物の着脱または前記装着物のずれを検出した、または前記運転者の顔のコントラストの発生を検出した場合に、算出した前記運転者の顔の特徴点の変化に基づいて前記認証情報記憶部に記憶した基準値を更新することを特徴とする請求項13記載の運転状態判定装置。
  15. 前記認証部が前記運転者の認証が完了した場合に前記認証情報記憶部に記憶された前記基準値と、前記顔情報検出部が検出した前記顔情報とを比較し、前記運転者の運転状態を判定する運転状態判定部を備えることを特徴とする請求項13記載の運転状態判定装置。
  16. 前記運転者が搭乗する車両の周辺の環境情報を取得する周辺情報取得部を備え、
    前記認証情報記憶部は、前記基準値算出部が算出した基準値を、前記運転者の識別情報および前記周辺情報取得部が取得した前記環境情報と紐付けて記憶したことを特徴とする請求項13記載の運転状態判定装置。
  17. 前記周辺情報取得部は、前記車両の周辺の天候情報、日時情報、および交通情報のうちの少なくともいずれか1つを取得することを特徴とする請求項16記載の運転状態判定装置。
  18. 顔特徴点検出部が、運転者の顔画像から、前記運転者の顔の特徴点に関する位置情報を、顔特徴点として検出するステップと、
    顔情報検出部が、前記顔特徴点から、前記運転者の顔の状態を示す顔情報を検出するステップと、
    頻度分布作成部が、前記顔情報を参照し、前記運転者の顔に予め設定された変化が生じた場合に、前記顔情報から、予め設定された時間区間での前記顔情報の頻度分布を作成するステップと、
    最頻値算出部が、前記頻度分布から、前記顔情報の最頻値を算出するステップと、
    基準値算出部が、前記顔情報の最頻値から、前記運転者の定常状態を示す基準値を算出するステップと、
    運転状態判定部が、前記基準値に基づいて正常視認範囲を設定し、前記顔情報検出部が検出した前記顔情報から、前記運転者が前記正常視認範囲外の領域を視認しているか否か判定を行い、前記判定の結果に基づき前記運転者の運転状態を判定するステップとを備えた運転状態判定方法。
JP2019500084A 2017-02-15 2017-02-15 運転状態判定装置および運転状態判定方法 Active JP6811834B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/005475 WO2018150485A1 (ja) 2017-02-15 2017-02-15 運転状態判定装置および運転状態判定方法

Publications (2)

Publication Number Publication Date
JPWO2018150485A1 JPWO2018150485A1 (ja) 2019-06-27
JP6811834B2 true JP6811834B2 (ja) 2021-01-13

Family

ID=63169750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019500084A Active JP6811834B2 (ja) 2017-02-15 2017-02-15 運転状態判定装置および運転状態判定方法

Country Status (5)

Country Link
US (1) US10949690B2 (ja)
JP (1) JP6811834B2 (ja)
CN (1) CN110268455B (ja)
DE (1) DE112017007073B4 (ja)
WO (1) WO2018150485A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102433668B1 (ko) * 2021-07-20 2022-08-18 (주)딥인사이트 운전자 모니터링 시스템 및 그 방법

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10946874B2 (en) * 2017-09-11 2021-03-16 Mitsubishi Electric Corporation Vehicle-mounted equipment control device and vehicle-mounted equipment control method
JP6683185B2 (ja) * 2017-11-15 2020-04-15 オムロン株式会社 情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム
JP7020215B2 (ja) * 2018-03-19 2022-02-16 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、プログラム
JP6844568B2 (ja) * 2018-03-27 2021-03-17 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、プログラム
JP7067353B2 (ja) * 2018-08-09 2022-05-16 トヨタ自動車株式会社 運転者情報判定装置
WO2020230312A1 (ja) * 2019-05-15 2020-11-19 日産自動車株式会社 運転支援方法及び運転支援システム
JP7183420B2 (ja) * 2019-07-02 2022-12-05 三菱電機株式会社 車載用画像処理装置、および、車載用画像処理方法
DE112019007358T5 (de) * 2019-07-02 2022-03-17 Mitsubishi Electric Corporation Onboard-Bildverarbeitungsvorrichtung und Onboard-Bildverarbeitungsverfahren
JP2021089479A (ja) * 2019-12-02 2021-06-10 株式会社デンソー 意識判定装置、及び意識判定方法
CN110909718B (zh) * 2019-12-11 2024-04-19 深圳市锐明技术股份有限公司 驾驶状态识别方法、装置及车辆
JP7359087B2 (ja) * 2020-07-02 2023-10-11 トヨタ自動車株式会社 ドライバモニタ装置及びドライバモニタ方法
JP2022018231A (ja) * 2020-07-15 2022-01-27 株式会社Jvcケンウッド 映像処理装置および映像処理方法
JP7420277B2 (ja) * 2020-09-24 2024-01-23 日本電気株式会社 運転状態判定装置、方法、及びプログラム
DE112020007365B4 (de) * 2020-12-28 2024-07-11 Honda Motor Co., Ltd. Fahrzeugsteuervorrichtung, fahrzeugsteuerverfahren und programm
JP7504326B2 (ja) 2022-05-18 2024-06-21 三菱電機株式会社 乗員状態推定装置及び乗員状態推定方法
CN115048632A (zh) * 2022-07-04 2022-09-13 蔚来汽车科技(安徽)有限公司 一种用户身份认证方法以及装置
JPWO2024057356A1 (ja) * 2022-09-12 2024-03-21
WO2024079779A1 (ja) * 2022-10-11 2024-04-18 三菱電機株式会社 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法及びプログラム
CN117672003B (zh) * 2023-11-23 2024-05-14 北京悟空出行科技有限公司 一种租车公司用车辆远程监控系统

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5729619A (en) * 1995-08-08 1998-03-17 Northrop Grumman Corporation Operator identity, intoxication and drowsiness monitoring system and method
JPH1044824A (ja) * 1996-07-30 1998-02-17 Nissan Motor Co Ltd 車両運転者の開閉眼判定装置
FR2773521B1 (fr) * 1998-01-15 2000-03-31 Carlus Magnus Limited Procede et dispositif pour surveiller en continu l'etat de vigilance du conducteur d'un vehicule automobile, afin de detecter et prevenir une tendance eventuelle a l'endormissement de celui-ci
GB2341231A (en) * 1998-09-05 2000-03-08 Sharp Kk Face detection in an image
JP3600755B2 (ja) * 1999-05-13 2004-12-15 三菱電機株式会社 顔画像処理装置
US7027621B1 (en) * 2001-03-15 2006-04-11 Mikos, Ltd. Method and apparatus for operator condition monitoring and assessment
CN100398065C (zh) * 2002-10-15 2008-07-02 沃尔沃技术公司 解释对象的头部和眼睛活动的方法和装置
US7280678B2 (en) * 2003-02-28 2007-10-09 Avago Technologies General Ip Pte Ltd Apparatus and method for detecting pupils
US20060011399A1 (en) * 2004-07-15 2006-01-19 International Business Machines Corporation System and method for controlling vehicle operation based on a user's facial expressions and physical state
JP2007082594A (ja) * 2005-09-20 2007-04-05 Denso Corp 疲労検出装置
JP4845698B2 (ja) * 2006-12-06 2011-12-28 アイシン精機株式会社 眼部検出装置、眼部検出方法及びプログラム
JP2009166783A (ja) * 2008-01-18 2009-07-30 Toyota Motor Corp 症状推定装置
JP5210773B2 (ja) * 2008-09-16 2013-06-12 トヨタ自動車株式会社 眠気判定装置及びプログラム
JP5109922B2 (ja) * 2008-10-16 2012-12-26 株式会社デンソー ドライバモニタリング装置およびドライバモニタリング装置用のプログラム
WO2010092860A1 (ja) * 2009-02-13 2010-08-19 トヨタ自動車株式会社 生体状態推定装置及び車両制御装置
JP5177102B2 (ja) * 2009-09-18 2013-04-03 三菱自動車工業株式会社 運転支援装置
US20130021462A1 (en) * 2010-03-23 2013-01-24 Aisin Seiki Kabushiki Kaisha Alertness determination device, alertness determination method, and recording medium
JP5184596B2 (ja) * 2010-09-03 2013-04-17 本田技研工業株式会社 脇見判定装置
JP5505434B2 (ja) 2012-02-09 2014-05-28 株式会社デンソー 脇見判定装置
JP6043933B2 (ja) * 2012-03-29 2016-12-14 富士重工業株式会社 眠気レベルの推定装置、眠気レベルの推定方法および眠気レベルの推定処理プログラム
US8708884B1 (en) * 2013-03-11 2014-04-29 The United States Of America As Represented By The Secretary Of The Army Systems and methods for adaptive mitigation of motion sickness
JP6417962B2 (ja) * 2015-01-23 2018-11-07 沖電気工業株式会社 情報処理装置、情報処理方法及び記憶媒体
JP6558735B2 (ja) 2015-04-21 2019-08-14 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、運転制御装置、車両、運転支援プログラム
JP6520531B2 (ja) 2015-07-30 2019-05-29 アイシン精機株式会社 運転支援装置
DE102015218306A1 (de) * 2015-09-23 2017-03-23 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ermitteln eines Schläfrigkeitszustands eines Fahrers
US20180012090A1 (en) * 2016-07-07 2018-01-11 Jungo Connectivity Ltd. Visual learning system and method for determining a driver's state
CN106446831B (zh) * 2016-09-24 2021-06-25 江西欧迈斯微电子有限公司 一种人脸识别方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102433668B1 (ko) * 2021-07-20 2022-08-18 (주)딥인사이트 운전자 모니터링 시스템 및 그 방법

Also Published As

Publication number Publication date
CN110268455B (zh) 2022-12-09
US10949690B2 (en) 2021-03-16
WO2018150485A1 (ja) 2018-08-23
DE112017007073T5 (de) 2019-11-14
CN110268455A (zh) 2019-09-20
JPWO2018150485A1 (ja) 2019-06-27
DE112017007073B4 (de) 2024-03-07
US20190370579A1 (en) 2019-12-05

Similar Documents

Publication Publication Date Title
JP6811834B2 (ja) 運転状態判定装置および運転状態判定方法
EP3259734B1 (en) Glare reduction
US9526448B2 (en) State estimation device and state estimation program
JP6187155B2 (ja) 注視対象物推定装置
US20170050542A1 (en) Automatic adjuster, automatic adjusting system and automatic adjusting method
JP6470334B2 (ja) 車両の表示システム及び車両の表示システムの制御方法
US7370970B2 (en) Eyeglass detection method
US9892333B2 (en) Viewing area estimation device
EP4245609A1 (en) Rear-view mirror control method and related device
JP4770385B2 (ja) 自動サンバイザ
US20210374443A1 (en) Driver attention state estimation
JP5077128B2 (ja) 覚醒度判定装置
CN110996051A (zh) 车辆视觉补偿的方法、装置及系统
JP2009248812A (ja) 運転支援装置
JP2011159214A (ja) 行動検出装置
JP7378681B2 (ja) 乗員状態判定装置、乗員状態判定方法、および、乗員状態判定システム
US11995898B2 (en) Occupant monitoring device for vehicle
JP2009278185A (ja) 画像認識装置
JP6649063B2 (ja) 車両後方表示装置及び表示制御装置
CN111267865B (zh) 基于视觉的安全驾驶预警方法、系统及存储介质
WO2024079779A1 (ja) 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法及びプログラム
WO2024075205A1 (ja) 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法及びプログラム
US20220272269A1 (en) Occupant monitoring device for vehicle
JP7505660B2 (ja) 乗員監視装置、乗員監視方法、及び乗員監視プログラム
JP2023047835A (ja) 車載装置および搭乗者モニタリング方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200615

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201215

R150 Certificate of patent or registration of utility model

Ref document number: 6811834

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350