JP6811834B2 - 運転状態判定装置および運転状態判定方法 - Google Patents
運転状態判定装置および運転状態判定方法 Download PDFInfo
- Publication number
- JP6811834B2 JP6811834B2 JP2019500084A JP2019500084A JP6811834B2 JP 6811834 B2 JP6811834 B2 JP 6811834B2 JP 2019500084 A JP2019500084 A JP 2019500084A JP 2019500084 A JP2019500084 A JP 2019500084A JP 6811834 B2 JP6811834 B2 JP 6811834B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- driver
- unit
- information
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 38
- 238000001514 detection method Methods 0.000 claims description 139
- 230000008859 change Effects 0.000 claims description 27
- 230000002093 peripheral effect Effects 0.000 claims description 24
- 230000001815 facial effect Effects 0.000 claims description 13
- 238000006073 displacement reaction Methods 0.000 claims description 5
- 230000007613 environmental effect Effects 0.000 claims description 3
- 238000013459 approach Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 31
- 238000010586 diagram Methods 0.000 description 25
- 238000012545 processing Methods 0.000 description 13
- 210000000744 eyelid Anatomy 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 230000000007 visual effect Effects 0.000 description 11
- 238000012937 correction Methods 0.000 description 7
- 238000005457 optimization Methods 0.000 description 6
- 230000008921 facial expression Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/18145—Cornering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/225—Direction of gaze
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/229—Attention level, e.g. attentive to driving, reading or sleeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/30—Road curve radius
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/179—Human faces, e.g. facial parts, sketches or expressions metadata assisted face recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Ophthalmology & Optometry (AREA)
- Geometry (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Description
実施の形態1.
図1は、実施の形態1に係る運転状態判定装置100の構成を示すブロック図である。
運転状態判定装置100は、顔画像取得部101、顔特徴点検出部102、顔情報検出部103、操作情報取得部104、頻度分布作成部105、最頻値算出部106、基準値算出部107および運転状態判定部108を備える。
図1に示すように、運転状態判定装置100は、例えば警告装置200に接続される。
顔特徴点検出部102は、顔画像取得部101が取得した顔画像から、目、鼻、および口等の顔を構成するパーツが含まれる顔領域を検出する。顔特徴点検出部102は、検出した顔領域から、顔を構成する各パーツに関する位置情報を、運転者の顔の特徴点として検出する。以下、運転者の顔の特徴点を、「顔特徴点」と記載する。顔特徴点検出部102は、顔を構成する各パーツに関する位置情報として、当該各パーツの構成要素の顔画像上の位置、または、当該各パーツの構成要素の顔画像上の座標を示す情報を取得する。
顔情報とは、運転者の顔の状態を示す情報であり、例えば、顔特徴点の位置関係、運転者の目の開閉状態、運転者の視線、運転者の顔向き、運転者の姿勢、運転者の目の扁平率、運転者の視認範囲、運転者の視認エリア、運転者の顔への装着物の着脱、および運転者の顔におけるコントラストの発生を示す情報である。なお、装着物とは、例えば、メガネ、サングラス、またはマスクである。
運転者の顔に予め設定された変化が生じた場合とは、例えば運転者の顔への装着物の着脱または装着物の着用の仕方の変化によるずれがあった場合、または運転者の顔に外光が入射してコントラストが発生した場合等である。
車両に対して予め設定された車両操作が行われた場合とは、車両のドアの開閉操作、車両のシートベルトの着脱操作、車両の座席への着座、車両の座席位置の変更操作、またはシフトレバーのドライブへの移行操作等が発生した場合である。
基準値算出部107は、最頻値算出部106が算出した顔情報の最頻値から、運転者毎の最適化パラメータを算出する。基準値算出部107は、予め設定された正常な運転状態における顔情報の値に対して、算出した運転者毎の最適化パラメータを適用し、運転者毎の運転時の定常状態を示す顔情報の値(以下、基準値と記載する)を算出する。基準値は、1つの値を示す情報であってもよいし、または、ある値の範囲を示す情報であってもよい。
警告装置200は、運転状態判定部108から、現在の運転状態が正常な運転状態から逸脱する状態であるとの判定結果が入力されると、車両の運転手を含めた乗員に対して、警告を出力する。
図2Aおよび図2Bは、運転状態判定装置100のハードウェア構成例を示す図である。
運転状態判定装置100における顔画像取得部101、顔特徴点検出部102、顔情報検出部103、操作情報取得部104、頻度分布作成部105、最頻値算出部106、基準値算出部107および運転状態判定部108の各機能は、処理回路により実現される。即ち、運転状態判定装置100は、上記各機能を実現するための処理回路を備える。当該処理回路は、図2Aに示すように専用のハードウェアである処理回路100aであってもよいし、図2Bに示すようにメモリ100cに格納されているプログラムを実行するプロセッサ100bであってもよい。
メモリ100cは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性または揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
まず、顔特徴点検出部102について、図3を参照しながら説明する。
図3は、実施の形態1に係る運転状態判定装置100の顔特徴点検出部102の検出処理を示す図である。図3Aは顔画像を示す図であり、図3Bは顔領域を示す図であり、図3Cは顔特徴点を示す図である。
顔特徴点検出部102は、顔画像取得部101から顔画像を取得する。例えば、顔特徴点検出部102は、図3Aに示す顔画像300を取得する。顔特徴点検出部102は、顔画像取得部101から取得した顔画像に対して、顔を構成する各パーツが含まれる顔領域を検出する。例えば、顔特徴点検出部102は、図3Aの顔画像300に対して、図3Bに示す顔領域301を検出する。
図4から図6は、実施の形態1に係る運転状態判定装置100の顔情報検出部103の検出処理を示す図である。図4Aおよび図4Bは目の開閉状態の検出を示す図であり、図5A、図5Bおよび図5Cは顔特徴点の位置関係を示す情報および顔向きの検出を示す図であり、図6は目の扁平率の検出を示す図である。
顔情報検出部103は、顔特徴点に含まれる目に関する位置情報のうち、上瞼の位置情報および下瞼の位置情報から、目が開いているか、または目が閉じているかを検出し、さらに目の開き度合いを算出する。
図5Aの場合、顔情報検出部103は、鼻尖316が左目の目尻311を通る直線Qa付近に位置していることから、運転者Xの顔向きは右であると検出する。
図5Bの場合、顔情報検出部103は、鼻尖316が両目頭312の間に位置していることから、運転者Xの顔向きは正面であると検出する。
図5Cの場合、顔情報検出部103は、鼻尖316が右目の目尻311を通る直線Qb付近に位置していることから、運転者Xの顔向きは左であると検出する。
また、図5Bで示したように、顔情報検出部103は、運転者が正面を向いているときに鼻尖が位置する点を通る直線Qcを利用して、運転者Xの顔の上下の向きを検出する。直線Qcは、運転者が上下方向および左右方向のいずれにおいても正面を向いている状態の顔画像から、予め求められたものである。顔情報検出部103は、鼻尖316が直線Qcよりも上側に位置しているか、下側に位置しているかに応じて、運転者Xの顔向きが上向きであるか、または下向きであるかを検出する。
例えば、顔情報検出部103は、図6に示すように、上瞼313と下瞼314との間の距離Paから目の高さを求め、目尻311と目頭312との間の距離Pcから目の幅を求める。顔情報検出部103は、求めた目の幅(距離Pc)を目の高さ(距離Pa)で除算し、目の扁平率を算出する。
顔情報検出部103は、例えば、顔特徴点に含まれる鼻尖の位置から求めた奥行き距離に基づいて、運転者の顔とカメラとの相対位置を算出する。顔情報検出部103は、当該相対位置、および、カメラと各構造物との相対位置関係を用いて、運転者の有効視野に、いずれの構造物が存在するかを示す情報を取得し、視認エリアとして出力する。
なお、Aピラーの位置、ダッシュボードの位置、およびCIDが格納されたバイザー位置等が予め測定され、顔情報検出部103は、これらの位置を予め取得しているものとしてもよい。この場合、顔情報検出部103は、これらの位置に基づいて境界が規定される各エリアを利用して、乗員の視認エリアを、ウインドシールド、ドライバーサイドウィンドウ、パセンジャーサイドウィンドウ、またはセンターコンソール領域等として出力する。
また、顔情報検出部103は、顔画像取得部101が取得した顔画像の輝度と、顔特徴点検出部102が検出した顔特徴点とを用いて、顔特徴点の付近でのみ輝度が変化しているか否かを判定する。
顔情報検出部103は、輝度の変化が顔特徴点の付近のみでなく顔領域全体で発生していると判定した場合には、例えば車両に搭載されたカメラ等のAE(Auto Exposure)機能を用いて、顔領域全体の平均輝度を調整するように露光時間を補正する。
顔情報検出部103は、顔特徴点の付近でのみ輝度が変化していると判定した場合には、例えば外光の影響により、顔にコントラストが発生していると判定し、当該コントラストの発生を、顔情報として検出する。
頻度分布作成部105は、顔情報検出部103が検出した顔情報を参照し、運転者の顔に予め設定された変化が生じた場合に、予め設定された時間区間における顔情報の頻度分布を作成する。さらに、頻度分布作成部105は、操作情報取得部104が取得した車両操作情報を参照し、車両に対して予め設定された車両操作が行われた場合に、予め設定された時間区間における顔情報の頻度分布を作成する。
顔特徴点検出部102による顔特徴点の検出は、搭乗者が車両を使用している間、例えば所定周期毎に随時行われ、顔情報検出部103は検出された顔特徴点から常時顔情報を検出して記憶領域(図示しない)に記憶されているものとする。運転状態判定装置100においては、運転状態判定の精度向上のため、記憶された顔情報のうち、どの時間区間の顔情報を頻度分布の作成に利用するかが予め設定されている。
運転状態判定装置100においては、顔情報が示す運転者の顔の状態のうち、顔への装着物の着脱、装着物のずれ、または顔にコントラストが発生したことが、頻度分布作成部105による頻度分布作成の起点となる運転者の顔に関する変化として予め設定されている。
さらに、頻度分布作成部105は、顔情報検出部103から、顔にコントラストが発生したことを示す顔情報が入力された場合に、予め設定された時間区間における顔情報の頻度分布の作成を開始する。
運転状態判定装置100においては、車両操作のうち、例えば、ドアの開閉、シートベルトの着脱、シートへの着座、シートポジションの変更およびシフトポジションのドライブモードへの移行が、頻度分布作成部105による頻度分布作成の起点となる車両操作として予め設定されている。
頻度分布作成部105は、操作情報取得部104から予め設定された車両操作が行われたことを示す車両操作情報を取得したことを起点として、予め設定された時間区間における顔情報の頻度分布の作成を開始する。
図7は、実施の形態1に係る運転状態判定装置100の頻度分布作成部105が参照する有効顔位置領域の一例を示す図である。
有効顔位置領域Rは、例えば、運転席に設けられたヘッドレスト、または座席の背もたれ等の位置に基づいて予め設定されている。
基準値算出部107は、最頻値算出部106が算出した最頻値を用いて、運転者毎の最適化パラメータを算出する。基準値算出部107は、予め設定された正常な運転状態における顔情報の値に対して、算出した運転者毎の最適化パラメータを適用し、基準値を算出する。基準値は、上述した通り運転者毎の正常な運転状態における顔情報の値である。ここで、正常な運転状態とは、運転者が運転している際の正面視における顔向き、または運転者の定常状態における目の扁平率等である。
基準値算出部107は、車両が走行している際に、予め設定されたタイミングで基準値を算出して更新する。基準値算出部107が基準値を算出して更新するタイミングは任意に設定可能である。例えば、基準値算出部107において、運転者の運転状態での正面視における顔向きについては、更新タイミングは5分毎など、頻度が比較的高めとなる値に設定され、運転者の定常状態における目の扁平率については、更新タイミングは1時間毎等、頻度が比較的低めとなる値に設定される。このように更新タイミングは、各項目の特性に合わせて設定することが可能である。
まず、図8のフローチャートを参照しながら、基準値算出処理の動作について説明する。
図8は、実施の形態1に係る運転状態判定装置100の運転状態の正常範囲の算出処理の動作を示すフローチャートである。なお、図8のフローチャートでは、頻度分布作成部105が、顔情報および車両操作情報を参照して顔情報の頻度分布を作成する場合を例に説明する。
顔画像取得部101が顔画像を取得すると(ステップST1)、顔特徴点検出部102は取得された顔画像から、顔を構成するパーツが含まれる顔領域を検出する(ステップST2)。顔特徴点検出部102は、ステップST2で検出した顔領域内に存在する顔を構成する各パーツの位置情報を取得する(ステップST3)。顔情報検出部103は、ステップST3で取得された顔を構成する各パーツの位置情報から顔情報を検出する(ステップST4)。ステップST4においては、顔画像に基づいてコントラストの発生を示す顔情報を検出してもよい。
なお、図8のフローチャートの繰り返し処理において、ステップST6では少なくとも1回は運転者の顔に予め設定された変化が生じた(ステップST5;YES)との判定結果に基づいて顔情報の頻度分布が作成されるものとする。
また、図8のフローチャートでは、頻度分布作成部105が顔情報および車両操作情報を参照する場合を例に示したが、頻度分布作成部105は、顔情報のみを参照して判定を行い、顔情報の頻度分布を作成することが可能である。
図9は、実施の形態1に係る運転状態判定装置100の運転状態判定部108が設定した正常視認範囲の一例を示す図である。
図9Aは正常視認範囲を上方から見た図であり、図9Bは正常視認範囲を運転者Xの視点位置から見た図である。
図9Aにおいて、角度θ1の範囲が正常視認範囲Sであり、当該正常視認範囲S以外の範囲(例えば、角度θ2および角度θ3の範囲)が脇見運転であると判定される領域になる。
なお、図9A、図9Bで示した正常視認範囲は一例であり、これらの範囲に限定されるものではない。
例えば、前方車両に追従するモードで、車間距離および走行速度に対する注意力を軽減できるが、その他に関しては手動運転と同等の注意力が必要であるレベル(自動運転レベル1)から、自車両の運転を全自動で行うモードで、運転者による運転操作および危険回避操作等の必要はないレベル(自動運転レベル3)までの自動運転レベルが存在するものとする。例えば、この自動運転レベル3では、図9Bで示した正常視認範囲Sを上下左右方向に広げて脇見運転であると判定する範囲を狭めてもよい。
図10は、実施の形態1に係る運転状態判定装置100の運転状態判定処理の動作を示すフローチャートである。図10のフローチャートでは、運転者の運転状態として、運転者が脇見運転をしているか否かの判定を行う場合を例に説明する。
運転状態判定部108は、基準値算出部107が算出した基準値に基づいて、上述した正常視認範囲を設定しているものとして説明を行う。
図11は、実施の形態1に係る運転状態判定装置100の運転状態判定部108による正常視認範囲の補正の一例を示す図である。
図11Aは、車両Yが左方向に旋回していると予測した場合に、図9Aで示した正常視認範囲Sを運転者Xに対して左側に向けて正常視認範囲Saとし、方向を補正する場合を示している。図11Cは、車両Yが右方向に旋回していると予測した場合に、図9Aで示した正常視認範囲Sを運転者Xに対して右側に向けて正常視認範囲Sbとし、方向を補正する場合を示している。なお、図11Bに示したように、車両Yが直進方向に走行していると予測した場合には、正常視認範囲Sの方向の補正は行わない。
図12は、実施の形態1に係る運転状態判定装置100の運転状態判定部108による正常視認範囲の補正の一例を示す図である。
図12Aは、車両Yが下限閾値以下の低速で走行している場合に、図9Aで示した正常視認範囲Sの広がり角度を広げて正常視認範囲Scとする補正を示している。図12Bは、車両Yが上限閾値以上の高速で走行している場合に、図9Aで示した正常視認範囲Sの広がり角度を狭めて正常視認範囲Sdとする補正を行っている。なお、車両が閾値範囲内の車速で走行している場合には、正常視認範囲Sの広がり角度の補正は行わない。
この実施の形態2では、運転者の顔認証を行う構成を示す。
図13は、実施の形態2に係る運転状態判定装置100Aの構成を示すブロック図である。
実施の形態2に係る運転状態判定装置100Aは、図1に示した実施の形態1の運転状態判定装置100に、認証情報記憶部109および認証部110を追加して構成している。また、頻度分布作成部105および基準値算出部107に替えて、頻度分布作成部105aおよび基準値算出部107aを備えて構成している。
以下では、実施の形態1に係る運転状態判定装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
認証情報記憶部109は、基準値算出部107aが算出した基準値と、運転者の識別情報とを紐付けて記憶する領域である。認証情報記憶部109は、運転状態判定装置100が備えてもよいし、車両に搭載されたその他の車載機器(図示しない)が備えてもよいし、外部サーバ(図示しない)が備えていてもよい。
頻度分布作成部105aは、実施の形態1で示したように、運転者の顔への装着物の着脱を契機として、顔情報の時間変化を算出し、認証情報記憶部109に記憶された基準値を更新する。認証情報記憶部109は、基準値を、顔への装着物の種類、例えばメガネ、サングラスおよびマスク等に応じて分類して記憶するのが好適である。また、頻度分布作成部105aは、顔への装着物を外したタイミングでは、欠損していた顔情報を重点的に更新して顔情報を補間するように、認証情報記憶部109に記憶された基準値を更新してもよい。
運転状態判定装置100Aにおける頻度分布作成部105a、基準値算出部107aおよび認証部110は、図2Aで示した処理回路100a、または図2Bで示したメモリ100cに格納されるプログラムを実行するプロセッサ100bである。
図14は、実施の形態2に係る運転状態判定装置100Aの認証部110の動作を示すフローチャートである。図14で示す運転者の認証動作は、例えば運転者が運転席に座ったとき等、運転者が車両に乗車した際に行われる。
認証部110は、顔情報検出部103から顔情報が入力されると(ステップST31)、入力された顔情報と、認証情報記憶部109に記憶された基準値との照合を行う(ステップST32)。認証部110は、照合結果を参照し運転者の認証に成功したか否か判定を行う(ステップST33)。運転者の認証に成功した場合(ステップST33;YES)、認証部110は、運転状態判定部108に対して運転状態の判定開始を指示する(ステップST34)。また、認証部110は、運転者の認証に成功したことを示す情報を、出力装置400に出力し(ステップST35)、処理を終了する。
また、運転状態判定部は、認証部が運転者の認証が完了した場合に認証情報記憶部109に記憶された基準値と、顔情報検出部103が検出した顔情報とを比較し、運転者の運転状態を判定するように構成したので、運転開始後に変動が予測される運転者の顔への装着物の着脱、または運転者の着座姿勢、外光の影響等を考慮して、運転状態を判定することができる。
この実施の形態3では、運転者毎の顔情報の時間変化を、車両周辺の情報と共に記憶し、当該運転者の認証を行う構成を示す。
図15は、実施の形態3に係る運転状態判定装置100Bの構成を示すブロック図である。
実施の形態3に係る運転状態判定装置100Bは、図13に示した実施の形態2の運転状態判定装置100Aに、周辺情報取得部111を追加して構成している。また、基準値算出部107a、運転状態判定部108、認証情報記憶部109および認証部110に替えて、基準値算出部107b、運転状態判定部108a、認証情報記憶部109aおよび認証部110aを備えて構成している。
以下では、実施の形態2に係る運転状態判定装置100の構成要素と同一または相当する部分には、実施の形態2で使用した符号と同一の符号を付して説明を省略または簡略化する。
また、認証情報記憶部109aが、基準値を交通情報に紐付けて記憶することにより、認証部110aにおいて、道路の混雑度合いによって運転者の撮像画像に生じる表情等の変化を考慮した認証を行うことができる。
なお、運転状態判定部108aは、実施の形態1と同様に基準値算出部107bから入力される基準値と、顔情報検出部103から入力される運転者の顔情報とを比較し、運転者の運転状態を判定してもよい。
運転状態判定装置100Bにおける基準値算出部107b、運転状態判定部108a、認証部110aおよび周辺情報取得部111は、図2Aで示した処理回路100a、または図2Bで示したメモリ100cに格納されるプログラムを実行するプロセッサ100bである。
図16は、実施の形態3に係る運転状態判定装置100Bの認証部110aの動作を示すフローチャートである。図16で示す運転者の認証動作は、例えば運転者が運転席に座ったとき等、運転者が車両に乗車した際に行われる。なお、以下では、実施の形態2に係る運転状態判定装置100Aと同一のステップには図14で使用した符号と同一の符号を付し、説明を省略または簡略化する。
Claims (18)
- 運転者の顔画像から、前記運転者の顔の特徴点に関する位置情報を、顔特徴点として検出する顔特徴点検出部と、
前記顔特徴点検出部が検出した前記顔特徴点から、前記運転者の顔の状態を示す顔情報を検出する顔情報検出部と、
前記顔情報検出部が検出した前記顔情報を参照し、前記顔情報検出部が検出した前記顔情報から、予め設定された時間区間での前記顔情報の頻度分布を作成する頻度分布作成部と、
前記頻度分布作成部が作成した前記頻度分布から、前記顔情報の最頻値を算出する最頻値算出部と、
前記最頻値算出部が算出した前記顔情報の最頻値から、定常状態を示す基準値を示す基準値を算出する基準値算出部と、
前記基準値算出部が算出した前記基準値に基づいて正常視認範囲を設定し、前記顔情報検出部が検出した前記顔情報から、前記運転者が前記正常視認範囲外の領域を視認しているか否か判定を行い、前記判定の結果に基づき前記運転者の運転状態を判定する運転状態判定部とを備えた運転状態判定装置。 - 前記運転者が搭乗している車両の操作状態を示す車両操作情報を取得する操作情報取得部を備え、
前記頻度分布作成部は、前記操作情報取得部が取得した前記車両操作情報を参照し、前記車両に対して予め設定された車両操作が行われた場合に、前記頻度分布を作成することを特徴とする請求項1記載の運転状態判定装置。 - 前記顔情報検出部は、前記顔特徴点検出部が検出した前記顔特徴点から、前記運転者の顔領域の位置を検出し、
前記頻度分布作成部は、前記顔領域の位置が、前記運転者が着座した場合に顔領域が位置すると設定された有効顔位置領域内である場合に、前記頻度分布を作成することを特徴とする請求項1記載の運転状態判定装置。 - 前記頻度分布作成部は、前記顔情報検出部がある時点で検出した前記顔情報と、当該ある時点から1つ前のタイミングで検出した前記顔情報との差が一定範囲内にある場合に、前記頻度分布を作成することを特徴とする請求項1記載の運転状態判定装置。
- 前記頻度分布作成部は、前記顔情報検出部が前記運転者の顔への装着物の着脱、または前記装着物のずれを検出した場合に、前記頻度分布を作成することを特徴とする請求項1記載の運転状態判定装置。
- 前記頻度分布作成部は、前記顔情報検出部が前記運転者の顔のコントラストの発生を検出した場合に、前記頻度分布を作成することを特徴とする請求項1記載の運転状態判定装置。
- 前記頻度分布作成部は、前記操作情報取得部が前記車両のドアの開閉操作、前記車両のシートベルトの着脱操作、前記車両の座席への着座、前記車両の座席位置の変更操作、および前記車両のシフトレバーのドライブへの移行操作のうちの少なくともいずれか1つを示す情報を取得した場合に、前記頻度分布を作成することを特徴とする請求項2記載の運転状態判定装置。
- 前記顔情報検出部は、前記顔情報として、前記顔特徴点の位置関係を示す情報、前記運転者の目の開閉状態、前記運転者の視線、前記運転者の顔向き、前記運転者の目の扁平率、前記運転者の視認範囲、前記運転者の視認エリアのうち、少なくともいずれか1つを検出することを特徴とする請求項1記載の運転状態判定装置。
- 前記運転状態判定部は、前記運転者が搭乗している車両が、前記運転者が手動で運転する手動運転モード、および前記車両側で自動的に運転制御する自動運転モードを有し、当該自動運転モードに複数の自動運転レベルが存在する場合に、前記自動運転レベルに応じて前記正常視認範囲を変更することを特徴とする請求項1記載の運転状態判定装置。
- 前記運転状態判定部は、前記自動運転レベルが全自動に近づくほど、前記正常視認範囲を広げることを特徴とする請求項9記載の運転状態判定装置。
- 前記運転者が搭乗している車両の操作状態を示す車両操作情報を取得する操作情報取得部を備え、
前記頻度分布作成部は、前記操作情報取得部が取得した前記車両操作情報を参照し、前記車両に対して予め設定された車両操作が行われた場合に、前記頻度分布を作成し、
前記運転状態判定部は、前記操作情報取得部から入力される舵角情報を参照して前記車両の旋回方向を予測し、前記正常視認範囲の方向を補正することを特徴とする請求項1記載の運転状態判定装置。 - 前記運転者が搭乗している車両の操作状態を示す車両操作情報を取得する操作情報取得部を備え、
前記頻度分布作成部は、前記操作情報取得部が取得した前記車両操作情報を参照し、前記車両に対して予め設定された車両操作が行われた場合に、前記頻度分布を作成し、
前記運転状態判定部は、前記操作情報取得部から入力される車速情報を参照して、前記車両の車速に応じて、前記正常視認範囲の広がり角度を補正することを特徴とする請求項1記載の運転状態判定装置。 - 前記基準値算出部が算出した前記基準値を、前記運転者の識別情報と紐付けて記憶した認証情報記憶部と、
前記顔情報検出部が取得した前記顔情報と、前記認証情報記憶部に記憶された前記基準値とを照合し、前記運転者の認証を行う認証部とを備えた請求項1記載の運転状態判定装置。 - 前記頻度分布作成部は、前記顔情報検出部が、前記顔情報として、前記運転者の顔への装着物の着脱または前記装着物のずれを検出した、または前記運転者の顔のコントラストの発生を検出した場合に、算出した前記運転者の顔の特徴点の変化に基づいて前記認証情報記憶部に記憶した基準値を更新することを特徴とする請求項13記載の運転状態判定装置。
- 前記認証部が前記運転者の認証が完了した場合に前記認証情報記憶部に記憶された前記基準値と、前記顔情報検出部が検出した前記顔情報とを比較し、前記運転者の運転状態を判定する運転状態判定部を備えることを特徴とする請求項13記載の運転状態判定装置。
- 前記運転者が搭乗する車両の周辺の環境情報を取得する周辺情報取得部を備え、
前記認証情報記憶部は、前記基準値算出部が算出した基準値を、前記運転者の識別情報および前記周辺情報取得部が取得した前記環境情報と紐付けて記憶したことを特徴とする請求項13記載の運転状態判定装置。 - 前記周辺情報取得部は、前記車両の周辺の天候情報、日時情報、および交通情報のうちの少なくともいずれか1つを取得することを特徴とする請求項16記載の運転状態判定装置。
- 顔特徴点検出部が、運転者の顔画像から、前記運転者の顔の特徴点に関する位置情報を、顔特徴点として検出するステップと、
顔情報検出部が、前記顔特徴点から、前記運転者の顔の状態を示す顔情報を検出するステップと、
頻度分布作成部が、前記顔情報を参照し、前記運転者の顔に予め設定された変化が生じた場合に、前記顔情報から、予め設定された時間区間での前記顔情報の頻度分布を作成するステップと、
最頻値算出部が、前記頻度分布から、前記顔情報の最頻値を算出するステップと、
基準値算出部が、前記顔情報の最頻値から、前記運転者の定常状態を示す基準値を算出するステップと、
運転状態判定部が、前記基準値に基づいて正常視認範囲を設定し、前記顔情報検出部が検出した前記顔情報から、前記運転者が前記正常視認範囲外の領域を視認しているか否か判定を行い、前記判定の結果に基づき前記運転者の運転状態を判定するステップとを備えた運転状態判定方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/005475 WO2018150485A1 (ja) | 2017-02-15 | 2017-02-15 | 運転状態判定装置および運転状態判定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018150485A1 JPWO2018150485A1 (ja) | 2019-06-27 |
JP6811834B2 true JP6811834B2 (ja) | 2021-01-13 |
Family
ID=63169750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019500084A Active JP6811834B2 (ja) | 2017-02-15 | 2017-02-15 | 運転状態判定装置および運転状態判定方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10949690B2 (ja) |
JP (1) | JP6811834B2 (ja) |
CN (1) | CN110268455B (ja) |
DE (1) | DE112017007073B4 (ja) |
WO (1) | WO2018150485A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102433668B1 (ko) * | 2021-07-20 | 2022-08-18 | (주)딥인사이트 | 운전자 모니터링 시스템 및 그 방법 |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10946874B2 (en) * | 2017-09-11 | 2021-03-16 | Mitsubishi Electric Corporation | Vehicle-mounted equipment control device and vehicle-mounted equipment control method |
JP6683185B2 (ja) * | 2017-11-15 | 2020-04-15 | オムロン株式会社 | 情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム |
JP7020215B2 (ja) * | 2018-03-19 | 2022-02-16 | 日本電気株式会社 | 余所見判定装置、余所見判定システム、余所見判定方法、プログラム |
JP6844568B2 (ja) * | 2018-03-27 | 2021-03-17 | 日本電気株式会社 | 余所見判定装置、余所見判定システム、余所見判定方法、プログラム |
JP7067353B2 (ja) * | 2018-08-09 | 2022-05-16 | トヨタ自動車株式会社 | 運転者情報判定装置 |
WO2020230312A1 (ja) * | 2019-05-15 | 2020-11-19 | 日産自動車株式会社 | 運転支援方法及び運転支援システム |
JP7183420B2 (ja) * | 2019-07-02 | 2022-12-05 | 三菱電機株式会社 | 車載用画像処理装置、および、車載用画像処理方法 |
DE112019007358T5 (de) * | 2019-07-02 | 2022-03-17 | Mitsubishi Electric Corporation | Onboard-Bildverarbeitungsvorrichtung und Onboard-Bildverarbeitungsverfahren |
JP2021089479A (ja) * | 2019-12-02 | 2021-06-10 | 株式会社デンソー | 意識判定装置、及び意識判定方法 |
CN110909718B (zh) * | 2019-12-11 | 2024-04-19 | 深圳市锐明技术股份有限公司 | 驾驶状态识别方法、装置及车辆 |
JP7359087B2 (ja) * | 2020-07-02 | 2023-10-11 | トヨタ自動車株式会社 | ドライバモニタ装置及びドライバモニタ方法 |
JP2022018231A (ja) * | 2020-07-15 | 2022-01-27 | 株式会社Jvcケンウッド | 映像処理装置および映像処理方法 |
JP7420277B2 (ja) * | 2020-09-24 | 2024-01-23 | 日本電気株式会社 | 運転状態判定装置、方法、及びプログラム |
DE112020007365B4 (de) * | 2020-12-28 | 2024-07-11 | Honda Motor Co., Ltd. | Fahrzeugsteuervorrichtung, fahrzeugsteuerverfahren und programm |
JP7504326B2 (ja) | 2022-05-18 | 2024-06-21 | 三菱電機株式会社 | 乗員状態推定装置及び乗員状態推定方法 |
CN115048632A (zh) * | 2022-07-04 | 2022-09-13 | 蔚来汽车科技(安徽)有限公司 | 一种用户身份认证方法以及装置 |
JPWO2024057356A1 (ja) * | 2022-09-12 | 2024-03-21 | ||
WO2024079779A1 (ja) * | 2022-10-11 | 2024-04-18 | 三菱電機株式会社 | 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法及びプログラム |
CN117672003B (zh) * | 2023-11-23 | 2024-05-14 | 北京悟空出行科技有限公司 | 一种租车公司用车辆远程监控系统 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5729619A (en) * | 1995-08-08 | 1998-03-17 | Northrop Grumman Corporation | Operator identity, intoxication and drowsiness monitoring system and method |
JPH1044824A (ja) * | 1996-07-30 | 1998-02-17 | Nissan Motor Co Ltd | 車両運転者の開閉眼判定装置 |
FR2773521B1 (fr) * | 1998-01-15 | 2000-03-31 | Carlus Magnus Limited | Procede et dispositif pour surveiller en continu l'etat de vigilance du conducteur d'un vehicule automobile, afin de detecter et prevenir une tendance eventuelle a l'endormissement de celui-ci |
GB2341231A (en) * | 1998-09-05 | 2000-03-08 | Sharp Kk | Face detection in an image |
JP3600755B2 (ja) * | 1999-05-13 | 2004-12-15 | 三菱電機株式会社 | 顔画像処理装置 |
US7027621B1 (en) * | 2001-03-15 | 2006-04-11 | Mikos, Ltd. | Method and apparatus for operator condition monitoring and assessment |
CN100398065C (zh) * | 2002-10-15 | 2008-07-02 | 沃尔沃技术公司 | 解释对象的头部和眼睛活动的方法和装置 |
US7280678B2 (en) * | 2003-02-28 | 2007-10-09 | Avago Technologies General Ip Pte Ltd | Apparatus and method for detecting pupils |
US20060011399A1 (en) * | 2004-07-15 | 2006-01-19 | International Business Machines Corporation | System and method for controlling vehicle operation based on a user's facial expressions and physical state |
JP2007082594A (ja) * | 2005-09-20 | 2007-04-05 | Denso Corp | 疲労検出装置 |
JP4845698B2 (ja) * | 2006-12-06 | 2011-12-28 | アイシン精機株式会社 | 眼部検出装置、眼部検出方法及びプログラム |
JP2009166783A (ja) * | 2008-01-18 | 2009-07-30 | Toyota Motor Corp | 症状推定装置 |
JP5210773B2 (ja) * | 2008-09-16 | 2013-06-12 | トヨタ自動車株式会社 | 眠気判定装置及びプログラム |
JP5109922B2 (ja) * | 2008-10-16 | 2012-12-26 | 株式会社デンソー | ドライバモニタリング装置およびドライバモニタリング装置用のプログラム |
WO2010092860A1 (ja) * | 2009-02-13 | 2010-08-19 | トヨタ自動車株式会社 | 生体状態推定装置及び車両制御装置 |
JP5177102B2 (ja) * | 2009-09-18 | 2013-04-03 | 三菱自動車工業株式会社 | 運転支援装置 |
US20130021462A1 (en) * | 2010-03-23 | 2013-01-24 | Aisin Seiki Kabushiki Kaisha | Alertness determination device, alertness determination method, and recording medium |
JP5184596B2 (ja) * | 2010-09-03 | 2013-04-17 | 本田技研工業株式会社 | 脇見判定装置 |
JP5505434B2 (ja) | 2012-02-09 | 2014-05-28 | 株式会社デンソー | 脇見判定装置 |
JP6043933B2 (ja) * | 2012-03-29 | 2016-12-14 | 富士重工業株式会社 | 眠気レベルの推定装置、眠気レベルの推定方法および眠気レベルの推定処理プログラム |
US8708884B1 (en) * | 2013-03-11 | 2014-04-29 | The United States Of America As Represented By The Secretary Of The Army | Systems and methods for adaptive mitigation of motion sickness |
JP6417962B2 (ja) * | 2015-01-23 | 2018-11-07 | 沖電気工業株式会社 | 情報処理装置、情報処理方法及び記憶媒体 |
JP6558735B2 (ja) | 2015-04-21 | 2019-08-14 | パナソニックIpマネジメント株式会社 | 運転支援方法およびそれを利用した運転支援装置、運転制御装置、車両、運転支援プログラム |
JP6520531B2 (ja) | 2015-07-30 | 2019-05-29 | アイシン精機株式会社 | 運転支援装置 |
DE102015218306A1 (de) * | 2015-09-23 | 2017-03-23 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Ermitteln eines Schläfrigkeitszustands eines Fahrers |
US20180012090A1 (en) * | 2016-07-07 | 2018-01-11 | Jungo Connectivity Ltd. | Visual learning system and method for determining a driver's state |
CN106446831B (zh) * | 2016-09-24 | 2021-06-25 | 江西欧迈斯微电子有限公司 | 一种人脸识别方法及装置 |
-
2017
- 2017-02-15 CN CN201780085485.0A patent/CN110268455B/zh active Active
- 2017-02-15 WO PCT/JP2017/005475 patent/WO2018150485A1/ja active Application Filing
- 2017-02-15 JP JP2019500084A patent/JP6811834B2/ja active Active
- 2017-02-15 DE DE112017007073.2T patent/DE112017007073B4/de active Active
- 2017-02-15 US US16/480,159 patent/US10949690B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102433668B1 (ko) * | 2021-07-20 | 2022-08-18 | (주)딥인사이트 | 운전자 모니터링 시스템 및 그 방법 |
Also Published As
Publication number | Publication date |
---|---|
CN110268455B (zh) | 2022-12-09 |
US10949690B2 (en) | 2021-03-16 |
WO2018150485A1 (ja) | 2018-08-23 |
DE112017007073T5 (de) | 2019-11-14 |
CN110268455A (zh) | 2019-09-20 |
JPWO2018150485A1 (ja) | 2019-06-27 |
DE112017007073B4 (de) | 2024-03-07 |
US20190370579A1 (en) | 2019-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6811834B2 (ja) | 運転状態判定装置および運転状態判定方法 | |
EP3259734B1 (en) | Glare reduction | |
US9526448B2 (en) | State estimation device and state estimation program | |
JP6187155B2 (ja) | 注視対象物推定装置 | |
US20170050542A1 (en) | Automatic adjuster, automatic adjusting system and automatic adjusting method | |
JP6470334B2 (ja) | 車両の表示システム及び車両の表示システムの制御方法 | |
US7370970B2 (en) | Eyeglass detection method | |
US9892333B2 (en) | Viewing area estimation device | |
EP4245609A1 (en) | Rear-view mirror control method and related device | |
JP4770385B2 (ja) | 自動サンバイザ | |
US20210374443A1 (en) | Driver attention state estimation | |
JP5077128B2 (ja) | 覚醒度判定装置 | |
CN110996051A (zh) | 车辆视觉补偿的方法、装置及系统 | |
JP2009248812A (ja) | 運転支援装置 | |
JP2011159214A (ja) | 行動検出装置 | |
JP7378681B2 (ja) | 乗員状態判定装置、乗員状態判定方法、および、乗員状態判定システム | |
US11995898B2 (en) | Occupant monitoring device for vehicle | |
JP2009278185A (ja) | 画像認識装置 | |
JP6649063B2 (ja) | 車両後方表示装置及び表示制御装置 | |
CN111267865B (zh) | 基于视觉的安全驾驶预警方法、系统及存储介质 | |
WO2024079779A1 (ja) | 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法及びプログラム | |
WO2024075205A1 (ja) | 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法及びプログラム | |
US20220272269A1 (en) | Occupant monitoring device for vehicle | |
JP7505660B2 (ja) | 乗員監視装置、乗員監視方法、及び乗員監視プログラム | |
JP2023047835A (ja) | 車載装置および搭乗者モニタリング方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190220 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200421 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200615 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200615 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6811834 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |