JP7286022B2 - 乗員状態検出装置および乗員状態検出方法 - Google Patents

乗員状態検出装置および乗員状態検出方法 Download PDF

Info

Publication number
JP7286022B2
JP7286022B2 JP2022534604A JP2022534604A JP7286022B2 JP 7286022 B2 JP7286022 B2 JP 7286022B2 JP 2022534604 A JP2022534604 A JP 2022534604A JP 2022534604 A JP2022534604 A JP 2022534604A JP 7286022 B2 JP7286022 B2 JP 7286022B2
Authority
JP
Japan
Prior art keywords
occupant
temperature
movement
hand
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022534604A
Other languages
English (en)
Other versions
JPWO2022009401A1 (ja
JPWO2022009401A5 (ja
Inventor
浩隆 坂本
俊之 八田
信太郎 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2022009401A1 publication Critical patent/JPWO2022009401A1/ja
Publication of JPWO2022009401A5 publication Critical patent/JPWO2022009401A5/ja
Application granted granted Critical
Publication of JP7286022B2 publication Critical patent/JP7286022B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • A61B5/015By temperature mapping of body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09626Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages where the origin of the information is within the own vehicle, e.g. a local storage device, digital map
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/26Incapacity

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Educational Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Child & Adolescent Psychology (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、乗員状態検出装置および乗員状態検出方法に関する。
一般に、人が入眠する前、当該人の体において、深部体温を低下させるために、抹消部分の血流量は増加する。そして、人の体の抹消部分から熱が体外に発散される。これにより、結果的に人の体の抹消部分の温度は一時的に上昇する。
そこで、従来、人の体の抹消部分にあたる手の温度に基づいて、人の覚醒度の推定を行う技術が知られている。
例えば、特許文献1には、顔面皮膚温度と手指皮膚温度と脈拍数とに基づいて、車両などの運転者の覚醒度を判定する運転者覚醒度検査装置が開示されている。当該運転者覚醒度検査装置は、運転者の手指皮膚温度を、ハンドルの周縁部の、運転者がハンドルを握った状態で運転者の手指が接触する位置に配置されている手指温度センサから取得する。
特開2011-123653号公報
特許文献1に開示された方法で人の手の温度を取得する場合、当該人がハンドルを握る位置がずれると手の温度を取得できないという課題があった。
本開示は、上記のような課題を解決するためになされたもので、人がハンドルを握る位置に関係なく、当該人の手の温度に基づいて当該人の覚醒度の推定を行うことが可能な乗員状態検出装置を提供することを目的とする。
本開示に係る乗員状態検出装置は、乗員を撮像した撮像画像を取得する撮像画像取得部と、非接触にて測定された乗員の体の表面の温度をあらわす温度画像を取得する温度画像取得部と、撮像画像取得部が取得した撮像画像に基づいて、乗員の動きを検出する動き検出部と、温度画像取得部が取得した温度画像に基づいて、乗員の手の温度を検出する温度検出部と、動き検出部が検出した乗員の動きと、温度検出部が検出した乗員の手の温度とに基づいて、乗員の覚醒度を推定する覚醒度推定部を備え、動き検出部が検出する乗員の動きには乗員の手の動きが含まれ、覚醒度推定部は、動き検出部が乗員の手の動きを検出した場合、当該乗員の手の動きに基づいて乗員の覚醒度を推定し、動き検出部が乗員の手の動きを検出しなかった場合、動き検出部が検出した乗員の動きと、温度検出部が検出した乗員の手の温度とに基づいて乗員の覚醒度を推定することを特徴とするものである。
本開示によれば、人がハンドルを握る位置に関係なく、当該人の手の温度に基づいて当該人の覚醒度の推定を行うことができる。
実施の形態1に係る乗員状態検出装置の構成例を示す図である。 実施の形態1において、撮像画像上にて、乗員検出部が検出した乗員の目の位置、乗員の口の位置、乗員の体の位置、乗員の手の位置、または、乗員の顔の位置の一例を示したイメージを説明するための図である。 実施の形態1において、温度検出部が、位置付与後撮像画像との位置合わせを行った後の温度画像のイメージの一例を示す図である。 実施の形態1に係る乗員状態検出装置の動作を説明するためのフローチャートである。 実施の形態1において、乗員状態検出装置が、機械学習モデルに基づいて乗員の覚醒度を推定するようにした場合の、乗員状態検出装置の構成例を示す図である。 実施の形態1において、乗員の属性を考慮して当該乗員の覚醒度を推定するようにした場合の、乗員状態検出装置の構成例を示す図である。 実施の形態1において、温度検出部が位置付与後撮像画像を用いずに乗員の温度を検出するようにした場合の乗員状態検出装置の構成例を示す図である。 図8A,図8Bは、実施の形態1に係る乗員状態検出装置のハードウェア構成の一例を示す図である。
以下、本開示の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、実施の形態1に係る乗員状態検出装置1の構成例を示す図である。
実施の形態1に係る乗員状態検出装置1は、車両に搭載され、乗員の覚醒度を推定する。実施の形態1において、乗員とは、車両の運転者であることを想定している。
乗員状態検出装置1は、撮像装置2および温度取得装置3と接続される。
撮像装置2は、車両内をモニタリングすることを目的に設置されたカメラ等である。撮像装置2は、少なくとも、乗員の上半身を撮像可能な位置に設置されている。撮像装置2は、例えば、いわゆる「ドライバモニタリングシステム(Driver Monitoring System,DMS)」と共用のものであってもよい。
撮像装置2は、撮像した画像(以下「撮像画像」という。)を、乗員状態検出装置1に出力する。
温度取得装置3は、温度測定機能を備えた赤外線カメラ、または、赤外線アレイセンサ等である。温度取得装置3は、少なくとも乗員の手を含む当該乗員の上半身の温度を非接触で測定可能な位置に設置される。
温度取得装置3は、計測した温度をあらわす画像(以下「温度画像」という。)を、乗員状態検出装置1に出力する。温度画像は、画素毎に温度情報を含んでいる。なお、画素値が大きいほど温度が高いことを示す。また、一般に、温度取得装置3から出力される温度画像は、フレームレートが低い。
乗員状態検出装置1は、撮像装置2から取得した撮像画像に基づき乗員の動きを検出する。また、乗員状態検出装置1は、温度取得装置3から取得した温度画像に基づき乗員の温度を検出する。乗員状態検出装置1は、検出した、乗員の動きと乗員の温度とに基づき、乗員の覚醒度を推定する。乗員状態検出装置1が検出する乗員の動きおよび乗員の温度の詳細については、後述する。また、乗員状態検出装置1による乗員の覚醒度の推定方法の詳細については、後述する。
乗員状態検出装置1は、撮像画像取得部11、温度画像取得部12、乗員検出部13、動き検出部14、温度検出部15、覚醒度推定部16、および、出力部17を備える。
撮像画像取得部11は、撮像装置2から出力された撮像画像を取得する。
撮像画像取得部11は、取得した撮像画像を、乗員検出部13に出力する。
温度画像取得部12は、温度取得装置3から出力された温度画像を取得する。
温度画像取得部12は、取得した温度画像を、温度検出部15に出力する。
乗員検出部13は、撮像画像取得部11が取得した撮像画像に基づいて、乗員に関する情報(以下「乗員情報」という。)を検出する。具体的には、乗員検出部13は、乗員の目の位置、乗員の口の位置、乗員の体の位置、乗員の手の位置、または、乗員の顔の位置を検出する。乗員検出部13は、既知の画像認識技術を用いて、乗員の目の位置、乗員の口の位置、乗員の体の位置、乗員の手の位置、または、乗員の顔の位置を検出すればよい。
実施の形態1において、乗員検出部13が検出する、乗員の目の位置、乗員の口の位置、乗員の体の位置、乗員の手の位置、または、乗員の顔の位置は、撮像画像において、乗員の目、乗員の口、乗員の体、乗員の手、または、乗員の顔を示す領域内の1つ以上の点とする。乗員の目の位置、乗員の口の位置、乗員の体の位置、乗員の手の位置、または、乗員の顔の位置は、撮像画像上の座標であらわされる。
例えば、乗員検出部13は、乗員の目の位置として、乗員の左右の目それぞれの、左右の両端の位置、上瞼上の1点、および、下瞼上の1点の位置を検出する。
また、例えば、乗員検出部13は、乗員の口の位置として、乗員の左右の口角、上唇上の1点、および、下唇上の1点の位置を検出する。
また、例えば、乗員検出部13は、乗員の体の位置として、乗員の左右の肩の先端の位置を検出する。
また、例えば、乗員検出部13は、乗員の手の位置として、親指の付け根上の1点、および、小指の付け根上の1点の位置を検出する。
また、例えば、乗員検出部13は、乗員の顔の位置として、乗員の顎の先端の位置を検出する。
ここで、図2は、実施の形態1において、撮像画像上にて、乗員検出部13が検出した乗員の目の位置、乗員の口の位置、乗員の体の位置、乗員の手の位置、または、乗員の顔の位置の一例を示したイメージを説明するための図である。
図2において、201で示す8点は、乗員検出部13が検出した乗員の目、ここでは目の左右の両端、上瞼上の1点、または、下瞼上の1点の位置を示している。また、図2において、202で示す4点は、乗員検出部13が検出した乗員の口、ここでは口角の両端、上唇上の1点、または、下唇上の1点の位置を示している。また、図2において、203で示す1点は、乗員検出部13が検出した乗員の顔、ここでは顎の先端の位置を示している。また、図2において、204で示す2点は、乗員検出部13が検出した体、ここでは肩の両端の位置を示している。また、図2において、205で示す4点は、乗員検出部13が検出した手、ここでは、親指の付け根上の1点、または、小指の付け根上の1点の位置を示している。
なお、上述した例は一例に過ぎず、撮像画像において、乗員の目、乗員の口、乗員の体、乗員の手、または、乗員の顔を示す領域内のどの点を、乗員の目の位置、乗員の口の位置、乗員の体の位置、乗員の手の位置、または、乗員の顔の位置とするかは、適宜設定可能である。
乗員検出部13は、乗員の目の位置、乗員の口の位置、乗員の体の位置、乗員の手の位置、または、乗員の顔の位置を示す情報を、動き検出部14および温度検出部15に出力する。具体的には、乗員検出部13は、乗員の目の位置、乗員の口の位置、乗員の体の位置、乗員の手の位置、または、乗員の顔の位置を示す座標に対して、それぞれ、乗員の目の位置、乗員の口の位置、乗員の体の位置、乗員の手の位置、または、乗員の顔の位置であることを特定可能な情報を付与した撮像画像(以下「位置付与後撮像画像」という。)を、動き検出部14および温度検出部15に出力する。
動き検出部14は、撮像画像取得部11が取得した撮像画像に基づいて、乗員の動きを検出する。具体的には、動き検出部14は、乗員検出部13から出力された位置付与後撮像画像に基づいて、乗員の動きを検出する。実施の形態1において、動き検出部14は、乗員の動きとして、乗員の目の動き、乗員の口の動き、乗員の体の動き、乗員の手の動き、または、乗員の顔の動きを検出する。
動き検出部14は、位置付与後撮像画像を取得すると、取得した位置付与後撮像画像を、当該位置付与後撮像画像の取得日時に関する情報と対応付けて、記憶部(図示省略)に蓄積しているものとする。なお、記憶部は、乗員状態検出装置1に備えられていてもよいし、乗員状態検出装置1の外部の、乗員状態検出装置1が参照可能な場所に備えられていてもよい。動き検出部14は、乗員検出部13から出力された位置付与後撮像画像と、記憶部に蓄積されている過去の位置付与後撮像画像とに基づいて、乗員の目の動き、乗員の口の動き、乗員の体の動き、乗員の手の動き、または、乗員の顔の動きを検出する。
なお、ここでは、上述のとおり、動き検出部14が、位置付与後撮像画像を記憶部に記憶させるものとするが、これは一例に過ぎない。例えば、乗員検出部13が位置付与後撮像画像を動き検出部14に出力するとともに記憶部に蓄積するようにし、動き検出部14は、記憶部を参照して、乗員検出部13が蓄積させた位置付与後撮像画像を取得するようにしてもよい。
例えば、動き検出部14は、位置付与後撮像画像における乗員の目の位置に基づき、乗員の目の動きとして、乗員が目を瞑っていることを検出する。具体的には、動き検出部14は、例えば、上瞼上の1点と下瞼上の1点との距離が予め設定された閾値以内となった場合に乗員が目を瞑ったことを検出する。
また、例えば、動き検出部14は、乗員の目の動きとして、乗員の瞬きを検出する。具体的には、動き検出部14は、例えば、上瞼上の1点と下瞼上の1点との距離の変化に基づいて、乗員の瞬きを検出する。
なお、上述した例は一例に過ぎず、動き検出部14は、画像に基づいて人の目の開閉または瞬きを検出する既知の技術を用いて、乗員が目を瞑っていること、または、乗員が瞬きをしたことを検出すればよい。
また、例えば、動き検出部14は、位置付与後撮像画像における乗員の口の位置に基づき、乗員の口の動きとして、乗員があくびをしたことを検出する。具体的には、動き検出部14は、例えば、乗員の上唇上の1点と乗員の下唇上の1点との距離が予め設定された閾値(以下「開口判定用閾値」という。)以上離れた状態となった場合、乗員があくびをしたことを検出する。動き検出部14は、例えば、乗員の上唇上の1点と乗員の下唇上の1点との距離が開口判定用閾値以上離れた状態が、予め設定された時間(以下「開口判定時間」という。)以上継続した場合に、乗員があくびをしたことを検出するようにしてもよい。
なお、上述した例は一例に過ぎず、動き検出部14は、画像に基づいて人のあくびを検出する既知の技術を用いて、乗員があくびをしたことを検出すればよい。
また、例えば、動き検出部14は、位置付与後撮像画像における乗員の体の位置に基づき、乗員の体の動きとして、乗員の体がふらついたことを検出する。具体的には、動き検出部14は、例えば、位置付与後撮像画像における乗員の体の位置が、予め設定された閾値(以下「体動き判定用閾値」という。)以上離れた位置まで変化した場合、乗員の体がふらついたことを検出する。動き検出部14は、例えば、位置付与後撮像画像における乗員の体の位置が、単位時間当たりで、予め設定された閾値(以下「体動き判定用デルタ閾値」という。)以上変化した場合、乗員の体がふらついたことを検出するようにしてもよい。
このとき、動き検出部14は、乗員の体のふらつき度合いをあわせて検出する。乗員の体のふらつき度合いは、例えば、位置付与後撮像画像上の原点、または、位置付与後撮像画像上で予め決められている基準点と、乗員の体の位置とを結ぶ線が変化した角度(以下「体ふらつき角度」という。)であらわされる。
なお、乗員の肩の両端の一方の点を第1の肩位置、他方の点を第2の肩位置とすると、動き検出部14は、例えば、第1の肩位置または第2の肩位置のいずれかが体動き判定用閾値以上離れた位置まで変化した場合に、乗員の体がふらついたことを検出してもよいし、第1の肩位置または第2の肩位置の両方が体動き判定用閾値以上離れた位置まで変化した場合に、乗員がふらついたことを検出してもよい。
また、例えば、動き検出部14は、第1の肩位置または第2の肩位置のいずれかが、単位時間当たりで、体動き判定用デルタ閾値以上変化した場合に、乗員の体がふらついたことを検出してもよいし、第1の肩位置または第2の肩位置の両方が、単位時間当たりで、体動き判定用デルタ閾値以上変化した場合に、乗員の体がふらついたことを検出してもよい。
また、上述した例は一例に過ぎず、動き検出部14は、画像に基づいて人の体のふらつきを検出する既知の技術を用いて、乗員の体がふらついたこと、および、体ふらつき角度を検出すればよい。
また、例えば、動き検出部14は、位置付与後撮像画像における乗員の手の位置に基づき、乗員の手の動きを検出する。具体的には、動き検出部14は、例えば、乗員の親指の付け根上の1点の位置、または、乗員の小指の付け根上の1点の位置が、予め設定された閾値(以下「手動き判定用閾値」という。)以上離れた位置となるまで変化した場合、乗員の手に動きがあったことを検出する。動き検出部14は、例えば、乗員の親指の付け根上の1点の位置、または、乗員の小指の付け根上の1点の位置の、単位時間当たりの変化量が、予め設定された閾値(以下「手動き判定用デルタ閾値」という。)を超えた場合、乗員の手に動きがあったことを検出するようにしてもよい。
なお、動き検出部14は、乗員の親指の付け根上の1点(以下「親指点」という。)の位置、または、乗員の小指の付け根上の1点(以下「小指点」という。)のいずれか一方の位置が手動き判定用閾値以上離れた位置まで動いた場合に、乗員の手に動きがあったことを検出してもよいし、乗員の親指点の位置と乗員の小指点の位置の両方が手動き判定用閾値以上離れた位置まで動いた場合に、乗員の手に動きがあったことを検出してもよい。動き検出部14は、乗員の親指点の位置または乗員の小指点の位置のいずれか一方の位置の単位時間当たりの変化量が手動き判定用デルタ閾値を超えた場合に、乗員の手に動きがあったことを検出してもよいし、乗員の親指点の位置および乗員の小指点の位置の両方の単位時間当たりの変化量が手動き判定用デルタ閾値を超えた場合に、乗員の手に動きがあったことを検出してもよい。
動き検出部14は、例えば、上述したような位置の変化が、右手または左手のいずれか一方であった場合に、乗員の手に動きがあったことを検出すればよい。
なお、上述した例は一例に過ぎず、動き検出部14は、画像に基づいて人の手の動きを検出する既知の技術を用いて、乗員の手の動きを検出すればよい。
また、例えば、動き検出部14は、位置付与後撮像画像における乗員の顔の位置に基づき、乗員の顔の動きとして、乗員の頭がふらついたことを検出する。具体的には、動き検出部14は、例えば、位置付与後撮像画像における乗員の顔の位置が、予め設定された閾値(以下「顔動き判定用閾値」という。)以上離れた位置まで変化した場合、乗員の頭がふらついたことを検出する。動き検出部14は、例えば、位置付与後撮像画像における乗員の顔の位置が、単位時間当たりで、予め設定された閾値(以下「顔動き判定用デルタ閾値」という。)以上変化した場合、乗員の顔がふらついたことを検出するようにしてもよい。
このとき、動き検出部14は、乗員の頭のふらつき度合いをあわせて検出する。乗員の頭のふらつき度合いは、例えば、位置付与後撮像画像の原点、または、位置付与後撮像画像上で予め決められている基準点と、乗員の顔の位置とを結ぶ線が変化した角度(以下「頭ふらつき角度」という。)であらわされる。
なお、上述した例は一例に過ぎず、動き検出部14は、画像に基づいて人の顔の動きを検出する既知の技術を用いて、乗員の頭がふらついたこと、および、頭ふらつき角度を検出すればよい。
動き検出部14は、撮像画像取得部11が取得した撮像画像に基づいて乗員の動きを検出したか否かを示す情報(以下「動き検出通知情報」という。)を、覚醒度推定部16に出力する。このとき、動き検出部14は、撮像画像の取得日時に関する情報と対応付けて、動き検出通知情報を出力する。なお、動き検出部14は、撮像画像の取得日時を、例えば、撮像画像に付与されている、当該撮像画像の撮像日時とすればよい。
動き検出通知情報には、乗員の目の動きを検出したか否か、乗員の口の動きを検出したか否か、乗員の体の動きを検出したか否か、乗員の手の動きを検出したか否か、および、乗員の顔の動きを検出したか否かの情報が含まれる。
乗員の目の動きを検出したか否かの情報とは、具体的には、例えば、乗員が目を瞑っていることを検出したか否か、および、乗員が瞬きをしたことを検出したか否かの情報である。
乗員の口の動きを検出したか否かの情報とは、具体的には、例えば、乗員があくびをしたことを検出したか否かの情報である。
乗員の体の動きを検出したか否かの情報とは、具体的には、例えば、乗員の体がふらついたことを検出したか否かの情報、および、乗員の体がふらついたことを検出した場合は体ふらつき角度の情報である。
乗員の手の動きを検出したか否かの情報には、例えば、乗員の手の動きを検出したか否かの情報に加えて、乗員の手の動きを検出した場合、右手なのか左手なのかを特定可能な情報が含まれるようにしてもよい。
乗員の顔の動きを検出したか否かの情報とは、例えば、乗員の頭がふらついたことを検出したか否かの情報、および、乗員の頭がふらついたことを検出した場合は頭ふらつき角度の情報である。
温度検出部15は、乗員検出部13から出力された位置付与後撮像画像と、温度画像取得部12が取得した温度画像とに基づいて、乗員の温度を検出する。実施の形態1において、乗員の温度とは、乗員の手の温度および顔の温度をいう。すなわち、温度検出部15は、乗員検出部13から出力された位置付与後撮像画像と、温度画像取得部12が取得した温度画像とに基づいて、乗員の手の温度および顔の温度を検出する。
具体的には、まず、温度検出部15は、位置付与後撮像画像と温度画像の位置合わせを行う。実施の形態1において、温度検出部15が行う、位置付与後撮像画像と温度画像の位置合わせとは、位置付与後撮像画像と温度画像について、同じ空間位置を示す互いの画素の対応付けを行うことをいう。
撮像装置2と温度取得装置3は、それぞれ、車内に固定されて設置されているので、温度検出部15は、予め決められた撮像装置2の設置位置および温度取得装置3の設置位置に基づけば、位置付与後撮像画像と温度画像の位置合わせを行うことができる。そして、温度検出部15は、位置付与後撮像画像と温度画像の位置合わせを行うと、温度画像において、どの画素が、乗員の手の温度、または、乗員の顔の温度を示す画素であるか、特定することができる。
ここで、図3は、実施の形態1において、温度検出部15が、位置付与後撮像画像との位置合わせを行った後の温度画像のイメージの一例を示す図である。
図3では、便宜上、温度画像上に、位置付与後撮像画像から特定された乗員の目の位置(図3の201参照)、乗員の口の位置(図3の202参照)、乗員の顔の位置(図3の203参照)、乗員の体の位置(図3の204参照)、および、乗員の手の位置(図3の205参照)を反映して、当該温度画像を示している。なお、ここでは、位置付与後撮像画像は、乗員検出部13が、図2で示したように乗員の顔の位置、乗員の口の位置、乗員の目の位置、乗員の手の位置、および、乗員の体の位置を検出した場合に当該乗員検出部13から出力された位置付与後撮像画像であったものとしている。
温度検出部15は、例えば、温度画像上で、乗員の顔の位置、言い換えれば、乗員の顎の位置を通り、かつ、乗員の目の位置、および、乗員の口の位置を含む最小の円で示される範囲を、乗員の顔の温度を検出するための範囲(以下「顔温度検出範囲」という。)とする。なお、実施の形態1において、「最小」とは、厳密に「最小」であることに限らず、略最小であればよい。また、上述の顔温度検出範囲の設定方法は一例に過ぎない。温度検出部15が、どのような範囲を顔温度検出範囲とするかは、適宜設定可能である。
温度検出部15は、例えば、少なくとも一部が顔温度検出範囲に含まれる画素の画素値の平均値を、乗員の顔の温度として検出する。
なお、上述したような、乗員の顔の温度の検出方法は一例に過ぎず、温度検出部15は、その他の方法で乗員の顔の温度を検出してもよい。例えば、温度検出部15は、少なくとも一部が顔温度検出範囲に含まれる複数の画素のうち、当該顔温度検出範囲内となる面積が一番大きい画素(以下「顔選択画素」という。)を選択し、当該顔選択画素の画素値を乗員の顔の温度として検出してもよい。温度検出部15は、顔選択画素が複数ある場合、例えば、複数の顔選択画素のうちの任意の顔選択画素の画素値を乗員の顔の温度として検出する。
また、温度検出部15は、例えば、温度画像上で、乗員の手の位置、言い換えれば、乗員の親指の付け根上の1点および小指の付け根の1点を通り、この2点を直径とする円で示される範囲を、乗員の手の温度を検出するための範囲(以下「手温度検出範囲」という。)とする。温度検出部15は、右手および左手それぞれについて、手温度検出範囲を設定する。なお、上述の手温度検出範囲の設定方法は一例に過ぎない。温度検出部15が、どのような範囲を手温度検出範囲とするかは、適宜設定可能である。
温度検出部15は、例えば、少なくとも一部が手温度検出範囲に含まれる画素の画素値の平均値を、乗員の手の温度として検出する。
なお、上述したような、乗員の手の温度の検出方法は一例に過ぎず、温度検出部15は、その他の方法で乗員の手の温度を検出してもよい。例えば、温度検出部15は、少なくとも一部が手温度検出範囲に含まれる複数の画素のうち、当該手温度検出範囲内となる面積が一番大きい画素(以下「手選択画素」という。)を選択し、当該手選択画素の画素値を乗員の手の温度として検出してもよい。温度検出部15は、手選択画素が複数ある場合、例えば、複数の手選択画素のうちの任意の手選択画素の画素値を乗員の手の温度として検出する。
温度検出部15は、乗員の手の温度および顔の温度を検出すると、検出した、乗員の手の温度および顔の温度に関する情報(以下「温度検出情報」という。)を、温度画像の取得日時に関する情報と対応付けて、覚醒度推定部16に出力する。温度検出部15は、温度画像の取得日時を、例えば、温度画像に付与されている、当該温度画像の作成日時とすればよい。
覚醒度推定部16は、動き検出部14が検出した乗員の動きと、温度検出部15が検出した乗員の手の温度および顔の温度とに基づいて、乗員の覚醒度を推定する。実施の形態1では、一例として、覚醒度推定部16は、覚醒度を、「レベル1」~「レベル5」の5段階で示される度合いとする。なお、覚醒度が大きいほど、乗員が覚醒している状態である度合いが高いことを示す。覚醒度推定部16が乗員の覚醒度を推定する方法について、以下、詳細に説明する。
覚醒度推定部16は、まず、動き検出部14が乗員の手の動きを検出したか否かを判定する。具体的には、覚醒度推定部16は、動き検出部14から、手の動きを検出した旨の情報を含む動き検出通知情報が出力されたか否かを判定する。
動き検出部14が乗員の手の動きを検出した場合、覚醒度推定部16は、当該乗員の手の動きに基づいて乗員の覚醒度を推定する。具体的には、覚醒度推定部16は、乗員の手の動きがあったことから、当該乗員は覚醒状態であると推定し、乗員の覚醒度を「レベル5」とする。なお、乗員の手の動きがあるということは、乗員が覚醒している可能性が高いといえる。
一方、動き検出部14が乗員の手の動きを検出しなかった場合、覚醒度推定部16は、動き検出部14が検出した乗員の動きと、温度検出部15が検出した乗員の手の温度および顔の温度とに基づいて乗員の覚醒度を推定する。具体的には、覚醒度推定部16は、予め設定された条件(以下「判定条件」という。)に基づいて構築されたルール(以下「覚醒度推定ルール」という。)に従って、乗員の覚醒度を推定する。覚醒度推定ルールは、判定条件の論理和または論理積の組み合わせによって、予め構築されている。
なお、乗員の手の動きがないということは、乗員の覚醒度が低下している可能性が高いといえる。
判定条件および覚醒度推定ルールについて、具体例を挙げて説明する。
判定条件には、例えば、以下の(A)~(E)のような条件が定義されている。
(A)過去10秒間のうち、「乗員が瞬きをしている」回数が5回以上
(B)過去10秒間のうち、「乗員が目を瞑っている」時間が5秒以上
(C)過去5分間のうち、「乗員があくびをしている」回数が1回以上
(D)過去5分間のうち、20度以上の角度で「乗員の頭がふらついている」回数が2回以上
(E)乗員の顔の温度に対して乗員の手の温度が-5℃以内
(A)~(D)は、乗員が眠気を感じている際に現れる乗員の動きを判定するための条件である。(A)~(D)を満たす場合、乗員は眠気を感じている状態といえる。なお、(D)が上述したような内容である場合、20度以上の角度で「乗員の頭がふらついている」ことは、上記頭ふらつき角度から判定可能である。
(E)は、人が眠気を感じている場合に、指先等の抹消部分の血流量が増加し、当該抹消部分の温度が上昇して顔または深部体温に近くなるという生理現象が起こっていることを判定するための条件である。(E)を満たす場合、乗員は眠気を感じている状態といえる。
判定条件が、上記(A)~(E)であった場合、覚醒度推定ルールとして、例えば、以下の(1)~(6)のようなルールが構築されている。
(1)判定条件(E)が偽であれば、覚醒度「レベル5」
(2)判定条件(E)が真であり、その他の判定条件(判定条件(A)~(D))が偽であれば、覚醒度「レベル5」
(3)判定条件(E)が真であり、その他の判定条件(判定条件(A)~(D))のうち1つが真であれば、覚醒度「レベル4」
(4)判定条件(E)が真であり、その他の判定条件(判定条件(A)~(D))のうち2つが真であれば、覚醒度「レベル3」
(5)判定条件(E)が真であり、その他の判定条件(判定条件(A)~(D))のうち3つが真であれば、覚醒度「レベル2」
(6)判定条件(E)が真であり、その他の判定条件(判定条件(A)~(D))全てが真であれば、覚醒度「レベル1」
例えば、覚醒度推定部16は、動き検出部14から動き検出通知情報を取得すると、当該動き検出通知情報を、記憶部に蓄積しているものとする。また、覚醒度推定部16は、温度検出部15から温度検出情報を取得すると、当該温度検出情報を、記憶部に蓄積しているものとする。覚醒度推定部16は、記憶部に蓄積されている動き検出通知情報および温度検出情報に基づき、覚醒度推定ルールに従って、乗員の覚醒度を推定する。
なお、ここでは、上述のとおり、覚醒度推定部16が、動き検出通知情報および温度検出情報を記憶させるものとするが、これは一例に過ぎない。例えば、動き検出部14が動き検出通知情報を記憶部に蓄積するようにし、温度検出部15が温度検出情報を記憶部に蓄積するようにして、覚醒度推定部16は、記憶部を参照して、乗員の覚醒度を推定するようにしてもよい。
また、上記判定条件は、一例に過ぎない。例えば、上記判定条件について、「過去5分間のうち、20度以上の角度で「乗員の体がふらついている」回数が2回以上」等、体の動きに関する判定条件を加えるようにしてもよい。
判定条件の内容は、予め実験的に決定される。そして、予め実験的に決定された判定条件を用いて、覚醒度推定ルールが予め構築されている。
以上のとおり、覚醒度推定部16は、まず、乗員の手の動きが検出されたか否かを判定し、乗員の手の動きが検出された場合には、乗員は覚醒状態、言い換えれば、当該乗員の覚醒度は「レベル5」であると推定する。この場合、覚醒度推定部16は、覚醒度推定ルールに従った乗員の覚醒度の推定、言い換えれば、手の温度および顔の温度を用いた乗員の覚醒度の推定は行わない。具体例を挙げると、例えば、乗員がハンドル操作を行っている場合には、動き検出部14によって当該乗員の手の動きが検出されるため、覚醒度推定部16は、乗員は覚醒状態であると推定し、当該乗員の手の温度および顔の温度を用いた乗員の覚醒度の推定は行わない。
覚醒度推定部16は、乗員の手の動きが検出されなかった場合に、当該乗員の動きと、当該乗員の手の温度および顔の温度とを用いた乗員の覚醒度の推定を行う。
一般に、温度取得装置3から出力される温度画像は、フレームレートが低い。従って、乗員の手に動きがあると、温度画像にはボヤケが生じやすく、逆に、乗員の手に動きがない場合には、温度画像にはボヤケが生じにくい。従って、温度検出部15は、乗員の手に動きがない場合、乗員の手の動きがある場合に比べて、温度画像から乗員の手の温度および顔の温度を精度よく検出できる。
覚醒度推定部16は、上述したような順番で乗員の覚醒度の推定を行うことで、温度画像に基づいて検出された乗員の手の温度および顔の温度を用いた乗員の覚醒度の推定を、合理的に行うことができる。
覚醒度推定部16は、推定した乗員の覚醒度に関する情報(以下「覚醒度情報」という。)を、出力部17に出力する。覚醒度情報には、例えば、覚醒度推定部16が判定した覚醒度のレベルの情報が含まれる。
出力部17は、覚醒度推定部16から出力された覚醒度情報を出力する。具体的には、出力部17は、覚醒度情報を、例えば、警報出力制御装置(図示省略)、空調制御装置(図示省略)、または、自動運転制御装置(図示省略)に出力する。警報出力制御装置、空調制御装置、および、自動運転制御装置は、車両に搭載されている。
例えば、警報出力制御装置は、覚醒度推定部16から覚醒度情報が出力されると、車内の乗員に対して、眠気への注意喚起を行うための警報を出力する。
例えば、空調制御装置は、覚醒度推定部16から覚醒度情報が出力されると、眠気を抑制するよう、空調を制御する。
例えば、自動運転制御装置は、覚醒度推定部16から覚醒度情報が出力されると、手動運転から自動運転へと車両の運転制御方法を切り替える。なお、この場合、車両は自動運転機能を有する。車両は、自動運転機能を有する場合であっても、運転者が自ら当該車両を手動運転することが可能である。
実施の形態1に係る乗員状態検出装置1の動作について説明する。
図4は、実施の形態1に係る乗員状態検出装置1の動作を説明するためのフローチャートである。
撮像画像取得部11は、撮像装置2から出力された撮像画像を取得する(ステップST401)。
撮像画像取得部11は、取得した撮像画像を、乗員検出部13に出力する。
温度画像取得部12は、温度取得装置3から出力された温度画像を取得する(ステップST402)。
温度画像取得部12は、取得した温度画像を、温度検出部15に出力する。
乗員検出部13は、ステップST401にて撮像画像取得部11が取得した撮像画像に基づいて乗員情報を検出する(ステップST403)。具体的には、乗員検出部13は、乗員の目の位置、乗員の口の位置、乗員の体の位置、乗員の手の位置、または、乗員の顔の位置を検出する。
乗員検出部13は、乗員の目の位置、乗員の口の位置、乗員の体の位置、乗員の手の位置、または、乗員の顔の位置を示す情報を、動き検出部14および温度検出部15に出力する。具体的には、乗員検出部13は、位置付与後撮像画像を、動き検出部14および温度検出部15に出力する。
動き検出部14は、ステップST401にて撮像画像取得部11が取得した撮像画像に基づいて、乗員の動きを検出する(ステップST404)。具体的には、動き検出部14は、ステップST403にて乗員検出部13から出力された位置付与後撮像画像に基づいて、乗員の動きを検出する。
動き検出部14は、動き検出通知情報を、撮像画像の取得日時に関する情報と対応付けて覚醒度推定部16に出力する。
温度検出部15は、ステップST403にて乗員検出部13から出力された位置付与後撮像画像と、ステップST402にて温度画像取得部12が取得した温度画像とに基づいて、乗員の温度を検出する(ステップST405)。具体的には、温度検出部15は、乗員検出部13から出力された位置付与後撮像画像と、温度画像取得部12が取得した温度画像とに基づいて、乗員の手の温度および顔の温度を検出する。
温度検出部15は、乗員の手の温度および顔の温度を検出すると、温度検出情報を、温度画像の取得日時に関する情報と対応付けて、覚醒度推定部16に出力する。
覚醒度推定部16は、まず、ステップST404にて動き検出部14が乗員の手の動きを検出したか否かを判定する(ステップST406)。具体的には、覚醒度推定部16は、動き検出部14から、手の動きを検出した旨の情報を含む動き検出通知情報が出力されたか否かを判定する。
動き検出部14が乗員の手の動きを検出した場合(ステップST406の”YES”の場合)、覚醒度推定部16は、当該乗員の手の動きに基づいて乗員の覚醒度を推定する。具体的には、覚醒度推定部16は、乗員の手の動きがあったことから、当該乗員は覚醒状態であると推定し、乗員の覚醒度を「レベル5」とする(ステップST407)。覚醒度推定部16は、覚醒度情報を出力部17に出力する。そして、乗員状態検出装置1の動作は、ステップST409へ進む。
一方、動き検出部14が乗員の手の動きを検出しなかった場合(ステップST406の”NO”の場合)、覚醒度推定部16は、ステップST404にて動き検出部14が検出した乗員の動きと、ステップST405にて温度検出部15が検出した乗員の手の温度および顔の温度とに基づいて、乗員の覚醒度を推定する(ステップST408)。具体的には、覚醒度推定部16は、判定条件に基づいて構築された覚醒度推定ルールに従って、乗員の覚醒度を推定する。
覚醒度推定部16は、覚醒度情報を出力部17に出力する。そして、乗員状態検出装置1の動作は、ステップST409へ進む。
ステップST409において、出力部17は、覚醒度推定部16から出力された覚醒度情報を出力する(ステップST409)。
なお、図4のフローチャートでは、ステップST401、ステップST402の順番で乗員状態検出装置1の動作が行われるものとしたが、これは一例に過ぎない。ステップST401の動作とステップST402の動作の順番は、逆であってもよいし、並行して行われてもよい。また、ステップST402の動作は、ステップST405の動作が行われるまでに行われるようになっていればよい。
また、図4のフローチャートでは、ステップST404、ステップST405の順番で乗員状態検出装置1の動作が行われるものとしたが、これは一例に過ぎない。ステップST404の動作とステップST405の動作の順番は、逆であってもよいし、並行して行われてもよい。
上述したような従来技術では、車両の乗員の覚醒度を推定する際に用いる当該乗員の手の温度を、ハンドルの周縁部の、運転者がハンドルを握った状態で運転者の手指が接触する位置に配置されている手指温度センサから取得していた。当該従来技術で開示されているような方法で乗員の手の温度を取得する場合、当該乗員がハンドルを握る位置がずれると手の温度を取得できない。また、乗員は一定の姿勢をとることが必要とされるため、従来技術で開示されているような、乗員の手の温度を取得する方法は、乗員にとって負荷がかかる方法であった。
これに対し、乗員状態検出装置1は、乗員を撮像した撮像画像と、非接触で測定された乗員の体の表面の温度をあらわす温度画像とを取得し、撮像画像に基づいて検出した乗員の動きと、温度画像に基づいて検出した乗員の手の温度および顔の温度に基づいて、乗員の覚醒度を推定する。
これにより、乗員状態検出装置1は、乗員がハンドルを握る位置に関係なく、当該乗員の手の温度および顔の温度に基づいて当該乗員の覚醒度の推定を行うことができる。
また、乗員状態検出装置1は、乗員の覚醒度を推定する際、まず乗員の手の動きを検出したか否かを判定し、乗員の手の動きを検出した場合は、当該乗員の手の動きに基づいて乗員の覚醒度を推定し、乗員の手の動きを検出しなかった場合は、乗員の動きと、乗員の手の温度および乗員の顔の温度とに基づいて乗員の覚醒度を推定するようにした。
これにより、乗員状態検出装置1は、温度画像に基づいて検出された乗員の手の温度および顔の温度を用いた乗員の覚醒度の推定を、合理的に行うことができる。
以上の実施の形態1では、覚醒度推定部16は、手の動きが検出されなかった場合、動き検出部14が検出した乗員の動きと、温度検出部15が検出した乗員の手の温度および顔の温度とに基づいて乗員の覚醒度を推定するものとした。具体的には、例えば、上述の例の判定条件(E)のように、覚醒度推定部16は、乗員の手の温度と顔の温度とによって手の相対的な温度変化を検出し、当該手の相対的な温度変化を乗員の覚醒度の推定に用いるようにしていた。しかし、これは一例に過ぎない。
覚醒度推定部16は、乗員の覚醒度を推定する際、乗員の顔の温度を用いないようにしてもよい。すなわち、覚醒度推定部16は、手の動きが検出されなかった場合、動き検出部14が検出した乗員の動きと、温度検出部15が検出した乗員の手の温度とに基づいて、乗員の覚醒度を推定するようにしてもよい。例えば、上述の例において、判定条件(E)を、乗員の手の温度の変化に対する条件としてもよい。
覚醒度推定部16が、乗員の覚醒度の推定を行う際に用いる際の乗員の温度は、少なくとも、乗員の手の温度であればよい。なお、この場合、温度検出部15は、乗員の温度として、乗員の手の温度を検出するようになっていればよい。
ただし、例えば、温度取得装置3が、サーモパイル等の非接触の温度アレイセンサである場合、当該温度アレイセンサは、画素単位での温度の検出誤差は大きく、ある画素とその他の画素との差分での温度の検出誤差は小さいという特徴を有する。そのため、乗員の覚醒度を推定する際の乗員の手の温度変化は、当該乗員の手の温度のみから検出するのではなく、当該乗員の顔の温度を用いて、当該乗員の手の温度と乗員の顔の温度の差から検出するほうが、より正確に当該の乗員の手の温度変化を検出することができる。その結果、覚醒度推定部16は、より精度よく、乗員の覚醒度を推定することができる。
また、以上の実施の形態1では、覚醒度推定部16は、動き検出部14が乗員の手の動きを検出しなかった場合、判定条件に基づいて構築された覚醒度推定ルールに従って、乗員の覚醒度を推定するようにしていた。これに限らず、覚醒度推定部16は、動き検出部14が乗員の手の動きを検出しなかった場合、機械学習における学習済みのモデル(以下「機械学習モデル」という。)に基づいて、乗員の覚醒度を推定するようにすることもできるので、以下、説明する。
図5は、実施の形態1において、乗員状態検出装置1aが、機械学習モデル18に基づいて乗員の覚醒度を推定するようにした場合の、乗員状態検出装置1aの構成例を示す図である。
図5に示す乗員状態検出装置1aにおいて、図1を用いて説明した乗員状態検出装置1の構成と同様の構成については、同じ符号を付して重複した説明を省略する。
乗員状態検出装置1aは、図1を用いて説明した乗員状態検出装置1とは、機械学習モデル18を備える点が異なる。
また、乗員状態検出装置1aでは、覚醒度推定部16aの具体的な動作が、乗員状態検出装置1における覚醒度推定部16の具体的な動作とは異なる。
機械学習モデル18は、乗員の動きに関する情報と、乗員の手の温度および顔の温度に関する情報とを入力とし、乗員の覚醒度合いを示す情報を出力する機械学習モデルである。乗員の動きに関する情報には、乗員の目の動き、乗員の口の動き、乗員の体の動き、乗員の手の動き、または、乗員の顔の動きに関する情報が含まれる。
機械学習モデル18は、予め、教師データと、覚醒度の正解ラベルとを用いた学習により生成されている。覚醒度の正解ラベルは、例えば、覚醒度を示すレベルである。正解ラベルは、例えば、NEDO(New Energy and Industrial Technology Development Organization。国立研究開発法人新エネルギー・産業技術総合開発機構)による顔表情からの眠気評価指標であってもよいし、カロリンスカ眠気尺度(KSS)で示される眠気の程度の段階であってもよい。また、正解ラベルは、例えば、乗員状態検出装置1aの管理者によって独自に設定された、覚醒度を示すレベルであってもよい。
なお、ここでは、図5に示すように、機械学習モデル18は、乗員状態検出装置1aに備えられるものとするが、これは一例に過ぎない。機械学習モデル18は、乗員状態検出装置1aの外部の、乗員状態検出装置1aが参照可能な場所に備えられるようにしてもよい。
覚醒度推定部16aは、動き検出部14が検出した乗員の動きと、温度検出部15が検出した乗員の手の温度および顔の温度と、機械学習モデル18とに基づいて、乗員の覚醒度を推定する。
覚醒度推定部16aは、まず、動き検出部14が乗員の手の動きを検出したか否かを判定する。具体的には、覚醒度推定部16aは、動き検出部14から、手の動きを検出した旨の情報を含む動き検出通知情報が出力されたか否かを判定する。
動き検出部14が乗員の手の動きを検出した場合、覚醒度推定部16aは、当該乗員の手の動きに基づいて乗員の覚醒度を推定する。具体的には、覚醒度推定部16aは、乗員の手の動きがあったことから、当該乗員は覚醒状態であると推定し、乗員の覚醒度を「レベル5」とする。なお、乗員の手の動きがあるということは、乗員が覚醒している可能性が高いといえる。
一方、動き検出部14が乗員の手の動きを検出しなかった場合、覚醒度推定部16aは、動き検出部14が検出した乗員の動きと、温度検出部15が検出した乗員の手の温度および顔の温度と、機械学習モデル18とに基づいて、乗員の覚醒度を推定する。具体的には、覚醒度推定部16aは、動き検出部14から出力された動き検出通知情報と温度検出部15から出力された温度検出情報とを機械学習モデル18に入力し、乗員の覚醒度を示す情報を取得する。
図5に示したような構成とした乗員状態検出装置1aの動作について説明する。
図5に示したような構成とした乗員状態検出装置1aの動作は、図4のフローチャートを用いて説明した乗員状態検出装置1の動作とは、ステップST408の具体的な動作が異なる。その他の具体的な動作(ステップST401~ステップST407、ステップST409の具体的な動作)は、説明済みであるため、重複した説明を省略する。なお、乗員状態検出装置1aにおいて、ステップST407の具体的な動作は、説明済みの、覚醒度推定部16の動作を、覚醒度推定部16aの動作と読み替えた動作となる。
乗員状態検出装置1aにおいて、動き検出部14が乗員の手の動きを検出しなかった場合(ステップST406の”NO”の場合)、覚醒度推定部16aは、ステップST404にて動き検出部14が検出した乗員の動きと、ステップST405にて温度検出部15が検出した乗員の手の温度および顔の温度と、機械学習モデル18とに基づいて、乗員の覚醒度を推定する(ステップST408)。具体的には、覚醒度推定部16aは、動き検出部14から出力された動き検出通知情報と温度検出部15から出力された温度検出情報とを機械学習モデル18に入力し、乗員の覚醒度を示す情報を取得する。
覚醒度推定部16aは、覚醒度情報を、出力部17に出力する。そして、乗員状態検出装置1の動作は、ステップST409へ進む。
このように、乗員状態検出装置1aは、乗員を撮像した撮像画像と、非接触で測定された乗員の体の表面の温度をあらわす温度画像とを取得し、撮像画像に基づいて検出した乗員の動きと、温度画像に基づいて検出した乗員の手の温度および顔の温度と、機械学習モデル18とに基づいて、乗員の覚醒度を推定する。
これにより、乗員状態検出装置1aは、乗員がハンドルを握る位置に関係なく、当該乗員の手の温度に基づいて当該乗員の覚醒度の推定を行うことができる。
また、乗員状態検出装置1aは、乗員の覚醒度を推定する際、まず乗員の手の動きを検出したか否かを判定し、乗員の手の動きを検出した場合は、当該乗員の手の動きに基づいて乗員の覚醒度を推定し、乗員の手の動きを検出しなかった場合は、乗員の動きと、乗員の手の温度および乗員の顔の温度と、機械学習モデル18とに基づいて乗員の覚醒度を推定するようにした。
これにより、乗員状態検出装置1aは、温度画像に基づいて検出された乗員の手および顔の温度を用いた乗員の覚醒度の推定を、合理的に行うことができる。
また、乗員状態検出装置1aは、機械学習モデル18を用いて乗員の覚醒度の推定を行うので、教師データを多数用意することができれば、覚醒度推定ルールに従って乗員の覚醒度の推定を行うことと比べて、乗員の覚醒度の推定精度を高めることができる。
なお、乗員状態検出装置1aにおいても、覚醒度推定部16aは、乗員の覚醒度を推定する際、乗員の顔の温度を用いないようにしてもよい。すなわち、覚醒度推定部16aは、手の動きが検出されなかった場合、動き検出部14が検出した乗員の動きと、温度検出部15が検出した乗員の手の温度と、機械学習モデル18とに基づいて、乗員の覚醒度を推定するようにしてもよい。このように、覚醒度推定部16aが、乗員の覚醒度の推定を行う際に用いる際の乗員の温度は、少なくとも、乗員の手の温度であればよい。なお、この場合、温度検出部15は、乗員の温度として、乗員の手の温度を検出するようになっていればよい。
この場合、機械学習モデル18は、乗員の動きに関する情報と、乗員の手の温度に関する情報とを入力とし、乗員の覚醒度合いを示す情報を出力する機械学習モデルである。
また、以上の実施の形態1において、乗員状態検出装置1を、乗員の属性を考慮して、当該乗員の覚醒度を推定する構成とすることもできる。
図6は、実施の形態1において、乗員の属性を考慮して当該乗員の覚醒度を推定するようにした場合の、乗員状態検出装置1bの構成例を示す図である。
図6に示す乗員状態検出装置1bにおいて、図1を用いて説明した乗員状態検出装置1の構成と同様の構成については、同じ符号を付して重複した説明を省略する。
乗員状態検出装置1bは、図1を用いて説明した乗員状態検出装置1とは、属性抽出部19を備える点が異なる。
また、乗員状態検出装置1bでは、覚醒度推定部16bの具体的な動作が、乗員状態検出装置1における覚醒度推定部16の具体的な動作とは異なる。
属性抽出部19は、撮像画像取得部11が取得した撮像画像に基づき、乗員の属性を抽出する。実施の形態1において、乗員の属性とは、例えば、乗員の年齢、乗員の性別、または、乗員の体格である。なお、乗員状態検出装置1bでは、撮像画像取得部11は、取得した撮像画像を、乗員検出部13および属性抽出部19に出力する。
属性抽出部19は、既知の画像認識処理技術を用いて、撮像画像から乗員の属性を抽出すればよい。
属性抽出部19は、抽出した乗員の属性に関する情報(以下「乗員属性情報」という。)を、覚醒度推定部16bに出力する。
覚醒度推定部16bは、動き検出部14が検出した乗員の動きと、温度検出部15が検出した乗員の手の温度および顔の温度と、属性抽出部19が抽出した乗員の属性とに基づいて、乗員の覚醒度を推定する。
動き検出部14が乗員の手の動きを検出した場合、覚醒度推定部16bは、当該乗員の手の動きに基づいて乗員の覚醒度を推定する。具体的には、覚醒度推定部16bは、乗員の手の動きがあったことから、当該乗員は覚醒状態であると推定し、乗員の覚醒度を「レベル5」とする。なお、乗員の手の動きがあるということは、乗員が覚醒している可能性が高いといえる。
一方、動き検出部14が乗員の手の動きを検出しなかった場合、覚醒度推定部16bは、動き検出部14が検出した乗員の動きと、温度検出部15が検出した乗員の手の温度および顔の温度とに基づいて乗員の覚醒度を推定する。具体的には、覚醒度推定部16bは、判定条件に基づいて構築された覚醒度推定ルールに従って、乗員の覚醒度を推定する。このとき、覚醒度推定部16bは、属性抽出部19が抽出した乗員の属性に基づき、判定条件を補正する。そして、覚醒度推定部16bは、補正後の判定条件を覚醒度推定ルールに適用させて、乗員の覚醒度を推定する。
覚醒度推定部16bによる判定条件の補正について、具体例を挙げて説明する。以下の具体例では、判定条件は、上述の(A)~(E)であったとする。
例えば、覚醒度推定部16bは、乗員の性別に応じて、判定条件を補正する。具体的には、例えば、乗員が女性である場合、覚醒度推定部16bは、判定条件(E)を、「顔の温度に対して手の温度が-3℃以内」と補正する。一般に、女性の方が男性より体温が高いとされている。そのため、覚醒度推定部16bは、乗員が女性である場合に、覚醒度を示す度合いが高く判定される、手の温度と顔の温度との差分の幅を狭くするよう、判定条件(E)を補正する。
また、例えば、覚醒度推定部16bは、乗員の年齢に応じて、判定条件を補正する。具体的には、例えば、乗員が高齢である場合、覚醒度推定部16bは、判定条件(A)を「過去10秒間のうち、「乗員が瞬きをしている」回数が4回以上」、判定条件(B)を「過去10秒間のうち、「乗員が目を瞑っている」時間が4秒以上」、判定条件(C)を、「過去3分間のうち、「乗員があくびをしている」回数が1回以上」、判定条件(D)を、「過去5分間のうち、20度以上の角度で「乗員の頭がふらついている」回数が1回以上」とする等、覚醒度を示す度合いが高く判定される条件が厳しくなるよう、判定条件(A)~(D)を補正する。
また、例えば、覚醒度推定部16bは、乗員の体格に応じて、判定条件を補正する。具体的には、例えば、乗員が太っている場合、覚醒度推定部16bは、判定条件(E)を、「顔の温度に対して手の温度が-3℃以内」と補正する。一般に、太っている人は痩せている人に比べて体温が高いとされている。そのため、覚醒度推定部16bは、乗員が太っている場合に、覚醒度を示す度合いが高く判定される、手の温度と顔の温度との差分の幅を狭くするよう、判定条件(E)を補正する。
覚醒度推定部16bは、補正後の判定条件を適用させた覚醒度推定ルールに従って乗員の覚醒度を推定すると、覚醒度情報を出力部17に出力する。
図6に示したような構成とした乗員状態検出装置1bの動作について説明する。
図6に示したような構成とした乗員状態検出装置1bの動作は、図4のフローチャートを用いて説明した乗員状態検出装置1の動作とは、ステップST408の具体的な動作が異なる。その他の具体的な動作(ステップST401~ステップST407、ステップST409の具体的な動作)は、説明済みであるため、重複した説明を省略する。なお、乗員状態検出装置1bにおいて、ステップST407の具体的な動作は、説明済みの、覚醒度推定部16の動作を、覚醒度推定部16bの動作と読み替えた動作となる。
また、乗員状態検出装置1bでは、ステップST408の動作が行われるまでに、属性抽出部19は、撮像画像取得部11が取得した撮像画像に基づき、乗員の属性を抽出し、乗員属性情報を覚醒度推定部16bに出力する。
乗員状態検出装置1bにおいて、動き検出部14が乗員の手の動きを検出しなかった場合(ステップST406の”NO”の場合)、覚醒度推定部16bは、ステップST404にて動き検出部14が検出した乗員の動きと、ステップST405にて温度検出部15が検出した乗員の手の温度および顔の温度と、属性抽出部19が抽出した乗員の属性とに基づいて、乗員の覚醒度を推定する(ステップST408)。具体的には、覚醒度推定部16bは、判定条件に基づいて構築された覚醒度推定ルールに従って、乗員の覚醒度を推定する。このとき、覚醒度推定部16bは、属性抽出部19が抽出した乗員の属性に基づき、判定条件を補正する。そして、覚醒度推定部16bは、補正後の判定条件を覚醒度推定ルールに適用させて、乗員の覚醒度を推定する。
覚醒度推定部16bは、覚醒度情報を、出力部17に出力する。そして、乗員状態検出装置1の動作は、ステップST409へ進む。
このように、乗員状態検出装置1bは、乗員を撮像した撮像画像と、非接触で測定された乗員の体の表面の温度をあらわす温度画像とを取得し、撮像画像に基づいて検出した乗員の動きと、温度画像に基づいて検出した乗員の手の温度および顔の温度と、撮像画像に基づいて抽出した乗員の属性とに基づいて、乗員の覚醒度を推定する。
これにより、乗員状態検出装置1bは、乗員がハンドルを握る位置に関係なく、当該乗員の手の温度および顔の温度に基づいて当該乗員の覚醒度の推定を行うことができるとともに、乗員の属性を考慮した覚醒度の推定を行うことができる。
また、乗員状態検出装置1bは、乗員の覚醒度を推定する際、まず乗員の手の動きを検出したか否かを判定し、乗員の手の動きを検出した場合は、当該乗員の手の動きに基づいて乗員の覚醒度を推定し、乗員の手の動きを検出しなかった場合は、乗員の動きと、乗員の手の温度および乗員の顔の温度と、乗員の属性とに基づいて乗員の覚醒度を推定するようにした。
これにより、乗員状態検出装置1bは、温度画像に基づいて検出された乗員の手および顔の温度を用いた乗員の覚醒度の推定を、合理的に行うことができる。
なお、乗員状態検出装置1bにおいても、覚醒度推定部16bは、乗員の覚醒度を推定する際、乗員の顔の温度を用いないようにしてもよい。すなわち、覚醒度推定部16bは、手の動きが検出されなかった場合、動き検出部14が検出した乗員の動きと、温度検出部15が検出した乗員の手の温度と、属性抽出部19が抽出した乗員の属性とに基づいて、乗員の覚醒度を推定するようにしてもよい。このように、覚醒度推定部16bが、乗員の覚醒度の推定を行う際に用いる際の乗員の温度は、少なくとも、乗員の手の温度であればよい。なお、この場合、温度検出部15は、乗員の温度として、乗員の手の温度を検出するようになっていればよい。
また、以上で説明したような乗員状態検出装置1bの構成を、図5を用いて説明した乗員状態検出装置1aに適用してもよい。すなわち、図5にて示した乗員状態検出装置1aが、属性抽出部19を備える構成としてもよい。
この場合、機械学習モデル18は、乗員の動きに関する情報と、乗員の手の温度および顔の温度に関する情報と、乗員の属性とを入力とし、乗員の覚醒度合いを示す情報を出力する機械学習モデルである。
覚醒度推定部16aは、動き検出部14が検出した乗員の動きと、温度検出部15が検出した乗員の手の温度および顔の温度と、属性抽出部19が抽出した乗員の属性と、機械学習モデル18とに基づいて、乗員の覚醒度を推定する。
覚醒度推定部16aは、動き検出部14が乗員の手の動きを検出した場合、当該乗員の手の動きに基づいて乗員の覚醒度を推定する。
一方、覚醒度推定部16aは、動き検出部14が乗員の手の動きを検出しなかった場合、動き検出部14が検出した乗員の動きと、温度検出部15が検出した乗員の手の温度および顔の温度と、属性抽出部19が抽出した乗員の属性と、機械学習モデル18とに基づいて、乗員の覚醒度を推定する。
また、以上の実施の形態1において、温度検出部15は、乗員検出部13から出力された位置付与後撮像画像を用いずに、温度画像取得部12が取得した温度画像から、乗員の手の温度および顔の温度を検出するようにしてもよい。
図7は、実施の形態1において、温度検出部15が位置付与後撮像画像を用いずに乗員の温度を検出するようにした場合の乗員状態検出装置1cの構成例を示す図である。
図7に示す乗員状態検出装置1cの構成例は、図1に示す乗員状態検出装置1の構成例とは、乗員検出部13から温度検出部15への情報の流れを示す矢印がない点が異なる。
また、また、乗員状態検出装置1cでは、温度検出部15aの具体的な動作が、乗員状態検出装置1における温度検出部の具体的な動作とは異なる。
温度検出部15aは、温度画像取得部12が取得した温度画像に基づき、当該温度画像における温度分布から、乗員の手の温度および顔の温度を検出する。
このように、温度検出部15aが、位置付与後撮像画像を用いずに乗員の手の温度および顔の温度を検出する場合、乗員の手の位置および乗員の顔の位置に対する位置合わせができないことにより、温度検出部15aによる温度検出精度が低下する。しかし、温度検出部15aは、位置付与後撮像画像と温度画像との位置合わせを行う処理を省略することができる。
なお、図5を用いて説明した乗員状態検出装置1aにおいて、温度検出部15は、乗員検出部13から出力された位置付与後撮像画像を用いずに、温度画像取得部12が取得した温度画像から、乗員の手の温度および顔の温度を検出するようにしてもよい。
また、以上の実施の形態1において、温度取得装置3が比較的高解像度の温度画像を出力するものである場合には、温度検出部15,15aは、温度画像に基づき、乗員の顔の温度について、さらに詳細な顔のパーツの温度を検出するようにしてもよい。具体的には、温度検出部15,15aは、例えば、額の温度または頬の温度を乗員の顔の温度として検出するようにしてもよい。
一般に、額の温度または頬の温度は、人の深部体温に近いとされる。一方、鼻は抹消部分となるため、手と同様に、人が眠気を感じている場合に当該鼻の血流量が増加し、当該鼻の温度は上昇する。
温度検出部15,15aが、顔の温度をパーツに応じて細分化し、抹消部分となる鼻等を除き、人の深部体温に近いとされる額の温度または頬の温度を乗員の顔の温度として検出することで、覚醒度推定部16,16a,16bによって当該顔の温度を用いて推定される乗員の覚醒度合いの精度を向上させることができる。
また、以上の実施の形態1では、乗員検出部13は、検出した、乗員の目の位置、乗員の口の位置、乗員の体の位置、乗員の手の位置、または、乗員の顔の位置を示す情報を、動き検出部14および温度検出部15,15aに出力するものとしたが、これは一例に過ぎない。
乗員検出部13は、乗員の目の位置、乗員の口の位置、乗員の体の位置、乗員の手の位置、または、乗員の顔の位置を示す情報のうち、動き検出部14または温度検出部15にて必要な情報に絞った上で、動き検出部14または温度検出部15,15aに出力するようにしてもよい。
具体的には、乗員検出部13は、乗員の目の位置、乗員の口の位置、乗員の顔の位置、および、乗員の体の位置に関する情報(以下「目口顔体位置情報」という。)を動き検出部14に出力し、乗員の顔の位置、および、乗員の手の位置に関する情報(以下「顔手位置情報」という。)を温度検出部15,15aに出力するようにしてもよい。
この場合、動き検出部14は、乗員検出部13から出力された目口顔体位置情報に基づき、乗員の目の動き、乗員の口の動き、乗員の顔の動き、または、乗員の体の動きを検出する。また、温度検出部15,15aは、乗員検出部13から出力された顔手位置情報に基づき、乗員の手の温度および顔の温度を検出する。
また、以上の実施の形態1において、動き検出部14が乗員検出部13の機能を有するようにしてもよい。すなわち、動き検出部14が、乗員情報を検出する機能を有するようにしてもよい。なお、この場合、動き検出部14が、位置付与後撮像画像を、温度検出部15に出力するようにする。また、この場合、乗員状態検出装置1,1a,1b,1cは、乗員検出部13を備えない構成とできる。また、この場合、図4のフローチャートを用いて説明した乗員状態検出装置1,1a,1b,1cの動作について、ステップST403の動作は、動き検出部14が行う。
また、以上の実施の形態1では、乗員とは、車両の運転者としたが、これは一例に過ぎない。乗員とは、運転者以外の車両の乗員とし、乗員状態検出装置1,1a,1bは、運転者以外の乗員の覚醒度を推定することもできる。
また、以上の実施の形態1では、乗員状態検出装置1,1a,1bは、車両に搭載され、車両の乗員の覚醒度を推定するものとしたが、これは一例に過ぎない。乗員状態検出装置1,1a,1bは、種々の移動体において、当該移動体の乗員の覚醒度を推定することもできる。
図8A,図8Bは、実施の形態1に係る乗員状態検出装置1,1a,1b,1cのハードウェア構成の一例を示す図である。乗員状態検出装置1,1a,1b,1cは、いずれも、図8A,図8Bに示すようなハードウェア構成を有する。
実施の形態1において、撮像画像取得部11と、温度画像取得部12と、乗員検出部13と、動き検出部14と、温度検出部15,15aと、覚醒度推定部16,16a,16bと、出力部17と、属性抽出部19の機能は、処理回路801により実現される。すなわち、乗員状態検出装置1,1a,1b,1cは、移動体の乗員の覚醒度合いを推定する制御を行うための処理回路801を備える。
処理回路801は、図8Aに示すように専用のハードウェアであっても、図8Bに示すようにメモリ806に格納されるプログラムを実行するCPU(Central Processing Unit)805であってもよい。
処理回路801が専用のハードウェアである場合、処理回路801は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、SoC(System-on-a-chip)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
処理回路801がCPU805の場合、撮像画像取得部11と、温度画像取得部12と、乗員検出部13と、動き検出部14と、温度検出部15,15aと、覚醒度推定部16,16a,16bと、出力部17と、属性抽出部19の機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。すなわち、撮像画像取得部11と、温度画像取得部12と、乗員検出部13と、動き検出部14と、温度検出部15,15aと、覚醒度推定部16,16a,16bと、出力部17と、属性抽出部19は、HDD(Hard Disk Drive)802もしくはメモリ806等に記憶されたプログラムを実行するCPU805、または、システムLSI(Large-Scale Integration)等の処理回路801により実現される。また、HDD802またはメモリ806等に記憶されたプログラムは、撮像画像取得部11と、温度画像取得部12と、乗員検出部13と、動き検出部14と、温度検出部15,15aと、覚醒度推定部16,16a,16bと、出力部17と、属性抽出部19の手順または方法をコンピュータに実行させるものであるとも言える。ここで、メモリ806とは、例えば、RAM、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)等の、不揮発性もしくは揮発性の半導体メモリ、または、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、ならびに、DVD(Digital Versatile Disc)等が該当する。
なお、撮像画像取得部11と、温度画像取得部12と、乗員検出部13と、動き検出部14と、温度検出部15,15aと、覚醒度推定部16,16a,16bと、出力部17と、属性抽出部19の機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、撮像画像取得部11と温度画像取得部12と出力部17については専用のハードウェアとしての処理回路801でその機能を実現し、乗員検出部13と、動き検出部14と、温度検出部15,15aと、覚醒度推定部16,16a,16bと、属性抽出部19については処理回路801がメモリ806に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
また、図示しない記憶部は、メモリ806を使用する。なお、これは一例であって、図示しない記憶部は、HDD802、SSD(Solid State Drive)、または、DVD等によって構成されるものであってもよい。
また、乗員状態検出装置1,1a,1b,1cは、撮像装置2または温度取得装置3等の装置と、有線通信または無線通信を行う入力インタフェース装置803および出力インタフェース装置804を備える。
以上のように、実施の形態1によれば、乗員状態検出装置1,1b,1cは、乗員を撮像した撮像画像を取得する撮像画像取得部11と、非接触で測定された乗員の体の表面の温度をあらわす温度画像を取得する温度画像取得部12と、撮像画像取得部11が取得した撮像画像に基づいて、乗員の動きを検出する動き検出部14と、温度画像取得部12が取得した温度画像に基づいて、乗員の手の温度を検出する温度検出部15,15aと、動き検出部14が検出した乗員の動きと、温度検出部15,15aが検出した乗員の手の温度とに基づいて、乗員の覚醒度を推定する覚醒度推定部16,16bとを備えるように構成した。
そのため、乗員状態検出装置1,1b,1cは、人(乗員)がハンドルを握る位置に関係なく、当該人の手の温度に基づいて当該人の覚醒度の推定を行うことができる。
また、実施の形態1によれば、乗員状態検出装置1,1b,1cにおいて、動き検出部14が検出する乗員の動きには乗員の手の動きが含まれ、覚醒度推定部16,16bは、動き検出部14が乗員の手の動きを検出した場合、当該乗員の手の動きに基づいて乗員の覚醒度を推定し、動き検出部14が乗員の手の動きを検出しなかった場合、動き検出部14が検出した乗員の動きと、温度検出部15,15aが検出した乗員の手の温度とに基づいて乗員の覚醒度を推定するように構成した。
そのため、乗員状態検出装置1,1b,1cは、温度画像に基づいて検出された乗員の手および顔の温度を用いた乗員の覚醒度の推定を、合理的に行うことができる。
また、実施の形態1によれば、乗員状態検出装置1aは、乗員を撮像した撮像画像を取得する撮像画像取得部11と、非接触で測定された乗員の体の表面の温度をあらわす温度画像を取得する温度画像取得部12と、撮像画像取得部11が取得した撮像画像に基づいて、乗員の動きを検出する動き検出部14と、温度画像取得部12が取得した温度画像に基づいて、乗員の手の温度を検出する温度検出部15と、動き検出部14が検出した乗員の動きに関する情報と、温度検出部15が検出した乗員の手の温度に関する情報と、機械学習モデル18とに基づいて、乗員の覚醒度を推定する覚醒度推定部16aとを備えるように構成した。
そのため、乗員状態検出装置1aは、人(乗員)がハンドルを握る位置に関係なく、当該人の手の温度に基づいて当該人の覚醒度の推定を行うことができる。
また、実施の形態1によれば、乗員状態検出装置1aにおいて、動き検出部14が検出する乗員の動きには乗員の手の動きが含まれ、覚醒度推定部16aは、動き検出部14が乗員の手の動きを検出した場合、当該乗員の手の動きに基づいて乗員の覚醒度を推定し、動き検出部14が乗員の手の動きを検出しなかった場合、機械学習モデル18に基づいて乗員の覚醒度を推定するように構成した。
そのため、乗員状態検出装置1aは、温度画像に基づいて検出された乗員の手および顔の温度を用いた乗員の覚醒度の推定を、合理的に行うことができる。
なお、以上の実施の形態1では、乗員状態検出装置1,1a,1b,1cは、車両に搭載される車載装置とし、撮像画像取得部11と、温度画像取得部12と、乗員検出部13と、動き検出部14と、温度検出部15,15aと、覚醒度推定部16,16a,16bと、出力部17と、属性抽出部19は、乗員状態検出装置1,1a,1b,1cに備えられているものとした。
これに限らず、撮像画像取得部11と、温度画像取得部12と、乗員検出部13と、動き検出部14と、温度検出部15,15aと、覚醒度推定部16,16a,16bと、出力部17と、属性抽出部19のうち、一部を車両の車載装置に搭載されるものとし、その他を当該車載装置とネットワークを介して接続されるサーバに備えられるものとして、車載装置とサーバとで乗員状態検出システムを構成するようにしてもよい。
また、本開示は、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。
本開示に係る乗員状態検出装置は、人がハンドルを握る位置に関係なく、当該人の手の温度に基づいて当該人の覚醒度の推定を行うことができるように構成したため、移動体において乗員の覚醒度を推定する乗員状態推定装置に適用することができる。
1,1a,1b,1c 乗員状態検出装置、2 撮像装置、3 温度取得装置、11 撮像画像取得部、12 温度画像取得部、13 乗員検出部、14 動き検出部、15,15a 温度検出部、16,16a,16b 覚醒度推定部、17 出力部、18 機械学習モデル、19 属性抽出部、801 処理回路、802 HDD、803 入力インタフェース装置、804 出力インタフェース装置、805 CPU、806 メモリ。

Claims (5)

  1. 乗員を撮像した撮像画像を取得する撮像画像取得部と、
    非接触で測定された前記乗員の体の表面の温度をあらわす温度画像を取得する温度画像取得部と、
    前記撮像画像取得部が取得した撮像画像に基づいて、前記乗員の動きを検出する動き検出部と、
    前記温度画像取得部が取得した温度画像に基づいて、前記乗員の手の温度を検出する温度検出部と、
    前記動き検出部が検出した前記乗員の動きと、前記温度検出部が検出した前記乗員の手の温度とに基づいて、前記乗員の覚醒度を推定する覚醒度推定部とを備え、
    前記動き検出部が検出する前記乗員の動きには前記乗員の手の動きが含まれ、
    前記覚醒度推定部は、前記動き検出部が前記乗員の手の動きを検出した場合、当該乗員の手の動きに基づいて前記乗員の覚醒度を推定し、前記動き検出部が前記乗員の手の動きを検出しなかった場合、前記動き検出部が検出した前記乗員の動きと、前記温度検出部が検出した前記乗員の手の温度とに基づいて前記乗員の覚醒度を推定する
    ことを特徴とする乗員状態検出装置。
  2. 前記動き検出部は、前記乗員の動きとして、前記乗員の目の動き、前記乗員の口の動き、前記乗員の体の動き、前記乗員の手の動き、または、前記乗員の顔の動きを検出する
    ことを特徴とする請求項1記載の乗員状態検出装置。
  3. 前記温度検出部は、前記乗員の手の温度を検出するとともに前記乗員の顔の温度を検出し、
    前記覚醒度推定部は、
    前記動き検出部が検出した前記乗員の動きと、前記温度検出部が検出した前記乗員の手の温度および顔の温度に基づいて、前記乗員の覚醒度を推定する
    ことを特徴とする請求項1記載の乗員状態検出装置。
  4. 乗員を撮像した撮像画像を取得する撮像画像取得部と、
    非接触で測定された前記乗員の体の表面の温度をあらわす温度画像を取得する温度画像取得部と、
    前記撮像画像取得部が取得した撮像画像に基づいて、前記乗員の動きを検出する動き検出部と、
    前記温度画像取得部が取得した温度画像に基づいて、前記乗員の手の温度を検出する温度検出部と、
    前記動き検出部が検出した前記乗員の動きに関する情報と、前記温度検出部が検出した前記乗員の手の温度に関する情報と、機械学習モデルとに基づいて、前記乗員の覚醒度を推定する覚醒度推定部とを備え、
    前記動き検出部が検出する前記乗員の動きには前記乗員の手の動きが含まれ、
    前記覚醒度推定部は、前記動き検出部が前記乗員の手の動きを検出した場合、当該乗員の手の動きに基づいて前記乗員の覚醒度を推定し、前記動き検出部が前記乗員の手の動きを検出しなかった場合、前記機械学習モデルに基づいて前記乗員の覚醒度を推定する
    ことを特徴とする乗員状態検出装置。
  5. 撮像画像取得部が、乗員を撮像した撮像画像を取得するステップと、
    温度画像取得部が、非接触で測定された前記乗員の体の表面の温度をあらわす温度画像を取得するステップと、
    動き検出部が、前記撮像画像取得部が取得した撮像画像に基づいて、前記乗員の動きを検出するステップと、
    温度検出部が、前記温度画像取得部が取得した温度画像に基づいて、前記乗員の手の温度を検出するステップと、
    覚醒度推定部が、前記動き検出部が検出した前記乗員の動きと、前記温度検出部が検出した前記乗員の手の温度とに基づいて、前記乗員の覚醒度を推定するステップとを備え、
    前記動き検出部が検出する前記乗員の動きには前記乗員の手の動きが含まれ、
    前記覚醒度推定部は、前記動き検出部が前記乗員の手の動きを検出した場合、当該乗員の手の動きに基づいて前記乗員の覚醒度を推定し、前記動き検出部が前記乗員の手の動きを検出しなかった場合、前記動き検出部が検出した前記乗員の動きと、前記温度検出部が検出した前記乗員の手の温度とに基づいて前記乗員の覚醒度を推定するステップを有する
    ことを特徴とする乗員状態検出方法。
JP2022534604A 2020-07-09 2020-07-09 乗員状態検出装置および乗員状態検出方法 Active JP7286022B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/026913 WO2022009401A1 (ja) 2020-07-09 2020-07-09 乗員状態検出装置および乗員状態検出方法

Publications (3)

Publication Number Publication Date
JPWO2022009401A1 JPWO2022009401A1 (ja) 2022-01-13
JPWO2022009401A5 JPWO2022009401A5 (ja) 2022-09-09
JP7286022B2 true JP7286022B2 (ja) 2023-06-02

Family

ID=79552356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022534604A Active JP7286022B2 (ja) 2020-07-09 2020-07-09 乗員状態検出装置および乗員状態検出方法

Country Status (4)

Country Link
US (1) US20230211791A1 (ja)
JP (1) JP7286022B2 (ja)
DE (1) DE112020007404T5 (ja)
WO (1) WO2022009401A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012164040A (ja) 2011-02-04 2012-08-30 Nissan Motor Co Ltd 覚醒低下検出装置
JP2017127616A (ja) 2015-07-22 2017-07-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 覚醒度予測方法および覚醒度予測装置
JP2018127112A (ja) 2017-02-08 2018-08-16 パナソニックIpマネジメント株式会社 覚醒度推定装置及び覚醒度推定方法
US20190049267A1 (en) 2018-03-28 2019-02-14 Intel Corporation Safety enhanced computer assisted driving method and apparatus

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001137194A (ja) * 1999-11-12 2001-05-22 Matsushita Electric Ind Co Ltd 居眠り検出装置
JP2005075198A (ja) * 2003-09-02 2005-03-24 Calsonic Kansei Corp 車両用空調装置
US7183932B2 (en) * 2005-03-21 2007-02-27 Toyota Technical Center Usa, Inc Inter-vehicle drowsy driver advisory system
JP2011123653A (ja) 2009-12-10 2011-06-23 Sumitomo Rubber Ind Ltd 運転者覚醒度検査装置
US9821657B2 (en) * 2015-04-22 2017-11-21 Motorola Mobility Llc Drowsy driver detection
CN110291478B (zh) * 2016-12-22 2023-09-29 斯坦福国际研究院 驾驶员监视和响应系统
US10322728B1 (en) * 2018-02-22 2019-06-18 Futurewei Technologies, Inc. Method for distress and road rage detection

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012164040A (ja) 2011-02-04 2012-08-30 Nissan Motor Co Ltd 覚醒低下検出装置
JP2017127616A (ja) 2015-07-22 2017-07-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 覚醒度予測方法および覚醒度予測装置
JP2018127112A (ja) 2017-02-08 2018-08-16 パナソニックIpマネジメント株式会社 覚醒度推定装置及び覚醒度推定方法
US20190049267A1 (en) 2018-03-28 2019-02-14 Intel Corporation Safety enhanced computer assisted driving method and apparatus

Also Published As

Publication number Publication date
US20230211791A1 (en) 2023-07-06
DE112020007404T5 (de) 2023-05-17
JPWO2022009401A1 (ja) 2022-01-13
WO2022009401A1 (ja) 2022-01-13

Similar Documents

Publication Publication Date Title
Ramzan et al. A survey on state-of-the-art drowsiness detection techniques
CN104200192B (zh) 驾驶员注视检测系统
JP2023171650A (ja) プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法
CN106557723B (zh) 一种带交互式活体检测的人脸身份认证系统及其方法
WO2020152678A1 (en) Detection of cognitive state of a driver
WO2019136449A2 (en) Error correction in convolutional neural networks
US20200290543A1 (en) Occupant observation device
JP2010128649A (ja) 覚醒状態判断装置及び覚醒状態判断方法
JP7118136B2 (ja) 搭乗者状態判定装置、警告出力制御装置及び搭乗者状態判定方法
US11878708B2 (en) Method and system for monitoring an occupant of a vehicle
WO2021053780A1 (ja) 認知機能推定装置、学習装置、および、認知機能推定方法
Nakamura et al. Detection of driver's drowsy facial expression
US20220036101A1 (en) Methods, systems and computer program products for driver monitoring
Alharbey et al. Fatigue state detection for tired persons in presence of driving periods
Nakamura et al. Driver drowsiness estimation from facial expression features computer vision feature investigation using a CG model
Alam et al. Vision-based driver’s attention monitoring system for smart vehicles
JP5139470B2 (ja) 眠気度推定装置および眠気度推定方法
JP7286022B2 (ja) 乗員状態検出装置および乗員状態検出方法
JP6344254B2 (ja) 眠気検知装置
Yin et al. A driver fatigue detection method based on multi-sensor signals
KR20170028631A (ko) 정면 얼굴 영상의 복원을 통한 운전자 부주의 검출 방법 및 장치
Mašanović et al. Driver monitoring using the in-vehicle camera
US11077814B2 (en) Occupant eye(s) observation device
JP5493676B2 (ja) 眼位置認識装置
WO2021064985A1 (ja) 異常状態推定装置および異常状態推定方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220705

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230523

R150 Certificate of patent or registration of utility model

Ref document number: 7286022

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150