JP7286022B2 - 乗員状態検出装置および乗員状態検出方法 - Google Patents
乗員状態検出装置および乗員状態検出方法 Download PDFInfo
- Publication number
- JP7286022B2 JP7286022B2 JP2022534604A JP2022534604A JP7286022B2 JP 7286022 B2 JP7286022 B2 JP 7286022B2 JP 2022534604 A JP2022534604 A JP 2022534604A JP 2022534604 A JP2022534604 A JP 2022534604A JP 7286022 B2 JP7286022 B2 JP 7286022B2
- Authority
- JP
- Japan
- Prior art keywords
- occupant
- temperature
- movement
- hand
- detection unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 423
- 206010062519 Poor quality sleep Diseases 0.000 claims description 128
- 230000037007 arousal Effects 0.000 claims description 78
- 238000010801 machine learning Methods 0.000 claims description 27
- 210000004247 hand Anatomy 0.000 description 50
- 238000000034 method Methods 0.000 description 23
- 238000000605 extraction Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 13
- 230000015654 memory Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 12
- 238000003384 imaging method Methods 0.000 description 11
- 230000008859 change Effects 0.000 description 9
- 210000004932 little finger Anatomy 0.000 description 9
- 210000003813 thumb Anatomy 0.000 description 9
- 206010041349 Somnolence Diseases 0.000 description 8
- 210000000744 eyelid Anatomy 0.000 description 8
- 210000003128 head Anatomy 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000001815 facial effect Effects 0.000 description 5
- 210000003811 finger Anatomy 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 206010048232 Yawning Diseases 0.000 description 4
- 238000004378 air conditioning Methods 0.000 description 4
- 230000004397 blinking Effects 0.000 description 4
- 208000002173 dizziness Diseases 0.000 description 4
- 230000004424 eye movement Effects 0.000 description 4
- 230000036626 alertness Effects 0.000 description 3
- 230000017531 blood circulation Effects 0.000 description 3
- 230000036757 core body temperature Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 241001282135 Poromitra oscitans Species 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 238000009529 body temperature measurement Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W40/09—Driving style or behaviour
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/01—Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
- A61B5/015—By temperature mapping of body part
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/09626—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages where the origin of the information is within the own vehicle, e.g. a local storage device, digital map
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0818—Inactivity or incapacity of driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/221—Physiology, e.g. weight, heartbeat, health or special needs
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/223—Posture, e.g. hand, foot, or seat position, turned or inclined
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/229—Attention level, e.g. attentive to driving, reading or sleeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/26—Incapacity
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Psychiatry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Social Psychology (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Transportation (AREA)
- Mathematical Physics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Automation & Control Theory (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Developmental Disabilities (AREA)
- Hospice & Palliative Care (AREA)
- Psychology (AREA)
- Educational Technology (AREA)
- Radiology & Medical Imaging (AREA)
- Physiology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Child & Adolescent Psychology (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Description
そこで、従来、人の体の抹消部分にあたる手の温度に基づいて、人の覚醒度の推定を行う技術が知られている。
例えば、特許文献1には、顔面皮膚温度と手指皮膚温度と脈拍数とに基づいて、車両などの運転者の覚醒度を判定する運転者覚醒度検査装置が開示されている。当該運転者覚醒度検査装置は、運転者の手指皮膚温度を、ハンドルの周縁部の、運転者がハンドルを握った状態で運転者の手指が接触する位置に配置されている手指温度センサから取得する。
実施の形態1.
図1は、実施の形態1に係る乗員状態検出装置1の構成例を示す図である。
実施の形態1に係る乗員状態検出装置1は、車両に搭載され、乗員の覚醒度を推定する。実施の形態1において、乗員とは、車両の運転者であることを想定している。
乗員状態検出装置1は、撮像装置2および温度取得装置3と接続される。
撮像装置2は、撮像した画像(以下「撮像画像」という。)を、乗員状態検出装置1に出力する。
温度取得装置3は、計測した温度をあらわす画像(以下「温度画像」という。)を、乗員状態検出装置1に出力する。温度画像は、画素毎に温度情報を含んでいる。なお、画素値が大きいほど温度が高いことを示す。また、一般に、温度取得装置3から出力される温度画像は、フレームレートが低い。
撮像画像取得部11は、取得した撮像画像を、乗員検出部13に出力する。
温度画像取得部12は、取得した温度画像を、温度検出部15に出力する。
実施の形態1において、乗員検出部13が検出する、乗員の目の位置、乗員の口の位置、乗員の体の位置、乗員の手の位置、または、乗員の顔の位置は、撮像画像において、乗員の目、乗員の口、乗員の体、乗員の手、または、乗員の顔を示す領域内の1つ以上の点とする。乗員の目の位置、乗員の口の位置、乗員の体の位置、乗員の手の位置、または、乗員の顔の位置は、撮像画像上の座標であらわされる。
また、例えば、乗員検出部13は、乗員の口の位置として、乗員の左右の口角、上唇上の1点、および、下唇上の1点の位置を検出する。
また、例えば、乗員検出部13は、乗員の体の位置として、乗員の左右の肩の先端の位置を検出する。
また、例えば、乗員検出部13は、乗員の手の位置として、親指の付け根上の1点、および、小指の付け根上の1点の位置を検出する。
また、例えば、乗員検出部13は、乗員の顔の位置として、乗員の顎の先端の位置を検出する。
図2において、201で示す8点は、乗員検出部13が検出した乗員の目、ここでは目の左右の両端、上瞼上の1点、または、下瞼上の1点の位置を示している。また、図2において、202で示す4点は、乗員検出部13が検出した乗員の口、ここでは口角の両端、上唇上の1点、または、下唇上の1点の位置を示している。また、図2において、203で示す1点は、乗員検出部13が検出した乗員の顔、ここでは顎の先端の位置を示している。また、図2において、204で示す2点は、乗員検出部13が検出した体、ここでは肩の両端の位置を示している。また、図2において、205で示す4点は、乗員検出部13が検出した手、ここでは、親指の付け根上の1点、または、小指の付け根上の1点の位置を示している。
乗員検出部13は、乗員の目の位置、乗員の口の位置、乗員の体の位置、乗員の手の位置、または、乗員の顔の位置を示す情報を、動き検出部14および温度検出部15に出力する。具体的には、乗員検出部13は、乗員の目の位置、乗員の口の位置、乗員の体の位置、乗員の手の位置、または、乗員の顔の位置を示す座標に対して、それぞれ、乗員の目の位置、乗員の口の位置、乗員の体の位置、乗員の手の位置、または、乗員の顔の位置であることを特定可能な情報を付与した撮像画像(以下「位置付与後撮像画像」という。)を、動き検出部14および温度検出部15に出力する。
動き検出部14は、位置付与後撮像画像を取得すると、取得した位置付与後撮像画像を、当該位置付与後撮像画像の取得日時に関する情報と対応付けて、記憶部(図示省略)に蓄積しているものとする。なお、記憶部は、乗員状態検出装置1に備えられていてもよいし、乗員状態検出装置1の外部の、乗員状態検出装置1が参照可能な場所に備えられていてもよい。動き検出部14は、乗員検出部13から出力された位置付与後撮像画像と、記憶部に蓄積されている過去の位置付与後撮像画像とに基づいて、乗員の目の動き、乗員の口の動き、乗員の体の動き、乗員の手の動き、または、乗員の顔の動きを検出する。
また、例えば、動き検出部14は、乗員の目の動きとして、乗員の瞬きを検出する。具体的には、動き検出部14は、例えば、上瞼上の1点と下瞼上の1点との距離の変化に基づいて、乗員の瞬きを検出する。
なお、上述した例は一例に過ぎず、動き検出部14は、画像に基づいて人の目の開閉または瞬きを検出する既知の技術を用いて、乗員が目を瞑っていること、または、乗員が瞬きをしたことを検出すればよい。
なお、上述した例は一例に過ぎず、動き検出部14は、画像に基づいて人のあくびを検出する既知の技術を用いて、乗員があくびをしたことを検出すればよい。
このとき、動き検出部14は、乗員の体のふらつき度合いをあわせて検出する。乗員の体のふらつき度合いは、例えば、位置付与後撮像画像上の原点、または、位置付与後撮像画像上で予め決められている基準点と、乗員の体の位置とを結ぶ線が変化した角度(以下「体ふらつき角度」という。)であらわされる。
なお、乗員の肩の両端の一方の点を第1の肩位置、他方の点を第2の肩位置とすると、動き検出部14は、例えば、第1の肩位置または第2の肩位置のいずれかが体動き判定用閾値以上離れた位置まで変化した場合に、乗員の体がふらついたことを検出してもよいし、第1の肩位置または第2の肩位置の両方が体動き判定用閾値以上離れた位置まで変化した場合に、乗員がふらついたことを検出してもよい。
また、例えば、動き検出部14は、第1の肩位置または第2の肩位置のいずれかが、単位時間当たりで、体動き判定用デルタ閾値以上変化した場合に、乗員の体がふらついたことを検出してもよいし、第1の肩位置または第2の肩位置の両方が、単位時間当たりで、体動き判定用デルタ閾値以上変化した場合に、乗員の体がふらついたことを検出してもよい。
また、上述した例は一例に過ぎず、動き検出部14は、画像に基づいて人の体のふらつきを検出する既知の技術を用いて、乗員の体がふらついたこと、および、体ふらつき角度を検出すればよい。
なお、動き検出部14は、乗員の親指の付け根上の1点(以下「親指点」という。)の位置、または、乗員の小指の付け根上の1点(以下「小指点」という。)のいずれか一方の位置が手動き判定用閾値以上離れた位置まで動いた場合に、乗員の手に動きがあったことを検出してもよいし、乗員の親指点の位置と乗員の小指点の位置の両方が手動き判定用閾値以上離れた位置まで動いた場合に、乗員の手に動きがあったことを検出してもよい。動き検出部14は、乗員の親指点の位置または乗員の小指点の位置のいずれか一方の位置の単位時間当たりの変化量が手動き判定用デルタ閾値を超えた場合に、乗員の手に動きがあったことを検出してもよいし、乗員の親指点の位置および乗員の小指点の位置の両方の単位時間当たりの変化量が手動き判定用デルタ閾値を超えた場合に、乗員の手に動きがあったことを検出してもよい。
動き検出部14は、例えば、上述したような位置の変化が、右手または左手のいずれか一方であった場合に、乗員の手に動きがあったことを検出すればよい。
なお、上述した例は一例に過ぎず、動き検出部14は、画像に基づいて人の手の動きを検出する既知の技術を用いて、乗員の手の動きを検出すればよい。
このとき、動き検出部14は、乗員の頭のふらつき度合いをあわせて検出する。乗員の頭のふらつき度合いは、例えば、位置付与後撮像画像の原点、または、位置付与後撮像画像上で予め決められている基準点と、乗員の顔の位置とを結ぶ線が変化した角度(以下「頭ふらつき角度」という。)であらわされる。
なお、上述した例は一例に過ぎず、動き検出部14は、画像に基づいて人の顔の動きを検出する既知の技術を用いて、乗員の頭がふらついたこと、および、頭ふらつき角度を検出すればよい。
動き検出通知情報には、乗員の目の動きを検出したか否か、乗員の口の動きを検出したか否か、乗員の体の動きを検出したか否か、乗員の手の動きを検出したか否か、および、乗員の顔の動きを検出したか否かの情報が含まれる。
乗員の目の動きを検出したか否かの情報とは、具体的には、例えば、乗員が目を瞑っていることを検出したか否か、および、乗員が瞬きをしたことを検出したか否かの情報である。
乗員の口の動きを検出したか否かの情報とは、具体的には、例えば、乗員があくびをしたことを検出したか否かの情報である。
乗員の体の動きを検出したか否かの情報とは、具体的には、例えば、乗員の体がふらついたことを検出したか否かの情報、および、乗員の体がふらついたことを検出した場合は体ふらつき角度の情報である。
乗員の手の動きを検出したか否かの情報には、例えば、乗員の手の動きを検出したか否かの情報に加えて、乗員の手の動きを検出した場合、右手なのか左手なのかを特定可能な情報が含まれるようにしてもよい。
乗員の顔の動きを検出したか否かの情報とは、例えば、乗員の頭がふらついたことを検出したか否かの情報、および、乗員の頭がふらついたことを検出した場合は頭ふらつき角度の情報である。
具体的には、まず、温度検出部15は、位置付与後撮像画像と温度画像の位置合わせを行う。実施の形態1において、温度検出部15が行う、位置付与後撮像画像と温度画像の位置合わせとは、位置付与後撮像画像と温度画像について、同じ空間位置を示す互いの画素の対応付けを行うことをいう。
撮像装置2と温度取得装置3は、それぞれ、車内に固定されて設置されているので、温度検出部15は、予め決められた撮像装置2の設置位置および温度取得装置3の設置位置に基づけば、位置付与後撮像画像と温度画像の位置合わせを行うことができる。そして、温度検出部15は、位置付与後撮像画像と温度画像の位置合わせを行うと、温度画像において、どの画素が、乗員の手の温度、または、乗員の顔の温度を示す画素であるか、特定することができる。
図3では、便宜上、温度画像上に、位置付与後撮像画像から特定された乗員の目の位置(図3の201参照)、乗員の口の位置(図3の202参照)、乗員の顔の位置(図3の203参照)、乗員の体の位置(図3の204参照)、および、乗員の手の位置(図3の205参照)を反映して、当該温度画像を示している。なお、ここでは、位置付与後撮像画像は、乗員検出部13が、図2で示したように乗員の顔の位置、乗員の口の位置、乗員の目の位置、乗員の手の位置、および、乗員の体の位置を検出した場合に当該乗員検出部13から出力された位置付与後撮像画像であったものとしている。
温度検出部15は、例えば、少なくとも一部が顔温度検出範囲に含まれる画素の画素値の平均値を、乗員の顔の温度として検出する。
なお、上述したような、乗員の顔の温度の検出方法は一例に過ぎず、温度検出部15は、その他の方法で乗員の顔の温度を検出してもよい。例えば、温度検出部15は、少なくとも一部が顔温度検出範囲に含まれる複数の画素のうち、当該顔温度検出範囲内となる面積が一番大きい画素(以下「顔選択画素」という。)を選択し、当該顔選択画素の画素値を乗員の顔の温度として検出してもよい。温度検出部15は、顔選択画素が複数ある場合、例えば、複数の顔選択画素のうちの任意の顔選択画素の画素値を乗員の顔の温度として検出する。
温度検出部15は、例えば、少なくとも一部が手温度検出範囲に含まれる画素の画素値の平均値を、乗員の手の温度として検出する。
なお、上述したような、乗員の手の温度の検出方法は一例に過ぎず、温度検出部15は、その他の方法で乗員の手の温度を検出してもよい。例えば、温度検出部15は、少なくとも一部が手温度検出範囲に含まれる複数の画素のうち、当該手温度検出範囲内となる面積が一番大きい画素(以下「手選択画素」という。)を選択し、当該手選択画素の画素値を乗員の手の温度として検出してもよい。温度検出部15は、手選択画素が複数ある場合、例えば、複数の手選択画素のうちの任意の手選択画素の画素値を乗員の手の温度として検出する。
動き検出部14が乗員の手の動きを検出した場合、覚醒度推定部16は、当該乗員の手の動きに基づいて乗員の覚醒度を推定する。具体的には、覚醒度推定部16は、乗員の手の動きがあったことから、当該乗員は覚醒状態であると推定し、乗員の覚醒度を「レベル5」とする。なお、乗員の手の動きがあるということは、乗員が覚醒している可能性が高いといえる。
なお、乗員の手の動きがないということは、乗員の覚醒度が低下している可能性が高いといえる。
判定条件には、例えば、以下の(A)~(E)のような条件が定義されている。
(A)過去10秒間のうち、「乗員が瞬きをしている」回数が5回以上
(B)過去10秒間のうち、「乗員が目を瞑っている」時間が5秒以上
(C)過去5分間のうち、「乗員があくびをしている」回数が1回以上
(D)過去5分間のうち、20度以上の角度で「乗員の頭がふらついている」回数が2回以上
(E)乗員の顔の温度に対して乗員の手の温度が-5℃以内
(E)は、人が眠気を感じている場合に、指先等の抹消部分の血流量が増加し、当該抹消部分の温度が上昇して顔または深部体温に近くなるという生理現象が起こっていることを判定するための条件である。(E)を満たす場合、乗員は眠気を感じている状態といえる。
(1)判定条件(E)が偽であれば、覚醒度「レベル5」
(2)判定条件(E)が真であり、その他の判定条件(判定条件(A)~(D))が偽であれば、覚醒度「レベル5」
(3)判定条件(E)が真であり、その他の判定条件(判定条件(A)~(D))のうち1つが真であれば、覚醒度「レベル4」
(4)判定条件(E)が真であり、その他の判定条件(判定条件(A)~(D))のうち2つが真であれば、覚醒度「レベル3」
(5)判定条件(E)が真であり、その他の判定条件(判定条件(A)~(D))のうち3つが真であれば、覚醒度「レベル2」
(6)判定条件(E)が真であり、その他の判定条件(判定条件(A)~(D))全てが真であれば、覚醒度「レベル1」
なお、ここでは、上述のとおり、覚醒度推定部16が、動き検出通知情報および温度検出情報を記憶させるものとするが、これは一例に過ぎない。例えば、動き検出部14が動き検出通知情報を記憶部に蓄積するようにし、温度検出部15が温度検出情報を記憶部に蓄積するようにして、覚醒度推定部16は、記憶部を参照して、乗員の覚醒度を推定するようにしてもよい。
判定条件の内容は、予め実験的に決定される。そして、予め実験的に決定された判定条件を用いて、覚醒度推定ルールが予め構築されている。
覚醒度推定部16は、乗員の手の動きが検出されなかった場合に、当該乗員の動きと、当該乗員の手の温度および顔の温度とを用いた乗員の覚醒度の推定を行う。
一般に、温度取得装置3から出力される温度画像は、フレームレートが低い。従って、乗員の手に動きがあると、温度画像にはボヤケが生じやすく、逆に、乗員の手に動きがない場合には、温度画像にはボヤケが生じにくい。従って、温度検出部15は、乗員の手に動きがない場合、乗員の手の動きがある場合に比べて、温度画像から乗員の手の温度および顔の温度を精度よく検出できる。
覚醒度推定部16は、上述したような順番で乗員の覚醒度の推定を行うことで、温度画像に基づいて検出された乗員の手の温度および顔の温度を用いた乗員の覚醒度の推定を、合理的に行うことができる。
例えば、警報出力制御装置は、覚醒度推定部16から覚醒度情報が出力されると、車内の乗員に対して、眠気への注意喚起を行うための警報を出力する。
例えば、空調制御装置は、覚醒度推定部16から覚醒度情報が出力されると、眠気を抑制するよう、空調を制御する。
例えば、自動運転制御装置は、覚醒度推定部16から覚醒度情報が出力されると、手動運転から自動運転へと車両の運転制御方法を切り替える。なお、この場合、車両は自動運転機能を有する。車両は、自動運転機能を有する場合であっても、運転者が自ら当該車両を手動運転することが可能である。
図4は、実施の形態1に係る乗員状態検出装置1の動作を説明するためのフローチャートである。
撮像画像取得部11は、取得した撮像画像を、乗員検出部13に出力する。
温度画像取得部12は、取得した温度画像を、温度検出部15に出力する。
乗員検出部13は、乗員の目の位置、乗員の口の位置、乗員の体の位置、乗員の手の位置、または、乗員の顔の位置を示す情報を、動き検出部14および温度検出部15に出力する。具体的には、乗員検出部13は、位置付与後撮像画像を、動き検出部14および温度検出部15に出力する。
動き検出部14は、動き検出通知情報を、撮像画像の取得日時に関する情報と対応付けて覚醒度推定部16に出力する。
温度検出部15は、乗員の手の温度および顔の温度を検出すると、温度検出情報を、温度画像の取得日時に関する情報と対応付けて、覚醒度推定部16に出力する。
動き検出部14が乗員の手の動きを検出した場合(ステップST406の”YES”の場合)、覚醒度推定部16は、当該乗員の手の動きに基づいて乗員の覚醒度を推定する。具体的には、覚醒度推定部16は、乗員の手の動きがあったことから、当該乗員は覚醒状態であると推定し、乗員の覚醒度を「レベル5」とする(ステップST407)。覚醒度推定部16は、覚醒度情報を出力部17に出力する。そして、乗員状態検出装置1の動作は、ステップST409へ進む。
覚醒度推定部16は、覚醒度情報を出力部17に出力する。そして、乗員状態検出装置1の動作は、ステップST409へ進む。
また、図4のフローチャートでは、ステップST404、ステップST405の順番で乗員状態検出装置1の動作が行われるものとしたが、これは一例に過ぎない。ステップST404の動作とステップST405の動作の順番は、逆であってもよいし、並行して行われてもよい。
これにより、乗員状態検出装置1は、乗員がハンドルを握る位置に関係なく、当該乗員の手の温度および顔の温度に基づいて当該乗員の覚醒度の推定を行うことができる。
また、乗員状態検出装置1は、乗員の覚醒度を推定する際、まず乗員の手の動きを検出したか否かを判定し、乗員の手の動きを検出した場合は、当該乗員の手の動きに基づいて乗員の覚醒度を推定し、乗員の手の動きを検出しなかった場合は、乗員の動きと、乗員の手の温度および乗員の顔の温度とに基づいて乗員の覚醒度を推定するようにした。
これにより、乗員状態検出装置1は、温度画像に基づいて検出された乗員の手の温度および顔の温度を用いた乗員の覚醒度の推定を、合理的に行うことができる。
覚醒度推定部16は、乗員の覚醒度を推定する際、乗員の顔の温度を用いないようにしてもよい。すなわち、覚醒度推定部16は、手の動きが検出されなかった場合、動き検出部14が検出した乗員の動きと、温度検出部15が検出した乗員の手の温度とに基づいて、乗員の覚醒度を推定するようにしてもよい。例えば、上述の例において、判定条件(E)を、乗員の手の温度の変化に対する条件としてもよい。
覚醒度推定部16が、乗員の覚醒度の推定を行う際に用いる際の乗員の温度は、少なくとも、乗員の手の温度であればよい。なお、この場合、温度検出部15は、乗員の温度として、乗員の手の温度を検出するようになっていればよい。
ただし、例えば、温度取得装置3が、サーモパイル等の非接触の温度アレイセンサである場合、当該温度アレイセンサは、画素単位での温度の検出誤差は大きく、ある画素とその他の画素との差分での温度の検出誤差は小さいという特徴を有する。そのため、乗員の覚醒度を推定する際の乗員の手の温度変化は、当該乗員の手の温度のみから検出するのではなく、当該乗員の顔の温度を用いて、当該乗員の手の温度と乗員の顔の温度の差から検出するほうが、より正確に当該の乗員の手の温度変化を検出することができる。その結果、覚醒度推定部16は、より精度よく、乗員の覚醒度を推定することができる。
図5は、実施の形態1において、乗員状態検出装置1aが、機械学習モデル18に基づいて乗員の覚醒度を推定するようにした場合の、乗員状態検出装置1aの構成例を示す図である。
図5に示す乗員状態検出装置1aにおいて、図1を用いて説明した乗員状態検出装置1の構成と同様の構成については、同じ符号を付して重複した説明を省略する。
乗員状態検出装置1aは、図1を用いて説明した乗員状態検出装置1とは、機械学習モデル18を備える点が異なる。
また、乗員状態検出装置1aでは、覚醒度推定部16aの具体的な動作が、乗員状態検出装置1における覚醒度推定部16の具体的な動作とは異なる。
機械学習モデル18は、予め、教師データと、覚醒度の正解ラベルとを用いた学習により生成されている。覚醒度の正解ラベルは、例えば、覚醒度を示すレベルである。正解ラベルは、例えば、NEDO(New Energy and Industrial Technology Development Organization。国立研究開発法人新エネルギー・産業技術総合開発機構)による顔表情からの眠気評価指標であってもよいし、カロリンスカ眠気尺度(KSS)で示される眠気の程度の段階であってもよい。また、正解ラベルは、例えば、乗員状態検出装置1aの管理者によって独自に設定された、覚醒度を示すレベルであってもよい。
なお、ここでは、図5に示すように、機械学習モデル18は、乗員状態検出装置1aに備えられるものとするが、これは一例に過ぎない。機械学習モデル18は、乗員状態検出装置1aの外部の、乗員状態検出装置1aが参照可能な場所に備えられるようにしてもよい。
覚醒度推定部16aは、まず、動き検出部14が乗員の手の動きを検出したか否かを判定する。具体的には、覚醒度推定部16aは、動き検出部14から、手の動きを検出した旨の情報を含む動き検出通知情報が出力されたか否かを判定する。
動き検出部14が乗員の手の動きを検出した場合、覚醒度推定部16aは、当該乗員の手の動きに基づいて乗員の覚醒度を推定する。具体的には、覚醒度推定部16aは、乗員の手の動きがあったことから、当該乗員は覚醒状態であると推定し、乗員の覚醒度を「レベル5」とする。なお、乗員の手の動きがあるということは、乗員が覚醒している可能性が高いといえる。
図5に示したような構成とした乗員状態検出装置1aの動作は、図4のフローチャートを用いて説明した乗員状態検出装置1の動作とは、ステップST408の具体的な動作が異なる。その他の具体的な動作(ステップST401~ステップST407、ステップST409の具体的な動作)は、説明済みであるため、重複した説明を省略する。なお、乗員状態検出装置1aにおいて、ステップST407の具体的な動作は、説明済みの、覚醒度推定部16の動作を、覚醒度推定部16aの動作と読み替えた動作となる。
覚醒度推定部16aは、覚醒度情報を、出力部17に出力する。そして、乗員状態検出装置1の動作は、ステップST409へ進む。
これにより、乗員状態検出装置1aは、乗員がハンドルを握る位置に関係なく、当該乗員の手の温度に基づいて当該乗員の覚醒度の推定を行うことができる。
また、乗員状態検出装置1aは、乗員の覚醒度を推定する際、まず乗員の手の動きを検出したか否かを判定し、乗員の手の動きを検出した場合は、当該乗員の手の動きに基づいて乗員の覚醒度を推定し、乗員の手の動きを検出しなかった場合は、乗員の動きと、乗員の手の温度および乗員の顔の温度と、機械学習モデル18とに基づいて乗員の覚醒度を推定するようにした。
これにより、乗員状態検出装置1aは、温度画像に基づいて検出された乗員の手および顔の温度を用いた乗員の覚醒度の推定を、合理的に行うことができる。
また、乗員状態検出装置1aは、機械学習モデル18を用いて乗員の覚醒度の推定を行うので、教師データを多数用意することができれば、覚醒度推定ルールに従って乗員の覚醒度の推定を行うことと比べて、乗員の覚醒度の推定精度を高めることができる。
この場合、機械学習モデル18は、乗員の動きに関する情報と、乗員の手の温度に関する情報とを入力とし、乗員の覚醒度合いを示す情報を出力する機械学習モデルである。
図6は、実施の形態1において、乗員の属性を考慮して当該乗員の覚醒度を推定するようにした場合の、乗員状態検出装置1bの構成例を示す図である。
図6に示す乗員状態検出装置1bにおいて、図1を用いて説明した乗員状態検出装置1の構成と同様の構成については、同じ符号を付して重複した説明を省略する。
乗員状態検出装置1bは、図1を用いて説明した乗員状態検出装置1とは、属性抽出部19を備える点が異なる。
また、乗員状態検出装置1bでは、覚醒度推定部16bの具体的な動作が、乗員状態検出装置1における覚醒度推定部16の具体的な動作とは異なる。
属性抽出部19は、既知の画像認識処理技術を用いて、撮像画像から乗員の属性を抽出すればよい。
属性抽出部19は、抽出した乗員の属性に関する情報(以下「乗員属性情報」という。)を、覚醒度推定部16bに出力する。
動き検出部14が乗員の手の動きを検出した場合、覚醒度推定部16bは、当該乗員の手の動きに基づいて乗員の覚醒度を推定する。具体的には、覚醒度推定部16bは、乗員の手の動きがあったことから、当該乗員は覚醒状態であると推定し、乗員の覚醒度を「レベル5」とする。なお、乗員の手の動きがあるということは、乗員が覚醒している可能性が高いといえる。
例えば、覚醒度推定部16bは、乗員の性別に応じて、判定条件を補正する。具体的には、例えば、乗員が女性である場合、覚醒度推定部16bは、判定条件(E)を、「顔の温度に対して手の温度が-3℃以内」と補正する。一般に、女性の方が男性より体温が高いとされている。そのため、覚醒度推定部16bは、乗員が女性である場合に、覚醒度を示す度合いが高く判定される、手の温度と顔の温度との差分の幅を狭くするよう、判定条件(E)を補正する。
図6に示したような構成とした乗員状態検出装置1bの動作は、図4のフローチャートを用いて説明した乗員状態検出装置1の動作とは、ステップST408の具体的な動作が異なる。その他の具体的な動作(ステップST401~ステップST407、ステップST409の具体的な動作)は、説明済みであるため、重複した説明を省略する。なお、乗員状態検出装置1bにおいて、ステップST407の具体的な動作は、説明済みの、覚醒度推定部16の動作を、覚醒度推定部16bの動作と読み替えた動作となる。
また、乗員状態検出装置1bでは、ステップST408の動作が行われるまでに、属性抽出部19は、撮像画像取得部11が取得した撮像画像に基づき、乗員の属性を抽出し、乗員属性情報を覚醒度推定部16bに出力する。
覚醒度推定部16bは、覚醒度情報を、出力部17に出力する。そして、乗員状態検出装置1の動作は、ステップST409へ進む。
これにより、乗員状態検出装置1bは、乗員がハンドルを握る位置に関係なく、当該乗員の手の温度および顔の温度に基づいて当該乗員の覚醒度の推定を行うことができるとともに、乗員の属性を考慮した覚醒度の推定を行うことができる。
また、乗員状態検出装置1bは、乗員の覚醒度を推定する際、まず乗員の手の動きを検出したか否かを判定し、乗員の手の動きを検出した場合は、当該乗員の手の動きに基づいて乗員の覚醒度を推定し、乗員の手の動きを検出しなかった場合は、乗員の動きと、乗員の手の温度および乗員の顔の温度と、乗員の属性とに基づいて乗員の覚醒度を推定するようにした。
これにより、乗員状態検出装置1bは、温度画像に基づいて検出された乗員の手および顔の温度を用いた乗員の覚醒度の推定を、合理的に行うことができる。
この場合、機械学習モデル18は、乗員の動きに関する情報と、乗員の手の温度および顔の温度に関する情報と、乗員の属性とを入力とし、乗員の覚醒度合いを示す情報を出力する機械学習モデルである。
覚醒度推定部16aは、動き検出部14が検出した乗員の動きと、温度検出部15が検出した乗員の手の温度および顔の温度と、属性抽出部19が抽出した乗員の属性と、機械学習モデル18とに基づいて、乗員の覚醒度を推定する。
覚醒度推定部16aは、動き検出部14が乗員の手の動きを検出した場合、当該乗員の手の動きに基づいて乗員の覚醒度を推定する。
一方、覚醒度推定部16aは、動き検出部14が乗員の手の動きを検出しなかった場合、動き検出部14が検出した乗員の動きと、温度検出部15が検出した乗員の手の温度および顔の温度と、属性抽出部19が抽出した乗員の属性と、機械学習モデル18とに基づいて、乗員の覚醒度を推定する。
図7は、実施の形態1において、温度検出部15が位置付与後撮像画像を用いずに乗員の温度を検出するようにした場合の乗員状態検出装置1cの構成例を示す図である。
図7に示す乗員状態検出装置1cの構成例は、図1に示す乗員状態検出装置1の構成例とは、乗員検出部13から温度検出部15への情報の流れを示す矢印がない点が異なる。
また、また、乗員状態検出装置1cでは、温度検出部15aの具体的な動作が、乗員状態検出装置1における温度検出部の具体的な動作とは異なる。
このように、温度検出部15aが、位置付与後撮像画像を用いずに乗員の手の温度および顔の温度を検出する場合、乗員の手の位置および乗員の顔の位置に対する位置合わせができないことにより、温度検出部15aによる温度検出精度が低下する。しかし、温度検出部15aは、位置付与後撮像画像と温度画像との位置合わせを行う処理を省略することができる。
なお、図5を用いて説明した乗員状態検出装置1aにおいて、温度検出部15は、乗員検出部13から出力された位置付与後撮像画像を用いずに、温度画像取得部12が取得した温度画像から、乗員の手の温度および顔の温度を検出するようにしてもよい。
一般に、額の温度または頬の温度は、人の深部体温に近いとされる。一方、鼻は抹消部分となるため、手と同様に、人が眠気を感じている場合に当該鼻の血流量が増加し、当該鼻の温度は上昇する。
温度検出部15,15aが、顔の温度をパーツに応じて細分化し、抹消部分となる鼻等を除き、人の深部体温に近いとされる額の温度または頬の温度を乗員の顔の温度として検出することで、覚醒度推定部16,16a,16bによって当該顔の温度を用いて推定される乗員の覚醒度合いの精度を向上させることができる。
乗員検出部13は、乗員の目の位置、乗員の口の位置、乗員の体の位置、乗員の手の位置、または、乗員の顔の位置を示す情報のうち、動き検出部14または温度検出部15にて必要な情報に絞った上で、動き検出部14または温度検出部15,15aに出力するようにしてもよい。
具体的には、乗員検出部13は、乗員の目の位置、乗員の口の位置、乗員の顔の位置、および、乗員の体の位置に関する情報(以下「目口顔体位置情報」という。)を動き検出部14に出力し、乗員の顔の位置、および、乗員の手の位置に関する情報(以下「顔手位置情報」という。)を温度検出部15,15aに出力するようにしてもよい。
この場合、動き検出部14は、乗員検出部13から出力された目口顔体位置情報に基づき、乗員の目の動き、乗員の口の動き、乗員の顔の動き、または、乗員の体の動きを検出する。また、温度検出部15,15aは、乗員検出部13から出力された顔手位置情報に基づき、乗員の手の温度および顔の温度を検出する。
実施の形態1において、撮像画像取得部11と、温度画像取得部12と、乗員検出部13と、動き検出部14と、温度検出部15,15aと、覚醒度推定部16,16a,16bと、出力部17と、属性抽出部19の機能は、処理回路801により実現される。すなわち、乗員状態検出装置1,1a,1b,1cは、移動体の乗員の覚醒度合いを推定する制御を行うための処理回路801を備える。
処理回路801は、図8Aに示すように専用のハードウェアであっても、図8Bに示すようにメモリ806に格納されるプログラムを実行するCPU(Central Processing Unit)805であってもよい。
また、図示しない記憶部は、メモリ806を使用する。なお、これは一例であって、図示しない記憶部は、HDD802、SSD(Solid State Drive)、または、DVD等によって構成されるものであってもよい。
また、乗員状態検出装置1,1a,1b,1cは、撮像装置2または温度取得装置3等の装置と、有線通信または無線通信を行う入力インタフェース装置803および出力インタフェース装置804を備える。
そのため、乗員状態検出装置1,1b,1cは、人(乗員)がハンドルを握る位置に関係なく、当該人の手の温度に基づいて当該人の覚醒度の推定を行うことができる。
そのため、乗員状態検出装置1,1b,1cは、温度画像に基づいて検出された乗員の手および顔の温度を用いた乗員の覚醒度の推定を、合理的に行うことができる。
そのため、乗員状態検出装置1aは、人(乗員)がハンドルを握る位置に関係なく、当該人の手の温度に基づいて当該人の覚醒度の推定を行うことができる。
そのため、乗員状態検出装置1aは、温度画像に基づいて検出された乗員の手および顔の温度を用いた乗員の覚醒度の推定を、合理的に行うことができる。
これに限らず、撮像画像取得部11と、温度画像取得部12と、乗員検出部13と、動き検出部14と、温度検出部15,15aと、覚醒度推定部16,16a,16bと、出力部17と、属性抽出部19のうち、一部を車両の車載装置に搭載されるものとし、その他を当該車載装置とネットワークを介して接続されるサーバに備えられるものとして、車載装置とサーバとで乗員状態検出システムを構成するようにしてもよい。
Claims (5)
- 乗員を撮像した撮像画像を取得する撮像画像取得部と、
非接触で測定された前記乗員の体の表面の温度をあらわす温度画像を取得する温度画像取得部と、
前記撮像画像取得部が取得した撮像画像に基づいて、前記乗員の動きを検出する動き検出部と、
前記温度画像取得部が取得した温度画像に基づいて、前記乗員の手の温度を検出する温度検出部と、
前記動き検出部が検出した前記乗員の動きと、前記温度検出部が検出した前記乗員の手の温度とに基づいて、前記乗員の覚醒度を推定する覚醒度推定部とを備え、
前記動き検出部が検出する前記乗員の動きには前記乗員の手の動きが含まれ、
前記覚醒度推定部は、前記動き検出部が前記乗員の手の動きを検出した場合、当該乗員の手の動きに基づいて前記乗員の覚醒度を推定し、前記動き検出部が前記乗員の手の動きを検出しなかった場合、前記動き検出部が検出した前記乗員の動きと、前記温度検出部が検出した前記乗員の手の温度とに基づいて前記乗員の覚醒度を推定する
ことを特徴とする乗員状態検出装置。 - 前記動き検出部は、前記乗員の動きとして、前記乗員の目の動き、前記乗員の口の動き、前記乗員の体の動き、前記乗員の手の動き、または、前記乗員の顔の動きを検出する
ことを特徴とする請求項1記載の乗員状態検出装置。 - 前記温度検出部は、前記乗員の手の温度を検出するとともに前記乗員の顔の温度を検出し、
前記覚醒度推定部は、
前記動き検出部が検出した前記乗員の動きと、前記温度検出部が検出した前記乗員の手の温度および顔の温度に基づいて、前記乗員の覚醒度を推定する
ことを特徴とする請求項1記載の乗員状態検出装置。 - 乗員を撮像した撮像画像を取得する撮像画像取得部と、
非接触で測定された前記乗員の体の表面の温度をあらわす温度画像を取得する温度画像取得部と、
前記撮像画像取得部が取得した撮像画像に基づいて、前記乗員の動きを検出する動き検出部と、
前記温度画像取得部が取得した温度画像に基づいて、前記乗員の手の温度を検出する温度検出部と、
前記動き検出部が検出した前記乗員の動きに関する情報と、前記温度検出部が検出した前記乗員の手の温度に関する情報と、機械学習モデルとに基づいて、前記乗員の覚醒度を推定する覚醒度推定部とを備え、
前記動き検出部が検出する前記乗員の動きには前記乗員の手の動きが含まれ、
前記覚醒度推定部は、前記動き検出部が前記乗員の手の動きを検出した場合、当該乗員の手の動きに基づいて前記乗員の覚醒度を推定し、前記動き検出部が前記乗員の手の動きを検出しなかった場合、前記機械学習モデルに基づいて前記乗員の覚醒度を推定する
ことを特徴とする乗員状態検出装置。 - 撮像画像取得部が、乗員を撮像した撮像画像を取得するステップと、
温度画像取得部が、非接触で測定された前記乗員の体の表面の温度をあらわす温度画像を取得するステップと、
動き検出部が、前記撮像画像取得部が取得した撮像画像に基づいて、前記乗員の動きを検出するステップと、
温度検出部が、前記温度画像取得部が取得した温度画像に基づいて、前記乗員の手の温度を検出するステップと、
覚醒度推定部が、前記動き検出部が検出した前記乗員の動きと、前記温度検出部が検出した前記乗員の手の温度とに基づいて、前記乗員の覚醒度を推定するステップとを備え、
前記動き検出部が検出する前記乗員の動きには前記乗員の手の動きが含まれ、
前記覚醒度推定部は、前記動き検出部が前記乗員の手の動きを検出した場合、当該乗員の手の動きに基づいて前記乗員の覚醒度を推定し、前記動き検出部が前記乗員の手の動きを検出しなかった場合、前記動き検出部が検出した前記乗員の動きと、前記温度検出部が検出した前記乗員の手の温度とに基づいて前記乗員の覚醒度を推定するステップを有する
ことを特徴とする乗員状態検出方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/026913 WO2022009401A1 (ja) | 2020-07-09 | 2020-07-09 | 乗員状態検出装置および乗員状態検出方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2022009401A1 JPWO2022009401A1 (ja) | 2022-01-13 |
JPWO2022009401A5 JPWO2022009401A5 (ja) | 2022-09-09 |
JP7286022B2 true JP7286022B2 (ja) | 2023-06-02 |
Family
ID=79552356
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022534604A Active JP7286022B2 (ja) | 2020-07-09 | 2020-07-09 | 乗員状態検出装置および乗員状態検出方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230211791A1 (ja) |
JP (1) | JP7286022B2 (ja) |
DE (1) | DE112020007404T5 (ja) |
WO (1) | WO2022009401A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012164040A (ja) | 2011-02-04 | 2012-08-30 | Nissan Motor Co Ltd | 覚醒低下検出装置 |
JP2017127616A (ja) | 2015-07-22 | 2017-07-27 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 覚醒度予測方法および覚醒度予測装置 |
JP2018127112A (ja) | 2017-02-08 | 2018-08-16 | パナソニックIpマネジメント株式会社 | 覚醒度推定装置及び覚醒度推定方法 |
US20190049267A1 (en) | 2018-03-28 | 2019-02-14 | Intel Corporation | Safety enhanced computer assisted driving method and apparatus |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001137194A (ja) * | 1999-11-12 | 2001-05-22 | Matsushita Electric Ind Co Ltd | 居眠り検出装置 |
JP2005075198A (ja) * | 2003-09-02 | 2005-03-24 | Calsonic Kansei Corp | 車両用空調装置 |
US7183932B2 (en) * | 2005-03-21 | 2007-02-27 | Toyota Technical Center Usa, Inc | Inter-vehicle drowsy driver advisory system |
JP2011123653A (ja) | 2009-12-10 | 2011-06-23 | Sumitomo Rubber Ind Ltd | 運転者覚醒度検査装置 |
US9821657B2 (en) * | 2015-04-22 | 2017-11-21 | Motorola Mobility Llc | Drowsy driver detection |
CN110291478B (zh) * | 2016-12-22 | 2023-09-29 | 斯坦福国际研究院 | 驾驶员监视和响应系统 |
US10322728B1 (en) * | 2018-02-22 | 2019-06-18 | Futurewei Technologies, Inc. | Method for distress and road rage detection |
-
2020
- 2020-07-09 JP JP2022534604A patent/JP7286022B2/ja active Active
- 2020-07-09 US US17/928,015 patent/US20230211791A1/en active Pending
- 2020-07-09 DE DE112020007404.8T patent/DE112020007404T5/de active Pending
- 2020-07-09 WO PCT/JP2020/026913 patent/WO2022009401A1/ja active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012164040A (ja) | 2011-02-04 | 2012-08-30 | Nissan Motor Co Ltd | 覚醒低下検出装置 |
JP2017127616A (ja) | 2015-07-22 | 2017-07-27 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 覚醒度予測方法および覚醒度予測装置 |
JP2018127112A (ja) | 2017-02-08 | 2018-08-16 | パナソニックIpマネジメント株式会社 | 覚醒度推定装置及び覚醒度推定方法 |
US20190049267A1 (en) | 2018-03-28 | 2019-02-14 | Intel Corporation | Safety enhanced computer assisted driving method and apparatus |
Also Published As
Publication number | Publication date |
---|---|
US20230211791A1 (en) | 2023-07-06 |
DE112020007404T5 (de) | 2023-05-17 |
JPWO2022009401A1 (ja) | 2022-01-13 |
WO2022009401A1 (ja) | 2022-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ramzan et al. | A survey on state-of-the-art drowsiness detection techniques | |
CN104200192B (zh) | 驾驶员注视检测系统 | |
JP2023171650A (ja) | プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法 | |
CN106557723B (zh) | 一种带交互式活体检测的人脸身份认证系统及其方法 | |
WO2020152678A1 (en) | Detection of cognitive state of a driver | |
WO2019136449A2 (en) | Error correction in convolutional neural networks | |
US20200290543A1 (en) | Occupant observation device | |
JP2010128649A (ja) | 覚醒状態判断装置及び覚醒状態判断方法 | |
JP7118136B2 (ja) | 搭乗者状態判定装置、警告出力制御装置及び搭乗者状態判定方法 | |
US11878708B2 (en) | Method and system for monitoring an occupant of a vehicle | |
WO2021053780A1 (ja) | 認知機能推定装置、学習装置、および、認知機能推定方法 | |
Nakamura et al. | Detection of driver's drowsy facial expression | |
US20220036101A1 (en) | Methods, systems and computer program products for driver monitoring | |
Alharbey et al. | Fatigue state detection for tired persons in presence of driving periods | |
Nakamura et al. | Driver drowsiness estimation from facial expression features computer vision feature investigation using a CG model | |
Alam et al. | Vision-based driver’s attention monitoring system for smart vehicles | |
JP5139470B2 (ja) | 眠気度推定装置および眠気度推定方法 | |
JP7286022B2 (ja) | 乗員状態検出装置および乗員状態検出方法 | |
JP6344254B2 (ja) | 眠気検知装置 | |
Yin et al. | A driver fatigue detection method based on multi-sensor signals | |
KR20170028631A (ko) | 정면 얼굴 영상의 복원을 통한 운전자 부주의 검출 방법 및 장치 | |
Mašanović et al. | Driver monitoring using the in-vehicle camera | |
US11077814B2 (en) | Occupant eye(s) observation device | |
JP5493676B2 (ja) | 眼位置認識装置 | |
WO2021064985A1 (ja) | 異常状態推定装置および異常状態推定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220705 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220705 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230425 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230523 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7286022 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |