JP2019111092A - Biological state estimation device, method, and program - Google Patents
Biological state estimation device, method, and program Download PDFInfo
- Publication number
- JP2019111092A JP2019111092A JP2017246628A JP2017246628A JP2019111092A JP 2019111092 A JP2019111092 A JP 2019111092A JP 2017246628 A JP2017246628 A JP 2017246628A JP 2017246628 A JP2017246628 A JP 2017246628A JP 2019111092 A JP2019111092 A JP 2019111092A
- Authority
- JP
- Japan
- Prior art keywords
- estimation
- unit
- information
- subject
- measurement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 57
- 206010041349 Somnolence Diseases 0.000 claims abstract description 222
- 238000005259 measurement Methods 0.000 claims abstract description 140
- 210000001508 eye Anatomy 0.000 claims abstract description 67
- 230000033001 locomotion Effects 0.000 claims abstract description 58
- 210000000744 eyelid Anatomy 0.000 claims abstract description 17
- 210000000467 autonomic pathway Anatomy 0.000 claims abstract description 11
- 230000008035 nerve activity Effects 0.000 claims abstract description 11
- 230000004397 blinking Effects 0.000 claims abstract description 5
- 208000032140 Sleepiness Diseases 0.000 claims description 106
- 230000037321 sleepiness Effects 0.000 claims description 106
- 230000008859 change Effects 0.000 claims description 60
- 230000008569 process Effects 0.000 claims description 33
- 238000012545 processing Methods 0.000 claims description 28
- 238000004260 weight control Methods 0.000 claims description 28
- 230000001720 vestibular Effects 0.000 claims description 16
- 210000001747 pupil Anatomy 0.000 claims description 12
- 230000014509 gene expression Effects 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 claims description 7
- 230000012043 vestibular reflex Effects 0.000 claims 2
- 230000008921 facial expression Effects 0.000 abstract description 11
- 230000001815 facial effect Effects 0.000 abstract description 3
- 230000004462 vestibulo-ocular reflex Effects 0.000 abstract 2
- 238000001514 detection method Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 9
- 210000003128 head Anatomy 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000011514 reflex Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 210000004709 eyebrow Anatomy 0.000 description 5
- 210000000214 mouth Anatomy 0.000 description 5
- 230000002411 adverse Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000000193 eyeblink Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 230000003565 oculomotor Effects 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 238000010183 spectrum analysis Methods 0.000 description 2
- 208000008035 Back Pain Diseases 0.000 description 1
- 206010019233 Headaches Diseases 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 206010037660 Pyrexia Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000037007 arousal Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000002243 precursor Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Developmental Disabilities (AREA)
- Child & Adolescent Psychology (AREA)
- Social Psychology (AREA)
- Psychology (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- Educational Technology (AREA)
- Pathology (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- General Physics & Mathematics (AREA)
- Eye Examination Apparatus (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
この発明の実施形態は、例えば、車両の運転者の生体状態を推定する生体状態推定装置、方法およびプログラムに関する。 An embodiment of the present invention relates to, for example, a biological condition estimation apparatus, method and program for estimating a biological condition of a driver of a vehicle.
従来、車両の運転者の生体状態、特に眠気等の運転に支障を及ぼす可能性がある生体状態を、顔画像や生体情報等から検出される複数の特徴量に基づいて推定する技術が提案されている。例えば、特許文献1には、運転者の顔画像や脳波から眠気の有無を推定し、運転者が眠気を感じていると推定した場合にはアラーム等を出力する技術が記載されている。 Conventionally, a technology has been proposed for estimating the living body condition of the driver of the vehicle, particularly the living body condition that may interfere with driving such as sleepiness, based on a plurality of feature quantities detected from face images, biological information, etc. ing. For example, Patent Document 1 describes a technique for estimating the presence or absence of drowsiness from a face image or brain waves of a driver, and outputting an alarm or the like when it is estimated that the driver feels drowsiness.
また特許文献1には、運転者の顔画像からメガネ等の装着品の有無と種類を検出し、その検出結果に応じて重みを設定して、上記顔画像に基づく眠気の推定値を補正する技術や、運転開始時から予め設定された時間が経過するまでは運転者が眠気を感じる可能性が低いと見なして、当該運転開始期間における眠気の推定値に重み付けをして推定値を低下させる技術等も記載されている。これらの技術を採用すると、眠気の推定値の信頼性を高めることができる。 Further, according to Patent Document 1, the presence or absence and the type of a mounted article such as glasses are detected from the driver's face image, weights are set according to the detection result, and the drowsiness estimated value based on the face image is corrected. It is considered that the driver is unlikely to feel drowsiness until a preset time elapses from the time of start of driving, and the drowsiness estimation value in the driving start period is weighted to reduce the estimation value. The technology is also described. Adopting these techniques can increase the reliability of the drowsiness estimates.
ところが、特許文献1に記載された技術では、運転者の顔における装着品の有無と種類により運転開始時に重みを設定して以後その値を維持したり、運転開始時から所定時間が経過するまでの期間だけ重みを設定するようにしている。すなわち、眠気の推定値に対する重みの設定が、運転開始時点や運転開始期間においてのみ限定的に行われるものとなっている。 However, according to the technology described in Patent Document 1, the weight is set at the start of driving based on the presence and the type of the wearing product in the driver's face, and the value is maintained thereafter or until a predetermined time elapses from the start of driving. The weight is set only for the period of. That is, the setting of the weight for the estimated value of drowsiness is limitedly performed only at the driving start time or the driving start period.
このため、特許文献1に記載された技術では、例えば、ハンドル操作等の運転操作や運転中に周囲を確認するときの姿勢の変化等により、運転者の顔画像や生体情報の取得条件が変化した場合に、運転者の眠気を正確に推定できなくなる場合があるにもかかわらず、推定結果が正しいものとして眠気の有無が判定されてしまう。 For this reason, in the technology described in Patent Document 1, for example, the driver's face image and the acquisition condition of the biological information change due to the driving operation such as steering wheel operation and the change in posture when checking the surroundings during driving. In such a case, although the driver's drowsiness may not be accurately estimated, the drowsiness may be determined as the estimation result being correct.
この発明は上記事情に着目してなされたもので、1つの観点として、対象者の動きにより対象者の計測状態が変化した場合に、誤った推定結果が正しいものとして出力されないようにして、信頼性の高い推定結果を得ることができる技術を提供しようとするものである。 The present invention has been made focusing on the above circumstances, and as one aspect, when the measurement state of the subject changes due to the movement of the subject, the erroneous estimation result is prevented from being output as the correct one, and the trust is provided. It is intended to provide a technology that can obtain highly accurate estimation results.
上記課題を解決するために、この発明に係る生体状態推定装置、方法またはプログラムの第1の態様は、対象者の撮像画像情報およびバイタル情報の少なくとも1つを含む計測情報をセンサ部から取得し、前記計測情報から前記対象者の作業に影響を及ぼす生体状態に係る特徴パラメータを検出して、当該特徴パラメータに基づいて前記生体状態を推定する。またそれと並行して、前記作業を含む前記対象者の動きに起因して発生しかつ前記生体状態の推定精度に影響を及ぼす前記計測情報の計測状態の変化を判定し、この計測状態の変化の判定結果に基づいて前記生体状態の推定値に対する重み係数を可変設定して、当該可変設定された重み係数に応じて前記生体状態の推定値に対し重み付けを行い、当該重み付けされた生体状態の推定値を出力するようにしたものである。 In order to solve the above problems, a first aspect of the biological condition estimation apparatus, method or program according to the present invention acquires measurement information including at least one of captured image information and vital information of a subject from a sensor unit A feature parameter related to a biological condition affecting the work of the subject is detected from the measurement information, and the biological condition is estimated based on the feature parameter. At the same time, a change in the measurement state of the measurement information that occurs due to the movement of the subject including the work and affects the estimation accuracy of the biological state is determined, and the change in the measurement state is The weighting factor for the estimated value of the biological condition is variably set based on the determination result, and the estimated value of the biological condition is weighted according to the variably set weighting factor, and the weighted biological condition is estimated It is intended to output a value.
第1の態様によれば、例えば、対象者の動きに起因して対象者の計測状態が変化すると、この計測状態の変化に応じて重み係数が可変設定され、この可変設定された重み係数により上記対象者の生体状態の推定値が重み付けされる。このため、対象者の生体状態の推定値は、対象者の動きに起因する計測状態の変化の影響、つまり誤推定の可能性が考慮されたものとなり、これにより信頼性の高い推定結果を得ることが可能となる。 According to the first aspect, for example, when the measurement state of the target person changes due to the movement of the target person, the weighting factor is variably set according to the change of the measurement state, and the variably set weighting factor The estimate of the biological condition of the subject is weighted. For this reason, the estimated value of the biological condition of the subject takes into consideration the influence of the change in the measurement condition caused by the movement of the subject, that is, the possibility of erroneous estimation, thereby obtaining highly reliable estimation results. It becomes possible.
この発明に係る生体状態推定装置の第2の態様は、上記第1の態様において、報知部をさらに具備し、この報知部により、前記重み付け部から出力された前記重み付けされた生体状態の推定値に基づいて前記対象者の生体状態による前記作業への影響の度合いを判定し、その判定結果を出力するようにしたものである。 According to a second aspect of the biological condition estimation apparatus of the present invention, in the first aspect, the information processing apparatus further comprises a notification unit, and the estimated value of the weighted biological condition output from the weighting unit by the notification unit The degree of influence on the work by the biological condition of the subject person is determined based on the above, and the determination result is output.
第2の態様によれば、例えば、対象者の動きに起因する計測状態の変化の影響が考慮された信頼性の高い推定結果をもとに、対象者の生体状態による作業への影響の度合いが判定され、その判定結果が出力される。このため、対象者の生体状態による作業への影響の度合いについても、信頼性の高い判定を行うことが可能となり、これにより信頼性の高い判定結果を出力することができる。 According to the second aspect, for example, based on the highly reliable estimation result in which the influence of the change in the measurement state caused by the movement of the subject is considered, the degree of the influence on the work by the biological state of the subject Is determined, and the determination result is output. For this reason, it is possible to perform highly reliable determination as to the degree of influence on the work by the biological condition of the subject, and as a result, highly reliable determination results can be output.
この発明に係る生体状態推定装置の第3の態様は、上記第1の態様において、前記計測情報取得部が、前記計測情報として前記対象者の顔画像情報を取得し、前記推定部が、前記特徴パラメータとして前記顔画像情報から前記対象者の顔または眼の動きを検出して、前記生体状態として前記顔または眼の動きに基づいて眠気の度合いを推定する。また、前記計測状態判定部が、前記計測状態として前記顔画像情報が前記対象者の顔または眼の動きを検出可能な情報を含むか否かを判定し、前記重み制御部が、前記顔画像情報が前記対象者の顔または眼の動きを検出可能な情報を含んでいると判定された場合に前記重み係数を第1の値に設定し、含んでいないと判定された場合には前記重み係数を前記第1の値より小さい第2の値に設定するようにしたものである。 In a third aspect of the biological condition estimation apparatus according to the present invention, in the first aspect, the measurement information acquisition unit acquires face image information of the subject as the measurement information, and the estimation unit The movement of the face or eyes of the subject is detected from the face image information as the feature parameter, and the degree of drowsiness is estimated based on the movement of the face or eyes as the biological condition. Further, the measurement state determination unit determines whether the face image information includes information capable of detecting the movement of the face or the eye of the subject as the measurement state, and the weight control unit determines the face image The weighting factor is set to a first value when it is determined that the information includes information capable of detecting the movement of the face or eye of the subject, and the weighting is determined when the information is determined not to be included. The coefficient is set to a second value smaller than the first value.
第3の態様によれば、例えば、対象者の顔画像情報から対象者の顔または眼の動きを検出して、当該対象者の顔または眼の動きをもとに対象者の生体状態として眠気を推定する際に、上記顔画像情報が対象者の顔または眼の動きを検出可能な情報を含んでいるか否かが判定される。そして、含んでいないと判定されると、上記眠気の推定値に対する重み係数が、含んでいると判定された場合に設定される第1の値より小さい第2の値に設定される。すなわち、対象者の顔画像情報の計測状態が対象者の顔または眼の動きを検出できない場合には、上記眠気の推定値に対する重み係数が小さな値に設定される。 According to the third aspect, for example, the motion of the subject's face or eye is detected from the face image information of the subject, and the subject's physical condition is sleepiness as the subject's biological state based on the motion of the subject's face or eye. In the estimation, it is determined whether the face image information includes information capable of detecting the movement of the face or eye of the subject. Then, if it is determined not to be included, the weighting factor for the estimated value of sleepiness is set to a second value smaller than the first value set when it is determined to be included. That is, when the measurement state of the face image information of the object person can not detect the movement of the face or eye of the object person, the weighting factor for the estimated value of sleepiness is set to a small value.
例えば、対象者の動きに伴い、作業中の対象者が顔または眼が、周辺の機器や対象者自身の手または腕等によりセンサ部から一時的に遮蔽されたり、センサ部に対する対象者の顔の向き等が変化したりすることで、対象者の顔画像情報の計測状態が変化すると、当該計測状態の変化が考慮されて重み係数が変更され、その結果眠気の推定値が修正される。 For example, with the movement of the subject, the face or eyes of the subject being worked may be temporarily shielded from the sensor unit by peripheral devices or the subject's own hands or arms, etc. When the measurement state of the face image information of the subject changes due to a change in the direction etc. of the subject, the change of the measurement state is taken into consideration to change the weighting factor, and as a result, the estimated value of sleepiness is corrected.
したがって、対象者の動きに起因して顔画像情報の計測状態が眠気の判定に悪影響を及ぼす状態に変化した場合には、誤った推定結果が正しいものとして出力されないようにすることができ、これにより推定結果の信頼性を高めることができる。 Therefore, when the measurement state of the face image information changes to a state that adversely affects the determination of drowsiness due to the movement of the subject, the erroneous estimation result can be prevented from being output as the correct one. Can improve the reliability of the estimation result.
この発明に係る装置の第4の態様は、上記第3の態様において、前記推定部が、前記顔画像情報から前記対象者の眼の瞳孔の動きを表す前庭動眼反射を検出し、当該検出された前庭動眼反射に基づいて前記眠気の度合いを推定する第1の推定部と、前記顔画像情報から前記対象者の眼の瞬きまたは瞼の開閉の多少を表す情報を検出し、当該検出された瞬きまたは瞼の開閉の多少を表す情報に基づいて前記眠気の度合いを推定する第2の推定部と、前記顔画像情報から前記対象者の顔の特定部位の変化を表情の変化を表す情報として検出し、当該検出された表情の変化を表す情報に基づいて前記眠気の度合いを推定する第3の推定部とのうちの少なくとも1つを備えるようにしたものである。 In a fourth aspect of the device according to the present invention, in the third aspect, the estimation unit detects, from the face image information, a vestibular oculoocular reflection that represents a movement of a pupil of the eye of the subject, A first estimation unit for estimating the degree of drowsiness based on vestibular moving eye reflection, and information representing the degree of eye blink or eyelid opening and closing of the subject detected from the face image information and detected A second estimation unit for estimating the degree of drowsiness based on information representing the degree of opening and closing of blinks or eyebrows, and the change of a specific part of the face of the subject from the face image information as information representing a change in expression A detection unit is provided with at least one of a third estimation unit that estimates the degree of sleepiness based on information representing a change in the detected facial expression.
第4の態様によれば、例えば、対象者の眼の瞳孔の動きを表す前庭動眼反射、対象者の眼の瞬きまたは瞼の開閉の多少を表す情報、および、対象者の顔の表情の変化を表す情報の少なくとも1つを用いて、対象者の眠気を推定することが可能となる。 According to the fourth aspect, for example, a vestibular oculoocular reflex representing the movement of the pupil of the subject's eye, information representing the degree of blinking or eyelid opening and closing of the subject's eye, and a change in facial expression of the subject's face It is possible to estimate the sleepiness of the subject using at least one of the information representing.
この発明に係る装置の第5の態様は、上記第4の態様において、前記計測状態判定部が、前記計測状態として前記顔画像情報が前記対象者の顔を表す画像を含んでいるか否かを判定し、前記重み制御部が、前記顔画像情報が前記対象者の顔を表す画像を含んでいないと判定された場合に、前記第1、第2および第3の推定部のうちの少なくとも1つにより得られる推定値に対する重み係数を前記第2の値に設定するようにしたものである。 In a fifth aspect of the device according to the present invention, in the fourth aspect, the measurement state determination unit determines whether the face image information includes an image representing the face of the subject as the measurement state. Determining that the weight control unit determines that the face image information does not include an image representing the face of the subject, at least one of the first, second, and third estimation units. Setting the weighting factor for the estimated value obtained by the second method to the second value.
第5の態様によれば、例えば、対象者の顔が、下を向いたりセンサ部の撮像視野から外れた場合のように、顔画像情報に対象者の顔を表す画像が含まれない場合には、顔または眼の動きをもとに眠気を推定する第1、第2および第3の推定部の推定結果に対する重み係数が、顔を表す画像が得られている場合に比べて小さい値に設定される。このため、顔画像情報に対象者の顔を表す画像が含まれない場合には、誤推定の可能性を考慮して、誤った推定結果が正しいものとして出力されないようにすることができ、これにより推定結果の信頼性を高めることができる。 According to the fifth aspect, for example, the face image information does not include an image representing the face of the subject such as when the face of the subject is facing downward or deviates from the imaging field of view of the sensor unit. The weighting coefficients for the estimation results of the first, second, and third estimation units that estimate drowsiness based on the movement of the face or eye are smaller than in the case where an image representing the face is obtained. It is set. For this reason, when the face image information does not include the image representing the face of the subject, the possibility of erroneous estimation can be taken into consideration so that the incorrect estimation result can be prevented from being output as the correct one. Can improve the reliability of the estimation result.
この発明に係る装置の第6の態様は、上記第4の態様において、前記計測状態判定部が、前記計測状態として前記顔画像情報をもとに前記対象者の顔の向きが前記センサ部の方向に対し所定の角度の範囲内に含まれているか否かを判定し、前記重み制御部が、前記対象者の顔の向きが前記センサ部の方向に対し前記所定の角度の範囲内に含まれていないと判定された場合に、前記第1および第3の推定部のうちの少なくとも1つにより得られる推定値に対する重み係数を前記第2の値に設定するようにしたものである。 In a sixth aspect of the device according to the present invention, in the fourth aspect, the measurement state determination unit determines that the orientation of the face of the subject is the sensor portion based on the face image information as the measurement state. The weight control unit determines whether the orientation of the face of the subject is within the range of the predetermined angle with respect to the direction of the sensor unit. The weighting factor for the estimated value obtained by at least one of the first and third estimating units is set to the second value when it is determined that the second value does not hold.
第6の態様によれば、例えば、対象者がセンサ部に対し横を向いている場合のように、顔画像情報に対象者の顔が含まれていても、顔の向きがセンサ部の方向に対し所定の角度の範囲内に含まれていない場合には、眠気の推定に顔の正面画像を用いることができないので、前庭動眼反射または対象者の顔の表情の変化をもとに眠気を推定する第1および第3の推定部の推定結果に対する重み係数が、顔の正面画像が得られている場合に比べ小さい値に設定される。このため、対象者が横を向いている場合には、誤推定の可能性を考慮して、誤った推定結果が正しいものとして出力されないようにすることができ、これにより推定結果の信頼性を高めることができる。 According to the sixth aspect, for example, even when the face image information includes the face of the target person, as in the case where the target person faces sideways to the sensor portion, the direction of the face is the direction of the sensor portion On the other hand, if it does not fall within the predetermined angle range, the frontal image of the face can not be used to estimate drowsiness, so drowsiness is determined based on changes in the vestibular moving eye reflection or facial expression of the subject. The weighting factors for the estimation results of the first and third estimation units to be estimated are set to smaller values as compared with the case where the front image of the face is obtained. For this reason, when the subject is facing sideways, it is possible to prevent the erroneous estimation result from being output as the correct one in consideration of the possibility of the erroneous estimation, thereby making the reliability of the estimation result It can be enhanced.
この発明に係る装置の第7の態様は、上記第4の態様において、前記計測状態判定部が、前記計測状態として前記顔画像情報が前記対象者の眼の少なくとも一方を表す画像を含んでいるか否かを判定し、前記重み制御部が、前記顔画像情報が前記対象者の眼の少なくとも一方を表す画像を含んでいないと判定された場合に、前記第1および第2の推定部の少なくとも1つにより得られる推定値に対する重み係数を前記第2の値に設定するようにしたものである。 In a seventh aspect of the device according to the present invention, in the fourth aspect, whether the measurement state determination unit includes an image representing at least one of the eyes of the subject as the measurement state It is determined whether or not the weight control unit determines that the face image information does not include an image representing at least one of the subject's eyes, at least the first and second estimation units. The weighting factor for the estimated value obtained by one is set to the second value.
第7の態様によれば、例えば、対象者がセンサ部に対する頭の位置または向きを変化させ、これにより対象者の両目がいずれも顔画像情報に映っていない場合には、眼の動きに基づいて眠気の推定を行う第1および第2の推定部の推定結果に対する重み係数が、顔画像情報に少なくとも片目の画像が映っている場合に比べて小さい値に設定される。このため、顔画像情報に対象者の眼の画像が1つも映っていない場合には、誤推定の可能性を考慮して、誤った推定結果が正しいものとして出力されないようにすることができ、これにより推定結果の信頼性を高めることができる。 According to the seventh aspect, for example, when the subject changes the position or the orientation of the head with respect to the sensor unit, and thereby both eyes of the subject are not reflected in the face image information, based on the eye movement. The weighting coefficients for the estimation results of the first and second estimation units that estimate drowsiness are set to smaller values as compared to the case where at least one eye image appears in the face image information. For this reason, when no image of the subject's eye is included in the face image information, it is possible to prevent an erroneous estimation result from being output as a correct one, in consideration of the possibility of erroneous estimation. This can improve the reliability of the estimation result.
この発明に係る装置の第8の態様は、上記第4の態様において、前記計測状態判定部が、前記計測状態として前記顔画像情報が前記対象者の口を表す画像を含んでいるか否かを判定し、前記重み制御部が、前記対象者の口を表す画像を含んでいないと判定された場合に、前記第3の推定部による推定値に対する重み係数を前記第2の値に設定するようにしたものである。 In an eighth aspect of the device according to the present invention, in the fourth aspect, the measurement state determination unit determines whether the face image information includes an image representing the mouth of the subject as the measurement state. When it is determined that the weight control unit does not include the image representing the mouth of the subject, the weight coefficient for the estimated value by the third estimation unit is set to the second value. The
第8の態様によれば、例えば、対象者がマスクをしている場合のように、顔画像情報に口を表す画像が含まれていない場合には、対象者の表情をもとに眠気を推定する第3の推定部による推定値に対する重み係数が、顔画像情報に口を表す画像が含まれている場合に比べて小さい値に設定される。このため、対象者が例えばマスクをしているような場合には、誤推定の可能性を考慮して、誤った推定結果が正しいものとして出力されないようにすることができ、これにより推定結果の信頼性を高めることができる。 According to the eighth aspect, when, for example, the face image information does not include an image representing the mouth as in the case where the subject is masking, sleepiness is determined based on the subject's expression. The weighting factor for the estimation value by the third estimation unit to be estimated is set to a smaller value than in the case where the face image information includes an image representing a mouth. For this reason, in the case where the subject is, for example, masking, it is possible to prevent the erroneous estimation result from being output as the correct one in consideration of the possibility of erroneous estimation. Reliability can be improved.
この発明に係る装置の第9の態様は、上記第4の態様において、前記計測状態判定部が、前記計測状態として前記顔画像情報をもとに前記対象者の視線の方向が前記センサ部の方向に対し所定の角度の範囲内に含まれているか否かを判定し、前記重み制御部が、前記対象者の視線の方向が前記センサ部の方向に対し所定の角度の範囲内に含まれていないと判定された場合に、前記第1の推定部による推定値に対する重み係数を前記第2の値に設定するようにしたものである。 In a ninth aspect of the device according to the present invention, in the fourth aspect, the measurement state determination unit determines that the direction of the line of sight of the subject is the sensor portion based on the face image information as the measurement state. The weight control unit determines whether the direction of the line of sight of the subject is within a range of a predetermined angle with respect to the direction of the sensor unit. The weighting factor for the estimated value by the first estimation unit is set to the second value when it is determined that the second value is not determined.
第9の態様によれば、例えば、対象者が視線の方向を正面から横方向にそらせた場合のように、顔画像情報において瞳孔を検出できない場合には、前庭動眼反射に基づいて眠気を推定する第1の推定部の推定結果に対する重み係数が、瞳孔が検出される場合に比べて小さい値に設定される。このため、例えば対象者が視線の方向を正面から横方向にそらせた場合には、誤推定の可能性を考慮して、誤った推定結果が正しいものとして出力されないようにすることができ、これにより推定結果の信頼性を高めることができる。 According to the ninth aspect, in the case where the pupil can not be detected in the face image information, for example, as in the case where the subject turns the direction of the line of sight from the front to the side, drowsiness is estimated based on vestibular moving eye reflection. The weighting factor for the estimation result of the first estimation unit is set to a smaller value than when the pupil is detected. For this reason, for example, when the target person turns the line of sight in the horizontal direction from the front, it is possible to prevent an incorrect estimation result from being output as a correct one in consideration of the possibility of erroneous estimation. Can improve the reliability of the estimation result.
この発明に係る装置の第10の態様は、上記第1の態様において、前記計測情報取得部が、前記計測情報として前記対象者の心拍情報を取得し、前記推定部が、前記特徴パラメータとして前記心拍情報から自律神経活動と関連性を有する特徴量を検出して、前記対象者の生体状態として前記自律神経活動と関連性を有する特徴量に基づいて眠気の度合いを推定し、前記計測状態判定部が、前記計測状態として前記心拍情報が前記自律神経活動と関連性を有する特徴量を検出可能な情報成分を含んでいるか否かを判定し、前記重み制御部が、前記心拍情報が前記自律神経活動と関連性を有する特徴量を検出可能な情報成分を含んでいると判定された場合に前記重み係数を第3の値に設定し、含んでいないと判定された場合には前記重み係数を前記第3の値より小さい第4の値に設定するようにしたものである。 In a tenth aspect of the device according to the present invention, in the first aspect, the measurement information acquisition unit acquires heartbeat information of the subject as the measurement information, and the estimation unit performs the feature parameter as the feature parameter. The feature quantity having relevance to the autonomic nerve activity is detected from the heart rate information, the drowsiness degree is estimated based on the feature quantity having relevance to the autonomic nerve activity as the biological condition of the subject, and the measurement state determination is performed And determining, as the measurement state, whether or not the heartbeat information includes an information component capable of detecting a feature amount having relevance to the autonomic nerve activity, and the weight control unit determines that the heartbeat information is autonomous. The weighting factor is set to a third value when it is determined that the feature amount having relevance to the neural activity includes the detectable information component, and the weighting factor is determined when it is determined not to include the information component. Before It is obtained so as to set the third value smaller than the fourth value.
第10の態様によれば、例えば、対象者の姿勢の変化によりセンサ部の装着状態が変化し、これにより心電情報から対象者の眠気を推定するために必要な特徴量を検出できなくなった場合には、上記眠気の推定値に対する重み係数が、上記特徴量を検出できる場合に比べて小さい値に設定される。すなわち、対象者の心電情報が品質良く検出できない場合には、上記眠気の推定値に対する重み係数が小さな値に設定される。このため、心電情報から眠気推定に必要な特徴量を検出できない場合には、誤推定の可能性を考慮して、誤った推定結果が正しいものとして出力されないようにすることができ、これにより推定結果の信頼性を高めることができる。 According to the tenth aspect, for example, the mounting state of the sensor unit changes due to a change in the posture of the subject, which makes it impossible to detect the feature amount necessary to estimate the sleepiness of the subject from the electrocardiogram information In this case, the weighting factor for the estimated value of drowsiness is set to a smaller value than in the case where the feature value can be detected. That is, when the electrocardiographic information of the subject can not be detected with high quality, the weighting factor for the estimated value of sleepiness is set to a small value. Therefore, when the feature amount necessary for sleepiness estimation can not be detected from the electrocardiogram information, it is possible to prevent the erroneous estimation result from being output as the correct one in consideration of the possibility of the erroneous estimation. It is possible to improve the reliability of the estimation result.
すなわちこの発明の各態様によれば、対象者の動きにより対象者の計測状態が変化した場合に、誤った推定結果が正しいものとして出力されないようにして、信頼性の高い推定結果を出力することができる技術を提供することができる。 That is, according to each aspect of the present invention, when the measurement state of the subject changes due to the movement of the subject, the erroneous estimation result is not output as the correct one, and the highly reliable estimation result is output. Can provide technology that can
以下、図面を参照してこの発明に係わる実施形態を説明する。 Hereinafter, embodiments according to the present invention will be described with reference to the drawings.
[適用例]
先ず、この発明の一実施形態に係る生体状態推定装置の一適用例について説明する。本適用例は、生体状態推定装置を車両の運転者の生体状態、例えば眠気を推定する場合に適用したものである。なお、生体状態は眠気に限るものではなく、疲労度や体調、興奮状態等であってもよい。
[Example of application]
First, an application example of a biological condition estimation apparatus according to an embodiment of the present invention will be described. The present application example is an application of the biological condition estimation apparatus to the case of estimating the biological condition of a driver of a vehicle, for example, sleepiness. The living condition is not limited to sleepiness, but may be fatigue, physical condition, excitement, or the like.
図1は、本適用例における生体状態推定装置の機能構成を示すブロック図である。
生体状態推定装置1は、計測情報取得部2と、複数の生体状態推定部3a〜3nと、計測状態判定部4と、重み制御部5と、重み付け加算部6と、生体状態判定部7とを備えている。
FIG. 1 is a block diagram showing a functional configuration of a biological condition estimation apparatus in the present application example.
The biological condition estimation apparatus 1 includes a measurement information acquisition unit 2, a plurality of biological condition estimation units 3a to 3n, a measurement condition determination unit 4, a weight control unit 5, a weighting addition unit 6, and a biological condition determination unit 7. Is equipped.
計測情報取得部2は、図示しないセンサ部により計測された、対象者としての運転者の顔画像情報およびバイタル情報を、計測情報として取得する。顔画像情報は例えばセンサ部に含まれるカメラにより得られる。バイタル情報はセンサ部に含まれるバイタルセンサにより得られる。バイタルセンサとしては例えば心電センサがある。なお、計測情報は顔画像情報およびバイタル情報のいずれか一方でもよい。 The measurement information acquisition unit 2 acquires, as measurement information, face image information and vital information of a driver as a target person measured by a sensor unit (not shown). The face image information is obtained, for example, by a camera included in the sensor unit. Vital information is obtained by a vital sensor included in the sensor unit. An example of the vital sensor is an electrocardiographic sensor. The measurement information may be either face image information or vital information.
生体状態推定部3a〜3nは、それぞれ上記顔画像情報およびバイタル情報から、運転者の眠気を推定するために必要な異なる複数の特徴パラメータに関する特徴量を検出する。特徴パラメータとしては、例えば、運転者の眼の瞳孔運動、眼の瞬き運動または瞼の開閉運動、運転者の顔の表情、心拍が挙げられるが、運転者の眠気を推定できるものであればそれ以外であってもよい。 The living body condition estimation units 3a to 3n respectively detect feature amounts related to a plurality of different feature parameters necessary to estimate the driver's sleepiness from the face image information and vital information. The characteristic parameters include, for example, pupil movement of the driver's eyes, eye blink movement or eyelid opening and closing movement, facial expression of the driver's face, heartbeat, if it can estimate the drowsiness of the driver It may be other than.
また生体状態推定部3a〜3nは、上記検出された各特徴パラメータの特徴量に基づいて上記運転者の眠気の度合いを推定する。
例えば生体状態推定部3aは、運転者の眼の瞳孔運動を示す情報と運転者の頭部の運動を示す情報とに基づいて前庭動眼反射(Vestibulo-Ocular Reflex:VOR)を表す値を算出し、例えばこの前庭動眼反射を表す値を閾値と比較してその結果を眠気の推定値として出力する。前庭動眼反射とは、頭が動いたときにこれと反対方向に眼球を動かして網膜に映る外界の像のぶれを防ぐ働きのことで、具体的には頭の角速度と瞳孔の角速度との相関値として検出される。なお、VORを用いた眠気の推定は、VORの値(利得)を閾値と比較する以外に、VORの標準偏差値や位相遅れを用いることでも求めることができる。
In addition, the biological condition estimation units 3a to 3n estimate the drowsiness degree of the driver based on the feature quantities of the detected feature parameters.
For example, the living body state estimation unit 3a calculates a value representing the vestibular oculoocular reflex (VOR) based on the information indicating the pupil movement of the driver's eye and the information indicating the movement of the driver's head. For example, the value representing the vestibular oculoocular reflex is compared with a threshold value, and the result is output as an estimated value of drowsiness. The vestibular oculomotor reflex is a function that moves the eyeball in the opposite direction when the head moves to prevent blurring of the external image seen on the retina, and more specifically, the correlation between the angular velocity of the head and the angular velocity of the pupil Detected as a value. The drowsiness estimation using VOR can also be obtained by using the standard deviation value of VOR or the phase delay, in addition to comparing the VOR value (gain) with the threshold value.
例えば生体状態推定部3bは、眼の瞬き運動または瞼の開閉運動を示す情報に基づいて、単位時間当たりの瞬きの回数または頻度、或いは単位時間当たりの瞼が閉じている時間の合計を算出し、これらの算出結果を閾値と比較してその結果を眠気の推定値として出力する。 For example, the living body state estimation unit 3b calculates the number or frequency of blinks per unit time, or the total time during which the eyelids are closed per unit time, based on the information indicating blink motion of the eye or eyelid opening and closing motion. Then, these calculated results are compared with a threshold value, and the result is output as an estimated value of drowsiness.
例えば生体状態推定部3c(図示省略)は、運転者の顔画像から、眼、眉、口等の顔の特徴点間の距離、または顔表面のエッジを、運転者の顔の表情を表す情報として検出する。そして、その算出値を閾値と比較してその結果を眠気の推定値として出力する。 For example, the living body condition estimation unit 3c (not shown) is an information indicating the distance between feature points of the face such as eyes, eyebrows, and mouth, or the edge of the face surface from the driver's face image. As detected. Then, the calculated value is compared with a threshold value, and the result is output as an estimated value of sleepiness.
例えば生体状態推定部3nは、運転者の心拍情報から、人の自律神経活動と関連性を有する特徴量として心拍間隔(RRI)を検出し、この心拍間隔をスペクトル分析して高周波成分(HF)および低周波成分(LF)を検出する。そして、これらの高周波成分(HF)および低周波成分(LF)の検出値をもとに眠気の度合いを推定する。 For example, the living body state estimation unit 3n detects a heartbeat interval (RRI) as a feature quantity related to human autonomic nerve activity from heartbeat information of the driver, and analyzes the heartbeat interval by spectrum to obtain high frequency components (HF) And detect low frequency components (LF). Then, the degree of drowsiness is estimated based on the detected values of the high frequency component (HF) and the low frequency component (LF).
計測状態判定部4は、上記計測情報取得部2により取得された顔画像情報をもとに、運転者の動きに起因して発生し、かつ上記各生体状態推定部3a〜3nにおける眠気の推定精度に影響を及ぼす計測状態の変化(顔画像情報の変化)を判定する。想定される運転者の動きとしては、例えば、ハンドル操作、周囲を確認するために顔または視線を左右に振る動作、疲労を軽減するために運転姿勢を変える動作等が想定される。上記判定対象となる顔画像情報の変化としては、例えば、顔の検出の有無、顔の向き(カメラに対する顔の角度)、眼の検出の有無、口の検出の有無、視線の方向(カメラの方向に対する視線のずれ量)等が考えられる。 Based on the face image information acquired by the measurement information acquisition unit 2, the measurement state determination unit 4 is generated due to the driver's movement and estimates the sleepiness in each of the biological condition estimation units 3a to 3n. A change in measurement state (a change in face image information) that affects the accuracy is determined. As the assumed driver's movement, for example, an operation of steering wheel, an operation of swinging a face or a line of sight to confirm surroundings, an operation of changing a driving posture to reduce fatigue, and the like are assumed. Examples of changes in the face image information to be judged include the presence / absence of face detection, face orientation (face angle with respect to camera), presence / absence of eye detection, presence / absence of mouth detection, direction of sight line (camera The amount of deviation of the line of sight with respect to the direction can be considered.
また計測状態判定部4は、上記計測情報取得部2により取得された心拍情報をもとに、当該心拍情報が眠気を推定するために必要な情報を含んでいるか否かを判定する。例えば、心拍データにおける心拍波形の信号強度またはS/Nがしきい値以上であるか否かを判定する。 Further, based on the heartbeat information acquired by the measurement information acquisition unit 2, the measurement state determination unit 4 determines whether or not the heartbeat information contains information necessary for estimating sleepiness. For example, it is determined whether the signal strength or S / N of the heartbeat waveform in the heartbeat data is equal to or greater than a threshold.
重み制御部5は、上記計測状態判定部4により得られた、眠気の推定精度に影響を及ぼす計測状態の変化の判定結果、つまり顔画像情報または心拍情報の変化の判定結果に基づいて、上記各生体状態推定部3a〜3n別に、当該生体状態推定部3a〜3nから出力される眠気推定値に対する重み係数を可変設定する。 The weight control unit 5 determines the change in the measurement state that affects the drowsiness estimation accuracy obtained by the measurement state determination unit 4, that is, based on the determination result of the change in the face image information or the heart rate information. A weighting factor is variably set for the sleepiness estimated value output from each of the living body state estimation units 3a to 3n for each of the living body state estimation units 3a to 3n.
例えば、上記顔画像情報または心拍情報の変化の判定結果が、眠気の推定精度に影響を及ぼす可能性がないかまたは所定値より少ないことを示している場合には、全ての生体状態推定部3a〜3nの推定値に対し第1の重み係数を設定する。 For example, in the case where the determination result of the change in the face image information or the heart rate information indicates that there is no possibility of affecting the drowsiness estimation accuracy or less than a predetermined value, all biological condition estimation units 3a A first weighting factor is set for the estimated value of to 3n.
これに対し上記顔画像情報または心拍情報の変化の判定結果が、眠気の推定精度に影響を及ぼす可能性があることを示している場合には、上記顔画像情報または心拍情報の変化の種類に応じて、対応が必要な生体状態推定部を選択する。そして、この選択された生体状態推定部の推定値に対し、上記第1の重み係数より小さい第2の重み係数を設定する。第2の重み係数は、予め設定された値を一律に設定してもよいが、上記顔画像情報または心拍情報の変化の種類に応じて、また生体状態推定部3a〜3nごとに、上記推定値に対する影響の度合いに応じて可変設定するようにしてもよい。 On the other hand, if the determination result of the change in the face image information or the heart rate information indicates that the drowsiness estimation accuracy may be affected, the type of change in the face image information or the heart rate information is In response, a living body state estimation unit that requires a response is selected. Then, a second weighting factor smaller than the first weighting factor is set for the estimated value of the selected living body state estimation unit. The second weighting factor may set a preset value uniformly, but the above estimation is made for each of the biological condition estimation units 3a to 3n according to the type of change in the face image information or the heart rate information. It may be set variably according to the degree of influence on the value.
重み付け加算部6は、上記生体状態推定部3a〜3nから出力される眠気の推定値に対し、それぞれ上記重み制御部5により設定された第1または第2の重み係数を重み付けする。そして、この重み付け処理された各推定値を合計して生体状態判定部7へ出力する。なお、上記重み付け加算に先立ち、上記生体状態推定部3a〜3nごとに設定された重み係数を所定のルールに従い正規化処理するとよい。 The weighting addition unit 6 weights the first or second weighting coefficient set by the weight control unit 5 with respect to the sleepiness estimated value output from the living body state estimation units 3a to 3n. Then, the weighted estimated values are summed and output to the living body condition determination unit 7. In addition, prior to the above-mentioned weighted addition, it is preferable to perform a normalization process according to a predetermined rule on the weight coefficient set for each of the living body state estimation units 3a to 3n.
生体状態判定部7は、例えば、上記重み付け加算部6から出力された重み付け加算後の眠気推定値を予め設定された閾値と比較し、運転操作に支障が生じる可能性があるか否かを判定する。そして生体状態判定部7は、上記眠気の推定値が運転操作に支障が生じる可能性があると判定すると、例えば図示しない報知部に対し報知制御情報を出力し、運転者に対し眠気を低減または抑制するための報知動作を行わせる。 For example, the living body condition determining unit 7 compares the drowsiness estimated value after the weighting addition output from the weighting addition unit 6 with a threshold set in advance, and determines whether or not a problem may occur in the driving operation. Do. Then, when it is determined that the estimated value of drowsiness may cause a problem in driving operation, the living body condition determination unit 7 outputs notification control information to a notification unit (not shown), for example, to reduce drowsiness for the driver or The notification operation for suppressing is performed.
以上のような構成であるから、生体状態推定装置1は以下のように動作する。
すなわち、運転者が、ハンドル操作や、周囲を確認するために顔または視線を左右に振る動作、疲労を軽減するために運転姿勢を変える動作等を行い、その結果運転者の顔画像情報または心拍情報が、上記運転者の眠気を推定するために必要な情報を含まない情報になったとする。例えば、運転者の顔が映っていなかったり、顔は映っていても顔の向きがカメラの方向を向いていなかったり、眼が映っていなかったり、目は映っていても瞳孔が検出できずに視線を検出できなかったり、口が映っておらず表情を判定できない情報だったとする。上記顔画像情報または心拍情報の状態は、計測状態判定部4により判定され、判定結果が重み制御部5に与えられる。
Since it is a structure as mentioned above, the biological condition estimation apparatus 1 operate | moves as follows.
That is, the driver operates the steering wheel, shakes his / her face or line of sight to check the surroundings, and changes the driving posture to reduce fatigue, etc. As a result, the driver's face image information or heartbeat It is assumed that the information does not contain the information necessary to estimate the driver's drowsiness. For example, the driver's face is not displayed, the face is displayed but the face direction is not directed to the camera, the eyes are not displayed, or the eyes can not be detected. It is assumed that the line-of-sight can not be detected, or that the mouth is not shown and the information can not be determined. The state of the face image information or the heart rate information is determined by the measurement state determination unit 4, and the determination result is given to the weight control unit 5.
そうすると、重み制御部5では、上記顔画像情報または心拍情報の変化の判定結果が、眠気の推定精度に影響を及ぼす可能性がないかまたは所定値より少ないことを示す場合には、全ての生体状態推定部3a〜3nの推定値に対し第1の重み係数が設定される。これに対し、上記顔画像情報または心拍情報の変化の判定結果が、眠気の推定精度に影響を及ぼす可能性があることを示している場合には、上記影響が及び可能性がある生体状態推定部の推定値に対し、上記第1の重み係数より小さい第2の重み係数が設定される。そして、上記生体状態推定部3a〜3nごとに設定された第1または第2の重み係数が、重み制御部5から重み付け加算部6に与えられる。 Then, in the weight control unit 5, when it is shown that the determination result of the change in the face image information or the heart rate information has no possibility of affecting the estimation accuracy of sleepiness or is less than a predetermined value, all living bodies A first weighting factor is set for the estimated values of the state estimation units 3a to 3n. On the other hand, when the determination result of the change in the face image information or the heart rate information indicates that the drowsiness estimation accuracy may be affected, the biological condition estimation in which the influence is likely to occur is A second weighting factor smaller than the first weighting factor is set for the estimated value of the part. Then, the weight control unit 5 supplies the weight addition unit 6 with the first or second weighting coefficient set for each of the living body condition estimation units 3a to 3n.
その結果重み付け加算部6では、上記与えられた重み係数に従い、上記生体状態推定部3a〜3nから出力された眠気の推定値に対しそれぞれ重み付け処理がなされる。そして、上記重み付けされた各推定値が合計加算された後、重み付け加算部6から生体状態判定部7に渡される。 As a result, the weighting addition unit 6 performs weighting processing on the sleepiness estimated value output from the living body state estimation units 3a to 3n according to the given weighting coefficient. Then, after the weighted estimated values are summed and added, the weighted addition unit 6 passes it to the living body condition determination unit 7.
生体状態判定部7では、上記重み付け加算部6から渡された重み付け加算後の眠気の推定値が、予め設定されている閾値と比較される。そして生体状態判定部7では、上記比較結果をもとに、上記重み付け加算後の眠気の推定値が、運転者が運転を行う上で好ましくない値であるか否かが判定され、好ましくないと判定された場合には、報知制御情報が出力される。この結果、報知部において、運転者に対し眠気を低減または抑制するための報知動作が行われる。 In the living body condition determination unit 7, the estimated value of sleepiness after weighting addition passed from the weighting addition unit 6 is compared with a preset threshold value. Based on the comparison result, the living body condition determination unit 7 determines whether the drowsiness estimated value after the weighting addition is an undesirable value for the driver to drive and that it is not preferable. When it is determined, notification control information is output. As a result, in the notification unit, a notification operation for reducing or suppressing drowsiness is performed to the driver.
従って、上記生体状態推定装置1によれば、例えば、運転者の運転操作等の動きにより、顔または眼が、ハンドルや運転者自身の手または腕等によりカメラから一時的に遮蔽されたり、カメラに対する運転者の顔の向き等が変化したりすることで、運転者の顔画像情報の計測状態が変化すると、当該計測状態が考慮されて眠気の推定値が修正される。このため、運転者の動きに起因して計測状態が眠気の判定に悪影響を及ぼすほど変化した場合に、誤った推定結果が正しいものとして出力されないようにすることができ、これにより推定結果の信頼性を高めることができる。 Therefore, according to the living body condition estimation apparatus 1, for example, the face or the eye is temporarily shielded from the camera by the steering wheel or the driver's own hand or arm by the movement of the driver's driving operation or the like. When the driver's face direction or the like changes with respect to, and the measurement state of the driver's face image information changes, the estimated state of sleepiness is corrected in consideration of the measurement state. Therefore, when the measurement state changes so as to adversely affect the determination of drowsiness due to the movement of the driver, it is possible to prevent the erroneous estimation result from being output as the correct one, and thereby the reliability of the estimation result Can be enhanced.
また、例えば、運転者の運転姿勢の変化により運転者に対する心電センサの装着状態が変化し、これにより心電情報から眠気推定に必要な特徴量を検出できない場合にも、誤推定の可能性を考慮して、誤った推定結果が正しいものとして出力されないようにすることができ、これにより推定結果の信頼性を高めることができる。 Also, for example, even if the mounting state of the electrocardiogram sensor with respect to the driver is changed due to a change in the driver's driving posture, the possibility of erroneous estimation can be obtained even when the feature amount necessary for sleepiness estimation can not be detected from the electrocardiogram information. Therefore, it is possible to prevent an erroneous estimation result from being output as a correct one, thereby enhancing the reliability of the estimation result.
[一実施形態]
(構成例)
図2は、この発明の一実施形態に係る生体状態推定装置を搭載した車両のシステム構成の一例を示すブロック図である。
(1)システム
車両10には、生体状態推定装置20と、表示制御装置30と、カメラ40が設置されている。また運転者60の手首には腕時計型のウェアラブル端末50が装着されている。上記カメラ40およびウェアラブル端末50はセンサ部を構成する。
[One embodiment]
(Example of configuration)
FIG. 2 is a block diagram showing an example of a system configuration of a vehicle equipped with a biological condition estimation apparatus according to an embodiment of the present invention.
(1) System In the vehicle 10, a biological condition estimation device 20, a display control device 30, and a camera 40 are installed. Further, a wristwatch-type wearable terminal 50 is attached to the wrist of the driver 60. The camera 40 and the wearable terminal 50 constitute a sensor unit.
カメラ40は、例えば、ダッシュボードの運転者60と正対する位置に配置される。カメラ40は、撮像デバイスとして、例えば近赤外光を受光可能なCMOS(Complementary MOS)イメージセンサを使用する。そして、運転者60の顔を撮像してその顔画像データを、信号ケーブルを介して生体状態推定装置20へ出力する。なお、撮像デバイスとしては、CCD(Charge Coupled Device)等の他の固体撮像素子を用いてもよい。 The camera 40 is disposed, for example, at a position facing the driver 60 of the dashboard. The camera 40 uses, for example, a CMOS (Complementary MOS) image sensor capable of receiving near-infrared light as an imaging device. Then, the face of the driver 60 is imaged, and the face image data thereof is output to the biological condition estimation apparatus 20 via the signal cable. Note that as the imaging device, another solid-state imaging device such as a CCD (Charge Coupled Device) may be used.
ウェアラブル端末50は、心電センサを内蔵する。そして、心電センサにより計測された運転者60の心電信号を、一定の周期でサンプリングして心電データに変換したのち、無線インタフェースを介して生体状態推定装置20へ送信する。 The wearable terminal 50 incorporates an electrocardiogram sensor. Then, an electrocardiogram signal of the driver 60 measured by the electrocardiogram sensor is sampled at a constant cycle and converted into electrocardiogram data, and then transmitted to the biological condition estimation apparatus 20 via the wireless interface.
(2)生体状態推定装置20
生体状態推定装置20は、運転者60の生体状態の1つとしての眠気を、当該眠気と関連性を有する上記顔画像データおよび心電データの複数の特徴パラメータをもとに推定する機能と、当該眠気の推定値に対し重み付けする機能とを備える。重み付け機能は、運転者60の動きに起因する上記顔画像データおよび心電データの計測状態の変化を判定し、その判定結果をもとに上記眠気の推定値に対する重み係数を可変設定して、上記眠気の推定値を重み付け加算する。
(2) Biological state estimation device 20
The biological condition estimation apparatus 20 has a function of estimating sleepiness as one of the biological conditions of the driver 60 based on a plurality of feature parameters of the face image data and the electrocardiogram data having relevance to the sleepiness. And a function of weighting the drowsiness estimate. The weighting function determines a change in the measurement state of the face image data and the electrocardiogram data caused by the movement of the driver 60, variably sets a weighting factor for the drowsiness estimated value based on the determination result, The estimated value of drowsiness is weighted and added.
(2−1)ハードウェア構成
図3は、生体状態推定装置20のハードウェア構成の一例を示すブロック図である。
生体状態推定装置20は、ハードウェアとして、例えば、CPU(Central Processing Unit)等のハードウェアプロセッサ21Aを有し、このハードウェアプロセッサ21Aに、プログラムメモリ21B、データメモリ25、センサインタフェース(センサI/F)23、外部インタフェース(外部I/F)24を、バス22を介して接続したものとなっている。
(2-1) Hardware Configuration FIG. 3 is a block diagram showing an example of the hardware configuration of the biological condition estimation apparatus 20. As shown in FIG.
The biological condition estimation apparatus 20 includes, as hardware, a hardware processor 21A such as a CPU (Central Processing Unit), and the hardware processor 21A includes a program memory 21B, a data memory 25, and a sensor interface (sensor I / I). F) An external interface (external I / F) 24 is connected via a bus 22.
センサI/F23は、上記カメラ40から出力された顔画像データを信号ケーブルを介して受信する。またセンサI/F23は、ウェアラブル端末50から送信された心電データを受信する。外部I/F24は、眠気の判定結果に応じた報知制御データを表示制御装置30へ出力する。 The sensor I / F 23 receives face image data output from the camera 40 via a signal cable. Further, the sensor I / F 23 receives the electrocardiogram data transmitted from the wearable terminal 50. The external I / F 24 outputs notification control data to the display control device 30 according to the drowsiness determination result.
なお、車内にLAN(Local Area Network)等の車内有線ネットワークや、Bluetooth(登録商標)等の小電力無線データ通信規格を採用した車内無線ネットワークが備えられている場合には、上記センサI/F23とカメラ40およびウェアラブル端末50との間、および外部I/F24と表示制御装置30との間のデータの伝送を、上記ネットワークを用いて行ってもよい。 When the in-car wired network such as LAN (Local Area Network) or the in-car wireless network adopting low power wireless data communication standards such as Bluetooth (registered trademark) is provided in the car, the sensor I / F 23 Transmission of data between the camera 40 and the wearable terminal 50 and between the external I / F 24 and the display control device 30 may be performed using the above network.
プログラムメモリ21Bは、記憶媒体として、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)等の随時書込および読出しが可能な不揮発性メモリ、またはROM等の不揮発性メモリを使用したもので、本実施形態に係る各種制御処理を実行するために必要なプログラムが格納されている。 The program memory 21B uses, as a storage medium, for example, a non-volatile memory such as a hard disk drive (HDD) or a solid state drive (SSD) that can be written and read as needed, or a non-volatile memory such as a ROM. Programs necessary to execute various control processes according to the present embodiment are stored.
データメモリ25は、例えば、HDDまたはSSD等の随時書込および読出しが可能な不揮発性メモリと、RAM等の揮発性メモリとを組み合わせたものを記憶媒体として備えたもので、本実施形態に係る各種処理を実行する過程で取得、検出および算出される各種データを記憶するために用いられる。 The data memory 25 includes, for example, a combination of a non-volatile memory such as an HDD or an SSD that can be written and read as needed, and a volatile memory such as a RAM as a storage medium, and relates to the present embodiment. It is used to store various data acquired, detected and calculated in the process of executing various processes.
(2−2)ソフトウェア構成
図4は、図3に示した生体状態推定装置20のハードウェア構成に、さらにソフトウェア構成を追加して示したブロック図である。
データメモリ25の記憶領域には、画像情報記憶部251と、心電情報記憶部252が設けられている。画像情報記憶部251は、カメラ40から取得した顔画像データを記憶するために用いられる。心電情報記憶部252は、上記ウェアラブル端末50から取得した心電データを記憶するために用いられる。なお、データメモリ25には、制御ユニット21が眠気の推定処理や推定値に対する重み付け加算を行う過程で検出または算出された各種データを保存するための記憶領域も備える。
(2-2) Software Configuration FIG. 4 is a block diagram showing the hardware configuration of the biological condition estimation apparatus 20 shown in FIG. 3 with the addition of a software configuration.
In the storage area of the data memory 25, an image information storage unit 251 and an electrocardiogram information storage unit 252 are provided. The image information storage unit 251 is used to store face image data acquired from the camera 40. The electrocardiogram information storage unit 252 is used to store the electrocardiogram data acquired from the wearable terminal 50. The data memory 25 also includes a storage area for storing various data detected or calculated in the process of the drowsiness estimation process and the weighted addition to the estimated value by the control unit 21.
制御ユニット21は、上記ハードウェアプロセッサ21Aと、上記プログラムメモリ21Bとから構成され、ソフトウェアによる処理機能部として、画像取得部211と、心電情報取得部212と、第1の眠気推定部213と、第2の眠気推定部214と、第3の眠気推定部215と、第4の眠気推定部216と、計測状態判定部217と、重み制御部218と、重み付け加算部219と、眠気判定部220とを備えている。これらのうち、画像取得部211および心電情報取得部212は、計測情報取得部を構成する。また、第1の眠気推定部213、第2の眠気推定部214、第3の眠気推定部215および第4の眠気推定部216は、生体状態の推定部を構成する。 The control unit 21 includes the hardware processor 21A and the program memory 21B, and as a processing function unit by software, an image acquisition unit 211, an electrocardiogram information acquisition unit 212, and a first sleepiness estimation unit 213. , Second sleepiness estimation unit 214, third sleepiness estimation unit 215, fourth sleepiness estimation unit 216, measurement state determination unit 217, weight control unit 218, weighting addition unit 219, sleepiness determination unit And 220. Among these, the image acquisition unit 211 and the electrocardiogram information acquisition unit 212 constitute a measurement information acquisition unit. Further, the first sleepiness estimation unit 213, the second sleepiness estimation unit 214, the third sleepiness estimation unit 215, and the fourth sleepiness estimation unit 216 constitute a living state estimation unit.
上記各取得部211,212、各推定部213〜216、判定部217,220、制御部218および加算部219は、いずれもプログラムメモリ21Bに格納されたプログラムを、上記ハードウェアプロセッサ21Aに実行させることにより実現される。 Each of the acquisition units 211 and 212, estimation units 213 to 216, determination units 217 and 220, control unit 218 and addition unit 219 causes the hardware processor 21A to execute the program stored in the program memory 21B. Is realized by
画像取得部211は、上記カメラ40から出力された運転者60の顔画像データをセンサI/F23を介して所定の取得周期で取り込み、タイムスタンプを付けてデータメモリ25の画像情報記憶部251に記憶させる処理を行う。 The image acquisition unit 211 fetches face image data of the driver 60 output from the camera 40 through the sensor I / F 23 at a predetermined acquisition cycle, adds a time stamp, and stores the image data in the image information storage unit 251 of the data memory 25. Perform processing to store.
心電情報取得部212は、上記ウェアラブル端末50から送信された心電データをセンサI/F23を介して上記所定の取得周期で取り込み、この取り込んだ心電データを取得時刻を表すタイムスタンプを対応付けてタイムスタンプを付けてデータメモリ25の心電情報記憶部252に記憶させる処理を行う。上記各タイムスタンプは、上記顔画像データと心電データとを時間的に対応付ける役割を持つ。 The electrocardiogram information acquisition unit 212 acquires the electrocardiogram data transmitted from the wearable terminal 50 through the sensor I / F 23 at the predetermined acquisition cycle, and corresponds the time stamp indicating the acquired time to the acquired electrocardiogram data. A process of adding a time stamp and storing the time stamp in the electrocardiogram information storage unit 252 of the data memory 25 is performed. Each time stamp has a role of temporally correlating the face image data and the electrocardiogram data.
第1の眠気推定部213は次の処理を行う。
(1) 上記画像情報記憶部251に記憶された顔画像データに含まれる頭部または顔面の画像と眼の画像をもとに、眠気を推定するための第1の特徴パラメータとして、所定の検出周期で、前庭動眼反射(Vestibulo-Ocular Reflex:VOR)を検出する処理。前庭動眼反射とは、先に述べたように、頭が動いたときにこれと反対方向に眼球を動かして網膜に映る外界の像のぶれを防ぐ働きのことで、具体的には頭部または顔面の角速度と瞳孔の角速度との相関値として検出される。
The first sleepiness estimation unit 213 performs the following processing.
(1) Based on the image of the head or face and the image of the eye included in the face image data stored in the image information storage unit 251, predetermined detection as a first feature parameter for estimating drowsiness A process of detecting vestibular oculoocular reflex (VOR) in a cycle. As described above, the vestibular oculomotor reflex is a function that moves the eye in the opposite direction when the head moves to prevent blurring of the external image reflected on the retina, specifically, the head or It is detected as a correlation value between the angular velocity of the face and the angular velocity of the pupil.
(2) 上記前庭動眼反射(VOR)を表す検出値をもとにVORゲインおよび標準偏差を算出し、これらの算出値をもとに眠気の推定値E1を算出する処理。上記閾値は1つでも複数でもよく、要求される推定値識別精度に応じて選択できる。 (2) A process of calculating the VOR gain and the standard deviation based on the detected value representing the vestibular moving eye reflex (VOR), and calculating the drowsiness estimated value E1 based on these calculated values. The threshold may be one or more, and can be selected in accordance with the required estimated value identification accuracy.
第2の眠気推定部214は次の処理を行う。
(1) 上記画像情報記憶部251に記憶された顔画像データに含まれる眼の画像をもとに、眠気を推定するための第2の特徴パラメータとして、上記所定の検出周期で、眼の瞬き運動または瞼の開閉運動を示す特徴量を検出する処理。具体的には、単位時間当たりの瞬きの回数または頻度、或いは単位時間当たりの瞼が閉じている時間の合計値、つまり開眼時間割合(PERCLOS)を算出する。
The second sleepiness estimation unit 214 performs the following processing.
(1) Blinking of the eye at the predetermined detection cycle as a second feature parameter for estimating drowsiness based on the image of the eye included in the face image data stored in the image information storage unit 251 A process of detecting a feature that indicates the movement or the opening and closing movement of the eyelid. Specifically, the number or frequency of blinks per unit time, or the total value of the eyelid closing time per unit time, that is, the eye open time ratio (PERCLOS) is calculated.
(2) 上記算出された瞬きの回数または頻度、或いは単位時間当たりの瞼が閉じている時間の合計値を、閾値と比較してその結果を眠気の推定値E2として出力する処理。上記閾値は1つでも複数でもよく、要求される推定値識別精度に応じて選択できる。 (2) A process of comparing the calculated number or frequency of blinks or the total value of the eyelid closing time per unit time with a threshold value and outputting the result as a sleepiness estimated value E2. The threshold may be one or more, and can be selected in accordance with the required estimated value identification accuracy.
第3の眠気推定部215は次の処理を行う。
(1) 上記画像情報記憶部251に記憶された顔画像データをもとに、眠気を推定するための第3の特徴パラメータとして、上記所定の検出周期で、運転者の顔の表情を表す情報を検出する処理。具体的には、顔画像から眼、眉および口等の各部位の特徴点と、顔面のエッジ等の顔の特徴点を検出し、この検出された複数の特徴点間の距離の変化、または顔表面のエッジ強度の変化を検出する。
The third sleepiness estimation unit 215 performs the following processing.
(1) Information indicating the facial expression of the driver's face in the predetermined detection cycle as a third feature parameter for estimating drowsiness based on the face image data stored in the image information storage unit 251 Process to detect Specifically, a feature point of each part such as eyes, eyebrows and mouth and face feature points such as an edge of a face are detected from the face image, and a change in distance between the plurality of detected feature points or Detect changes in edge strength of the face surface.
(2) 上記検出された眼、眉、口等の顔の特徴点間の距離の変化、または顔面のエッジ強度の変化の検出値を、例えば閾値と比較してその結果を眠気の推定値E3として出力する処理。上記閾値は1つでも複数でもよく、要求される推定値識別精度に応じて任意に選択できる。 (2) The detected change in the distance between facial feature points such as eyes, eyebrows, and mouth, or the detected value of the change in edge strength of the face, for example, is compared with a threshold value and the result is an estimated value of sleepiness E3 Process to output as. The above threshold value may be one or more, and can be arbitrarily selected according to the required estimated value identification accuracy.
第4の眠気推定部216は次の処理を行う。
(1) 上記心電情報記憶部252に記憶された心電データをもとに、眠気を推定するための第4の特徴パラメータとして、上記所定の検出周期で、人の自律神経活動と関連性を有する特徴量である心拍間隔(R-R Interval:RRI)を検出し、この心拍間隔(RRI)をスペクトル分析して高周波成分(High-Frequency: HF)を検出する処理。
The fourth sleepiness estimation unit 216 performs the following processing.
(1) As the fourth feature parameter for estimating drowsiness based on the electrocardiogram data stored in the above-mentioned electrocardiogram information storage unit 252, the autonomic nerve activity and the relativity in the above-mentioned predetermined detection cycle A process of detecting a heartbeat interval (RR Interval: RRI), which is a feature quantity having the following feature, and spectrally analyzing the heartbeat interval (RRI) to detect a high-frequency component (HF).
(2) 上記検出された高周波成分(HF)の値をもとに眠気を推定してその推定値E4を出力する処理。なお、心電データから心拍数を算出することによっても、眠気の度合いを推定することが可能である。一般に、心拍数が少ない場合は眠気の度合いが高い状態を表し、多い場合は眠気の度合いが低い状態を表す。 (2) A process of estimating drowsiness based on the value of the detected high frequency component (HF) and outputting the estimated value E4. The degree of drowsiness can also be estimated by calculating the heart rate from the electrocardiogram data. In general, when the heart rate is low, it indicates a state of high sleepiness, and when it is high, it indicates a state of low sleepiness.
計測状態判定部217は以下の処理を行う。
(1) 上記画像情報記憶部251に記憶された顔画像データに基づいて、顔画像が、運転者60の動きに起因して発生しかつ上記第1乃至第3の各眠気推定部213〜215における眠気の推定精度に影響を及ぼす状態であるか否かを判定する処理。例えば、顔の画像が映っていない状態、カメラ40に対する顔の向きが所定の角度の範囲から外れている状態、両眼とも映っていない状態、口が映っていない状態、カメラ40に対する視線の方向が所定の角度から外れている状態等が、これに相当する。運転者60の動きとしては、例えば、ハンドル操作、周囲を確認するために顔または視線を左右に振る動作、疲労を軽減するために運転姿勢を変える動作等が想定される。
The measurement state determination unit 217 performs the following processing.
(1) Based on the face image data stored in the image information storage unit 251, a face image is generated due to the movement of the driver 60 and the first to third drowsiness estimation units 213 to 215 The process of determining whether or not the state affects the estimation accuracy of sleepiness in For example, a state in which no face image is displayed, a state in which the direction of the face with respect to the camera 40 is out of a predetermined angle range, a state in which both eyes are not shown, a state without a mouth, and a direction of a line of sight with respect to the camera 40 Is equivalent to a state in which the angle is out of the predetermined angle. As the movement of the driver 60, for example, an operation of steering wheel, an operation of swinging a face or a line of sight to confirm surroundings, an operation of changing a driving posture to reduce fatigue, and the like are assumed.
(2)上記心電情報記憶部252に記憶された心電データが、運転者60の動きに起因して発生し、かつ上記第4の眠気推定部216における眠気の推定精度に影響を及ぼす状態であるか否かを判定する処理。例えば、心電データにより表される心拍波形の信号強度またはS/Nが閾値を下回っているか否かを判定する。 (2) A state in which the electrocardiogram data stored in the electrocardiogram information storage unit 252 is generated due to the movement of the driver 60 and affects the sleepiness estimation accuracy in the fourth sleepiness estimation unit 216 Processing to determine whether or not For example, it is determined whether the signal strength or S / N of the heartbeat waveform represented by the electrocardiogram data is below a threshold.
重み制御部218は、上記計測状態判定部217により得られた、眠気の推定精度に影響を及ぼす顔画像データおよび心電データの状態の判定結果に基づいて、上記各眠気推定部213〜216ごとに、当該眠気推定部213〜216から出力される眠気推定値E1〜E4に対する重み係数を可変設定する処理を行う。可変設定の具体例についての後に詳しく述べる。 The weight control unit 218 controls each of the sleepiness estimating units 213 to 216 based on the determination result of the state of the face image data and the electrocardiogram data which affect the drowsiness estimation accuracy, which is obtained by the measurement state determining unit 217. Then, a process of variably setting weighting factors for the sleepiness estimated values E1 to E4 output from the sleepiness estimation units 213 to 216 is performed. Detailed examples of variable settings will be described later.
重み付け加算部219は、上記各眠気推定部213〜216から出力される眠気推定値E1〜E4を正規化した後、この正規化後の眠気推定値に対しそれぞれ上記重み制御部218により可変設定された重み係数を重み付けする。そして、この重み付けされた各眠気推定値を加算し、この重み付け加算された眠気推定値Eを眠気判定部220に渡す。 The weighting addition unit 219 normalizes the drowsiness estimated values E1 to E4 output from the drowsiness estimation units 213 to 216, and then, the drowsiness estimated values after the normalization are variably set by the weight control unit 218, respectively. The weighting factor is weighted. Then, the weighted sleepiness estimated values are added, and the weighted added sleepiness estimated value E is passed to the sleepiness determination unit 220.
眠気判定部220は、例えば、上記重み付け加算部219から渡された重み付け加算後の眠気推定値Eを予め設定された判定閾値と比較し、これにより運転者60が運転操作に支障が生じる可能性がある状態であるか否かを判定する。そして、運転者が運転操作に支障が生じる可能性がある状態であると判定すると、外部I/F24から表示制御装置30に対し報知制御情報を出力する。 The drowsiness determination unit 220 compares, for example, the drowsiness estimated value E after weighting addition passed from the weighting addition unit 219 with a determination threshold set in advance, which may cause a problem in the driver's 60 driving operation. It is determined whether or not there is a state. Then, when it is determined that the driver is in a state in which a problem may occur in the driving operation, the external I / F 24 outputs notification control information to the display control device 30.
(3)表示制御装置30
表示制御装置30は、ハードウェアプロセッサとメモリを有し、メモリに格納されたプログラムを上記ハードウェアプロセッサに実行させることにより、アラーム制御機能を実現する。アラーム制御機能は、生体状態推定装置20から出力される報知制御情報を受信した場合に、当該制御情報に基づいて眠気に対するアラームを図示しない出力部から発生させる機能である。
(3) Display control device 30
The display control device 30 has a hardware processor and a memory, and implements the alarm control function by causing the hardware processor to execute the program stored in the memory. The alarm control function is a function to generate an alarm for sleepiness from an output unit (not shown) based on the control information when the notification control information output from the biological condition estimation apparatus 20 is received.
(動作例)
次に、図5および図6を用いて、生体状態推定装置20の動作例を説明する。
図5および図6は、生体状態推定装置20による処理手順と処理内容の一例を示すフローチャートである。
(Operation example)
Next, an operation example of the biological condition estimation apparatus 20 will be described using FIGS. 5 and 6.
FIG. 5 and FIG. 6 are flowcharts showing an example of the processing procedure and the processing content by the biological condition estimation apparatus 20.
(1)重み係数の初期設定
生体状態推定装置20は、例えば運転者60が運転席に着座し、エンジンのスタートキーが操作されたことをトリガとして、重み係数の初期設定処理を行う。例えば、重み制御部218の制御の下、ステップS10において、第1乃至第4の各眠気推定部213〜216により得られる推定値E1〜E4に対し、データメモリ25内の初期データ領域から重み係数W1〜W4の初期値(例えば同一値)を読み出して、当該重み係数の初期値を一律に設定する。なお、上記総合的な眠気推定値Eに与える上記各推定値E1〜E4の影響度に応じて、上記各推定値E1〜E4に対する重み係数W1〜W4の初期値を異なる値に設定してもよい。
(1) Initial Setting of Weighting Coefficient The biological condition estimating apparatus 20 performs initial setting processing of the weighting coefficient, triggered by, for example, that the driver 60 is seated at the driver's seat and the start key of the engine is operated. For example, under the control of the weight control unit 218, in step S10, with respect to the estimated values E1 to E4 obtained by the first to fourth sleepiness estimating units 213 to 216, weighting coefficients are calculated from the initial data area in the data memory 25. The initial values (for example, the same value) of W1 to W4 are read out, and the initial values of the weighting factors are uniformly set. The initial values of the weighting factors W1 to W4 for the estimated values E1 to E4 may be set to different values according to the degree of influence of the estimated values E1 to E4 given to the comprehensive sleepiness estimated value E. Good.
(2)計測情報の取得
上記エンジンのスタートキーの操作に応じて、カメラ40は一定のフレーム周期で運転者60の顔の撮像を開始し、撮像された顔画像データを生体状態推定装置20へ出力する。生体状態推定装置20は、画像取得部211の制御の下、ステップS11において、上記カメラ40により撮像された運転者60の顔画像データをセンサI/F23を介して取り込み、この取り込んだ顔画像データをその取得時刻を表すタイムスタンプと対応付けて画像情報記憶部251に記憶させる。
(2) Acquisition of Measurement Information In response to the operation of the start key of the engine, the camera 40 starts imaging of the face of the driver 60 at a constant frame cycle, and the imaged face image data is sent to the biological condition estimation device 20 Output. Under the control of the image acquisition unit 211, in step S11, the biological condition estimation apparatus 20 captures face image data of the driver 60 captured by the camera 40 via the sensor I / F 23, and captures the captured face image data. Are stored in the image information storage unit 251 in association with the time stamp indicating the acquisition time.
一方、ウェアラブル端末50では、内蔵された心電センサにより常時心電信号の計測が行われている。そして、心電センサにより得られた心電信号が一定のサンプリング周期でサンプリングされて心電データに変換され、当該心電データが生体状態推定装置20へ送信される。これに対し生体状態推定装置20は、心電情報取得部212の制御の下、ステップS12において、上記カメラ40により撮像された運転者60の心電データをセンサI/F23を介して取り込み、この取り込んだ心電データをその取得時刻を表すタイムスタンプと対応付けて画像情報記憶部251に記憶させる。 On the other hand, in the wearable terminal 50, measurement of an electrocardiogram signal is constantly performed by the built-in electrocardiogram sensor. Then, an electrocardiogram signal obtained by the electrocardiogram sensor is sampled at a constant sampling cycle and converted into electrocardiogram data, and the electrocardiogram data is transmitted to the biological state estimation device 20. On the other hand, the biological condition estimation apparatus 20 captures the electrocardiogram data of the driver 60 captured by the camera 40 through the sensor I / F 23 in step S12 under the control of the electrocardiogram information acquisition unit 212. The acquired electrocardiogram data is stored in the image information storage unit 251 in association with a time stamp indicating the acquisition time.
以上述べた顔画像データおよび心電データの取得処理は、車両10のエンジンが停止するまで所定の検出周期で繰り返し行われる。 The acquisition process of the face image data and the electrocardiogram data described above is repeatedly performed in a predetermined detection cycle until the engine of the vehicle 10 is stopped.
(3)眠気の推定
上記計測情報の取得処理が開始されると、生体状態推定装置20は、第1乃至第4の眠気推定部213〜216により、それぞれ取得時刻が同一の顔画像データおよび心電データに基づいて、運転者60の眠気を推定する処理を実行する。
(3) Estimating drowsiness When acquisition processing of the measurement information is started, the biological condition estimating device 20 causes the first to fourth sleepiness estimating units 213 to 216 to generate face image data and heart having the same acquisition time. A process of estimating the drowsiness of the driver 60 is executed based on the telegraphic data.
(3−1)VORに基づく眠気の推定
生体状態推定装置20は、第1の眠気推定部213の制御の下、ステップS13において、上記データメモリ25の画像情報記憶部251から顔画像データを時系列に従い順次読み込む。そして、各顔画像データに含まれる頭部または顔面の画像と眼の画像をもとに、眠気と関連性を有する第1の特徴パラメータとして、前庭動眼反射(VOR)を検出する。VORは、例えば、運転者60の頭部または顔面の角速度と瞳孔の角速度との相関値として算出される。
(3-1) Estimation of Drowsiness Based on VOR The biological state estimation device 20 performs processing of face image data from the image information storage unit 251 of the data memory 25 in step S13 under the control of the first sleepiness estimation unit 213. Read sequentially according to the series. Then, based on the image of the head or face and the image of the eye included in each face image data, the vestibular moving eye reflection (VOR) is detected as a first feature parameter having relevance to drowsiness. VOR is calculated, for example, as a correlation value between the angular velocity of the head or face of the driver 60 and the angular velocity of the pupil.
続いて第1の眠気推定部213は、上記VORの検出値からVORゲインおよび標準偏差を算出し、このVORゲインおよび標準偏差をもとに運転者60の眠気の度合いを推定する。そして、上記眠気の推定値E1を重み付け加算部219へ出力する。 Subsequently, the first sleepiness estimation unit 213 calculates the VOR gain and the standard deviation from the detection value of the VOR, and estimates the drowsiness level of the driver 60 based on the VOR gain and the standard deviation. Then, the estimated value E 1 of drowsiness is output to the weighted addition unit 219.
なお、上記VORのゲインと標準偏差に基づいて眠気を推定する方法については、例えば、「西山等、“前庭動眼反射による眠気予兆検出”、生体医工学、Vol.48 (2010) No.1 p1-10」に詳しく記載されている。 For a method of estimating drowsiness based on the VOR gain and standard deviation, for example, “Nishiyama et al.,“ Drowsiness precursor detection by vestibular moving eye reflex ”, Biomedical Engineering, Vol. 48 (2010) No. 1 p1 It is described in detail in -10.
(3−2)瞬目に基づく眠気の推定
生体状態推定装置20は、第2の眠気推定部214の制御の下、ステップS14において、上記データメモリ25の画像情報記憶部251から顔画像データを時系列に従い順次読み込む。そして、当該顔画像データに含まれる眼の画像をもとに、眠気と関連性を有する第2の特徴パラメータとして、眼の瞬き運動または瞼の開閉運動を示す特徴量を検出する。特徴量としては、例えば、単位時間当たりの瞬きの回数または頻度、或いは単位時間当たりの瞼が閉じている時間の合計値、つまり開眼時間割合(PERCLOS)を算出する。
(3-2) Estimating drowsiness based on blinks The biological state estimation device 20 controls the face image data from the image information storage unit 251 of the data memory 25 in step S14 under the control of the second sleepiness estimation unit 214. Read sequentially according to time series. And based on the image of the eye contained in the said face image data, the feature-value which shows the blink motion of eye, or eyelid open-close motion is detected as 2nd feature parameter which has relevance with drowsiness. As the feature amount, for example, the number or frequency of blinks per unit time, or a total value of time during which the eyelids per unit time are closed, that is, an eye open time ratio (PERCLOS) is calculated.
そして、上記算出された瞬きの回数または頻度、或いは単位時間当たりの瞼が閉じている時間の合計値を、予め設定された閾値と比較して推定値を判定し、その判定結果を瞬目に基づく眠気の推定値E2として重み付け加算部219へ出力する。 Then, the estimated value is determined by comparing the calculated number or frequency of blinks or the total value of the time during which the eyelids per unit time are closed with a preset threshold, and the determination result is blinked. It outputs to the weighting addition part 219 as the estimated value E2 of drowsiness based.
なお、上記開眼時間割合(PERCLOS)による眠気推定方法については、例えば「W. W. Wierwille et al. “Research on vehicle-based driver status/performance monitoring; development, validation and refinement of algorithms for detection of driver drowsiness,” National Highway Traffic Administration Final Report: DOT HS 808 247(1994)」に詳しく記載されている。 The method of estimating drowsiness by the above-mentioned percentage of eye opening time (PERCLOS) is described, for example, “WW Wierwille et al.“ Research on vehicle-based driver status / performance monitoring; development, validation and refinement of algorithms for detection of driver drowsiness, ”National Highway Traffic Administration Final Report: DOT HS 808 247 (1994).
(3−3)表情に基づく眠気の推定
生体状態推定装置20は、第3の眠気推定部215の制御の下、ステップS15において、上記データメモリ25の画像情報記憶部251から顔画像データを時系列に従い順次読み込む。そして、当該各顔画像データから、眠気と関連性を有する第3の特徴パラメータとして、眼、眉および口等の各部位の特徴点と、顔面のエッジ等の顔の特徴点を検出し、上記検出された複数の特徴点間の単位時間ごとの距離の変化、または顔表面のエッジの単位時間ごとの強度の変化を検出する。
(3-3) Estimation of Drowsiness Based on Facial Expression The biological state estimation device 20 controls the face image data from the image information storage unit 251 of the data memory 25 in step S15 under the control of the third sleepiness estimation unit 215. Read sequentially according to the series. Then, from the respective face image data, feature points of each part such as eyes, eyebrows and mouth and face feature points such as an edge of face are detected as third feature parameters having relevance to drowsiness, A change in distance per unit time between a plurality of detected feature points or a change in intensity per unit time of an edge of a face surface is detected.
そして第3の眠気推定部215は、上記検出された眼、眉、口等の顔の特徴点間の距離の変化、または顔面のエッジ強度の変化の検出値を、例えば閾値と比較してその結果を眠気の推定値E3として重み付け加算部219へ出力する。 Then, the third sleepiness estimation unit 215 compares, for example, the detected value of the change in the distance between the face feature points such as the eye, eyelid and mouth or the change in the edge strength of the face with the threshold value. The result is output to the weighted addition unit 219 as the sleepiness estimated value E3.
なお、上記顔の特徴点間の距離の変化および顔表面エッジ強度の変化に基づいて眠気を推定する方法については、例えば「佐藤等、“顔画像特徴と眠気の相関に基づくドライバの眠気検出”、情報処理学会 第78回全国大会予稿集」に詳しく記載されている。 In addition, about the method of estimating drowsiness based on the change of the distance between the feature points of the face and the change of face surface edge strength, for example, “Sato et al.,“ Drowsiness detection of driver based on correlation of face image features and drowsiness ” , The Information Processing Society of Japan 78th National Conference Draft "is described in detail.
(3−4)心拍情報に基づく眠気の推定
生体状態推定装置20は、第4の眠気推定部216の制御の下、ステップS16において、上記データメモリ25の心電情報記憶部252から心電データを時系列に従い順次読み込む。そして、上記心電データをもとに、眠気と関連性を有する第4の特徴パラメータとして、心拍間隔(RRI)を検出し、この心拍間隔(RRI)をスペクトル分析して高周波成分(HF)を検出する。そして、上記検出された高周波成分(HF)の値をもとに眠気を推定して、その推定値E4を重み付け加算部219へ出力する。
(3-4) Estimation of Drowsiness Based on Heart Rate Information The biological condition estimation device 20 controls the electrocardiogram data from the electrocardiogram information storage unit 252 of the data memory 25 in step S16 under the control of the fourth sleepiness estimation unit 216. Are sequentially read in chronological order. Then, based on the above-mentioned electrocardiogram data, a heart rate interval (RRI) is detected as a fourth characteristic parameter related to drowsiness, and this heart rate interval (RRI) is subjected to spectrum analysis to obtain a high frequency component (HF). To detect. Then, drowsiness is estimated based on the value of the detected high frequency component (HF), and the estimated value E4 is output to the weighted addition unit 219.
なお、上記心拍間隔のスペクトル分析を用いた眠気の推定方法については、例えば「中野等、“ドライバの覚醒度検知技術”、FUJITSU、 Vol. 59 No. 4、p 416-420、2008」に詳しく記載されている。 In addition, about the estimation method of the drowsiness using the spectrum analysis of the said heart rate interval, for example, it is detailed in "Nakano et al.," Wake level detection technique of driver ", FUJITSU, Vol. 59 No. 4, p 416-420, 2008". Have been described.
(4)運転者60の動きに起因する計測状態の変化の判定
生体状態推定装置20は、上記した第1乃至第4の眠気推定部213〜216における眠気推定処理と並行して、計測状態判定部217の制御の下、ステップS17において、上記顔画像データおよび心電データの計測状態が、上記第1乃至第4の眠気推定部213〜216における眠気の推定精度に好ましくない影響を及ぼす状態であるか否かを、以下の各項目について判定する。
(4) Determination of Change in Measurement State Due to Movement of Driver 60 The biological state estimation device 20 determines the measurement state in parallel with the sleepiness estimation process in the first to fourth sleepiness estimation units 213 to 216 described above. Under the control of the unit 217, in step S17, the measurement state of the face image data and the electrocardiogram data adversely affects the sleepiness estimation accuracy in the first to fourth sleepiness estimation units 213 to 216. For each item below, it is determined whether there is any.
(4−1)顔画像の検出の有無
計測状態判定部217は、例えば、上記画像情報記憶部251から顔画像データを読み込み、当該顔画像データから顔を表す画像の検出を試みる。この顔を表す画像の検出には、パターン認識などを用いることができる。上記検出処理の結果、運転者60の顔画像を認識できなければ、上記顔画像データの計測状態は上記眠気の推定精度に影響を及ぼす状態であると判定する。
(4-1) Presence / absence of detection of face image For example, the measurement state determination unit 217 reads face image data from the image information storage unit 251 and tries to detect an image representing a face from the face image data. Pattern recognition or the like can be used to detect the image representing the face. If the face image of the driver 60 can not be recognized as a result of the detection processing, it is determined that the measurement state of the face image data is a state that affects the estimation accuracy of the sleepiness.
(4−2)顔の向き
計測状態判定部217は、例えば、上記顔画像データから運転者60の顔画像を検出できたとすると、当該顔画像をもとにカメラ40に対する顔の向きを示す角度を算出する。この顔の向きを示す角度は、例えば顔画像データから顔の各部位の位置を表す特徴量(複数のパラメタ)を検出し、この特徴量を三次元顔形状モデルと比較することにより求めることができる。計測状態判定部217は、上記カメラに対する顔の向きの角度が所定の角度(例えば20度)以上であるか否かを判定し、20度以上の場合には、上記顔画像データの計測状態は上記眠気の推定精度に影響を及ぼす状態であると判定する。なお、顔の向きを求める方法は、例えば国際公開2006/051607号明細書または特許第4093273号公報に例示されている。
(4-2) Face Orientation If, for example, the face image of the driver 60 can be detected from the face image data, the measurement state determination unit 217 determines an angle indicating the face orientation with respect to the camera 40 based on the face image. Calculate The angle indicating the orientation of the face can be obtained, for example, by detecting feature quantities (a plurality of parameters) representing the position of each part of the face from face image data and comparing the feature quantities with a three-dimensional face shape model. it can. The measurement state determination unit 217 determines whether or not the face orientation angle with respect to the camera is equal to or greater than a predetermined angle (for example, 20 degrees), and in the case of 20 degrees or more, the measurement state of the face image data is It is determined that the state affects the estimation accuracy of the sleepiness. In addition, the method of calculating | requiring the direction of a face is illustrated by international publication 2006/051607 specification or patent 4093273, for example.
(4−3)眼を表す画像の検出の有無
計測状態判定部217は、上記顔画像データから運転者の顔画像が検出されると、当該顔画像から眼を表す画像が1つ以上検出されるか否かを判定する。そして、この判定の結果両眼とも検出されなければ、このときの顔画像データの計測状態は上記眠気の推定精度に影響を及ぼす状態であると判定する。
(4-3) Presence of Detection of Image Representing Eye When the face image of the driver is detected from the face image data, the measurement state determination unit 217 detects one or more images representing the eye from the face image. To determine whether the Then, if it is determined that both eyes are not detected as a result of this determination, it is determined that the measurement state of the face image data at this time is a state that affects the estimation accuracy of the sleepiness.
(4−4)口を表す画像の検出の有無
計測状態判定部217は、上記顔画像データから運転者の顔画像が認識されると、当該顔画像から口を表す画像が検出されるか否かを判定する。そして、この判定の結果口を表す画像が検出されなければ、表情を判定することが困難であるため、このときの顔画像データの計測状態は上記眠気の推定精度に影響を及ぼす状態であると判定する。
(4-4) Presence / absence of detection of image representing mouth The measurement state determination unit 217 determines whether an image representing the mouth is detected from the face image when the driver's face image is recognized from the face image data. Determine if Then, if it is difficult to determine the expression if the image representing the mouth is not detected as a result of the determination, it is assumed that the measurement state of the face image data at this time is the state that influences the estimation accuracy of the sleepiness. judge.
(4−5)視線の方向
計測状態判定部217は、上記顔画像データから眼を表す画像が1つ以上検出されると、当該眼を表す画像をもとに視線の方向を検出する。視線の方向は、例えば眼球の輝点の位置と瞳孔の位置との相対関係から算出することができる。そして、車両の前方方向、つまり車両座標系を基準とするときの0度の方向に対する上記視線の方向の角度が、所定の角度(例えば5度)未満であるか否かを判定し、5度以上の場合には、上記顔画像データの計測状態は上記眠気の推定精度に影響を及ぼす状態であると判定する。なお、カメラ座標系と車両座標系との変換は、車両に対するカメラの取り付け角度を基準に行うことができる。
(4-5) Direction of Line of sight When one or more images representing an eye are detected from the face image data, the measurement state determination unit 217 detects the direction of the line of sight based on the image representing the eye. The direction of the line of sight can be calculated, for example, from the relative relationship between the position of the bright spot of the eyeball and the position of the pupil. Then, it is determined whether the angle in the direction of the line of sight with respect to the forward direction of the vehicle, that is, the direction of 0 degrees with respect to the vehicle coordinate system is less than a predetermined angle (for example 5 degrees). In the above case, it is determined that the measurement state of the face image data affects the estimation accuracy of the sleepiness. The conversion between the camera coordinate system and the vehicle coordinate system can be performed based on the mounting angle of the camera with respect to the vehicle.
(4−6)心電データの品質低下
計測状態判定部217は、上記データメモリ25の心電情報記憶部252から心電データを読み込む。そして、この心電データをもとに、心電信号波形の信号強度またはS/Nが閾値を下回っているか否かを判定する。この判定の結果、心拍波形の信号強度またはS/Nが閾値を下回っている場合には、眠気推定に使用する特徴量の検出が困難であるため、このときの心電データの計測状態は上記眠気の推定精度に影響を及ぼす状態であると判定する。
(4-6) Quality Decrease of Electrocardiogram Data The measurement state determination unit 217 reads the electrocardiogram data from the electrocardiogram information storage unit 252 of the data memory 25. Then, based on the electrocardiogram data, it is determined whether the signal strength or S / N of the electrocardiogram signal waveform is below the threshold. As a result of this determination, if the signal intensity or S / N of the heartbeat waveform is below the threshold, it is difficult to detect the feature amount used for sleepiness estimation, so the measurement state of the electrocardiogram data at this time is the above. It is determined that it is a state that affects the estimation accuracy of sleepiness.
(5)重み係数の設定制御
生体状態推定装置20は、重み係数制御部218の制御の下、ステップS18において、上記計測状態判定部217の判定結果に基づいて以下のように重み係数の設定制御を行う。
(5) Setting Control of Weighting Factors The biological condition estimating apparatus 20 controls setting of weighting factors as follows based on the determination result of the measurement state determining unit 217 in step S18 under the control of the weighting coefficient control unit 218. I do.
図6および図7は、重み係数制御部218の処理手順と処理内容を示すフローチャートである。
重み係数制御部218は、先ずステップS181により、上記計測状態判定部217の判定結果を参照し、顔画像データから顔を表す画像を検出できなかったかを判定する。顔の画像を検出できなかった場合にはステップS182に移行する。顔の画像を検出できないと、VOR、瞬目および表情を検出することはできない。このためステップS182では、上記VOR、瞬目および表情に基づいて推定処理を行う第1、第2および第3の眠気推定部213,214,215を重み係数の設定変更の対象として選択し、これらの眠気推定部213,214,215により得られる推定値E1,E2,E3に対する重み係数W1,W2,W3を、初期値(例えば“1”)より小さい値(例えば“0.1”)に設定する。重み係数制御部218は、この設定処理が終了すると、ステップS191に移行する。
6 and 7 are flowcharts showing the processing procedure and the processing content of the weight coefficient control unit 218.
The weighting factor control unit 218 first refers to the determination result of the measurement state determination unit 217 in step S181 to determine whether an image representing a face can not be detected from the face image data. If the face image can not be detected, the process proceeds to step S182. If the face image can not be detected, VOR, blinks and expressions can not be detected. For this reason, in step S182, the first, second and third sleepiness estimation units 213, 214 and 215 that perform estimation processing based on the VOR, blinks and facial expression are selected as targets of setting change of weighting coefficients, and these are The weighting factors W1, W2, and W3 for the estimated values E1, E2, and E3 obtained by the sleepiness estimating unit 213, 214, and 215 are set to a value (for example, "0.1") smaller than the initial value (for example, "1"). Do. When the setting processing is completed, the weight coefficient control unit 218 proceeds to step S191.
一方、上記ステップS181において、顔画像データから顔の画像を検出できた場合には、重み係数制御部218はステップS183に移行する。そしてステップS183において、上記計測状態判定部217による判定結果を参照し、カメラ40に対する顔の向きの角度が例えば20度以上だったかどうかを判定する。この判定の結果、顔の向きの角度が例えば20度以上だった場合には、ステップS184に移行する。顔の向きの角度が20度以上だったとすると、顔の斜め画像または横顔画像しか得られず、VORおよび表情の検出精度の低下が避けられない。このためステップS184では、VORまたは顔の表情に基づいて眠気を推定する第1および第3の眠気推定部213,215を重み係数の設定変更の対象として選択し、これらの眠気推定部213,215により得られる推定値E1,E3に対する重み係数W1,W3を、初期値(例えば“1”)より小さい値(例えば“0.5”)に設定する。 On the other hand, when the face image can be detected from the face image data in step S181, the weight coefficient control unit 218 proceeds to step S183. Then, in step S183, with reference to the determination result by the measurement state determination unit 217, it is determined whether or not the angle of the face orientation with respect to the camera 40 is, for example, 20 degrees or more. As a result of the determination, when the angle of the face direction is, for example, 20 degrees or more, the process proceeds to step S184. If the face orientation angle is 20 degrees or more, only oblique images or side-face images of the face can be obtained, and degradation in detection accuracy of VOR and expression can not be avoided. For this reason, in step S184, the first and third sleepiness estimation units 213 and 215 that estimate drowsiness based on VOR or facial expression are selected as the target of setting change of the weighting factor, and these sleepiness estimation units 213 and 215 are selected. The weighting factors W1 and W3 for the estimated values E1 and E3 obtained by the above are set to a value (for example, "0.5") smaller than the initial value (for example, "1").
次に重み係数制御部218は、ステップS185において、上記計測状態判定部217による判定結果を参照し、顔画像データから少なくとも一方の眼が検出されたか、或いは両眼とも検出されなかったかを判定する。そして両眼とも検出されなかった場合には、ステップS186に移行する。眼の画像が両眼とも検出されないと、VORおよび瞬目を検出することは困難である。このためステップS186では、VORまたは瞬目をもとに眠気を推定する第1および第2の眠気推定部213,214を重み係数の設定変更の対象として選択し、これらの眠気推定部213,214により得られる推定値E1,E2に対する重み係数W1,W2を、初期値(例えば“1”)より小さい値(例えば“0.1”)に設定する。 Next, in step S185, the weighting factor control unit 218 refers to the determination result by the measurement state determination unit 217, and determines whether at least one eye is detected or not detected from the face image data. . And when both eyes are not detected, it shifts to Step S186. It is difficult to detect VOR and blinks if the eye image is not detected in both eyes. Therefore, in step S186, the first and second drowsiness estimation units 213 and 214 that estimate drowsiness based on VOR or blinks are selected as the target of setting change of the weighting coefficient, and these drowsiness estimation units 213 and 214 are selected. The weighting factors W1 and W2 for the estimated values E1 and E2 obtained by the above are set to a value (for example, "0.1") smaller than the initial value (for example, "1").
続いて重み係数制御部218は、ステップS187において、上記計測状態判定部217による判定結果を参照し、顔画像データから口の画像が検出されたかどうかについて判定する。そして、口の画像が検出されなかった場合にはステップS188に移行する。口の画像が検出されないと表情の検出精度の低下が避けられない。このためステップS188では、眠気の推定処理に表情を用いる第3の眠気推定部215を重み係数の設定変更の対象として選択し、この第3の眠気推定部215により得られる推定値E3に対する重み係数W3を、初期値(例えば“1”)より小さい値(例えば“0.3”)に設定する。 Subsequently, in step S187, the weighting factor control unit 218 refers to the determination result by the measurement state determination unit 217, and determines whether or not the image of the mouth is detected from the face image data. Then, when the image of the mouth is not detected, the process proceeds to step S188. If the image of the mouth is not detected, a decrease in the detection accuracy of the expression can not be avoided. For this reason, in step S188, the third sleepiness estimation unit 215 that uses a facial expression in the drowsiness estimation process is selected as a target of setting change of the weighting coefficient, and the weighting coefficient for the estimated value E3 obtained by the third sleepiness estimation unit 215 W3 is set to a value (e.g. "0.3") smaller than the initial value (e.g. "1").
さらに重み係数制御部218は、ステップS189において、上記計測状態判定部217による判定結果を参照し、カメラ方向に対する運転者60の視線の方向が例えば5度以上だったかどうかについて判定する。視線の方向がカメラ40の方向に対し5度以上ずれている場合にはステップS190に移行する。視線の方向がカメラ40の方向に対し5度以上ずれていると、瞳孔を検出することが困難となり、VORの検出に支障を来す。このためステップS190では、眠気の推定にVORを使用する第1の眠気推定部213を選択し、この第1の眠気推定部213により得られる推定値E1に対する重み係数W1を、初期値(例えば“1”)より小さい値(例えば“0.1”)に設定する。 Furthermore, in step S189, the weighting factor control unit 218 refers to the determination result by the measurement state determination unit 217, and determines whether the direction of the line of sight of the driver 60 with respect to the camera direction is, for example, 5 degrees or more. If the direction of the line of sight deviates by 5 degrees or more from the direction of the camera 40, the process proceeds to step S190. If the direction of the line of sight is deviated by 5 degrees or more with respect to the direction of the camera 40, it is difficult to detect the pupil, which hinders the detection of VOR. For this reason, in step S190, the first sleepiness estimation unit 213 that uses VOR to estimate sleepiness is selected, and the weighting factor W1 for the estimated value E1 obtained by the first sleepiness estimation unit 213 is set to an initial value (for example, 1 ′ ′) set to a smaller value (eg “0.1”).
次に重み係数制御部218は、ステップS191において、上記計測状態判定部217による判定結果を参照し、心拍波形の信号強度またはS/N、つまり心拍信号の品質が閾値を下回っているか否かについて判定する。そして、心拍信号の品質が閾値を下回っていると判定された場合には、ステップS192に移行する。心拍信号の品質が閾値を下回っていると、眠気推定に使用する特徴量の検出が困難である。このためステップS192では、眠気推定に心拍の特徴量を使用する第4の眠気推定部216を重み係数の設定変更の対象として選択し、この第4の眠気推定部216により得られる推定値E4に対する重み係数W4を、初期値(例えば“1”)より小さい値(例えば“0.1”)に設定する。 Next, in step S191, the weighting factor control unit 218 refers to the determination result by the measurement state determination unit 217, and determines whether the signal intensity or S / N of the heartbeat waveform, that is, the quality of the heartbeat signal is below a threshold. judge. Then, if it is determined that the quality of the heartbeat signal is lower than the threshold value, the process proceeds to step S192. If the quality of the heartbeat signal is below the threshold, it is difficult to detect feature quantities used for sleepiness estimation. Therefore, in step S192, the fourth drowsiness estimation unit 216 that uses the heart beat feature amount for drowsiness estimation is selected as the target of setting change of the weighting coefficient, and the estimated value E4 obtained by the fourth drowsiness estimation unit 216 is selected. The weighting factor W4 is set to a value (for example, "0.1") smaller than the initial value (for example, "1").
なお、重み係数制御部218は、ステップS193において、上記ステップS182,S184,S186,S188,S190,S192により重み係数が設定変更されなかった重み係数について、先に設定した初期値(例えば“1”)を維持する。 The weighting factor control unit 218 sets an initial value (for example, “1”) previously set for the weighting factor for which the setting of the weighting factor has not been changed in steps S182, S184, S186, S188, S190, and S192 in step S193. Keep the
そうして全ての重み係数W1〜W4の設定制御が終了すると、重み係数制御部218は、ステップS194において、上記設定された重み係数W1〜W4について正規化処理を行う。例えば、重み係数W1〜W4の合計値が“1”になるように、各重み係数W1〜W4の値をそれぞれ正規化する。 Then, when setting control of all the weighting factors W1 to W4 ends, the weighting factor control unit 218 performs normalization processing on the set weighting factors W1 to W4 in step S194. For example, the values of the weighting factors W1 to W4 are normalized so that the total value of the weighting factors W1 to W4 becomes "1".
(6)重み付け加算
上記重み係数のW1〜W4の設定制御が終了すると、生体状態推定装置20は続いてステップS19に移行する。そして重み付け加算部219の制御の下で、上記第1乃至第4の各眠気推定部213〜216得られた眠気の推定値E1〜E4に対し、上記重み係数制御部218により設定された重み係数W1〜W4を重み付けし、この重み付け後の各眠気推定値E1〜E4を加算する。すなわち、眠気推定値E1〜E4を重み付け加算する。そして、上記重み付け加算された総合的な眠気推定値Eを眠気判定部220に渡す。
(6) Weighted Addition When setting control of the weighting factors W1 to W4 is completed, the living body condition estimation apparatus 20 subsequently proceeds to step S19. Under the control of the weighting addition unit 219, weighting factors set by the weighting factor control unit 218 with respect to the estimated sleepiness values E1 to E4 obtained by the first to fourth sleepiness estimating units 213 to 216, respectively. W1 to W4 are weighted, and the drowsiness estimated values E1 to E4 after the weighting are added. That is, the drowsiness estimated values E1 to E4 are weighted and added. Then, the overall drowsiness estimated value E obtained by the above-described weighting addition is passed to the drowsiness determination unit 220.
(7)眠気の判定
生体状態推定装置20は、眠気判定部220の制御の下、先ずステップS20において、上記総合的な眠気推定値Eを予め設定されている判定閾値と比較し、眠気推定値Eが閾値を超えているか否かを判定する。つまり、眠気の推定値Eが運転操作に支障が生じる可能性のある値であるか否かを判定する。この結果、眠気推定値Eが運転操作に支障が生じる可能性のある値だったとすると、ステップS21により外部I/F24から表示制御装置30に対し報知制御情報(アラーム情報)を出力する。
(7) Determination of Drowsiness Under the control of the drowsiness determination unit 220, the biological state estimation device 20 first compares the comprehensive drowsiness estimated value E with the determination threshold set in advance in step S20, and calculates the drowsiness estimated value. It is determined whether E exceeds a threshold. That is, it is determined whether the drowsiness estimated value E is a value that may cause trouble in the driving operation. As a result, if the drowsiness estimated value E is a value that may cause a problem in the driving operation, notification control information (alarm information) is output from the external I / F 24 to the display control device 30 in step S21.
表示制御装置30では、上記生体状態推定装置20から報知制御情報(アラーム情報)を受け取ると、当該制御情報に基づいて眠気に対するアラームを、図示しない出力部から発生させる制御が行われる。 In the display control device 30, when the notification control information (alarm information) is received from the biological condition estimation device 20, control is performed to generate an alarm for sleepiness from an output unit (not shown) based on the control information.
例えば、眠気に対するアラームメッセージが生成され、ナビゲーション装置等のディスプレイに表示される。また、アレーム音またはチャイムがナビゲーション装置またはカーステレオのスピーカから出力される。さらに、座席等にバイブレータが設けられている場合には、バイブレータ駆動信号が出力されて、これによりバイブレータが振動する。 For example, an alarm message for sleepiness is generated and displayed on a display such as a navigation device. Also, an alarm sound or a chime is output from a speaker of a navigation device or a car stereo. Furthermore, when the seat or the like is provided with a vibrator, a vibrator drive signal is output, whereby the vibrator vibrates.
(効果)
以上述べたように、一実施形態では、生体状態推定装置20において、カメラ40から出力された運転者60の顔画像データを一定の取得周期で取り込むと共に、ウェアラブル端末50から送信された心電データを上記取得周期で取り込む。そして、第1乃至第3の各眠気推定部213〜215において、上記顔画像データから、前庭動眼反射(VOR)を示す特徴量、眼の瞬き運動または瞼の開閉運動を示す特徴量、および運転者の顔の表情を表す特徴量を検出して、これらの特徴量をもとにそれぞれユーザの眠気を推定する。また第4の眠気推定部216において、上記心電データから人の自律神経活動と関連性を有する特徴量を検出してこの特徴量をもとにユーザの眠気を推定するようにしている。
(effect)
As described above, in one embodiment, the biological condition estimation apparatus 20 captures the face image data of the driver 60 output from the camera 40 at a constant acquisition cycle and also transmits the electrocardiogram data transmitted from the wearable terminal 50. Are captured in the above acquisition cycle. Then, in each of the first to third drowsiness estimation units 213 to 215, from the face image data, a feature indicative of vestibular moving eye reflection (VOR), a feature indicative of eyelid blinking motion or eyelid opening and closing motion, and driving The feature quantity representing the facial expression of the person is detected, and the drowsiness of the user is estimated based on these feature quantities. Further, the fourth sleepiness estimation unit 216 detects a feature amount that is related to the autonomic nerve activity of a person from the above-mentioned electrocardiogram data, and estimates the sleepiness of the user based on this feature amount.
一方、以上の各推定処理と並行して、計測状態判定部217により上記顔画像データおよび心電データが上記各特徴量を正しく検出可能な状態にあるか否かを判定し、その判定結果に基づいて重み係数制御部218により上記各推定部213〜216の推定値に対する重み係数W1〜W4を可変設定する。そして、重み付け加算部219において、上記重み係数W1〜W4をもとに上記各推定値を重み付け加算し、その結果をもとに眠気推定部220によりユーザの眠気を判定するようにしている。 On the other hand, in parallel with the above estimation processes, the measurement state determination unit 217 determines whether or not the face image data and the electrocardiogram data can correctly detect the feature quantities, and the determination result is Based on the weighting factor control unit 218, the weighting factors W1 to W4 for the estimated values of the estimation units 213 to 216 are variably set. Then, in the weighting addition unit 219, the above estimated values are added by weighting based on the weighting factors W1 to W4, and based on the result, the sleepiness estimation unit 220 determines the drowsiness of the user.
従って一実施形態によれば、例えば、運転者の運転操作等の動きにより、顔または眼が、ハンドルや運転者自身の手または腕等によりカメラ40から一時的に遮蔽されたり、カメラ40に対する運転者の顔の向き等が変化することで、運転者の顔画像データの計測状態が変化すると、当該計測状態に応じて重み係数W1〜W4が可変設定され、これにより眠気の推定値が修正される。このため、運転者の動きに起因して計測状態が眠気の判定に悪影響を及ぼすほど変化した場合に、誤った推定結果が正しいものとして出力されないようにすることができ、これにより推定結果の信頼性を高めることができる。 Therefore, according to one embodiment, for example, the face or eyes are temporarily shielded from the camera 40 by the steering wheel, the driver's own hand or arm, etc. by the driver's driving operation or the like, or the driver drives the camera 40. When the measurement state of the driver's face image data changes due to a change in the face direction etc. of the person, the weighting factors W1 to W4 are variably set according to the measurement state, whereby the drowsiness estimated value is corrected. Ru. Therefore, when the measurement state changes so as to adversely affect the determination of drowsiness due to the movement of the driver, it is possible to prevent the erroneous estimation result from being output as the correct one, and thereby the reliability of the estimation result Can be enhanced.
また、例えば、運転者の運転姿勢の変化により運転者に対するウェアラブル端末50の装着状態が変化し、これにより心電データから眠気推定に必要な特徴量を検出できない場合にも、誤推定の可能性を考慮して、誤った推定結果が正しいものとして出力されないようにすることができ、これにより推定結果の信頼性を高めることができる。 In addition, for example, even when the wearing state of the wearable terminal 50 with respect to the driver changes due to a change in the driving posture of the driver, and thus the feature amount necessary for sleepiness estimation can not be detected from the electrocardiogram data, the possibility of erroneous estimation. Therefore, it is possible to prevent an erroneous estimation result from being output as a correct one, thereby enhancing the reliability of the estimation result.
[変形例]
以上、本発明の実施形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。以下に幾つかの具体的な変形例を示す。
[Modification]
While the embodiments of the present invention have been described in detail, the above description is merely illustrative of the present invention in all respects. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention. That is, in the implementation of the present invention, a specific configuration according to the embodiment may be appropriately adopted. Some specific modifications are shown below.
(1)前記一実施形態では、顔画像データおよび心電データが各特徴量を正しく検出可能な状態にあるか否かを二値的に判定し、その判定結果に基づいて重み係数W1〜W4を設定するようにした。しかし、各特徴量をどの程度正しく検出可能な状態にあるか、つまり特徴量の検出精度を多段階に判定し、その判定値に応じて重み係数W1〜W4を多段階に可変設定するようにしてもよい。このようにすると、眠気をさらに精度良く推定することが可能となる。
また、前記一実施形態では、計測情報の計測状態の変化を判定する際に、顔画像データおよび心電データが、各特徴量を正しく検出可能な状態にあるか否かを判定する場合を例にとって説明した。しかしそれに限らず、計測情報の計測状態の変化を、センサに対する対象者の位置や姿勢をもとに判定するようにしてもよい。例えば、対象者が三軸加速度センサや角速度センサ等の動きセンサを内蔵するウェアラブル端末を装着している場合には、上記動きセンサのセンシングデータをもとに間接的に計測情報の計測状態の変化を判定する。例えば、動きセンサのセンシングデータから対象者の位置がカメラの撮像可能範囲を逸脱する位置に移動したことが検出された場合や、対象者の姿勢がカメラによる撮像が不可能な姿勢に変化した場合には、上記計測情報の計測が不可能な状態であると判定することができる。
(1) In the above embodiment, it is binary determined whether the face image data and the electrocardiogram data can correctly detect each feature amount, and the weighting factors W1 to W4 are determined based on the determination results. Was set. However, it is determined how correctly each feature can be detected, that is, the detection accuracy of the feature is determined in multiple stages, and the weighting factors W1 to W4 are variably set in multiple stages according to the determination value. May be This makes it possible to estimate drowsiness more accurately.
Further, in the above-described embodiment, when the change in the measurement state of the measurement information is determined, it is determined whether the face image data and the electrocardiogram data are in the state in which each feature amount can be correctly detected. I explained to you. However, the present invention is not limited to this, and the change in the measurement state of the measurement information may be determined based on the position and the posture of the object person with respect to the sensor. For example, when the subject wears a wearable terminal incorporating a motion sensor such as a three-axis acceleration sensor or an angular velocity sensor, the change in the measurement state of the measurement information indirectly based on the sensing data of the motion sensor Determine For example, when it is detected from the sensing data of the motion sensor that the position of the subject has moved to a position where it deviates from the imageable range of the camera, or when the posture of the subject changes to a posture where imaging by the camera is not possible. It can be determined that the measurement of the measurement information is impossible.
(2)前記一実施形態では、顔画像データから3種類、心電データから1種類の、計4種類の特徴量を検出して眠気の推定処理を行うようにした。しかしそれに限らず、4種類以上の特徴量をもとにそれぞれ眠気を推定するようにしてもよく、反対に3種類以下の特徴量をもとに眠気を判定するようにしてもよい。この場合、特徴量を1種類のみ使用する場合には、上記4種類の特徴量またはそれ以上の特徴量の中から任意の特徴量を1つ選択することができる。
例えば、顔画像データから得られる上記3種類の特徴量と、心電データから得られる1種類の特徴量のうち、顔画像データから得られる上記3種類の特徴量のみを用いて眠気の推定を行うようにしてもよい。このようにすると、心電データを使用せず、顔画像データのみにより眠気を推定することができるので、カメラを使用するだけで、心電センサを不要にすることができる。なお、この場合、顔画像データから得られる上記3種類の特徴量を全て使用してもよいし、そのうちの少なくとも1つを使用してもよく、さらには上記対象者の撮像画像情報から抽出可能な上記3種類以外の特徴量を用いてもよい。
また、上記カメラにより得られる画像データから抽出される特徴量を使用せず、心電センサ等の生体センサから得られる特徴量のみを用いて眠気を推定するようにしてもよい。この場合はカメラを不要にすることができる。
(2) In the embodiment, the drowsiness estimation process is performed by detecting a total of four types of feature amounts from face image data and one type from electrocardiogram data. However, the present invention is not limited thereto, and drowsiness may be estimated based on four or more types of feature amounts, and conversely, drowsiness may be determined based on three or less types of feature amounts. In this case, when only one type of feature quantity is used, any one of the four types of feature quantities or more can be selected.
For example, among the above three types of feature quantities obtained from face image data and one type of feature quantities obtained from electrocardiogram data, estimation of drowsiness is performed using only the above three types of feature quantities obtained from face image data. You may do so. In this way, it is possible to estimate sleepiness based on only face image data without using electrocardiogram data, and therefore it is possible to eliminate the need for an electrocardiogram sensor simply by using a camera. In this case, all the above three types of feature quantities obtained from face image data may be used, or at least one of them may be used, and further, extraction is possible from captured image information of the above target person Other than the above three types of feature amounts may be used.
In addition, sleepiness may be estimated using only feature amounts obtained from a biological sensor such as an electrocardiogram sensor without using feature amounts extracted from image data obtained by the camera. In this case, the camera can be eliminated.
(3)前記一実施形態では、車両の運転者を対象としてその眠気を推定する場合を例にとって説明した。しかし、それに限らず、車両の助手席、後部座席または仮眠室等で休息中の補助運転手の眠気の状態を推定するようにしてもよい。このようにすることで、補助運転手が運転を交替可能な状態にあるか否かを判定することができる。 (3) In the above-described embodiment, the case of estimating sleepiness for a driver of a vehicle has been described as an example. However, the present invention is not limited thereto, and the drowsiness state of the auxiliary driver at rest in the front passenger seat, the rear seat or the nap room of the vehicle may be estimated. By doing this, it can be determined whether the auxiliary driver is in a state where it is possible to alternate driving.
(4)さらに、眠気の推定対象は車両の運転に携わる人に限らず、例えば工場等の事業所の作業員を対象としてその眠気を推定するようにしてもよい。このようにすると、作業員に対し眠気の推定値に応じた刺激を与えることが可能となり、これにより製造または生産の効率をより適切に管理することが可能となる。 (4) Furthermore, the sleepiness estimation target may be, for example, not only people who are involved in driving a vehicle but also workers of a business place such as a factory. In this way, it is possible to give workers a stimulus in accordance with the estimated value of drowsiness, which makes it possible to more appropriately manage the efficiency of production or production.
(5)さらに、一実施形態では、対象者の生体状態として眠気を推定する場合を例にとって説明したが、眠気以外に、例えば、覚醒度の低下や疲労度、興奮度や愁訴等の精神面での非平静状態や、頭痛や腰痛、発熱等の体調不良の状態等を推定するようにしてもよい。 (5) Furthermore, in one embodiment, although the case where sleepiness is estimated as the biological condition of the subject is described as an example, in addition to sleepiness, for example, a decrease in arousal level, fatigue level, mental level such as excitement level or complaint. In this case, it may be possible to estimate non-calm condition, headache, back pain, poor physical condition such as fever, etc.
(6)その他、特徴量の種類や、当該各特徴量から得られる各推定値に対し設定する重み係数W1〜W4の具体的な値、眠気判定部における具体的な判定手法、眠気の判定結果に応じたユーザに対する刺激の提示手法などについても、本発明の要旨を逸脱しない範囲で種々変形して実施できる。 (6) In addition, specific types of feature amounts, specific values of weighting coefficients W1 to W4 set for respective estimated values obtained from the respective feature amounts, specific determination methods in the sleepiness determination unit, determination results of drowsiness The method of presenting the stimulus to the user according to the above may be variously modified without departing from the scope of the present invention.
要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。 In short, the present invention is not limited to the above embodiment as it is, and at the implementation stage, the constituent elements can be modified and embodied without departing from the scope of the invention. In addition, various inventions can be formed by appropriate combinations of a plurality of components disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, components in different embodiments may be combined as appropriate.
[付記]
上記各実施形態の一部または全部は、特許請求の範囲のほか以下の付記に示すように記載することも可能であるが、これに限られない。
(付記1)
ハードウェアプロセッサ(21A)とメモリ(21B)とを有する生体状態推定装置であって、
前記ハードウェアプロセッサ(21A)が、前記メモリ(21B)に記憶されたプログラムを実行することにより、
対象者の撮像画像情報および生理的指標となる情報の少なくとも1つを含む計測情報をセンサ部から取得し(211)、
前記計測情報から前記対象者の作業に影響を及ぼす生体状態に係る特徴パラメータを検出し、当該特徴パラメータに基づいて前記生体状態を推定し(213〜216)、
前記作業を含む前記対象者の動きに起因して発生し、かつ前記生体状態の推定精度に影響を及ぼす、前記計測情報の計測状態の変化を判定し(217)、
前記計測状態の変化の判定結果に基づいて、前記生体状態の推定値に対する重み係数を可変設定し(218)、
前記可変設定された重み係数に応じて、前記生体状態の推定値に対し重み付けを行い、当該重み付けされた生体状態の推定値を出力する(219)、
生体状態推定装置。
[Supplementary note]
A part or all of each embodiment described above can be described as shown in the following appendices besides the claims, but is not limited thereto.
(Supplementary Note 1)
A biological condition estimation apparatus comprising a hardware processor (21A) and a memory (21B), comprising:
The hardware processor (21A) executes the program stored in the memory (21B),
Measurement information including at least one of captured image information of a subject and information serving as a physiological index is acquired from the sensor unit (211).
Detecting a characteristic parameter related to a biological condition affecting the work of the subject from the measurement information, and estimating the biological condition based on the characteristic parameter (213 to 216);
A change in the measurement state of the measurement information, which is caused due to the movement of the subject including the work and affects the estimation accuracy of the biological state, is determined (217).
The weighting factor for the estimated value of the biological condition is variably set based on the determination result of the change of the measurement condition (218).
Weighting is performed on the estimated value of the biological condition in accordance with the variably set weighting coefficient, and the estimated value of the weighted biological condition is output (219).
Biological condition estimation device.
(付記2)
ハードウェアプロセッサ(21A)と当該ハードウェアプロセッサを実行させるプログラムを格納したメモリ(21B)とを有する装置が実行する生体状態推定方法であって、
前記ハードウェアプロセッサ(21A)が、対象者の撮像画像情報および生理的指標を表す情報の少なくとも1つを含む計測情報をセンサ部から取得する過程と(S11,S12)、
前記ハードウェアプロセッサ(21A)が、前記計測情報から前記対象者の作業に影響を及ぼす生体状態に係る特徴パラメータを検出し、当該特徴パラメータに基づいて前記生体状態を推定する過程と(S13〜S16)、
前記ハードウェアプロセッサ(21A)が、前記作業を含む前記対象者の動きに起因して発生し、かつ前記生体状態の推定精度に影響を及ぼす、前記計測情報の計測状態の変化を判定する過程と(S17)、
前記ハードウェアプロセッサ(21A)が、前記計測状態の変化の判定結果に基づいて、前記生体状態の推定値に対する重み係数を可変設定する過程と(S18)、
前記ハードウェアプロセッサ(21A)が、前記可変設定された重み係数に応じて、前記生体状態の推定値に対し重み付けを行い、当該重み付けされた生体状態の推定値を出力する過程と(S19)
を具備する生体状態推定方法。
(Supplementary Note 2)
A biological condition estimation method to be executed by an apparatus having a hardware processor (21A) and a memory (21B) storing a program for executing the hardware processor,
The hardware processor (21A) acquiring from the sensor unit measurement information including at least one of captured image information of a subject and information representing a physiological index (S11, S12);
The hardware processor (21A) detects a feature parameter related to a biological condition affecting the work of the subject from the measurement information, and estimates the biological condition based on the feature parameter (S13 to S16) ),
Determining the change in the measurement state of the measurement information generated due to the movement of the subject including the work and affecting the estimation accuracy of the biological state by the hardware processor (21A); (S17),
And (S18) the hardware processor (21A) variably sets a weighting factor for the estimated value of the biological condition based on the determination result of the change in the measurement condition.
And (S19) the hardware processor (21A) weights the estimated value of the biological condition according to the variably set weighting coefficient, and outputs the weighted estimated value of the biological condition (S19)
A biological condition estimation method comprising.
1…生体状態推定装置、2…計測情報取得部、3a〜3n…生体状態推定部、
4…計測状態判定部、5…重み制御部、6…重み付け加算部、7…生体状態判定部、
10…車両、20…生体状態推定装置、30…表示制御装置、40…カメラ、
50…ウェアラブル端末、21…制御ユニット、21A…CPU、
21B…プログラムメモリ、22…バス、23…センサI/F、
24…外部I/F、25…データメモリ、211…画像取得部、
212…心電情報取得部、213…第1の眠気推定部、214…第2の眠気推定部、
215…第3の眠気推定部、216…第4の眠気推定部、217…計測状態判定部、
218…重み係数制御部、219…重み付け加算部、220…眠気判定部、
251…画像情報記憶部、252…心電情報記憶部。
1 ... biological state estimation device, 2 ... measurement information acquisition unit, 3a to 3n ... biological state estimation unit,
4 ... measurement state determination unit, 5 ... weight control unit, 6 ... weighted addition unit, 7 ... living body condition determination unit,
DESCRIPTION OF SYMBOLS 10 ... Vehicle, 20 ... Biological-state estimation apparatus 30, 30 ... Display control apparatus, 40 ... Camera,
50: wearable terminal, 21: control unit, 21A: CPU,
21B: Program memory, 22: Bus, 23: Sensor I / F,
24 External I / F 25 Data memory 211 Image acquisition unit
212: electrocardiogram information acquisition unit 213: first sleepiness estimation unit 214: second sleepiness estimation unit
215 ... third sleepiness estimation unit, 216 ... fourth sleepiness estimation unit, 217 ... measurement state determination unit,
218: weighting factor control unit, 219: weighting addition unit, 220: sleepiness determination unit,
251 ... image information storage unit, 252 ... electrocardiogram information storage unit.
Claims (13)
前記計測情報から前記対象者の作業に影響を及ぼす生体状態に係る特徴パラメータを検出し、当該特徴パラメータに基づいて前記生体状態を推定する推定部と、
前記作業を含む前記対象者の動きに起因して発生し、かつ前記生体状態の推定精度に影響を及ぼす、前記計測情報の計測状態の変化を判定する計測状態判定部と、
前記計測状態の変化の判定結果に基づいて、前記生体状態の推定値に対する重み係数を可変設定する重み制御部と、
前記可変設定された重み係数に応じて、前記生体状態の推定値に対し重み付けを行い、当該重み付けされた生体状態の推定値を出力する重み付け部と
を具備する生体状態推定装置。 A measurement information acquisition unit that acquires measurement information including at least one of captured image information of a subject and vital information from a sensor unit;
An estimation unit configured to detect feature parameters related to a biological condition affecting the work of the target person from the measurement information, and estimate the biological condition based on the feature parameters;
A measurement state determination unit that determines a change in the measurement state of the measurement information that is generated due to the movement of the target person including the work and that affects the estimation accuracy of the biological state;
A weight control unit that variably sets a weighting factor for the estimated value of the biological state based on the determination result of the change in the measurement state;
And a weighting unit that weights the estimated value of the biological condition according to the variably set weighting coefficient, and outputs the weighted estimated value of the biological condition.
前記推定部は、前記特徴パラメータとして、前記顔画像情報から前記対象者の顔または眼の動きを検出し、前記生体状態として、前記顔または眼の動きに基づいて眠気の度合いを推定し、
前記計測状態判定部は、前記計測状態として、前記顔画像情報が前記対象者の顔または眼の動きを検出可能な情報を含むか否かを判定し、
前記重み制御部は、前記顔画像情報が前記対象者の顔または眼の動きを検出可能な情報を含んでいると判定された場合に前記重み係数を第1の値に設定し、含んでいないと判定された場合には前記重み係数を前記第1の値より小さい第2の値に設定する、
請求項1に記載の生体状態推定装置。 The measurement information acquisition unit acquires face image information of the subject as the measurement information,
The estimation unit detects the movement of the face or eye of the subject from the face image information as the feature parameter, and estimates the degree of drowsiness based on the movement of the face or eye as the biological condition.
The measurement state determination unit determines, as the measurement state, whether or not the face image information includes information capable of detecting the movement of the face or eye of the subject.
The weight control unit sets the weight coefficient to a first value when it is determined that the face image information includes information capable of detecting the movement of the face or eye of the subject, and does not include the weight coefficient. Setting the weighting factor to a second value smaller than the first value when it is determined that
The biological condition estimation apparatus according to claim 1.
前記顔画像情報から、前記対象者の眼の瞳孔の動きを表す前庭動眼反射を検出し、当該検出された前庭動眼反射に基づいて前記眠気の度合いを推定する第1の推定部と、
前記顔画像情報から、前記対象者の眼の瞬きまたは瞼の開閉の多少を表す情報を検出し、当該検出された瞬きまたは瞼の開閉の多少を表す情報に基づいて前記眠気の度合いを推定する第2の推定部と、
前記顔画像情報から、前記対象者の顔の特定部位の変化を表情の変化を表す情報として検出し、当該検出された表情の変化を表す情報に基づいて前記眠気の度合いを推定する第3の推定部と
のうちの少なくとも1つを備える、請求項3に記載の生体状態推定装置。 The estimation unit
A first estimation unit that detects, from the face image information, a vestibular vestibular reflex that represents movement of a pupil of the subject's eye, and estimates the degree of sleepiness based on the detected vestibular vestibular reflex;
Information representing the degree of blinking or eyelid opening and closing of the subject's eyes is detected from the face image information, and the degree of drowsiness is estimated based on the detected information representing the degree of eyelid opening or closing. A second estimation unit,
Third, a change in a specific part of the face of the subject is detected as information representing a change in expression from the face image information, and the drowsiness degree is estimated based on the information representing the change in the detected expression. The biological condition estimation device according to claim 3, comprising at least one of: an estimation unit.
前記重み制御部は、前記顔画像情報が前記対象者の顔を表す画像を含んでいないと判定された場合に、前記第1、第2および第3の推定部のうちの少なくとも1つにより得られる推定値に対する重み係数を前記第2の値に設定する、
請求項4に記載の生体状態推定装置。 The measurement state determination unit determines whether the face image information includes an image representing the face of the subject as the measurement state,
The weight control unit is acquired by at least one of the first, second, and third estimation units when it is determined that the face image information does not include an image representing the face of the subject. Setting a weighting factor for the estimated value to be calculated to the second value,
The biological condition estimation apparatus according to claim 4.
前記重み制御部は、前記対象者の顔の向きが前記センサ部の方向に対し前記所定の角度の範囲内に含まれていないと判定された場合に、前記第1および第3の推定部のうちの少なくとも1つにより得られる推定値に対する重み係数を前記第2の値に設定する、
請求項4に記載の生体状態推定装置。 The measurement state determination unit determines, as the measurement state, based on the face image information, whether or not the orientation of the face of the subject is included within a predetermined angle range with respect to the direction of the sensor unit. And
When it is determined that the orientation of the face of the target person is not included in the range of the predetermined angle with respect to the direction of the sensor unit, the weight control unit is configured to operate the first and third estimation units. Setting a weighting factor for the estimated value obtained by at least one of them to the second value;
The biological condition estimation apparatus according to claim 4.
前記重み制御部は、前記顔画像情報が前記対象者の眼の少なくとも一方を表す画像を含んでいないと判定された場合に、前記第1および第2の推定部の少なくとも1つにより得られる推定値に対する重み係数を前記第2の値に設定する、
請求項4に記載の生体状態推定装置。 The measurement state determination unit determines whether the face image information includes an image representing at least one of the subject's eyes as the measurement state.
The weight control unit estimates that the face image information does not include an image representing at least one of the subject's eyes, an estimation obtained by at least one of the first and second estimation units. Setting a weighting factor for the value to the second value;
The biological condition estimation apparatus according to claim 4.
前記重み制御部は、前記対象者の口を表す画像を含んでいないと判定された場合に、前記第3の推定部による推定値に対する重み係数を前記第2の値に設定する、
請求項4に記載の生体状態推定装置。 The measurement state determination unit determines whether the face image information includes an image representing the subject's mouth as the measurement state,
When it is determined that the weight control unit does not include an image representing the mouth of the subject, the weight control unit sets a weighting factor for the estimated value by the third estimation unit to the second value.
The biological condition estimation apparatus according to claim 4.
前記重み制御部は、前記対象者の視線の方向が前記センサ部の方向に対し所定の角度の範囲内に含まれていないと判定された場合に、前記第1の推定部による推定値に対する重み係数を前記第2の値に設定する、
請求項4に記載の生体状態推定装置。 The measurement state determination unit determines, as the measurement state, based on the face image information, whether or not the direction of the line of sight of the subject is included within a predetermined angle range with respect to the direction of the sensor unit. And
The weight control unit is configured to weight the estimated value by the first estimation unit when it is determined that the direction of the line of sight of the subject is not included in the range of a predetermined angle with respect to the direction of the sensor unit. Setting the factor to said second value,
The biological condition estimation apparatus according to claim 4.
前記推定部は、前記特徴パラメータとして、前記心拍情報から自律神経活動と関連性を有する特徴量を検出し、前記対象者の生体状態として、前記自律神経活動と関連性を有する特徴量に基づいて眠気の度合いを推定し、
前記計測状態判定部は、前記計測状態として、前記心拍情報が前記自律神経活動と関連性を有する特徴量を検出可能な情報成分を含んでいるか否かを判定し、
前記重み制御部は、前記心拍情報が前記自律神経活動と関連性を有する特徴量を検出可能な情報成分を含んでいると判定された場合に前記重み係数を第3の値に設定し、前記情報成分を含んでいないと判定された場合には前記重み係数を前記第3の値より小さい第4の値に設定する、
請求項1に記載の生体状態推定装置。 The measurement information acquisition unit acquires heart rate information of the subject as the measurement information,
The estimation unit detects, as the feature parameter, a feature amount that is related to the autonomic nerve activity from the heart rate information, and based on the feature amount that is related to the autonomic nerve activity as the biological condition of the subject. Estimate the degree of sleepiness,
The measurement state determination unit determines, as the measurement state, whether or not the heart rate information includes an information component capable of detecting a feature amount related to the autonomic nerve activity.
The weight control unit sets the weight coefficient to a third value when it is determined that the heart rate information includes an information component capable of detecting a feature amount that is related to the autonomic nerve activity. If it is determined that the information component is not included, the weighting factor is set to a fourth value smaller than the third value.
The biological condition estimation apparatus according to claim 1.
前記撮像画像情報から前記対象者の作業に影響を及ぼす生体状態に係る特徴パラメータを検出し、当該特徴パラメータに基づいて前記生体状態を推定する推定部と、
前記作業を含む前記対象者の動きに起因して発生し、かつ前記生体状態の推定精度に影響を及ぼす、前記撮像画像情報の計測状態の変化を判定する計測状態判定部と、
前記計測状態の変化の判定結果に基づいて、前記生体状態の推定値に対する重み係数を可変設定する重み制御部と、
前記可変設定された重み係数に応じて、前記生体状態の推定値に対し重み付けを行い、当該重み付けされた生体状態の推定値を出力する重み付け部と
を具備する生体状態推定装置。 A measurement information acquisition unit that acquires captured image information of a target person from an imaging unit;
An estimation unit configured to detect feature parameters related to a biological condition affecting the work of the subject from the captured image information, and estimate the biological condition based on the feature parameters;
A measurement state determination unit that determines a change in the measurement state of the captured image information that is generated due to the movement of the subject including the work and that affects the estimation accuracy of the biological state;
A weight control unit that variably sets a weighting factor for the estimated value of the biological state based on the determination result of the change in the measurement state;
And a weighting unit that weights the estimated value of the biological condition according to the variably set weighting coefficient, and outputs the weighted estimated value of the biological condition.
前記生体状態推定装置が、対象者の撮像画像情報およびバイタル情報の少なくとも1つを含む計測情報をセンサ部から取得する過程と、
前記生体状態推定装置が、前記計測情報から前記対象者の作業に影響を及ぼす生体状態に係る特徴パラメータを検出し、当該特徴パラメータに基づいて前記生体状態を推定する過程と、
前記生体状態推定装置が、前記作業を含む前記対象者の動きに起因して発生し、かつ前記生体状態の推定精度に影響を及ぼす、前記計測情報の計測状態の変化を判定する過程と、
前記生体状態推定装置が、前記計測状態の変化の判定結果に基づいて、前記生体状態の推定値に対する重み係数を可変設定する過程と、
前記生体状態推定装置が、前記可変設定された重み係数に応じて、前記生体状態の推定値に対し重み付けを行い、当該重み付けされた生体状態の推定値を出力する過程と
を具備する生体状態推定方法。 A biological condition estimation method executed by a biological condition estimation apparatus, comprising:
A process in which the biological condition estimation apparatus acquires measurement information including at least one of captured image information and vital information of a target person from a sensor unit;
The biological state estimation apparatus detects a characteristic parameter related to a biological state affecting the work of the subject from the measurement information, and estimates the biological state based on the characteristic parameter;
Determining the change in the measurement state of the measurement information which is generated due to the movement of the subject including the work and affects the estimation accuracy of the biological state;
A step of variably setting a weighting coefficient for the estimated value of the biological condition based on the determination result of the change of the measurement condition, the biological condition estimation apparatus;
The biological state estimation apparatus performs weighting on the estimated value of the biological state according to the variably set weighting coefficient, and outputting the weighted estimated value of the biological state. Method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017246628A JP2019111092A (en) | 2017-12-22 | 2017-12-22 | Biological state estimation device, method, and program |
PCT/JP2018/044833 WO2019124087A1 (en) | 2017-12-22 | 2018-12-06 | Biological state estimating device, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017246628A JP2019111092A (en) | 2017-12-22 | 2017-12-22 | Biological state estimation device, method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019111092A true JP2019111092A (en) | 2019-07-11 |
Family
ID=66994117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017246628A Pending JP2019111092A (en) | 2017-12-22 | 2017-12-22 | Biological state estimation device, method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2019111092A (en) |
WO (1) | WO2019124087A1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021181991A1 (en) | 2020-03-13 | 2021-09-16 | オムロン株式会社 | Accessibility determination device, accessibility determination method, and program |
WO2023204218A1 (en) * | 2022-04-18 | 2023-10-26 | 幸男 篠崎 | Cognitive ability estimation apparatus and program |
WO2024184985A1 (en) * | 2023-03-06 | 2024-09-12 | 三菱電機株式会社 | Sleepiness assessment device and sleepiness assessment method |
JP7608264B2 (en) | 2021-05-12 | 2025-01-06 | 株式会社日立製作所 | Biometric data-related index measurement system |
JP7662602B2 (en) | 2022-12-12 | 2025-04-15 | 矢崎総業株式会社 | Drowsiness detection device and program for detecting drowsiness |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7615911B2 (en) | 2021-06-25 | 2025-01-17 | オムロンヘルスケア株式会社 | Biological information measuring system, biological information measuring program, and biological information measuring device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008212298A (en) * | 2007-03-01 | 2008-09-18 | Toyota Central R&D Labs Inc | Sleepiness determination apparatus and program |
WO2010032424A1 (en) * | 2008-09-18 | 2010-03-25 | 学校法人中部大学 | Sleepiness signal detector |
WO2016142074A1 (en) * | 2015-03-10 | 2016-09-15 | Robert Bosch Gmbh | Method and device for detecting a tiredness and/or sleeping state of a driver of a vehicle |
WO2016151842A1 (en) * | 2015-03-26 | 2016-09-29 | パイオニア株式会社 | Drowsiness calculation device |
WO2017208529A1 (en) * | 2016-06-02 | 2017-12-07 | オムロン株式会社 | Driver state estimation device, driver state estimation system, driver state estimation method, driver state estimation program, subject state estimation device, subject state estimation method, subject state estimation program, and recording medium |
-
2017
- 2017-12-22 JP JP2017246628A patent/JP2019111092A/en active Pending
-
2018
- 2018-12-06 WO PCT/JP2018/044833 patent/WO2019124087A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008212298A (en) * | 2007-03-01 | 2008-09-18 | Toyota Central R&D Labs Inc | Sleepiness determination apparatus and program |
WO2010032424A1 (en) * | 2008-09-18 | 2010-03-25 | 学校法人中部大学 | Sleepiness signal detector |
WO2016142074A1 (en) * | 2015-03-10 | 2016-09-15 | Robert Bosch Gmbh | Method and device for detecting a tiredness and/or sleeping state of a driver of a vehicle |
WO2016151842A1 (en) * | 2015-03-26 | 2016-09-29 | パイオニア株式会社 | Drowsiness calculation device |
WO2017208529A1 (en) * | 2016-06-02 | 2017-12-07 | オムロン株式会社 | Driver state estimation device, driver state estimation system, driver state estimation method, driver state estimation program, subject state estimation device, subject state estimation method, subject state estimation program, and recording medium |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021181991A1 (en) | 2020-03-13 | 2021-09-16 | オムロン株式会社 | Accessibility determination device, accessibility determination method, and program |
JP7608264B2 (en) | 2021-05-12 | 2025-01-06 | 株式会社日立製作所 | Biometric data-related index measurement system |
WO2023204218A1 (en) * | 2022-04-18 | 2023-10-26 | 幸男 篠崎 | Cognitive ability estimation apparatus and program |
JP7662602B2 (en) | 2022-12-12 | 2025-04-15 | 矢崎総業株式会社 | Drowsiness detection device and program for detecting drowsiness |
WO2024184985A1 (en) * | 2023-03-06 | 2024-09-12 | 三菱電機株式会社 | Sleepiness assessment device and sleepiness assessment method |
Also Published As
Publication number | Publication date |
---|---|
WO2019124087A1 (en) | 2019-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019124087A1 (en) | Biological state estimating device, method, and program | |
US11642086B2 (en) | Apparatus and method for correcting error of bio-information sensor, and apparatus and method for estimating bio-information | |
CN110276273B (en) | Driver fatigue detection method integrating facial features and image pulse heart rate estimation | |
JP6435104B2 (en) | System and method for determining changes in physical condition | |
Leng et al. | Wearable driver drowsiness detection system based on biomedical and motion sensors | |
EP2698112B1 (en) | Real-time stress determination of an individual | |
US8880156B2 (en) | Method and system for determining a physiological condition using a two-dimensional representation of R-R intervals | |
WO2019012742A1 (en) | Fatigue recovery support device | |
JP2014180543A5 (en) | ||
US9795335B2 (en) | Data collection for vestibulogram construction | |
JP7613217B2 (en) | Information provision system | |
CN112617747B (en) | State estimation device, state estimation method, and storage medium | |
TWI471119B (en) | Normalizing method for electrocardiogram signal and application program for the same | |
CN108451494B (en) | Method and system for detecting time-domain cardiac parameters using pupil response | |
US20220346682A1 (en) | System for determining an emotion of a user | |
WO2023286313A1 (en) | Signal processing device and method | |
JP7125050B2 (en) | Estimation device, estimation system, estimation method and estimation program | |
JP2021053240A (en) | Drowsiness or awakening level evaluation device and evaluation program | |
BR102018071412B1 (en) | Device and method for capturing, processing and classifying eye movements, head movements and brain activity | |
JP7599478B2 (en) | Information processing method, computer program, information processing device, and information processing system | |
JP2013111348A (en) | State determining device and method | |
JP7096565B2 (en) | Electrocardiographic monitoring system | |
JP2019180831A (en) | Eye movement feature amount calculation system, eye movement feature amount calculation method, and eye movement feature amount calculation program | |
WO2024122350A1 (en) | Signal processing device and method | |
JP6910982B2 (en) | Driver state estimation device and driver state estimation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200908 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210302 |