JP6727465B1 - Driver status determination device and driver status determination method - Google Patents

Driver status determination device and driver status determination method Download PDF

Info

Publication number
JP6727465B1
JP6727465B1 JP2019569858A JP2019569858A JP6727465B1 JP 6727465 B1 JP6727465 B1 JP 6727465B1 JP 2019569858 A JP2019569858 A JP 2019569858A JP 2019569858 A JP2019569858 A JP 2019569858A JP 6727465 B1 JP6727465 B1 JP 6727465B1
Authority
JP
Japan
Prior art keywords
driver
state
vehicle
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019569858A
Other languages
Japanese (ja)
Other versions
JPWO2021014632A1 (en
Inventor
大晃 小林
大晃 小林
健太 櫻井
健太 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6727465B1 publication Critical patent/JP6727465B1/en
Publication of JPWO2021014632A1 publication Critical patent/JPWO2021014632A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators

Abstract

運転者状態判断装置(100)は、車両(10)の運転者の生体信号から運転者の状態の推定に用いる特徴量を算出する生体信号解析部(130)と、生体信号の特徴量に基づいて、運転者の状態の推定値を算出する運転者状態算出部(140)と、運転者の状態の推定値を予め定められた閾値と比較することで、運転者の状態を分類する運転者状態分類部(150)と、運転者の状態の分類結果に応じて、運転者に情報提示を行う情報提示部(160)とを備える。記録部(141)には、運転者の閉眼度、車両(10)の経路情報、車両(10)の車内環境情報、および、情報提示の内容に合致した車両(10)の操作が行われたか否かの情報のうちの少なくとも1つと、運転者の状態の推定値とが、互いに同期して記録されており、閾値更新部(142)は、記録部(141)に記録された情報に基づいて、運転者の状態を分類するための閾値を更新する。The driver state determination device (100) includes a biological signal analysis unit (130) that calculates a characteristic amount used to estimate the driver's state from a biological signal of the driver of the vehicle (10), and a characteristic amount of the biological signal. Then, a driver state calculating unit (140) that calculates an estimated value of the driver's state and a driver that classifies the driver's state by comparing the estimated value of the driver's state with a predetermined threshold value. A state classifying unit (150) and an information presenting unit (160) that presents information to the driver according to the result of classifying the state of the driver. In the recording unit (141), has the driver's eyes closed degree, the route information of the vehicle (10), the in-vehicle environment information of the vehicle (10), and the operation of the vehicle (10) matched with the content of the information presentation performed? At least one of the information on whether or not and the estimated value of the driver's state are recorded in synchronization with each other, and the threshold updating unit (142) is based on the information recorded in the recording unit (141). Then, the threshold for classifying the driver's state is updated.

Description

本発明は、車両に搭載されたセンサの出力データから、運転者の状態を判断する運転者状態判断装置に関するものである。 The present invention relates to a driver state determination device that determines a driver's state from output data of a sensor mounted on a vehicle.

車両の漫然運転が原因となった交通事故は依然として多い。そのため、センサで取得した運転者の生体信号に基づいて、例えば、運転者の疲労が蓄積した状態や運転に集中できていない状態といった通常とは異なる状態を検出して、漫然運転の回避に役立てる研究がなされている。また、運転者の状態(例えば眠気、疲労、不安度、集中力など)の本人の感じ方には個人性(個人差)があるため、運転者の状態の判断基準となる閾値を、個々の運転者ごとに異なる値に設定する方法が検討されている(例えば下記の特許文献1)。 There are still many traffic accidents caused by the involuntary driving of vehicles. Therefore, based on the biological signal of the driver acquired by the sensor, for example, to detect an abnormal state such as a state in which the driver's fatigue accumulates or a state in which the driver cannot concentrate on driving, which is useful for avoiding aimless driving. Research is being done. In addition, since the driver's state (for example, drowsiness, fatigue, anxiety level, and concentration) has individuality (individual difference), the threshold value that is the criterion for determining the driver's state is A method of setting a different value for each driver has been studied (for example, Patent Document 1 below).

国際公開第2006/054542号International Publication No. 2006/054542

特許文献1に開示された技術では、運転者が姿勢を変える頻度およびその変動量、運転者の血流量といった運転者の状態を表す情報に、運転者ごとに異なる閾値を設定することで、個人性への対応を図っている。しかし、姿勢を変える頻度およびその変動量、血流量といった情報は、その値の変化の要因となる事象が多いこと、また、運転者の状態変化が姿勢や血流として発現するまでに時間を要することなどから、それらの情報から運転者の個人性を判断することは難しい。また、特許文献1には、閾値を更新する具体的な方法については説明されていない。 According to the technique disclosed in Patent Document 1, by setting different thresholds for each driver in the information indicating the driver's state such as the frequency with which the driver changes his/her posture and the amount of change, the blood flow of the driver, I am trying to deal with sex. However, with regard to information such as the frequency of change in posture, the amount of variation, and blood flow, there are many events that cause changes in the value, and it takes time for the driver's state change to appear as posture and blood flow. Therefore, it is difficult to judge the individuality of the driver from such information. Further, Patent Document 1 does not describe a specific method for updating the threshold value.

本発明は以上のような課題を解決するためになされたものであり、運転者の状態の推定を、その運転者の個人性を考慮して行うことが可能な運転者状態判断装置を提供することを目的とする。 The present invention has been made to solve the above problems, and provides a driver state determination device capable of estimating the state of a driver in consideration of the individuality of the driver. The purpose is to

本発明に係る運転者状態判断装置は、車両の運転者の生体信号を取得する生体センサ部と、前記生体信号を解析することで、前記生体信号から前記運転者の状態の推定に用いる特徴量を算出する生体信号解析部と、前記生体信号の特徴量に基づいて、前記運転者の状態の推定値を算出する運転者状態算出部と、前記運転者の状態の推定値を予め定められた閾値と比較することで、前記運転者の状態を分類する運転者状態分類部と、前記運転者の状態の分類結果に応じて、前記運転者に情報提示を行う情報提示部と、前記運転者の閉眼度、前記車両の経路情報、前記車両の車内環境情報、および、前記情報提示の内容に合致した前記車両の操作が行われたか否かの情報のうちの少なくとも1つと、前記運転者の状態の推定値とを、互いに同期させて記録する記録部と、前記記録部に記録された、前記運転者の閉眼度、前記車両の経路情報、前記車両の車内環境情報、および、前記情報提示の内容に合致した前記車両の操作が行われたか否かの情報のうちの少なくとも1つと前記運転者の状態の推定値との相関による回帰直線の回帰係数および切片の大きさに基づいて、前記閾値を更新する閾値更新部と、を備え、前記生体センサ部は、それぞれ測定圏が互いに重ならない部分を持つ複数の生体センサと、前記運転者の姿勢を表す姿勢情報を取得する姿勢センサと、前記姿勢情報に基づいて、前記複数の生体センサのうちから測定圏内に前記運転者が存在する生体センサを選択し、選択された生体センサが取得した生体信号を出力する生体センサ選択部と、を備えるものである。
The driver state determination device according to the present invention is a biometric sensor unit that acquires a biological signal of a driver of a vehicle, and a feature amount used for estimating the driver state from the biological signal by analyzing the biological signal. , A driver state calculation unit that calculates an estimated value of the state of the driver based on the feature amount of the biological signal, and an estimated value of the state of the driver are predetermined. A driver state classifying unit that classifies the state of the driver by comparing with a threshold value, an information presenting unit that presents information to the driver according to the classification result of the state of the driver, and the driver Of at least one of the degree of eye closure, route information of the vehicle, in-vehicle environment information of the vehicle, and information indicating whether or not the vehicle operation matching the content of the information presentation has been performed, and the driver's A recording unit that records the estimated value of the state in synchronization with each other, and the degree of eye closure of the driver, the route information of the vehicle, the in-vehicle environment information of the vehicle, and the information presentation that are recorded in the recording unit. Based on the regression coefficient of the regression line and the size of the intercept based on the correlation between the estimated value of the driver's state and at least one of the information as to whether or not the operation of the vehicle conforming to the content of comprises a threshold update unit for updating the threshold, wherein the biometric sensor section includes a plurality of biometric sensors having portions each measurement area do not overlap each other, an attitude sensor for acquiring the attitude information representing the attitude of the driver A biosensor selection unit that selects a biosensor in which the driver is present in the measurement range from the plurality of biosensors based on the posture information, and outputs a biosignal acquired by the selected biosensor, It is equipped with.

本発明に係る運転者状態判断装置によれば、過去の運転者の状態および閉眼度の情報から、運転者の状態の感じ方に関する個人性を判断し、その判断結果に基づいて、運転者の状態を分類するための閾値が更新される。運転者の状態の分類を、その運転者の個人性を考慮して行うことができ、運転者の状態の判断精度を向上させることができる。 According to the driver state determination device according to the present invention, from the information of the driver's state and the degree of eye closure in the past, to determine the individuality of how to feel the driver's state, based on the determination result, The threshold for classifying states is updated. The state of the driver can be classified in consideration of the individuality of the driver, and the accuracy of determining the state of the driver can be improved.

本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。 Objects, features, aspects, and advantages of the present invention will become more apparent by the following detailed description and the accompanying drawings.

実施の形態1に係る運転者状態判断装置の構成を示す図である。It is a figure which shows the structure of the driver condition determination apparatus which concerns on Embodiment 1. 生体センサ部の構成を示す図である。It is a figure which shows the structure of a biological sensor part. 車両挙動センサ部の構成を示す図である。It is a figure which shows the structure of a vehicle behavior sensor part. 生体信号解析部の構成を示す図である。It is a figure which shows the structure of a biological signal analysis part. フィルタバンク生成部が生成するフィルタバンクの例を示す図である。It is a figure which shows the example of the filter bank which a filter bank production|generation part produces|generates. フィルタバンクが適用される前の振幅スペクトルの例を示す図である。It is a figure which shows the example of the amplitude spectrum before a filter bank is applied. フィルタバンクが適用された後の振幅スペクトルの例を示す図である。It is a figure which shows the example of the amplitude spectrum after a filter bank is applied. モデル学習のためのデータ収集における主観評価の例を示す図である。It is a figure which shows the example of the subjective evaluation in the data collection for model learning. 学習したモデルを用いた運転者状態の算出結果の例を示す図である。It is a figure which shows the example of the calculation result of the driver state using the learned model. 運転者の状態のクラス分類の例を示す図である。It is a figure which shows the example of the class classification of a driver's state. 運転者の状態を分類する閾値の初期値の決定方法の例を説明するための図である。It is a figure for demonstrating the example of the determination method of the initial value of the threshold value which classifies a driver|operator's state. 眠気の推定値と閉眼度と関係を示す回帰直線の例を示す図である。It is a figure which shows the example of the regression line which shows the estimated value of drowsiness and the degree of eye closure. 閾値更新部における、閾値更新基準の例を示す図である。It is a figure which shows the example of the threshold update criteria in a threshold update part. 実施の形態2に係る運転者状態判断装置の構成を示す図である。It is a figure which shows the structure of the driver condition determination apparatus which concerns on Embodiment 2. 実施の形態3に係る運転者状態判断装置の構成を示す図である。It is a figure which shows the structure of the driver condition determination apparatus which concerns on Embodiment 3. 実施の形態4に係る運転者状態判断装置の構成を示す図である。It is a figure which shows the structure of the driver condition determination apparatus which concerns on Embodiment 4. 実施の形態5に係る運転者状態判断装置の構成を示す図である。It is a figure which shows the structure of the driver condition determination apparatus which concerns on Embodiment 5. 実施の形態5の閾値更新部における更新基準とするデータ選択の手順の例を示すフローチャートである。28 is a flowchart showing an example of a procedure of selecting data as an update reference in the threshold update unit of the fifth embodiment. 運転者状態判断装置のハードウェア構成例を示す図である。It is a figure showing the example of hardware constitutions of a driver condition judging device. 運転者状態判断装置のハードウェア構成例を示す図である。It is a figure showing the example of hardware constitutions of a driver condition judging device.

<実施の形態1>
図1は、本発明の実施の形態1に係る運転者状態判断装置100の構成を示す図である。図1のように、運転者状態判断装置100は、車両10に搭載されており、生体センサ部110、車両挙動センサ部120、生体信号解析部130、運転者状態算出部140、記録部141、閾値更新部142、運転者状態分類部150、情報提示部160および閉眼度算出部171を備えている。
<Embodiment 1>
FIG. 1 is a diagram showing a configuration of a driver state determination device 100 according to the first embodiment of the present invention. As shown in FIG. 1, the driver state determination device 100 is mounted on a vehicle 10, and includes a biometric sensor unit 110, a vehicle behavior sensor unit 120, a biometric signal analysis unit 130, a driver state calculation unit 140, a recording unit 141, and The threshold update unit 142, the driver state classification unit 150, the information presentation unit 160, and the eye closure degree calculation unit 171 are provided.

生体センサ部110は、車両10の運転者の生体信号を取得して出力する。生体センサ部110が取得する生体信号は、例えば心拍や脈波などの時系列信号である。生体センサ部110としては、例えば、心臓の収縮を電気的に捉える心電図センサや、脈動に伴うヘモグロビンの変化から血管の容積変化を検出することで心臓の収縮を捉える光電脈波センサなどがある。これらは、一般的に運転者の皮膚に接触あるいは近接させて使用されるセンサであるが、例えば、電波を用いて胸部変異を測定するセンサなど、運転者の皮膚に接触させずに使用されるセンサでもよい。このように、生体センサ部110には様々な種類が考えられるが、運転者の生体信号を出力可能であればどのようなものが用いられてもよい。 The biometric sensor unit 110 acquires and outputs a biometric signal of the driver of the vehicle 10. The biological signal acquired by the biological sensor unit 110 is a time-series signal such as a heartbeat or a pulse wave. Examples of the biometric sensor unit 110 include an electrocardiographic sensor that electrically captures the contraction of the heart, and a photoelectric pulse wave sensor that captures the contraction of the heart by detecting the volume change of the blood vessel from the change of hemoglobin accompanying the pulsation. These are sensors that are generally used in contact with or in close proximity to the driver's skin, but are used without contacting the driver's skin, such as sensors that measure chest mutations using radio waves. It may be a sensor. As described above, various types can be considered for the biometric sensor unit 110, but any type may be used as long as it can output the biometric signal of the driver.

生体センサ部110は単一のセンサでもよいが、本実施の形態では、図2のような構成の生体センサ部110が用いられている。図2のように、当該生体センサ部110は、第1生体センサ111、第2生体センサ112、姿勢センサ113、生体センサ選択部114を備えている。 The biometric sensor unit 110 may be a single sensor, but in the present embodiment, the biometric sensor unit 110 configured as shown in FIG. 2 is used. As shown in FIG. 2, the biometric sensor unit 110 includes a first biometric sensor 111, a second biometric sensor 112, a posture sensor 113, and a biometric sensor selection unit 114.

第1生体センサ111および第2生体センサ112は、いずれも運転者の生体信号を取得して出力するセンサである。ただし、第1生体センサ111と第2生体センサ112とでは、測定圏が互いに異なっている。 The first biosensor 111 and the second biosensor 112 are both sensors that acquire and output a biosignal of the driver. However, the first biosensor 111 and the second biosensor 112 have different measurement areas.

姿勢センサ113は、運転者の姿勢を表す姿勢情報を取得する。姿勢センサ113が姿勢情報を取得する方法としては、例えば、運転席の座面または背面に配置された圧力センサを用いる方法や、カメラを用いたモーションキャプチャなどがあるが、運転者の姿勢情報を取得可能であればその方法は問わない。 The posture sensor 113 acquires posture information indicating the posture of the driver. As a method for the attitude sensor 113 to acquire the attitude information, for example, there is a method using a pressure sensor arranged on the seat surface or the back surface of the driver's seat, a motion capture using a camera, or the like. The method does not matter as long as it can be acquired.

生体センサ選択部114は、姿勢センサ113が取得した運転者の姿勢情報に基づいて、運転者が第1生体センサ111および第2生体センサ112のどちらの測定圏内に存在するかを判定する。そして、生体センサ選択部114は、第1生体センサ111および第2生体センサ112のうち、測定圏内に運転者が存在する方が出力する生体信号を選択して出力する。 The biometric sensor selection unit 114 determines which of the first biometric sensor 111 and the second biometric sensor 112 the driver is in based on the attitude information of the driver acquired by the attitude sensor 113. Then, the biometric sensor selection unit 114 selects and outputs the biometric signal output by one of the first biometric sensor 111 and the second biometric sensor 112 in which the driver is present within the measurement range.

このように、図2の生体センサ部110は、測定圏の異なる第1生体センサ111および第2生体センサ112を、運転者の姿勢に応じて選択的に使用することで、広い測定圏を実現している。それにより、生体センサ部110は、高い精度で運転者の生体信号を取得することができる。ここでは、生体センサ部110が2つの生体センサを有する例を示したが、生体センサの数は3つ以上でもよい。 As described above, the biometric sensor unit 110 of FIG. 2 realizes a wide measurement area by selectively using the first biometric sensor 111 and the second biometric sensor 112 having different measurement areas according to the posture of the driver. doing. Thereby, the biometric sensor unit 110 can acquire the biometric signal of the driver with high accuracy. Here, the example in which the biometric sensor unit 110 has two biometric sensors is shown, but the number of biometric sensors may be three or more.

車両挙動センサ部120は、車両10の挙動を観測し、車両10の動きを表す車両挙動信号を出力する。車両挙動センサ部120としては、車両10の加速度を測定する加速度センサや、車両10の方位を測定するジャイロセンサ、あるいはその両方を組み合わせたものなどを用いることができる。 The vehicle behavior sensor unit 120 observes the behavior of the vehicle 10 and outputs a vehicle behavior signal indicating the movement of the vehicle 10. As the vehicle behavior sensor unit 120, an acceleration sensor that measures the acceleration of the vehicle 10, a gyro sensor that measures the azimuth of the vehicle 10, or a combination of both can be used.

本実施の形態では、図3のような構成の車両挙動センサ部120が用いられている。図3のように、当該車両挙動センサ部120は、車両10の加速度に応じた加速度信号を出力する加速度センサ121と、加速度センサ121が出力する加速度信号のデータを解析する加速度信号解析部122とを備えている。本実施の形態では、加速度信号が、車両10の挙動を表す車両挙動信号として使用される。なお、加速度センサ121としては、1軸、2軸あるいは3軸のセンサがあるが、そのいずれが用いられてもよい。加速度センサ121が複数軸のセンサである場合、加速度センサ121は、各軸の加速度信号をそれぞれ独立に出力する。 In this embodiment, the vehicle behavior sensor unit 120 having the configuration shown in FIG. 3 is used. As shown in FIG. 3, the vehicle behavior sensor unit 120 includes an acceleration sensor 121 that outputs an acceleration signal corresponding to the acceleration of the vehicle 10, and an acceleration signal analysis unit 122 that analyzes the data of the acceleration signal output by the acceleration sensor 121. Equipped with. In the present embodiment, the acceleration signal is used as a vehicle behavior signal that represents the behavior of the vehicle 10. As the acceleration sensor 121, there is a uniaxial, biaxial or triaxial sensor, but any of them may be used. When the acceleration sensor 121 is a multi-axis sensor, the acceleration sensor 121 outputs the acceleration signal of each axis independently.

生体信号解析部130は、生体センサ部110が出力する運転者の生体信号を解析することで、生体信号から、運転者の状態を推定するために必要な特徴量を算出する。本実施の形態では、図4のような構成の生体信号解析部130が用いられている。図4のように、本実施の形態の生体信号解析部130は、信号整形部131、スペクトル算出部132、フィルタバンク生成部133、フィルタバンク適用部134およびケプストラム算出部135を備えている。 The bio-signal analysis unit 130 analyzes the bio-signal of the driver output by the bio-sensor unit 110, and calculates the characteristic amount necessary for estimating the driver's state from the bio-signal. In the present embodiment, the biological signal analysis unit 130 having the configuration shown in FIG. 4 is used. As shown in FIG. 4, the biological signal analysis unit 130 of the present embodiment includes a signal shaping unit 131, a spectrum calculation unit 132, a filter bank generation unit 133, a filter bank application unit 134, and a cepstrum calculation unit 135.

信号整形部131は、生体センサ部110から取得した生体信号を解析するための前処理を行う。具体的には、信号整形部131は、決められたフレームサイズで生体信号を切り出して、窓関数をかける。本実施の形態では、信号整形部131は、車両挙動センサ部120から取得した車両挙動信号(加速度信号)のデータに基づいて、車両10の動きに起因する生体信号のノイズ成分を除去する。生体センサ部110の系統誤差が自明であれば、信号整形部131は、バンドパスフィルタによって生体信号のノイズ成分も除去してもよい。 The signal shaping unit 131 performs preprocessing for analyzing the biological signal acquired from the biological sensor unit 110. Specifically, the signal shaping unit 131 cuts out the biological signal with a determined frame size and applies a window function. In the present embodiment, the signal shaping unit 131 removes the noise component of the biological signal due to the movement of the vehicle 10, based on the data of the vehicle behavior signal (acceleration signal) acquired from the vehicle behavior sensor unit 120. If the systematic error of the biometric sensor unit 110 is obvious, the signal shaping unit 131 may also remove the noise component of the biometric signal with a bandpass filter.

スペクトル算出部132は、高速フーリエ変換などの周波数解析によって、生体信号の対数振幅スペクトルを算出する。 The spectrum calculation unit 132 calculates the logarithmic amplitude spectrum of the biological signal by frequency analysis such as fast Fourier transform.

フィルタバンク生成部133は、周波数領域において、生体信号の帯域に相当する部分とノイズの帯域に相当する部分とで異なる解像度のバンドパスフィルタを生成する。生体信号から運転者の疲労や眠気、不安度といった状態を推定する手法として、運転者の心臓の収縮の情報に基づく手法がある。心臓の収縮を示す生体信号は、時系列信号として観測可能であるため、周波数解析によってその特徴を捉えることを考える。センサの分解能を上げるためにはサンプリング周波数を大きくする必要があるが、そうすると、取得されたデータの周波数領域において、生体信号が占める領域が小さくなる。したがって、生体信号に相当する情報を鋭敏に知覚する必要がある。そこで、フィルタバンク生成部133は、図5に示すような通過帯域の異なる三角フィルタ群を生成する。 The filter bank generation unit 133 generates band pass filters having different resolutions in the frequency domain between the portion corresponding to the biological signal band and the portion corresponding to the noise band. As a method of estimating a driver's fatigue, drowsiness, and anxiety level from a biological signal, there is a method based on information of the driver's heart contraction. Since the biological signal indicating the contraction of the heart can be observed as a time-series signal, it is considered to capture its characteristics by frequency analysis. Although it is necessary to increase the sampling frequency in order to increase the resolution of the sensor, if this is done, the area occupied by the biomedical signal will be small in the frequency range of the acquired data. Therefore, it is necessary to sensitively perceive information corresponding to a biological signal. Therefore, the filter bank generation unit 133 generates triangular filter groups having different pass bands as shown in FIG.

フィルタバンク適用部134は、スペクトル算出部132で算出された対数振幅スペクトルに、フィルタバンク生成部133で生成されたフィルタバンクを適用する。このとき、対数振幅スペクトルの長さと各フィルタバンクの長さとが同一である必要がある。例えば、図6のグラフの振幅スペクトルにフィルタバンクを適用すると、フィルタバンク適用後の振幅スペクトルは図7のグラフのようになる。これにより、周波数領域において生体信号の特徴を高密度に抽出しながら、ノイズに相当する特徴は低密度に抽出されるようにすることができる。 The filter bank application unit 134 applies the filter bank generated by the filter bank generation unit 133 to the logarithmic amplitude spectrum calculated by the spectrum calculation unit 132. At this time, the length of the logarithmic amplitude spectrum and the length of each filter bank must be the same. For example, when the filter bank is applied to the amplitude spectrum of the graph of FIG. 6, the amplitude spectrum after application of the filter bank is as shown in the graph of FIG. This makes it possible to extract features of the biomedical signal in the frequency domain with high density while extracting features corresponding to noise with low density.

ケプストラム算出部135は、フィルタバンク適用部134で得られた対数振幅スペクトルを離散コサイン変換などによって、ケプストラム領域に変換することで、運転者の状態推定に必要な特徴量を算出する。このとき、対数振幅スペクトルのうち、低周波に相当する情報をケプストラム領域に変換する。抽出するサンプル数は任意の数でよい。ここでは、ケプストラム算出部135の動作は、生体信号スケールのケプストラムを算出して終了するものとする。ただし、ケプストラム算出部135の動作はこれに限られず、例えば、ケプストラムを1階微分して得られる速度情報、または、ケプストラムを2階微分して得られる加速度情報を、特徴量の付加情報としてもよい。さらに、ケプストラム算出部135は、特徴量を必ずしも単一フレームの生体信号から算出しなくてもよく、連結された複数フレームの生体信号から算出してもよい。 The cepstrum calculation unit 135 converts the logarithmic amplitude spectrum obtained by the filter bank application unit 134 into a cepstrum region by a discrete cosine transform or the like to calculate a characteristic amount necessary for estimating the driver's state. At this time, information corresponding to low frequencies in the logarithmic amplitude spectrum is converted into the cepstrum region. The number of samples to be extracted may be any number. Here, it is assumed that the operation of the cepstrum calculator 135 ends after calculating the cepstrum of the biological signal scale. However, the operation of the cepstrum calculation unit 135 is not limited to this. For example, velocity information obtained by first-order differentiation of the cepstrum or acceleration information obtained by second-order differentiation of the cepstrum may be used as the additional information of the feature amount. Good. Further, the cepstrum calculation unit 135 does not necessarily have to calculate the feature amount from the biological signals of a single frame, but may calculate it from the biological signals of a plurality of connected frames.

運転者状態算出部140は、生体信号の解析の結果得られた特徴量のデータに基づいて、運転者の状態の推定値を算出する。このとき、運転者状態算出部140は、車両挙動センサ部120において加速度センサ121が出力するデータを加速度信号解析部122が加速度信号を解析して得た車両10の挙動のデータを、特徴量のデータに加えてもよい。運転者の状態の推定値は、運転者の状態を目的変数、特徴量を説明変数とする回帰分析などの手法により算出できる。 The driver's state calculation unit 140 calculates an estimated value of the driver's state based on the feature amount data obtained as a result of the analysis of the biological signal. At this time, the driver state calculation unit 140 uses the data of the behavior of the vehicle 10 obtained by analyzing the acceleration signal by the acceleration signal analysis unit 122 from the data output by the acceleration sensor 121 in the vehicle behavior sensor unit 120 as the characteristic amount. May be added to the data. The estimated value of the driver's state can be calculated by a technique such as regression analysis in which the driver's state is the objective variable and the feature amount is the explanatory variable.

本実施の形態では、運転者状態算出部140は、運転者の眠気の推定値を算出する。図8は、回帰解析のモデル学習のためのデータ収集における主観評価の一例である。運転者状態算出部140は、例えば図8のように、全く眠気を感じない状態を0、眠気の限界で今にも眠りそうな状態を100として、0から100までのスケールで眠気について回帰分析を行うことで、生体信号から運転者の眠気を推定する。学習したモデルを用いた運転者状態の算出結果の一例を図9に示す。運転者状態算出部140は、図9のように一定の周期で運転者の眠気の推定値を出力する。 In the present embodiment, driver state calculation unit 140 calculates an estimated value of driver drowsiness. FIG. 8 is an example of subjective evaluation in data collection for model learning of regression analysis. For example, as shown in FIG. 8, the driver state calculation unit 140 performs regression analysis on drowsiness on a scale of 0 to 100, where 0 is a state where no drowsiness is felt and 100 is a state where the person is likely to sleep at the limit of drowsiness. Thus, the drowsiness of the driver is estimated from the biological signal. An example of the calculation result of the driver's state using the learned model is shown in FIG. The driver state calculation unit 140 outputs the estimated value of the driver's drowsiness at a constant cycle as shown in FIG. 9.

ここでは運転者状態算出部140が推定する運転者の状態を眠気としたが、これに限られず、例えば、運転者状態算出部140が運転者の疲労を推定してもよい。また、推定の手法も回帰分析に限られず、公知のパターン認識や機械学習手法などでもよい。 Here, the driver's state estimated by the driver state calculation unit 140 is drowsiness, but the present invention is not limited to this, and the driver state calculation unit 140 may estimate the driver's fatigue, for example. The estimation method is not limited to the regression analysis, and may be a known pattern recognition or machine learning method.

閉眼度算出部171は、車両10に設置されたカメラで撮影した運転者の顔の画像を取得し、その画像を解析することで運転者の閉眼度を算出して出力する。閉眼度は、目が完全に開いているときの上まぶたと下まぶたとの間の距離とある時刻での上まぶたと下まぶたとの間の距離との比の逆数をもって表される時系列信号である。例えば、目が完全に閉じているときの閉眼度を100%、目が完全に開いているときの閉眼度を0%とすると、閉眼度の時系列信号に100%になる瞬時的なピークが現れれば、それは瞬目したことを示す。この閉眼度の時系列信号を解析することで、眠気などの運転者の状態を判断することができる。なお、閉眼度算出部171が取得する画像は、静止画に限られず、動画でもよい。 The degree of eye closure calculation unit 171 acquires an image of the face of the driver taken by a camera installed in the vehicle 10, analyzes the image, and calculates and outputs the degree of eye closure of the driver. The degree of eye closure is a time series signal expressed as the reciprocal of the ratio of the distance between the upper and lower eyelids when the eyes are fully open to the distance between the upper and lower eyelids at a certain time. Is. For example, if the degree of eye closure when the eyes are completely closed is 100% and the degree of eye closure when the eyes are completely open is 0%, the instantaneous peak at which the time-series signal of the degree of eye closure becomes 100%. If it appears, it indicates a blink. By analyzing the time series signal of the degree of eye closure, the driver's state such as drowsiness can be determined. The image acquired by the degree of eye closure calculation unit 171 is not limited to a still image, and may be a moving image.

記録部141は、運転者状態算出部140が算出した運転者の状態(ここでは眠気)の推定値のデータと、閉眼度算出部171が出力した運転者の閉眼度のデータとを、互いに同期させて記録する。 The recording unit 141 synchronizes the data of the estimated value of the driver's state (here, drowsiness) calculated by the driver state calculating unit 140 and the data of the driver's eye closing degree output by the eye closing degree calculating unit 171 with each other. Let me record it.

運転者状態分類部150は、予め定められた閾値と、運転者状態算出部140が算出した運転者の状態の推定値とを比較することで、運転者の状態を分類する。ここでは、運転者状態分類部150は、現在の運転者の状態を、眠気の度合いに応じたクラスに分類する。図10は、運転者の状態のクラス分類の一例であり、運転者の眠気が、「C1:通常」、「C2:眠気を感じる」、「C3:強い眠気を感じる」という3つのクラスに分類されている。図10において、各クラス間の閾値は、運転者状態算出部140で用いられるモデルを構築するための学習データを収集する際に、クラスC1とクラスC2との境界(C1−C2間閾値)およびクラスC2とクラスC3との境界(C2−C3間閾値)について、被験者が主観評価にて回答した結果の平均値である。図11に各被験者の回答結果を示す。ここでは、運転者の状態(眠気)を3クラスに分類した例を示したが、目的に応じて、さらに多くのクラスに分類してもよいし、2クラスに分類してもよい。 The driver state classification unit 150 classifies the driver state by comparing a predetermined threshold value with the estimated value of the driver state calculated by the driver state calculation unit 140. Here, the driver state classification unit 150 classifies the current driver state into classes according to the degree of drowsiness. FIG. 10 is an example of class classification of the driver's state, and the drowsiness of the driver is classified into three classes of “C1: normal”, “C2: feel drowsiness”, and “C3: feel strong drowsiness”. Has been done. In FIG. 10, the threshold values between the classes are the boundary between the classes C1 and C2 (the threshold value between C1 and C2) when the learning data for building the model used in the driver state calculation unit 140 is collected, and It is the average value of the results of the subject's subjective evaluation regarding the boundary between the class C2 and the class C3 (threshold between C2 and C3). FIG. 11 shows the answer result of each subject. Here, an example is shown in which the driver's state (drowsiness) is classified into three classes, but it may be classified into more classes or into two classes depending on the purpose.

このように、各クラス間の閾値が設定されることで運転者の状態の分類が可能となるが、図11に示した被験者の回答結果からも分かるように、状態の感じ方には個人性(個人差)がある。この個人性に対応するためには、各クラス間の閾値を、運転者ごとに修正して更新することが有効である。 In this way, it is possible to classify the driver's state by setting the threshold value between the classes. However, as can be seen from the response results of the subjects shown in FIG. (Individual difference). In order to deal with this individuality, it is effective to correct and update the threshold value between classes for each driver.

閾値更新部142は、記録部141に記録されている過去の運転者の状態および閉眼度の情報から、運転者の状態の感じ方に関する個人性を判断し、その判断結果に基づいて、運転者状態分類部150が運転者の状態を分類するための閾値を更新する。以下、閾値更新部142の動作の例として、上述した眠気の3クラス分類の閾値を更新する方法について説明する。 The threshold updating unit 142 determines the individuality regarding how the driver feels the state from the past information on the driver's state and the degree of eye closure recorded in the recording unit 141, and based on the determination result, the driver The state classifying unit 150 updates the threshold value for classifying the state of the driver. Hereinafter, as an example of the operation of the threshold value updating unit 142, a method of updating the above-mentioned threshold values for the three classes of drowsiness will be described.

閾値更新部142は、記録部141に記録されているデータからサンプルを取り出し、眠気の推定値と閉眼度と関係を示す回帰直線を求める。図12は、直近の20サンプルから求めた回帰直線の例である。図12のグラフにおいて、横軸は、運転者状態算出部140が算出した眠気の推定値であり、縦軸は、閉眼度算出部171が算出した運転者の閉眼度である。 The threshold updating unit 142 extracts a sample from the data recorded in the recording unit 141 and obtains a regression line showing the relationship between the estimated value of drowsiness and the degree of eye closure. FIG. 12 is an example of a regression line obtained from the latest 20 samples. In the graph of FIG. 12, the horizontal axis represents the drowsiness estimation value calculated by the driver state calculation unit 140, and the vertical axis represents the driver's eye closure degree calculated by the eye closure degree calculation unit 171.

閉眼度と眠気との間には強い相関があるため、閾値更新部142は、その相関を利用して、閾値を運転者に適応させる。例えば、図12の回帰直線は、回帰係数(回帰直線の傾き)が小さく切片も小さいが、これは、運転者が、閉眼度が低い状態すなわち眠気をあまり感じていない状態でも、運転者状態算出部140が算出する眠気の推定値が大きくなりやすい、という個人性を持つことを意味している。運転者がこのような個人性を持つ場合、例えば、クラスC2の状態になると警報を発するシステムにおいて、運転者が実際には眠気を感じていないにもかかわらず警報が発せられることになり、運転者に不快感を与える。そこで、閾値更新部142は、図12のような回帰直線が得られた場合は、C2−C3間閾値を現在の値よりも大きい値に更新することで、誤った警告が発せられることを防止する。 Since there is a strong correlation between the degree of eye closure and drowsiness, the threshold updating unit 142 uses the correlation to adapt the threshold to the driver. For example, the regression line of FIG. 12 has a small regression coefficient (slope of the regression line) and a small intercept. This means that the driver state calculation is performed even when the driver has a low degree of eye closure, that is, a state where he/she does not feel much drowsiness. It means that the estimated value of the drowsiness calculated by the unit 140 is likely to be large, and has the individuality. When the driver has such an individuality, for example, in a system that issues an alarm when the driver enters the state of class C2, the alarm is issued even though the driver does not actually feel drowsiness. Person feels uncomfortable. Therefore, when the regression line as shown in FIG. 12 is obtained, the threshold updating unit 142 updates the threshold between C2 and C3 to a value larger than the current value to prevent an erroneous warning from being issued. To do.

これと同様の考え方に基づき、閾値更新部142は、回帰係数が大きく切片も大きいときはC2−C3間閾値を現在よりも小さい値に更新し、回帰係数が大きく切片が小さいときはC1−C2間閾値を現在よりも大きい値に更新し、回帰係数が小さく切片が大きいときはC1−C2間閾値を現在よりも小さい値に更新する。以上の閾値更新部142の動作をまとめると図13のようになる。 Based on the same idea as this, the threshold updating unit 142 updates the threshold value between C2 and C3 to a value smaller than the current value when the regression coefficient is large and the intercept is large, and when the regression coefficient is large and the intercept is small, C1 to C2. The inter-threshold value is updated to a value larger than the present value, and when the regression coefficient is small and the intercept is large, the C1-C2 threshold value is updated to a smaller value than the present value. The operation of the above threshold updating unit 142 is summarized as shown in FIG.

なお、回帰係数が負の値となるときは、運転者の状態の推定値が不安定であるため、運転者状態分類部150の処理を停止させてもよい。また、図12は、直近の20サンプルを用いて回帰直線を求める例を示したが、サンプルの数および間隔はそれぞれ任意の値でよい。 When the regression coefficient has a negative value, the estimated value of the driver's state is unstable, and thus the process of the driver's state classification unit 150 may be stopped. Further, FIG. 12 shows an example of obtaining the regression line using the latest 20 samples, but the number of samples and the interval may be arbitrary values.

情報提示部160は、運転者状態分類部150による現在の運転者の状態の分類結果に応じて、運転者に情報提示を行う。情報提示の方法は、車両10のインストゥルメンタルパネルやセンターディスプレイに運転者の状態に応じたアイコンなどの画像を表示する視覚的なものでもよいし、車両10が備えるスピーカーから運転者の状態に応じた音声メッセージや警報を出力する聴覚的なものでもよい。 The information presenting unit 160 presents information to the driver according to the result of classification of the current driver's state by the driver state classifying unit 150. The method of presenting the information may be a visual method in which an image such as an icon corresponding to the driver's state is displayed on the instrumental panel of the vehicle 10 or the center display, or a speaker provided in the vehicle 10 changes the state of the driver. It may be an audible one that outputs a corresponding voice message or alarm.

上述した眠気の3クラス分類の例であれば、情報提示部160は、運転者の眠気がクラスC2になると、スピーカーから音声メッセージを出力するとともに、インストゥルメンタルパネルにアイコンを表示し、運転者の眠気がクラスC3になると、スピーカーから警報を発するとともに、センターディスプレイに最寄りの休憩地点の外観画像やその休憩地点までの経路をセンターディスプレイに表示することなどが考えられる。 In the case of the above-mentioned three-class classification of drowsiness, when the driver's drowsiness falls into class C2, the information presenting unit 160 outputs a voice message from the speaker and displays an icon on the instrumental panel to display the driver. When the drowsiness of the person becomes Class C3, it is possible to give an alarm from the speaker and display the appearance image of the nearest rest point on the center display and the route to the rest point on the center display.

以上のように、実施の形態1に係る運転者状態判断装置100では、閾値更新部142が、過去の運転者の状態および閉眼度の情報から、運転者の状態の感じ方に関する個人性を判断し、その判断結果に基づいて、運転者状態分類部150が運転者の状態を分類するための閾値を更新する。よって、運転者状態分類部150は、運転者の状態を分類する際に、運転者の個人性が考慮されたきめ細かな判断をすることができる。よって、運転者の状態の判断精度を向上させることができる。 As described above, in the driver state determination device 100 according to the first embodiment, the threshold update unit 142 determines the individuality regarding how the driver feels the state from the information of the past driver state and the degree of eye closure. Then, based on the determination result, the driver state classification unit 150 updates the threshold value for classifying the driver's state. Therefore, the driver state classification unit 150 can make a detailed determination in consideration of the driver's individuality when classifying the driver's state. Therefore, the accuracy of determining the driver's condition can be improved.

なお、図1においては、生体センサ部110および車両挙動センサ部120が、運転者状態判断装置100内に配置されているが、生体センサ部110および車両挙動センサ部120は、運転者状態判断装置100に外付けされるものでもよい。また、生体信号解析部130および運転者状態算出部140が行う演算に、車両の挙動(動き)を加味しない場合は、車両挙動センサ部120は省略されてもよい。 Although the biometric sensor unit 110 and the vehicle behavior sensor unit 120 are arranged in the driver state determination device 100 in FIG. 1, the biometric sensor unit 110 and the vehicle behavior sensor unit 120 are used in the driver state determination device. It may be externally attached to 100. If the behavior (movement) of the vehicle is not added to the calculations performed by the biological signal analysis unit 130 and the driver state calculation unit 140, the vehicle behavior sensor unit 120 may be omitted.

<実施の形態2>
図14は、実施の形態2に係る運転者状態判断装置100の構成を示す図である。図14の運転者状態判断装置100の構成は、図1の構成に対し、閉眼度算出部171を経路情報取得部172に置き換えたものである。経路情報取得部172は、車両10のナビゲーションシステムから、車両10の位置情報および経路情報、交通情報などを取得する。
<Second Embodiment>
FIG. 14 is a diagram showing the configuration of the driver state determination device 100 according to the second embodiment. The configuration of the driver state determination device 100 of FIG. 14 is obtained by replacing the eye closure degree calculation unit 171 with a route information acquisition unit 172 in the configuration of FIG. The route information acquisition unit 172 acquires position information, route information, traffic information, etc. of the vehicle 10 from the navigation system of the vehicle 10.

実施の形態2では、記録部141は、運転者状態算出部140が算出した運転者の状態の推定値のデータと、経路情報取得部172が取得した車両10の経路情報のデータとを、互いに同期させて記録する。また、閾値更新部142は、記録部141に記録されたこれらの情報から、運転者の状態の感じ方に関する個人性を判断し、その判断結果に基づいて、運転者状態分類部150が運転者の状態を分類するための閾値を更新する。運転者状態判断装置100のその他の構成および動作は、実施の形態1と同様であるため、ここでは実施の形態1と同様の構成要素についての説明は省略する。 In the second embodiment, the recording unit 141 mutually compares the estimated state data of the driver calculated by the driver state calculation unit 140 and the route information data of the vehicle 10 acquired by the route information acquisition unit 172 with each other. Record synchronously. Further, the threshold updating unit 142 determines the individuality regarding how the driver feels the state from the information recorded in the recording unit 141, and based on the determination result, the driver state classification unit 150 causes the driver to classify. The threshold for classifying the state of is updated. Since other configurations and operations of driver state determination device 100 are the same as those in the first embodiment, description of the same components as those in the first embodiment will be omitted here.

例えば、運転者状態算出部140が、運転者の状態の推定値として、不安度の推定値を算出するものと仮定する。この場合、運転者状態分類部150は、閾値更新部142により更新される閾値に基づいて運転者の不安度を分類し、情報提示部160は、運転者の不安度の分類結果に応じて、運転者への情報提示を行う。 For example, it is assumed that the driver state calculation unit 140 calculates an estimated value of anxiety degree as an estimated value of the driver's state. In this case, the driver state classifying unit 150 classifies the driver's anxiety level based on the threshold value updated by the threshold value updating unit 142, and the information presenting unit 160 determines the driver's anxiety level classification result. Present information to the driver.

閾値更新部142は、記録部141に記録されたデータを参照して、現在走行中の経路を過去に走行したときの、運転者の不安度の推定値を確認する。現在走行中の経路を過去に走行したときに運転者が不安度の推定値が大きくなっていれば、閾値更新部142は、不安度を分類するための閾値を小さくするといった処理を行う。 The threshold updating unit 142 refers to the data recorded in the recording unit 141 and confirms the estimated value of the driver's anxiety degree when the vehicle is currently traveling on the route in the past. If the estimated value of the anxiety level of the driver has increased when the driver has traveled the current route in the past, the threshold updating unit 142 performs a process of reducing the threshold value for classifying the anxiety level.

なお、現在走行中の経路が初めて走行する経路であり、当該経路に関する過去のデータが記録部141に存在しない場合、その代替として、過去に走行した他の経路のうち現在走行中の経路に走行条件が類似した経路のデータを用いてもよい。 If the current traveling route is the first traveling route and the past data regarding the route is not present in the recording unit 141, as an alternative to that, traveling to the currently traveling route among other traveling routes in the past is performed. Data of routes having similar conditions may be used.

また、例えば、運転者状態算出部140が、運転者の状態の推定値として不注意度の推定値を算出し、運転者状態分類部150が運転者の不注意度を分類するものと仮定する。この場合、経路情報取得部172が現在走行中の経路の渋滞発生情報を取得すると、閾値更新部142が、運転者の不注意による追突事故を防止するために、不注意度の分類の閾値を小さくするといった処理を行ってもよい。 Further, for example, it is assumed that the driver state calculation unit 140 calculates an estimated value of carelessness as an estimated value of the driver's state, and the driver state classification unit 150 classifies the driver's carelessness. .. In this case, when the route information acquisition unit 172 acquires the traffic congestion occurrence information of the route currently being traveled, the threshold updating unit 142 sets the threshold of the carelessness classification in order to prevent a rear-end collision accident due to the carelessness of the driver. You may perform processing, such as making it small.

実施の形態2に係る運転者状態判断装置100によれば、運転者状態分類部150が運転者の状態を分類する際に、運転者の走行履歴から分かる運転者の個人性が考慮されたきめ細かな判断が行われるようになる。 According to the driver state determination device 100 according to the second embodiment, when the driver state classification unit 150 classifies the driver's state, the driver's individuality which is known from the traveling history of the driver is taken into consideration. Judgment will be made.

<実施の形態3>
図15は、実施の形態3に係る運転者状態判断装置100の構成を示す図である。図15の運転者状態判断装置100の構成は、図1の構成に対し、閉眼度算出部171を車内環境情報取得部173に置き換えたものである。車内環境情報取得部173は、車両10の空調システムから、空調の設定値、車内の気温、湿度、二酸化炭素濃度など、車内環境の情報を取得する。
<Third Embodiment>
FIG. 15 is a diagram showing the configuration of the driver state determination device 100 according to the third embodiment. The configuration of the driver state determination device 100 of FIG. 15 is obtained by replacing the configuration of FIG. 1 with the degree of eye closure calculation unit 171 replaced by an in-vehicle environment information acquisition unit 173. The in-vehicle environment information acquisition unit 173 acquires in-vehicle environment information such as air-conditioning set values, in-vehicle temperature, humidity, and carbon dioxide concentration from the air conditioning system of the vehicle 10.

実施の形態3では、記録部141は、運転者状態算出部140が算出した運転者の状態の推定値のデータと、経路情報取得部172が取得した車内環境の情報のデータとを、互いに同期させて記録する。また、閾値更新部142は、記録部141に記録されたこれらの情報から、運転者の状態の感じ方に関する個人性を判断し、その判断結果に基づいて、運転者状態分類部150が運転者の状態を分類するための閾値を更新する。運転者状態判断装置100のその他の構成および動作は、実施の形態1と同様であるため、ここでは実施の形態1と同様の構成要素についての説明は省略する。 In the third embodiment, the recording unit 141 synchronizes the data of the estimated value of the driver's state calculated by the driver state calculation unit 140 and the data of the in-vehicle environment information acquired by the route information acquisition unit 172 with each other. Let me record it. Further, the threshold updating unit 142 determines the individuality regarding how the driver feels the state from the information recorded in the recording unit 141, and based on the determination result, the driver state classification unit 150 causes the driver to classify. The threshold for classifying the state of is updated. Since other configurations and operations of driver state determination device 100 are the same as those in the first embodiment, description of the same components as those in the first embodiment will be omitted here.

例えば、運転者状態算出部140が、運転者の状態の推定値として、眠気や体調不良度の推定値を算出するものと仮定する。この場合、運転者状態分類部150は、閾値更新部142により更新される閾値に基づいて、運転者の眠気や体調不良度を分類する。また、情報提示部160は、運転者の眠気や体調不良度の分類結果に応じて、運転者への情報提示を行う。 For example, it is assumed that the driver state calculating unit 140 calculates an estimated value of drowsiness and poor physical condition as an estimated value of the driver's state. In this case, the driver state classification unit 150 classifies the driver's drowsiness and poor physical condition based on the threshold value updated by the threshold value updating unit 142. The information presenting unit 160 also presents information to the driver according to the classification result of the drowsiness of the driver and the degree of poor physical condition.

一般に、二酸化炭素濃度が高くなると、倦怠感や頭痛、眠気など人体に悪影響を及ぼすことが知られている。そこで、閾値更新部142は、記録部141に記録されたデータからサンプルを取り出して回帰直線を求め、その回帰直線の回帰係数および切片の大きさに応じて、図13と同様に、運転者の状態を分類するための閾値を更新する。 Generally, it is known that when the carbon dioxide concentration increases, the human body is adversely affected such as fatigue, headache, and drowsiness. Therefore, the threshold updating unit 142 takes out a sample from the data recorded in the recording unit 141 to obtain a regression line, and in accordance with the regression coefficient and the size of the intercept of the regression line, similar to FIG. Update thresholds for classifying states.

また、閾値更新部142は、車内環境情報取得部173が取得した現在の気温および湿度のデータに基づいて、運転者の眠気や熱中症といった状態を分類するための閾値を更新してもよい。 Further, the threshold updating unit 142 may update the threshold for classifying the driver's drowsiness or heat stroke based on the current temperature and humidity data acquired by the in-vehicle environment information acquiring unit 173.

実施の形態3に係る運転者状態判断装置100によれば、運転者状態分類部150が運転者の状態を分類する際に、車両10の車内環境が考慮されたきめ細かな判断が行われるようになる。 According to the driver state determination device 100 according to the third embodiment, when the driver state classification unit 150 classifies the driver's state, a detailed determination is made in consideration of the in-vehicle environment of the vehicle 10. Become.

<実施の形態4>
図16は、実施の形態4に係る運転者状態判断装置100の構成を示す図である。図16の運転者状態判断装置100の構成は、図1の構成に対し、閉眼度算出部171を運転者反応判定部174に置き換えたものである。運転者反応判定部174は、情報提示部160が運転者に情報提示を行った後(つまり、運転者の状態の推定値が閾値を超えた後)に運転者が行った車両10の操作の情報を取得して、情報提示の内容に合致した車両10の操作が行われたか否か、つまり、運転者が情報提示部160による情報提示の内容を受け入れたか否かを判定する。
<Embodiment 4>
FIG. 16 is a diagram showing the configuration of the driver state determination device 100 according to the fourth embodiment. The configuration of the driver state determination device 100 of FIG. 16 is obtained by replacing the eye closure degree calculation unit 171 with a driver reaction determination unit 174 in the configuration of FIG. 1. The driver reaction determination unit 174 indicates the operation of the vehicle 10 performed by the driver after the information presentation unit 160 presents the information to the driver (that is, after the estimated value of the driver's state exceeds the threshold value). The information is acquired and it is determined whether or not the operation of the vehicle 10 that matches the content of the information presentation has been performed, that is, whether the driver has accepted the content of the information presentation by the information presentation unit 160.

例えば、運転者状態算出部140が、運転者の状態の推定値として、集中力の推定値を算出するものと仮定する。このとき、運転者状態分類部150により運転者の集中力が低下した状態にあると判断され、情報提示部160が運転者に休憩地点への案内を提示した場合、閉眼度算出部171は、その後に運転者が行った車両10の操作の情報を取得する。そして、閉眼度算出部171は、運転者がその情報提示の内容に従って車両10を操作したかどうか、つまり、運転者が車両10を提示された休憩地点へ移動させたかどうかを判定する。 For example, it is assumed that the driver state calculation unit 140 calculates an estimated value of concentration as an estimated value of the driver's state. At this time, if the driver's state classification unit 150 determines that the driver's concentration is low and the information presenting unit 160 presents the driver with guidance to a rest point, the eye-closure degree calculating unit 171 determines After that, information on the operation of the vehicle 10 performed by the driver is acquired. Then, the degree of eye closure calculation unit 171 determines whether the driver has operated the vehicle 10 according to the content of the information presentation, that is, whether the driver has moved the vehicle 10 to the presented rest point.

実施の形態4では、記録部141は、運転者状態算出部140が算出した運転者の状態の推定値のデータと、運転者反応判定部174の判定結果(運転者が情報提示の内容を受け入れたか否か)のデータとを、互いに同期させて記録する。また、閾値更新部142は、記録部141に記録されたこれらの情報から、運転者の状態の感じ方に関する個人性を判断し、その判断結果に基づいて、運転者状態分類部150が運転者の状態を分類するための閾値を更新する。運転者状態判断装置100のその他の構成および動作は、実施の形態1と同様であるため、ここでは実施の形態1と同様の構成要素についての説明は省略する。 In the fourth embodiment, the recording unit 141 includes the data of the estimated value of the driver's state calculated by the driver state calculating unit 140 and the determination result of the driver reaction determination unit 174 (the driver accepts the content of the information presentation. Whether or not the data) is recorded in synchronization with each other. Further, the threshold updating unit 142 determines the individuality regarding how the driver feels the state from the information recorded in the recording unit 141, and based on the determination result, the driver state classification unit 150 causes the driver to classify. The threshold for classifying the state of is updated. Since other configurations and operations of driver state determination device 100 are the same as those in the first embodiment, description of the same components as those in the first embodiment will be omitted here.

例えば、運転者状態分類部150により運転者の集中力が低下したと判断され、情報提示部160による情報提示が行われたにもかかわらず、運転者がそれに従って車両10を操作しなかった場合、実際には、運転者は集中力の低下を感じていなかったと考えることができる。そこで、閾値更新部142は、記録部141に記録されているデータを参照して、過去に運転者が集中力低下に関する情報提示を受け入れなかったことを確認すると、過度な情報提示を抑制するために、運転者の集中力を分類するための閾値を大きくするといった処理を行う。 For example, when the driver's state classifying unit 150 determines that the driver's concentration has decreased and the information presenting unit 160 has presented information, but the driver did not operate the vehicle 10 accordingly. In fact, it can be considered that the driver did not feel a decrease in concentration. Therefore, if the threshold updating unit 142 refers to the data recorded in the recording unit 141 and confirms that the driver did not accept the information presentation regarding the decrease in concentration in the past, the threshold updating unit 142 suppresses excessive information presentation. First, the threshold value for classifying the driver's concentration is increased.

実施の形態4に係る運転者状態判断装置100によれば、情報提示の内容を運転者が受け入れたかどうかに基づいて、運転者の状態を分類するための閾値の更新が行われる。よって、運転者状態分類部150が運転者の状態を分類する際に、運転者の好みに応じたきめ細かな判断が行われるようになる。 According to the driver state determination device 100 according to the fourth embodiment, the threshold value for classifying the driver state is updated based on whether or not the driver has accepted the content of the information presentation. Therefore, when the driver's state classification unit 150 classifies the driver's states, detailed determination according to the driver's preference is performed.

<実施の形態5>
図17は、実施の形態5に係る運転者状態判断装置100の構成を示す図である。図17の運転者状態判断装置100の構成は、図1の構成に対し、実施の形態2で説明した経路情報取得部172、実施の形態3で説明した車内環境情報取得部173および実施の形態4で説明した運転者反応判定部174を追加したものである。
<Embodiment 5>
FIG. 17 is a diagram showing the configuration of the driver state determination device 100 according to the fifth embodiment. The configuration of the driver state determination device 100 of FIG. 17 is different from that of FIG. 1 in the route information acquisition unit 172 described in the second embodiment, the in-vehicle environment information acquisition unit 173 described in the third embodiment, and the embodiment. The driver reaction determination unit 174 described in Section 4 is added.

実施の形態4では、記録部141は、運転者反応判定部174の出力データ(運転者の状態の推定値)と、閉眼度算出部171の出力データ(運転者の閉眼度)と、経路情報取得部172の出力データ(車両10の位置情報および経路情報、交通情報など)と、車内環境情報取得部173の出力データ(車内環境の情報)と、運転者反応判定部174の出力データ(運転者が情報提示の内容を受け入れたか否かの判定結果)とを、互いに同期させて記録する。また、閾値更新部142は、記録部141に記録されたこれらの情報から、運転者の状態の感じ方に関する個人性を判断し、その判断結果に基づいて、運転者状態分類部150が運転者の状態を分類するための閾値を更新する。運転者状態判断装置100のその他の構成および動作は、実施の形態1と同様であるため、ここでは実施の形態1と同様の構成要素についての説明は省略する。 In the fourth embodiment, the recording unit 141 outputs the output data of the driver reaction determination unit 174 (estimated value of the driver's state), the output data of the eye closure degree calculation unit 171 (driver's eye closure degree), and route information. Output data of the acquisition unit 172 (position information and route information of the vehicle 10, traffic information, etc.), output data of the in-vehicle environment information acquisition unit 173 (in-vehicle environment information), and output data of the driver reaction determination unit 174 (driving (A determination result of whether or not the person has accepted the content of the information presentation) is recorded in synchronization with each other. Further, the threshold updating unit 142 determines the individuality regarding how the driver feels the state from the information recorded in the recording unit 141, and based on the determination result, the driver state classification unit 150 causes the driver to classify. The threshold for classifying the state of is updated. Since other configurations and operations of driver state determination device 100 are the same as those in the first embodiment, description of the same components as those in the first embodiment will be omitted here.

運転者状態分類部150が行う運転者の状態の分類に、運転者の個人性を的確に反映させるためには、閾値更新部142が、運転者反応判定部174の判定結果に基づいて、運転者の状態を分類するための閾値を更新することが好ましい。しかし、そもそも閾値の設定が不適切であったことなどが原因で、情報提示部160による情報提示が一度もなされていない場合には、運転者反応判定部174による判定も一度も成されていないため、運転者反応判定部174の判定結果に基づく当該閾値の更新は不可能である。 In order to accurately reflect the individuality of the driver in the classification of the driver's state performed by the driver state classifying unit 150, the threshold updating unit 142 causes the driver's reaction determining unit 174 to drive the driver based on the determination result. It is preferable to update the threshold for classifying the state of the person. However, if the information presenting section 160 has not presented any information due to inappropriate setting of the threshold value or the like, the driver reaction determining section 174 has not made any determination. Therefore, it is impossible to update the threshold value based on the determination result of the driver reaction determination unit 174.

そこで、実施の形態5では、閾値更新部142は、運転者反応判定部174の出力データが記録部141に記録されていない場合に、閉眼度算出部171、経路情報取得部172、車内環境情報取得部173のいずれかの出力データに基づいて、運転者の状態を分類するための閾値を更新する。このとき、閉眼度算出部171、経路情報取得部172および車内環境情報取得部173の出力データそれぞれの長所を活かした閾値の更新が行われることが望ましい。 Therefore, in the fifth embodiment, the threshold updating unit 142, when the output data of the driver reaction determination unit 174 is not recorded in the recording unit 141, the eye closing degree calculation unit 171, the route information acquisition unit 172, the in-vehicle environment information. The threshold value for classifying the driver's state is updated based on any output data of the acquisition unit 173. At this time, it is desirable that the threshold value is updated by taking advantage of each of the output data of the eye closure degree calculation unit 171, the route information acquisition unit 172, and the in-vehicle environment information acquisition unit 173.

閾値更新部142の動作の一例を示す。本実施の形態では、閾値更新部142は、運転者の状態を分類するための閾値を更新する際、図18のフローに従って、閉眼度算出部171、経路情報取得部172、車内環境情報取得部173、運転者反応判定部174の出力データのいずれかを選択して、閾値の更新を行う。 An example of the operation of the threshold updating unit 142 is shown. In the present embodiment, when updating the threshold for classifying the driver's state, the threshold updating unit 142 follows the flow of FIG. 18 and calculates the degree of eye closure calculation unit 171, route information acquisition unit 172, in-vehicle environment information acquisition unit. 173 or the output data of the driver reaction determination unit 174 is selected to update the threshold value.

上述したように、運転者の状態の分類に、運転者の個人性を的確に反映させるためには、閾値の更新が、運転者反応判定部174の出力データに基づいて行われることが好ましい。そこで、閾値更新部142は、まず、記録部141に運転者反応判定部174の出力データが記録されているか否かを確認する(ステップST101)。しかし、運転者反応判定部174の出力データが記録されていれば(ステップST101でYES)、そのデータに基づく閾値の更新を行う(ステップST102)。しかし、記録部141に運転者反応判定部174の出力データが記録されていなければ(ステップST101でNO)、以下の処理が行われる。 As described above, in order to accurately reflect the individuality of the driver in the classification of the driver's state, it is preferable that the threshold value be updated based on the output data of the driver reaction determination unit 174. Therefore, the threshold update unit 142 first confirms whether or not the output data of the driver reaction determination unit 174 is recorded in the recording unit 141 (step ST101). However, if the output data of the driver reaction determination unit 174 is recorded (YES in step ST101), the threshold value is updated based on the data (step ST102). However, if the output data of the driver reaction determination unit 174 is not recorded in the recording unit 141 (NO in step ST101), the following process is performed.

例えば、車両10が、運転者が走行した経験のある経路を走行中であれば、その経路に関する経路情報取得部172の出力データが記録部141に記録されているため、そのデータに基づいて閾値を更新することにより、閾値に運転者の個人性を反映させることができる。しかし、車両10が、運転者が走行した経験のない経路を走行中であれば、その経路に関する経路情報取得部172の出力データは記録部141に記録されていないため、閉眼度算出部171あるいは車内環境情報取得部173の出力データを使用する必要がある。 For example, if the vehicle 10 is traveling on a route on which the driver has traveled, the output data of the route information acquisition unit 172 regarding that route is recorded in the recording unit 141, and the threshold value is based on that data. By updating, the driver's individuality can be reflected in the threshold value. However, if the vehicle 10 is traveling on a route that the driver has not traveled before, the output data of the route information acquisition unit 172 regarding the route is not recorded in the recording unit 141, and thus the degree of eye closure calculation unit 171 or It is necessary to use the output data of the in-vehicle environment information acquisition unit 173.

そこで、閾値更新部142は、現在走行中の経路が運転者の走行経験のある経路か否か、すなわち、現在走行中の経路に関する経路情報取得部172の出力データが記録部141に記録されているか否かを確認する(ステップST103)。現在走行中の経路が運転者の走行経験のある経路であれば(ステップST103でYES)、経路情報取得部172の出力データに基づいて閾値の更新を行う(ステップST104)。 Therefore, the threshold updating unit 142 determines whether or not the route currently being traveled is a route with which the driver has traveled, that is, the output data of the route information acquisition unit 172 regarding the currently traveling route is recorded in the recording unit 141. It is confirmed whether or not there is any (step ST103). If the route currently being traveled is a route on which the driver has traveled (YES in step ST103), the threshold value is updated based on the output data of the route information acquisition unit 172 (step ST104).

車両10が現在走行中の経路が運転者の走行経験のない経路であれば(ステップST103でNO)、閾値更新部142は、現在時刻が夜間であるかどうか、また、車両10がトンネルを走行中かどうかを確認する(ステップST105)。 If the route the vehicle 10 is currently traveling on is a route that the driver has not traveled to (NO in step ST103), the threshold updating unit 142 determines whether the current time is night and whether the vehicle 10 is traveling in the tunnel. It is confirmed whether it is inside (step ST105).

閉眼度算出部171は、カメラで撮影された運転者の顔の画像から閉眼度を算出するため、カメラの性能や仕様にもよるが、一般的には夜間やトンネル内など鮮明な画像の撮影が困難な状況では、閉眼度の算出精度は低下する。そこで、閾値更新部142は、夜間またはトンネル走行中のときは(ステップST105でYES)、記録部141に記録された車内環境情報取得部173の出力データに基づいて閾値の更新を行う(ステップST106)。また、夜間でもトンネル走行中でもないときは(ステップST105でNO)、閾値更新部142は、記録部141に記録された閉眼度算出部171の出力データに基づいて閾値の更新を行う(ステップST107)。 Since the degree of eye closure calculation unit 171 calculates the degree of eye closure from the image of the driver's face taken by the camera, it generally depends on the performance and specifications of the camera, but generally, a clear image such as at night or in a tunnel is taken. In such a situation, it is difficult to calculate the degree of eye closure. Therefore, the threshold updating unit 142 updates the threshold based on the output data of the in-vehicle environment information acquiring unit 173 recorded in the recording unit 141 during the nighttime or during the tunnel traveling (YES in step ST105) (step ST106). ). Further, when neither at night nor in a tunnel (NO in step ST105), the threshold updating unit 142 updates the threshold based on the output data of the eye closure degree calculating unit 171 recorded in the recording unit 141 (step ST107). ..

本実施の形態によれば、実施の形態1〜4それぞれの長所を生かして、運転者の状態を分類するための閾値の更新が行われる。よって、運転者状態分類部150が運転者の状態を分類する際に、さらにきめ細かな判断が行われるようになる。 According to the present embodiment, the thresholds for classifying the driver's state are updated by taking advantage of the advantages of each of the first to fourth embodiments. Therefore, when the driver's state classification unit 150 classifies the driver's states, more detailed determination is performed.

<ハードウェア構成例>
図19および図20は、それぞれ運転者状態判断装置100のハードウェア構成の例を示す図である。運転者状態判断装置100の構成要素の各機能は、例えば図19に示す処理回路50により実現される。すなわち、運転者状態判断装置100は、車両の運転者の生体信号を取得し、生体信号を解析することで、生体信号から運転者の状態の推定に用いる特徴量を算出し、生体信号の特徴量に基づいて、運転者の状態の推定値を算出し、運転者の状態の推定値を予め定められた閾値と比較することで、運転者の状態を分類し、運転者の状態の分類結果に応じて、運転者に情報提示を行い、運転者の閉眼度、車両の経路情報、車両の車内環境情報、および、情報提示の内容に合致した車両の操作が行われたか否かの情報のうちの少なくとも1つと、運転者の状態の推定値との、過去の情報に基づいて、閾値を更新する、ための処理回路50を備える。処理回路50は、専用のハードウェアであってもよいし、メモリに格納されたプログラムを実行するプロセッサ(中央処理装置(CPU:Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)とも呼ばれる)を用いて構成されていてもよい。
<Hardware configuration example>
19 and 20 are diagrams each showing an example of the hardware configuration of the driver state determination device 100. Each function of the components of the driver state determination device 100 is realized by the processing circuit 50 shown in FIG. 19, for example. That is, the driver state determination device 100 obtains the biological signal of the driver of the vehicle and analyzes the biological signal to calculate the characteristic amount used for estimating the driver's state from the biological signal, and the characteristic of the biological signal. Based on the amount, calculate the estimated value of the driver's state, by comparing the estimated value of the driver's state with a predetermined threshold, classify the driver's state, the classification result of the driver's state In accordance with the information provided to the driver, the driver's degree of eye closure, vehicle route information, vehicle interior environment information, and information on whether or not the vehicle operation matching the content of the information presentation has been performed. A processing circuit 50 is provided for updating the threshold value based on the past information of at least one of them and the estimated value of the driver's state. The processing circuit 50 may be dedicated hardware, or may be a processor (Central Processing Unit (CPU), a processing device, an arithmetic device, a microprocessor, a microcomputer, a computer) that executes a program stored in a memory. It may be configured by using a DSP (also called a Digital Signal Processor).

処理回路50が専用のハードウェアである場合、処理回路50は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものなどが該当する。運転者状態判断装置100の構成要素の各々の機能が個別の処理回路で実現されてもよいし、それらの機能がまとめて一つの処理回路で実現されてもよい。 When the processing circuit 50 is dedicated hardware, the processing circuit 50 is, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable). Gate Array), or a combination of these. Each function of the components of the driver state determination device 100 may be realized by an individual processing circuit, or those functions may be collectively realized by one processing circuit.

図20は、処理回路50がプログラムを実行するプロセッサ51を用いて構成されている場合における運転者状態判断装置100のハードウェア構成の例を示している。この場合、運転者状態判断装置100の構成要素の機能は、ソフトウェア等(ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせ)により実現される。ソフトウェア等はプログラムとして記述され、メモリ52に格納される。プロセッサ51は、メモリ52に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、運転者状態判断装置100は、プロセッサ51により実行されるときに、車両の運転者の生体信号を取得する処理と、生体信号を解析することで、生体信号から運転者の状態の推定に用いる特徴量を算出する処理と、生体信号の特徴量に基づいて、運転者の状態の推定値を算出する処理と、運転者の状態の推定値を予め定められた閾値と比較することで、運転者の状態を分類し、運転者の状態の分類結果に応じて、運転者に情報提示を行う処理と、運転者の閉眼度、車両の経路情報、車両の車内環境情報、および、情報提示の内容に合致した車両の操作が行われたか否かの情報のうちの少なくとも1つと、運転者の状態の推定値との、過去の情報に基づいて、閾値を更新する処理と、が結果的に実行されることになるプログラムを格納するためのメモリ52を備える。換言すれば、このプログラムは、運転者状態判断装置100の構成要素の動作の手順や方法をコンピュータに実行させるものであるともいえる。 FIG. 20 shows an example of the hardware configuration of the driver state determination device 100 when the processing circuit 50 is configured using the processor 51 that executes a program. In this case, the functions of the components of the driver state determination device 100 are realized by software (software, firmware, or a combination of software and firmware). The software and the like are written as a program and stored in the memory 52. The processor 51 realizes the function of each unit by reading and executing the program stored in the memory 52. That is, the driver state determination device 100, when executed by the processor 51, obtains a biological signal of the driver of the vehicle and analyzes the biological signal to estimate the driver's state from the biological signal. A process of calculating a feature amount to be used, a process of calculating an estimated value of the driver's state based on the feature amount of the biological signal, and comparing the estimated value of the driver's state with a predetermined threshold value, A process of classifying the state of the driver and presenting information to the driver according to the result of classifying the state of the driver, the degree of eye closure of the driver, route information of the vehicle, in-vehicle environment information of the vehicle, and information presentation The process of updating the threshold value based on the past information of at least one of the information indicating whether or not the vehicle is operated in accordance with the above information and the estimated value of the driver's state is the result. A memory 52 for storing the program to be executed. In other words, it can be said that this program causes a computer to execute the procedure and method of the operation of the components of the driver's state determination device 100.

ここで、メモリ52は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)およびそのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。 Here, the memory 52 is a nonvolatile memory such as a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), or an EEPROM (Electrically Erasable Programmable Read Only Memory). Volatile semiconductor memory, HDD (Hard Disk Drive), magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD (Digital Versatile Disc) and its drive device, or any storage medium used in the future. May be.

以上、運転者状態判断装置100の構成要素の機能が、ハードウェアおよびソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、運転者状態判断装置100の一部の構成要素を専用のハードウェアで実現し、別の一部の構成要素をソフトウェア等で実現する構成であってもよい。例えば、一部の構成要素については専用のハードウェアとしての処理回路50でその機能を実現し、他の一部の構成要素についてはプロセッサ51としての処理回路50がメモリ52に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。 Heretofore, a configuration has been described in which the functions of the components of the driver state determination device 100 are realized by either hardware or software. However, the configuration is not limited to this, and a configuration in which some of the components of the driver state determination device 100 are realized by dedicated hardware and another of the other components is realized by software or the like may be used. For example, for some of the constituent elements, the function is realized by the processing circuit 50 as dedicated hardware, and for some of the other constituent elements, the processing circuit 50 as the processor 51 executes a program stored in the memory 52. The function can be realized by reading and executing.

以上のように、運転者状態判断装置100は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。 As described above, the driver state determination device 100 can realize each function described above by hardware, software, or the like, or a combination thereof.

なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。 It should be noted that, in the present invention, the respective embodiments can be freely combined, or the respective embodiments can be appropriately modified or omitted within the scope of the invention.

本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。 Although the present invention has been described in detail, the above description is illustrative in all aspects, and the present invention is not limited thereto. It is understood that innumerable variants not illustrated can be envisaged without departing from the scope of the invention.

113 姿勢センサ、114 生体センサ選択部、120 車両挙動センサ部、121 加速度センサ、122 加速度信号解析部、130 生体信号解析部、131 信号整形部、132 スペクトル算出部、133 フィルタバンク生成部、134 フィルタバンク適用部、135 ケプストラム算出部、140 運転者状態算出部、141 記録部、142 閾値更新部、150 運転者状態分類部、160 情報提示部、171 閉眼度算出部、172 経路情報取得部、173 車内環境情報取得部、174 運転者反応判定部、50 処理回路、51 プロセッサ、52 メモリ。 Reference numeral 113 posture sensor, 114 biosensor selection unit, 120 vehicle behavior sensor unit, 121 acceleration sensor, 122 acceleration signal analysis unit, 130 biosignal analysis unit, 131 signal shaping unit, 132 spectrum calculation unit, 133 filter bank generation unit, 134 filter Bank application unit, 135 cepstrum calculation unit, 140 driver state calculation unit, 141 recording unit, 142 threshold value updating unit, 150 driver state classification unit, 160 information presentation unit, 171 eye closure degree calculation unit, 172 route information acquisition unit, 173 In-vehicle environment information acquisition unit, 174 driver reaction determination unit, 50 processing circuit, 51 processor, 52 memory.

Claims (7)

車両の運転者の生体信号を取得する生体センサ部と、
前記生体信号を解析することで、前記生体信号から前記運転者の状態の推定に用いる特徴量を算出する生体信号解析部と、
前記生体信号の特徴量に基づいて、前記運転者の状態の推定値を算出する運転者状態算出部と、
前記運転者の状態の推定値を予め定められた閾値と比較することで、前記運転者の状態を分類する運転者状態分類部と、
前記運転者の状態の分類結果に応じて、前記運転者に情報提示を行う情報提示部と、
前記運転者の閉眼度、前記車両の経路情報、前記車両の車内環境情報、および、前記情報提示の内容に合致した前記車両の操作が行われたか否かの情報のうちの少なくとも1つと、前記運転者の状態の推定値とを、互いに同期させて記録する記録部と、
前記記録部に記録された、前記運転者の閉眼度、前記車両の経路情報、前記車両の車内環境情報、および、前記情報提示の内容に合致した前記車両の操作が行われたか否かの情報のうちの少なくとも1つと前記運転者の状態の推定値との相関による回帰直線の回帰係数および切片の大きさに基づいて、前記閾値を更新する閾値更新部と、
を備え、
前記生体センサ部は、
それぞれ測定圏が互いに重ならない部分を持つ複数の生体センサと、
前記運転者の姿勢を表す姿勢情報を取得する姿勢センサと、
前記姿勢情報に基づいて、前記複数の生体センサのうちから測定圏内に前記運転者が存在する生体センサを選択し、選択された生体センサが取得した生体信号を出力する生体センサ選択部と、
を備える、
運転者状態判断装置。
A biometric sensor unit that acquires a biometric signal of a vehicle driver,
By analyzing the biological signal, a biological signal analysis unit that calculates a feature amount used to estimate the state of the driver from the biological signal,
Based on the feature amount of the biological signal, a driver state calculation unit that calculates an estimated value of the state of the driver,
By comparing the estimated value of the state of the driver with a predetermined threshold value, a driver state classification unit that classifies the state of the driver,
An information presentation unit that presents information to the driver according to the classification result of the state of the driver,
At least one of the degree of eye closure of the driver, route information of the vehicle, in-vehicle environment information of the vehicle, and information on whether or not the vehicle operation matching the content of the information presentation has been performed, A recording unit that records the estimated value of the driver's state in synchronization with each other,
Information regarding whether or not the driver's eye closure, the route information of the vehicle, the in-vehicle environment information of the vehicle, and the operation of the vehicle matching the content of the information presentation , recorded in the recording unit. A threshold updating unit that updates the threshold based on the regression coefficient and the size of the intercept of a regression line based on the correlation between at least one of the estimated values of the driver's state and
Equipped with
The biological sensor unit,
A plurality of biometric sensors with portions each measurement area do not overlap each other,
A posture sensor for obtaining posture information representing the posture of the driver,
Based on the posture information, a biosensor selecting the biosensor in which the driver exists in the measurement range from the plurality of biosensors, and outputting a biosignal acquired by the selected biosensor, and a biosensor selection unit,
With
Driver status determination device.
車両の運転者の生体信号を取得する生体センサ部と、
前記生体信号を解析することで、前記生体信号から前記運転者の状態の推定に用いる特徴量を算出する生体信号解析部と、
前記生体信号の特徴量に基づいて、前記運転者の状態の推定値を算出する運転者状態算出部と、
前記運転者の状態の推定値を予め定められた閾値と比較することで、前記運転者の状態を分類する運転者状態分類部と、
前記運転者の状態の分類結果に応じて、前記運転者に情報提示を行う情報提示部と、
前記運転者の閉眼度、前記車両の経路情報、前記車両の車内環境情報、および、前記情報提示の内容に合致した前記車両の操作が行われたか否かの情報のうちの少なくとも1つと、前記運転者の状態の推定値とを、互いに同期させて記録する記録部と、
前記記録部に記録された、前記運転者の閉眼度、前記車両の経路情報、前記車両の車内環境情報、および、前記情報提示の内容に合致した前記車両の操作が行われたか否かの情報のうちの少なくとも1つと前記運転者の状態の推定値との相関による回帰直線の回帰係数および切片の大きさに基づき、前記運転者の状態の感じ方の個人差を考慮して、前記閾値を更新する閾値更新部と、
を備える運転者状態判断装置。
A biometric sensor unit that acquires a biometric signal of a vehicle driver,
By analyzing the biological signal, a biological signal analysis unit that calculates a feature amount used to estimate the state of the driver from the biological signal,
Based on the feature amount of the biological signal, a driver state calculation unit that calculates an estimated value of the state of the driver,
By comparing the estimated value of the state of the driver with a predetermined threshold value, a driver state classification unit that classifies the state of the driver,
An information presentation unit that presents information to the driver according to the classification result of the state of the driver,
At least one of the degree of eye closure of the driver, route information of the vehicle, in-vehicle environment information of the vehicle, and information on whether or not the vehicle operation matching the content of the information presentation has been performed, A recording unit that records the estimated value of the driver's state in synchronization with each other,
Information regarding whether or not the driver's eye closure, the route information of the vehicle, the in-vehicle environment information of the vehicle, and the operation of the vehicle matching the content of the information presentation , recorded in the recording unit. Based on the regression coefficient of the regression line and the size of the intercept based on the correlation between at least one of the above and the estimated value of the driver's state, and considering the individual difference in the way of feeling the driver's state, the threshold value is set to A threshold updating unit for updating,
A driver condition determination device including.
前記車両の動きを表す車両挙動信号を出力する車両挙動センサ部をさらに備え、
前記生体信号解析部は、前記車両挙動信号を考慮に加えて、前記生体信号を解析する、
請求項1または請求項2に記載の運転者状態判断装置。
Further comprising a vehicle behavior sensor unit that outputs a vehicle behavior signal that represents the movement of the vehicle,
The biological signal analysis unit analyzes the biological signal in consideration of the vehicle behavior signal,
The driver state determination device according to claim 1 or 2.
前記車両挙動信号は、前記車両の加速度信号である、
請求項3に記載の運転者状態判断装置。
The vehicle behavior signal is an acceleration signal of the vehicle,
The driver condition determination device according to claim 3.
前記生体信号解析部は、前記生体信号の周波数解析を行い、前記周波数解析の過程で、前記生体信号の対数振幅スペクトルに対し、前記生体信号が含まれる周波数帯域とそれ以外の周波数帯域とで解像度の異なるフィルタバンクを適用する、
請求項1から請求項4のいずれか一項に記載の運転者状態判断装置。
The biological signal analysis unit performs frequency analysis of the biological signal, and in the process of the frequency analysis, with respect to the logarithmic amplitude spectrum of the biological signal, the resolution in a frequency band including the biological signal and other frequency bands. Apply different filter banks of,
The driver state determination device according to any one of claims 1 to 4.
運転者状態判断装置の生体センサ部が、車両の運転者の生体信号を取得し、
前記運転者状態判断装置の生体信号解析部が、前記生体信号を解析することで、前記生体信号から前記運転者の状態の推定に用いる特徴量を算出し、
前記運転者状態判断装置の運転者状態算出部が、前記生体信号の特徴量に基づいて、前記運転者の状態の推定値を算出し、
前記運転者状態判断装置の運転者状態分類部が、前記運転者の状態の推定値を予め定められた閾値と比較することで、前記運転者の状態を分類し、
前記運転者状態判断装置の情報提示部が、前記運転者の状態の分類結果に応じて、前記運転者に情報提示を行い、
前記運転者状態判断装置の閾値更新部が、前記運転者の閉眼度、前記車両の経路情報、前記車両の車内環境情報、および、前記情報提示の内容に合致した前記車両の操作が行われたか否かの情報のうちの少なくとも1つと、前記運転者の状態の推定値との、過去の情報から得られる、前記運転者の閉眼度、前記車両の経路情報、前記車両の車内環境情報、および、前記情報提示の内容に合致した前記車両の操作が行われたか否かの情報のうちの少なくとも1つと前記運転者の状態の推定値との相関による回帰直線の回帰係数および切片の大きさに基づいて、前記閾値を更新し、
前記生体センサ部は、
前記運転者の姿勢を表す姿勢情報に基づいて、それぞれ測定圏が互いに異なる部分を持つ複数の生体センサのうちから測定圏内に前記運転者が存在する生体センサを選択し、選択された生体センサが出力する前記運転者の生体信号を取得する、
運転者状態判断方法。
The biometric sensor unit of the driver state determination device acquires the biometric signal of the driver of the vehicle,
The biological signal analysis unit of the driver state determination device, by analyzing the biological signal, to calculate a feature amount used to estimate the state of the driver from the biological signal,
The driver state calculation unit of the driver state determination device, based on the feature amount of the biological signal, calculates an estimated value of the driver state,
The driver state classification unit of the driver state determination device, by comparing the estimated value of the driver state with a predetermined threshold value, to classify the driver state,
The information presenting unit of the driver state determination device presents information to the driver according to the classification result of the state of the driver,
Whether the threshold update unit of the driver state determination device has operated the vehicle in accordance with the degree of eye closure of the driver, route information of the vehicle, in-vehicle environment information of the vehicle, and the content of the information presentation. At least one of information on whether or not the driver's state and the estimated value of the driver's state, obtained from past information , the degree of eyesight of the driver, route information of the vehicle, in-vehicle environment information of the vehicle, and The regression coefficient of the regression line and the size of the intercept based on the correlation between at least one of the information indicating whether the operation of the vehicle that matches the content of the information presentation is performed and the estimated value of the driver's state. Based on the updated threshold,
The biological sensor unit,
Based on the posture information indicating the posture of the driver, a biosensor in which the driver is present in the measurement area is selected from a plurality of biosensors having different measurement areas, and the selected biosensor is selected. Obtains the biological signal of the driver output by,
Driver status judgment method.
運転者状態判断装置の生体センサ部が、車両の運転者の生体信号を取得し、
前記運転者状態判断装置の生体信号解析部が、前記生体信号を解析することで、前記生体信号から前記運転者の状態の推定に用いる特徴量を算出し、
前記運転者状態判断装置の運転者状態算出部が、前記生体信号の特徴量に基づいて、前記運転者の状態の推定値を算出し、
前記運転者状態判断装置の運転者状態分類部が、前記運転者の状態の推定値を予め定められた閾値と比較することで、前記運転者の状態を分類し、
前記運転者状態判断装置の情報提示部が、前記運転者の状態の分類結果に応じて、前記運転者に情報提示を行い、
前記運転者状態判断装置の閾値更新部が、前記運転者の閉眼度、前記車両の経路情報、前記車両の車内環境情報、および、前記情報提示の内容に合致した前記車両の操作が行われたか否かの情報のうちの少なくとも1つと、前記運転者の状態の推定値との、過去の情報から得られる、前記運転者の閉眼度、前記車両の経路情報、前記車両の車内環境情報、および、前記情報提示の内容に合致した前記車両の操作が行われたか否かの情報のうちの少なくとも1つと前記運転者の状態の推定値との相関による回帰直線の回帰係数および切片の大きさに基づき、前記運転者の状態の感じ方の個人差を考慮して、前記閾値を更新する、
運転者状態判断方法。
The biometric sensor unit of the driver state determination device acquires the biometric signal of the driver of the vehicle,
The biological signal analysis unit of the driver state determination device, by analyzing the biological signal, to calculate a feature amount used to estimate the state of the driver from the biological signal,
The driver state calculation unit of the driver state determination device, based on the feature amount of the biological signal, calculates an estimated value of the driver state,
The driver state classification unit of the driver state determination device, by comparing the estimated value of the driver state with a predetermined threshold value, to classify the driver state,
The information presenting unit of the driver state determination device presents information to the driver according to the classification result of the state of the driver,
Whether the threshold update unit of the driver state determination device has operated the vehicle in accordance with the degree of eye closure of the driver, route information of the vehicle, in-vehicle environment information of the vehicle, and the content of the information presentation. At least one of information on whether or not the driver's state and the estimated value of the driver's state, obtained from past information , the degree of eyesight of the driver, route information of the vehicle, in-vehicle environment information of the vehicle, and The regression coefficient of the regression line and the size of the intercept based on the correlation between at least one of the information indicating whether the operation of the vehicle that matches the content of the information presentation is performed and the estimated value of the driver's state. Based on the individual differences in how the driver feels the state, the threshold value is updated.
Driver status judgment method.
JP2019569858A 2019-07-25 2019-07-25 Driver status determination device and driver status determination method Active JP6727465B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/029170 WO2021014632A1 (en) 2019-07-25 2019-07-25 Driver state determination device and driver state determination method

Publications (2)

Publication Number Publication Date
JP6727465B1 true JP6727465B1 (en) 2020-07-22
JPWO2021014632A1 JPWO2021014632A1 (en) 2021-01-28

Family

ID=71663968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019569858A Active JP6727465B1 (en) 2019-07-25 2019-07-25 Driver status determination device and driver status determination method

Country Status (2)

Country Link
JP (1) JP6727465B1 (en)
WO (1) WO2021014632A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023112073A1 (en) * 2021-12-13 2023-06-22 三菱電機株式会社 Reference value creation device, alertness level estimation device, and reference value creation method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11128185A (en) * 1997-10-31 1999-05-18 Matsushita Electric Ind Co Ltd Method of and device for analyzing heartbeat fluctuation
JP2007146998A (en) * 2005-11-29 2007-06-14 Toyota Motor Corp Transmission control device
WO2008120312A1 (en) * 2007-03-28 2008-10-09 Pioneer Corporation Condition judging device, condition judging method, and condition judging program
JP2010256943A (en) * 2009-04-21 2010-11-11 Nec Corp Driver state decision system, decision method and deciding program
JP2011022738A (en) * 2009-07-15 2011-02-03 Nissan Motor Co Ltd Device and method for estimation of driver's condition
JP2012234293A (en) * 2011-04-28 2012-11-29 Toyota Motor Corp Driver state determination device
JP2014117425A (en) * 2012-12-14 2014-06-30 Delta Tooling Co Ltd Driving-time biological state determination apparatus and computer program
JP2018114859A (en) * 2017-01-19 2018-07-26 株式会社デンソーアイティーラボラトリ Driver tension level display device and method of displaying driver tension level
CN109598174A (en) * 2017-09-29 2019-04-09 厦门歌乐电子企业有限公司 The detection method and its device and system of driver status

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6533707B2 (en) * 2015-07-15 2019-06-19 日立オートモティブシステムズ株式会社 Driving condition monitoring method, device and vehicle equipped with the same
JP2017140187A (en) * 2016-02-09 2017-08-17 株式会社デンソーアイティーラボラトリ Respiration monitoring device for driver
JP6991717B2 (en) * 2017-01-24 2022-01-12 パイオニア株式会社 Biometric information detection device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11128185A (en) * 1997-10-31 1999-05-18 Matsushita Electric Ind Co Ltd Method of and device for analyzing heartbeat fluctuation
JP2007146998A (en) * 2005-11-29 2007-06-14 Toyota Motor Corp Transmission control device
WO2008120312A1 (en) * 2007-03-28 2008-10-09 Pioneer Corporation Condition judging device, condition judging method, and condition judging program
JP2010256943A (en) * 2009-04-21 2010-11-11 Nec Corp Driver state decision system, decision method and deciding program
JP2011022738A (en) * 2009-07-15 2011-02-03 Nissan Motor Co Ltd Device and method for estimation of driver's condition
JP2012234293A (en) * 2011-04-28 2012-11-29 Toyota Motor Corp Driver state determination device
JP2014117425A (en) * 2012-12-14 2014-06-30 Delta Tooling Co Ltd Driving-time biological state determination apparatus and computer program
JP2018114859A (en) * 2017-01-19 2018-07-26 株式会社デンソーアイティーラボラトリ Driver tension level display device and method of displaying driver tension level
CN109598174A (en) * 2017-09-29 2019-04-09 厦门歌乐电子企业有限公司 The detection method and its device and system of driver status

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023112073A1 (en) * 2021-12-13 2023-06-22 三菱電機株式会社 Reference value creation device, alertness level estimation device, and reference value creation method

Also Published As

Publication number Publication date
WO2021014632A1 (en) 2021-01-28
JPWO2021014632A1 (en) 2021-01-28

Similar Documents

Publication Publication Date Title
US8400313B2 (en) Vehicle driver sleep state classification generating device based on Hidden Markov Model, sleep state classification device and warning device
Pratama et al. A review on driver drowsiness based on image, bio-signal, and driver behavior
US8433095B2 (en) Drowsiness detector
US7970459B2 (en) Sleepiness level detection method and apparatus
CN107554528B (en) Fatigue grade detection method and device for driver and passenger, storage medium and terminal
JP5007975B2 (en) Dozing detection device
JP4867215B2 (en) Physiological / psychological state determination device, physiological / psychological state determination method, reference data generation device, and reference data generation method.
Doshi et al. A comparative exploration of eye gaze and head motion cues for lane change intent prediction
CN102150189A (en) Open-eye or closed-eye determination apparatus, degree of eye openness estimation apparatus and program
WO2017049628A1 (en) Devices, systems, and associated methods for evaluating potential stroke condition in subject
JP6727465B1 (en) Driver status determination device and driver status determination method
Rundo et al. Innovative saliency based deep driving scene understanding system for automatic safety assessment in next-generation cars
JP2017064364A (en) Biological state estimation apparatus, biological state estimation method, and computer program
Pham et al. An anomaly detection technique in wearable wireless monitoring systems for studies of gait freezing in Parkinson's disease
Murugappan et al. Subtractive fuzzy classifier based driver drowsiness levels classification using EEG
KR101034886B1 (en) System and method for determining drowsy state using alteration in period of heart rate variability
US20220265217A1 (en) Drowsiness estimation information correction device, drowsiness estimation device, drowsiness estimation information correction method, drowsiness estimation method, and recording medium
JP3960168B2 (en) Biological state estimation method, apparatus, and program
WO2017057022A1 (en) Biological state estimation device, biological state estimation method, and computer program
JP7216408B2 (en) Device for determining sleep apnea syndrome, method for determining sleep apnea syndrome, and program for determining sleep apnea syndrome
JP2013111348A (en) State determining device and method
US20230406324A1 (en) Identifying the Degree of Attentiveness of a Vehicle Occupant on the Basis of the Frequency Distribution of the Eye Opening Width
Rescioa et al. Unsupervised-based framework for aged worker’s stress detection
Shahrudin et al. Enhancing Driver Drowsiness Detection for Data Acquisition Stage using Electrocardiogram
CN112957046B (en) Method and apparatus for assessing motion sickness

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191216

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191216

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191216

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200630

R150 Certificate of patent or registration of utility model

Ref document number: 6727465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250