JP6926636B2 - State estimator - Google Patents

State estimator Download PDF

Info

Publication number
JP6926636B2
JP6926636B2 JP2017088748A JP2017088748A JP6926636B2 JP 6926636 B2 JP6926636 B2 JP 6926636B2 JP 2017088748 A JP2017088748 A JP 2017088748A JP 2017088748 A JP2017088748 A JP 2017088748A JP 6926636 B2 JP6926636 B2 JP 6926636B2
Authority
JP
Japan
Prior art keywords
frequency
eye movement
acquisition unit
state
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017088748A
Other languages
Japanese (ja)
Other versions
JP2018183532A (en
Inventor
克彦 濱田
克彦 濱田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2017088748A priority Critical patent/JP6926636B2/en
Publication of JP2018183532A publication Critical patent/JP2018183532A/en
Application granted granted Critical
Publication of JP6926636B2 publication Critical patent/JP6926636B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、監視対象者の眼球運動に基づいて監視対象者の状態を推定する状態推定装置に関するものである。 The present invention relates to a state estimation device that estimates the state of a monitored person based on the eye movements of the monitored person.

特許文献1には、監視対象者のサッカードの発生頻度を表す通常サッカード頻度と監視対象者のマイクロサッカードの発生頻度を表すマイクロサッカード頻度との合計値が閾値未満である場合に異常であると推定する技術が開示されている。つまり、サッカード及びマイクロサッカードの発生頻度が閾値未満である場合に異常であると推定する技術が開示されている。 Patent Document 1 states that an abnormality occurs when the total value of the normal saccade frequency indicating the occurrence frequency of saccades of the monitored person and the microsaccade frequency indicating the occurrence frequency of microsaccades of the monitored person is less than the threshold value. The technology presumed to be is disclosed. That is, a technique for presuming an abnormality when the frequency of occurrence of saccade and microsaccade is less than the threshold value is disclosed.

特開2017−23519号公報Japanese Unexamined Patent Publication No. 2017-23519

しかしながら、サッカード,マイクロサッカードの発生頻度が低い場合であっても、監視対象者が異常でない場合もある。例えば、サッカード,マイクロサッカードの発生頻度は、監視対象者の周辺環境によって生じる瞬目及び/又は追従眼球運動によっても低下する。よって、監視対象者の周辺環境によっては、監視対象者が正常であってもサッカード,マイクロサッカードの発生頻度が低下し、監視対象者の状態の推定精度が低下する場合がある。 However, even when the frequency of saccades and microsaccades is low, the monitored person may not be abnormal. For example, the frequency of occurrence of saccades and microsaccades is also reduced by blinks and / or follow-up eye movements caused by the surrounding environment of the monitored person. Therefore, depending on the surrounding environment of the monitored person, the frequency of occurrence of saccades and microsaccades may decrease even if the monitored person is normal, and the accuracy of estimating the state of the monitored person may decrease.

また、サッカード,マイクロサッカードの発生頻度が低い場合であっても、時間経過とともに増加傾向にある場合には、監視対象者の状態がすでに正常に回復していると考えられる。よって、このような場合にも、監視対象者の状態の推定精度が低下すると考えられる。 Even if the frequency of saccades and microsaccades is low, if they tend to increase over time, it is considered that the condition of the monitored person has already recovered to normal. Therefore, even in such a case, it is considered that the estimation accuracy of the state of the monitored person is lowered.

この開示のひとつの目的は、監視対象者の眼球運動に基づいて監視対象者の状態をより精度良く推定することを可能にする状態推定装置を提供することにある。 One object of this disclosure is to provide a state estimation device capable of more accurately estimating the state of a monitored person based on the eye movements of the monitored person.

上記目的は独立請求項に記載の特徴の組み合わせにより達成され、また、下位請求項は、発明の更なる有利な具体例を規定する。特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。 The above object is achieved by a combination of the features described in the independent claims, and the sub-claims define further advantageous specific examples of the invention. The reference numerals in parentheses described in the claims indicate, as one embodiment, the correspondence with the specific means described in the embodiments described later, and do not limit the technical scope of the present invention. ..

上記目的を達成するために、本発明の第1の状態推定装置は、監視対象者の眼球運動に基づいて監視対象者の状態を推定する状態推定装置であって、監視対象者のサッカード及びマイクロサッカードの少なくともいずれかの発生頻度である急速眼球運動頻度を取得する頻度取得部(132)と、監視対象者の瞬目の発生頻度を取得する瞬目取得部(131)、監視対象者の追従眼球運動の発生時間を取得する追従眼球運動取得部(133)、及び監視対象者の急速眼球運動頻度の変化量を取得する頻度変化量取得部(134)の少なくともいずれかである補強情報取得部(135)と、頻度取得部で取得する急速眼球運動頻度に加え、補強情報取得部で取得する情報を用いて、監視対象者の状態を推定する状態推定部(140,140b,140c)とを備え、補強情報取得部は、少なくとも瞬目取得部であり、状態推定部は、頻度取得部で取得する急速眼球運動頻度がその急速眼球運動頻度についての閾値よりも大きい場合に、監視対象者の状態が正常であると推定する一方、頻度取得部で取得する急速眼球運動頻度がその急速眼球運動頻度についての閾値以下である場合であっても、瞬目取得部で取得する瞬目の発生頻度がその発生頻度についての閾値よりも大きい場合には、監視対象者の状態が正常であると推定する。
上記目的を達成するために、本発明の第2の状態推定装置は、監視対象者の眼球運動に基づいて監視対象者の状態を推定する状態推定装置であって、監視対象者のサッカード及びマイクロサッカードの少なくともいずれかの発生頻度である急速眼球運動頻度を取得する頻度取得部(132)と、監視対象者の瞬目の発生頻度を取得する瞬目取得部(131)、監視対象者の追従眼球運動の発生時間を取得する追従眼球運動取得部(133)、及び監視対象者の急速眼球運動頻度の変化量を取得する頻度変化量取得部(134)の少なくともいずれかである補強情報取得部(135)と、頻度取得部で取得する急速眼球運動頻度に加え、補強情報取得部で取得する情報を用いて、監視対象者の状態を推定する状態推定部(140,140b,140c)とを備え、補強情報取得部は、少なくとも追従眼球運動取得部であり、状態推定部は、頻度取得部で取得する急速眼球運動頻度がその急速眼球運動頻度についての閾値よりも大きい場合に、監視対象者の状態が正常であると推定する一方、頻度取得部で取得する急速眼球運動頻度がその急速眼球運動頻度についての閾値以下である場合であっても、追従眼球運動取得部で取得する追従眼球運動の発生時間がその発生時間についての閾値よりも大きい場合には、監視対象者の状態が正常であると推定する。
上記目的を達成するために、本発明の第3の状態推定装置は、監視対象者の眼球運動に基づいて監視対象者の状態を推定する状態推定装置であって、監視対象者のサッカード及びマイクロサッカードの少なくともいずれかの発生頻度である急速眼球運動頻度を取得する頻度取得部(132)と、監視対象者の瞬目の発生頻度を取得する瞬目取得部(131)、監視対象者の追従眼球運動の発生時間を取得する追従眼球運動取得部(133)、及び監視対象者の急速眼球運動頻度の変化量を取得する頻度変化量取得部(134)の少なくともいずれかである補強情報取得部(135)と、頻度取得部で取得する急速眼球運動頻度に加え、補強情報取得部で取得する情報を用いて、監視対象者の状態を推定する状態推定部(140,140b,140c)とを備え、補強情報取得部は、少なくとも頻度変化量取得部であり、状態推定部は、頻度取得部で取得する急速眼球運動頻度がその急速眼球運動頻度についての閾値よりも大きい場合に、監視対象者の状態が正常であると推定する一方、頻度取得部で取得する急速眼球運動頻度がその急速眼球運動頻度についての閾値以下である場合であっても、頻度変化量取得部で取得する監視対象者の急速眼球運動頻度の変化量がその変化量についての閾値よりも大きい増加である場合には、監視対象者の状態が正常であると推定する。
In order to achieve the above object, the first state estimation device of the present invention is a state estimation device that estimates the state of the monitored person based on the eye movements of the monitored person, and is a saccade of the monitored person and a saccade of the monitored person. A frequency acquisition unit (132) that acquires the frequency of rapid eye movements, which is at least one of the occurrence frequencies of microsaccades, an eye blink acquisition unit (131) that acquires the frequency of blinks of the monitored person, and a monitored person. Reinforcement information that is at least one of the follow-up eye movement acquisition unit (133) that acquires the occurrence time of the follow-up eye movement and the frequency change amount acquisition unit (134) that acquires the change amount of the rapid eye movement frequency of the monitored subject. State estimation unit (140, 140b, 140c) that estimates the state of the monitored person using the information acquired by the augmentation information acquisition unit in addition to the rapid eye movement frequency acquired by the acquisition unit (135) and the frequency acquisition unit. The reinforcement information acquisition unit is at least the blink acquisition unit, and the state estimation unit is monitored when the frequency of rapid eye movements acquired by the frequency acquisition unit is larger than the threshold value for the frequency of rapid eye movements. While presuming that the person's condition is normal, even if the frequency of rapid eye movements acquired by the frequency acquisition unit is less than or equal to the threshold for the frequency of rapid eye movements, the blinks acquired by the blink acquisition unit If the occurrence frequency is greater than the threshold value for that frequency, the state of the monitored person estimated to be normal.
In order to achieve the above object, the second state estimation device of the present invention is a state estimation device that estimates the state of the monitored person based on the eye movements of the monitored person, and is a saccade of the monitored person and a saccade of the monitored person. A frequency acquisition unit (132) that acquires the frequency of rapid eye movements, which is at least one of the occurrence frequencies of microsaccades, a blink acquisition unit (131) that acquires the frequency of blinks of the monitored person, and a monitored person. Reinforcement information that is at least one of the follow-up eye movement acquisition unit (133) that acquires the occurrence time of the follow-up eye movement and the frequency change amount acquisition unit (134) that acquires the change amount of the rapid eye movement frequency of the monitored subject. State estimation unit (140, 140b, 140c) that estimates the state of the monitored person using the information acquired by the augmentation information acquisition unit in addition to the rapid eye movement frequency acquired by the acquisition unit (135) and the frequency acquisition unit. The reinforcement information acquisition unit is at least a follow-up eye movement acquisition unit, and the state estimation unit monitors when the rapid eye movement frequency acquired by the frequency acquisition unit is larger than the threshold value for the rapid eye movement frequency. While presuming that the subject's condition is normal, even if the frequency of rapid eye movements acquired by the frequency acquisition unit is less than or equal to the threshold for the frequency of rapid eye movements, the follow-up eye movement acquisition unit acquires follow-up. When the occurrence time of eye movement is larger than the threshold value for the occurrence time, it is estimated that the condition of the monitored subject is normal.
In order to achieve the above object, the third state estimation device of the present invention is a state estimation device that estimates the state of the monitored person based on the eye movements of the monitored person, and is a saccade of the monitored person and a saccade of the monitored person. A frequency acquisition unit (132) that acquires the frequency of rapid eye movements, which is at least one of the occurrence frequencies of microsaccades, a blink acquisition unit (131) that acquires the frequency of blinks of the monitored person, and a monitored person. Reinforcement information that is at least one of the follow-up eye movement acquisition unit (133) that acquires the occurrence time of the follow-up eye movement and the frequency change amount acquisition unit (134) that acquires the change amount of the rapid eye movement frequency of the monitored subject. State estimation unit (140, 140b, 140c) that estimates the state of the monitored person using the information acquired by the augmentation information acquisition unit in addition to the rapid eye movement frequency acquired by the acquisition unit (135) and the frequency acquisition unit. The supplementary information acquisition unit is at least a frequency change acquisition unit, and the state estimation unit monitors when the frequency of rapid eye movements acquired by the frequency acquisition unit is greater than the threshold value for the frequency of rapid eye movements. While presuming that the subject's condition is normal, even if the frequency of rapid eye movements acquired by the frequency acquisition unit is less than or equal to the threshold for the frequency of rapid eye movements, the monitoring acquired by the frequency change acquisition unit When the amount of change in the frequency of rapid eye movements of the subject is an increase larger than the threshold for the amount of change, it is presumed that the condition of the monitored subject is normal.

これによれば、監視対象者の瞬目の発生頻度と、監視対象者の追従眼球運動の発生時間と、監視対象者のサッカード及びマイクロサッカードの発生頻度の変化量との少なくともいずれかを用いて監視対象者の状態を推定することが可能になる。監視対象者の瞬目の発生頻度を用いた場合には、瞬目による急速眼球運動頻度の低下を監視対象者の状態の異常と推定しないようにすることが可能になる。監視対象者の追従眼球運動の発生時間を用いた場合には、追従眼球運動による急速眼球運動頻度の低下を監視対象者の状態の異常と推定しないようにすることが可能になる。監視対象者の急速眼球運動頻度の変化量を用いた場合には、急速眼球運動頻度が増加傾向にある場合の急速眼球運動頻度の低下を監視対象者の状態の異常と推定しないようにすることが可能になる。よって、監視対象者のサッカード及びマイクロサッカードの発生頻度だけを用いる場合に比べ、監視対象者の状態をより精度良く推定することが可能になる。その結果、監視対象者の眼球運動に基づいて監視対象者の状態をより精度良く推定することが可能になる。 According to this, at least one of the frequency of blinks of the monitored person, the time of occurrence of the follow-up eye movement of the monitored person, and the amount of change in the frequency of occurrence of saccade and microsaccade of the monitored person are determined. It becomes possible to estimate the state of the monitored person by using it. When the frequency of blinks of the monitored person is used, it is possible to prevent the decrease in the frequency of rapid eye movements due to the blinks from being estimated as an abnormality in the state of the monitored person. When the occurrence time of the follow-up eye movement of the monitored person is used, it is possible to prevent the decrease in the frequency of rapid eye movement due to the follow-up eye movement from being estimated as an abnormality in the state of the monitored person. When the amount of change in the rapid eye movement frequency of the monitored person is used, the decrease in the rapid eye movement frequency when the rapid eye movement frequency tends to increase should not be estimated as an abnormality in the state of the monitored person. Becomes possible. Therefore, the state of the monitored person can be estimated more accurately than the case where only the occurrence frequency of the saccade and the microsaccade of the monitored person is used. As a result, it becomes possible to more accurately estimate the state of the monitored person based on the eye movements of the monitored person.

車両システム1の概略的な構成の一例を示す図である。It is a figure which shows an example of the schematic structure of the vehicle system 1. HCU10の概略的な構成の一例を示す図である。It is a figure which shows an example of the schematic structure of HCU10. 急速眼球運動頻度についての判定閾値の決定を説明するための図である。It is a figure for demonstrating the determination of the determination threshold value about the rapid eye movement frequency. HCU10での状態推定関連処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the state estimation related processing in HCU10. HCU10での眼球運動抽出処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the eye movement extraction processing in HCU10. HCU10での判定閾値決定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the determination threshold value determination process in HCU10. HCU10での状態推定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the state estimation process in HCU10. HCU10aの概略的な構成の一例を示す図である。It is a figure which shows an example of the schematic structure of HCU10a. HCU10bの概略的な構成の一例を示す図である。It is a figure which shows an example of the schematic structure of HCU10b. HCU10cの概略的な構成の一例を示す図である。It is a figure which shows an example of the schematic structure of HCU10c.

図面を参照しながら、開示のための複数の実施形態を説明する。なお、説明の便宜上、複数の実施形態の間において、それまでの説明に用いた図に示した部分と同一の機能を有する部分については、同一の符号を付し、その説明を省略する場合がある。同一の符号を付した部分については、他の実施形態における説明を参照することができる。 A plurality of embodiments for disclosure will be described with reference to the drawings. For convenience of explanation, the parts having the same functions as the parts shown in the drawings used in the explanations up to that point may be designated by the same reference numerals and the description thereof may be omitted. be. For the parts with the same reference numerals, the description in other embodiments can be referred to.

(実施形態1)
<車両システム1の概略構成>
図1に示す車両システム1は、車両といった移動体で用いられるものであり、HCU(Human Machine Interface Control Unit)10、車両センサ20、周辺監視センサ30、周辺監視ECU40、ドライバ撮像ユニット50、及び報知装置60を含んでいる。HCU10と車両センサ20と周辺監視ECU40とは、例えば車内LANに接続されているものとする。以下では、車両システム1を自動車で用いる場合を例に挙げて説明を続ける。
(Embodiment 1)
<Outline configuration of vehicle system 1>
The vehicle system 1 shown in FIG. 1 is used in a moving body such as a vehicle, and has an HCU (Human Machine Interface Control Unit) 10, a vehicle sensor 20, a peripheral monitoring sensor 30, a peripheral monitoring ECU 40, a driver imaging unit 50, and a notification. Includes device 60. It is assumed that the HCU 10, the vehicle sensor 20, and the peripheral monitoring ECU 40 are connected to, for example, an in-vehicle LAN. In the following, the description will be continued by taking the case where the vehicle system 1 is used in an automobile as an example.

車両センサ20は、自車の状態を検出するためのセンサ群である。車両センサ20としては、自車の車室内の湿度を検出する湿度センサ,自車前方の明るさを検出する外光センサ,自車の操舵角を検出する舵角センサ等がある。一例として、外光センサとしては照度を検出する照度センサを用いればよい。車両センサ20は、センシング結果を車内LANへ出力する。なお、車両センサ20でのセンシング結果は、自車に搭載されるECUを介して車両LANへ出力される構成であってもよい。 The vehicle sensor 20 is a group of sensors for detecting the state of the own vehicle. The vehicle sensor 20 includes a humidity sensor that detects the humidity inside the vehicle interior of the vehicle, an external light sensor that detects the brightness in front of the vehicle, a steering angle sensor that detects the steering angle of the vehicle, and the like. As an example, an illuminance sensor that detects illuminance may be used as the external light sensor. The vehicle sensor 20 outputs the sensing result to the in-vehicle LAN. The sensing result of the vehicle sensor 20 may be output to the vehicle LAN via the ECU mounted on the own vehicle.

周辺監視センサ30は、歩行者、人間以外の動物、車両等の移動物体、さらに標識,ガードレール,縁石,樹木等の静止物体といった自車周辺の物体を検出する。他にも、自車周辺の走行区画線、停止線等の路面標示を検出する。周辺監視センサ30は、例えば、自車周囲の所定範囲を撮像する周辺監視カメラ、自車周囲の所定範囲に探査波を送信するミリ波レーダ、ソナー、LIDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)等のセンサである。周辺監視カメラは、逐次撮像する撮像画像をセンシング情報として周辺監視ECU40へ逐次出力する。ソナー、ミリ波レーダ、LIDAR等の探査波を送信するセンサは、障害物によって反射された反射波を受信した場合に得られる受信信号に基づく走査結果をセンシング情報として周辺監視ECU40へ逐次出力する。 The peripheral monitoring sensor 30 detects moving objects such as pedestrians, animals other than humans, vehicles, and stationary objects such as signs, guardrails, curbs, and trees around the vehicle. In addition, it detects road markings such as lane markings and stop lines around the vehicle. The peripheral monitoring sensor 30 includes, for example, a peripheral monitoring camera that captures a predetermined range around the vehicle, a millimeter wave radar that transmits exploration waves to a predetermined range around the vehicle, a sonar, and a LIDAR (Light Detection and Ranging / Laser Imaging Detection and). Ranging) and other sensors. The peripheral monitoring camera sequentially outputs the captured images to be sequentially captured as sensing information to the peripheral monitoring ECU 40. Sensors that transmit exploration waves such as sonar, millimeter-wave radar, and LIDAR sequentially output scanning results based on the received signal obtained when the reflected wave reflected by an obstacle is received to the peripheral monitoring ECU 40 as sensing information.

周辺監視ECU40は、プロセッサ、揮発性メモリ、不揮発性メモリ、及びこれらを相互に接続するバス等からなるマイクロコンピュータを備え、不揮発性メモリに記憶された制御プログラムを実行することで各種の処理を実行する。周辺監視ECU40は、周辺監視センサ30から取得したセンシング結果から、自車の周辺環境を認識する。 The peripheral monitoring ECU 40 includes a microcomputer including a processor, a volatile memory, a non-volatile memory, and a bus connecting these to each other, and executes various processes by executing a control program stored in the non-volatile memory. do. The peripheral monitoring ECU 40 recognizes the surrounding environment of the own vehicle from the sensing result acquired from the peripheral monitoring sensor 30.

周辺監視ECU40は、周辺監視カメラのセンシング結果から、自車の周辺環境として、自車周辺の物体を検出する。一例として、テンプレートマッチング等の周知の画像認識処理によって、ドライバの注視対象となる物体を注視対象としない物体と区別して検出することが好ましい。ドライバの注視対象となる物体(以下、注視対象物)の一例としては、歩行者,他車両,標識等がある。また、周辺監視ECU40は、周辺監視センサのセンシング結果から、公知の手法によって自車周辺に存在する物体の自車に対する相対位置,相対速度を検出する。なお、周辺監視ECU40は、自車で用いられる通信モジュールを介した車車間通信及び/又は路車間通信によって得られた他車両,歩行者等の対象物の位置,速度の情報から、自車の周辺に存在する対象物について、自車に対する相対位置,相対速度を検出してもよい。 The peripheral monitoring ECU 40 detects an object around the own vehicle as the surrounding environment of the own vehicle from the sensing result of the peripheral monitoring camera. As an example, it is preferable to detect an object to be gazed by the driver separately from an object not to be gazed by a well-known image recognition process such as template matching. Examples of objects to be watched by the driver (hereinafter referred to as “objects to be watched”) include pedestrians, other vehicles, signs, and the like. Further, the peripheral monitoring ECU 40 detects the relative position and relative speed of an object existing around the own vehicle with respect to the own vehicle by a known method from the sensing result of the peripheral monitoring sensor. The peripheral monitoring ECU 40 uses information on the position and speed of objects such as other vehicles and pedestrians obtained by vehicle-to-vehicle communication and / or road-to-vehicle communication via a communication module used in the own vehicle. For objects existing in the vicinity, the relative position and relative speed with respect to the own vehicle may be detected.

ドライバ撮像ユニット50は、ドライバの頭部を撮像するための撮像装置を含む。一例としては、照明装置と、この照明装置による照明と同じ帯域に感度を持つ撮像装置とを含む構成とすればよい。具体例としては、近赤外カメラと近赤外光源とを含む構成とすればよい。以下では、この近赤外カメラと近赤外光源とを用いる場合を例に挙げて説明を行う。後述するマイクロサッカードを抽出する場合には、例えば空間分解能0.01度,時間分解能220Hzといった高性能カメラを用いればよい。 The driver imaging unit 50 includes an imaging device for imaging the head of the driver. As an example, the configuration may include a lighting device and an imaging device having sensitivity in the same band as the lighting by the lighting device. As a specific example, a configuration including a near-infrared camera and a near-infrared light source may be used. In the following, a case where the near-infrared camera and the near-infrared light source are used will be described as an example. When extracting the microsaccade described later, a high-performance camera having a spatial resolution of 0.01 degrees and a temporal resolution of 220 Hz may be used, for example.

近赤外カメラは、自車の運転席側に向けた姿勢にて、例えばステアリングコラムカバーに配置される。なお、近赤外カメラは、自車の運転席に着座したドライバの顔を撮像できる位置であれば他の位置に配置される構成であってもよく、インスツルメントパネルの上面等に配置される構成であってもよい。ドライバ撮像ユニットは、近赤外光源によって近赤外光を照射されたドライバの頭部を、近赤外カメラによって撮影する。近赤外カメラによる撮像画像(以下、顔画像)は、HCU10に出力する。 The near-infrared camera is arranged, for example, on the steering column cover in a posture toward the driver's seat side of the own vehicle. The near-infrared camera may be arranged at another position as long as it can capture the face of the driver seated in the driver's seat of the own vehicle, and is arranged on the upper surface of the instrument panel or the like. May be configured. The driver imaging unit uses a near-infrared camera to photograph the head of the driver irradiated with near-infrared light by a near-infrared light source. The image captured by the near-infrared camera (hereinafter referred to as the face image) is output to the HCU 10.

報知装置60は、自車のドライバに向けて報知を行う。報知装置60としては、表示装置,音声出力装置,振動子等がある。また、報知装置60による報知としては、表示装置による表示,音声出力装置による音声出力,振動子による振動等がある。 The notification device 60 notifies the driver of the own vehicle. The notification device 60 includes a display device, a voice output device, a vibrator, and the like. Further, the notification by the notification device 60 includes a display by a display device, a voice output by a voice output device, a vibration by a vibrator, and the like.

HCU10は、プロセッサ、揮発性メモリ、非遷移的実体的記録媒体(non- transitory tangible storage medium)である不揮発性メモリ、I/O、これらを接続するバスを備えるマイクロコンピュータを主体として構成され、ドライバ撮像ユニット50,報知装置60と車内LANとに接続される。HCU10は、不揮発性メモリに記憶された制御プログラムを実行することにより、自車のドライバの状態を推定したり、自車のドライバに向けた報知を行わせたりする。このHCU10が請求項の状態推定装置に相当し、ドライバが請求項の監視対象者に相当する。 The HCU 10 is mainly composed of a processor, a volatile memory, a non-transitory tangible storage medium, a non-volatile memory, an I / O, and a microcomputer equipped with a bus connecting them, and is a driver. It is connected to the image pickup unit 50, the notification device 60, and the in-vehicle LAN. By executing the control program stored in the non-volatile memory, the HCU 10 estimates the state of the driver of the own vehicle and causes the driver of the own vehicle to be notified. The HCU 10 corresponds to the state estimation device of the claim, and the driver corresponds to the monitored person of the claim.

<HCU10の概略構成>
ここで、図2を用いて、HCU10の概略構成を説明する。図2に示すように、HCU10は、機能ブロックとして、画像認識処理部100、眼球運動抽出部110、眼球運動情報記憶部120、判定用データ算出部130、状態推定部140、及び報知処理部150を備えている。なお、HCU10が実行する機能の一部又は全部を、一つ或いは複数のIC等によりハードウェア的に構成してもよい。また、HCU10が備える機能ブロックの一部又は全部は、プロセッサによるソフトウェアの実行とハードウェア部材との組み合わせによって実現されてもよい。
<Outline configuration of HCU10>
Here, the schematic configuration of the HCU 10 will be described with reference to FIG. As shown in FIG. 2, the HCU 10 has an image recognition processing unit 100, an eye movement extraction unit 110, an eye movement information storage unit 120, a determination data calculation unit 130, a state estimation unit 140, and a notification processing unit 150 as functional blocks. It has. A part or all of the functions executed by the HCU 10 may be configured in hardware by one or a plurality of ICs or the like. Further, a part or all of the functional blocks included in the HCU 10 may be realized by a combination of software execution by a processor and hardware members.

画像認識処理部100は、ドライバ撮像ユニット50から逐次出力される顔画像から、公知の画像認識処理によって、ドライバの顔部位の抽出,顔部位の形状的な特徴の抽出,視線角度の算出等を逐次行う。視線角度は視線方向と言い換えることもできる。以下に、画像認識処理部100で行う画像認識処理の一例について述べる。 The image recognition processing unit 100 extracts the driver's face part, extracts the shape feature of the face part, calculates the line-of-sight angle, etc. from the face image sequentially output from the driver image pickup unit 50 by a known image recognition process. Perform sequentially. The line-of-sight angle can be rephrased as the line-of-sight direction. An example of the image recognition processing performed by the image recognition processing unit 100 will be described below.

まず、画像認識処理部100は、顔画像中の目を抽出し、その目の中の黒い丸を瞳孔として抽出する。続いて、顔画像中の目の中の白い点を角膜反射像として抽出する。そして、瞳孔と角膜反射との位置関係から車室内の基準位置に対する視線角度を検出する。基準位置は、例えば近赤外カメラの設置位置等とすればよい。ここで言うところの視線角度は、自車の左右方向と概ね一致する水平方向と垂直方向との両方についての視線角度であるものとする。算出した視線角度は、例えば揮発性メモリといったメモリに記憶する構成とすればよい。 First, the image recognition processing unit 100 extracts the eyes in the face image and extracts the black circles in the eyes as pupils. Subsequently, the white spots in the eyes in the facial image are extracted as a corneal reflex image. Then, the line-of-sight angle with respect to the reference position in the vehicle interior is detected from the positional relationship between the pupil and the corneal reflex. The reference position may be, for example, the installation position of the near-infrared camera. The line-of-sight angle referred to here is assumed to be a line-of-sight angle in both the horizontal direction and the vertical direction, which substantially coincides with the left-right direction of the own vehicle. The calculated line-of-sight angle may be stored in a memory such as a volatile memory.

眼球運動抽出部110は、画像認識処理部100での画像認識処理の結果をもとに、自車のドライバの眼球運動を抽出する眼球運動抽出処理を行う。図2に示すように、眼球運動抽出部110は、サブ機能ブロックとして、瞬目抽出部111、急速眼球運動抽出部112、及び追従眼球運動抽出部113を備える。 The eye movement extraction unit 110 performs an eye movement extraction process for extracting the eye movement of the driver of the own vehicle based on the result of the image recognition process in the image recognition processing unit 100. As shown in FIG. 2, the eye movement extraction unit 110 includes a blinking eye movement extraction unit 111, a rapid eye movement extraction unit 112, and a follow-up eye movement extraction unit 113 as sub-functional blocks.

瞬目抽出部111は、ドライバの瞬目を抽出する。瞬目は瞬きと言い換えることもできる。瞬目抽出部111は、画像認識処理部100で逐次行う画像認識処理において、例えば瞳孔が抽出できない場合を瞬目として抽出する構成とすればよい。他にも、画像認識処理部100で抽出したドライバの上瞼の曲率半径に基づいて瞬目を抽出する構成としてもよい。瞬目抽出部111は、瞬目の抽出結果として、瞬目を抽出した時刻を眼球運動情報記憶部120に例えば有効時間Tが経過するまで記憶する。眼球運動情報記憶部120としては、例えば揮発性メモリを用いる構成とすればよい。有効時間Tとは、後述するサッカード,マイクロサッカードといった急速眼球運動の発生頻度を精度よく算出するために必要な時間であって、例えば1〜数分程度の時間とすればよい。以降についても同様とする。 The blink extraction unit 111 extracts the blink of the driver. Blinks can also be rephrased as blinks. The blink extraction unit 111 may be configured to extract, for example, a case where the pupil cannot be extracted as an blink in the image recognition process sequentially performed by the image recognition processing unit 100. Alternatively, the blinking eye may be extracted based on the radius of curvature of the upper eyelid of the driver extracted by the image recognition processing unit 100. As the result of extracting the blink, the blink extraction unit 111 stores the time at which the blink is extracted in the eye movement information storage unit 120 until, for example, the effective time T elapses. The eye movement information storage unit 120 may be configured to use, for example, a volatile memory. The effective time T is a time required for accurately calculating the frequency of occurrence of rapid eye movements such as saccade and microsaccade, which will be described later, and may be, for example, about 1 to several minutes. The same shall apply thereafter.

急速眼球運動抽出部112は、ドライバのサッカード,マイクロサッカードといった急速眼球運動を抽出する。サッカードは、人が意図的に視線方向を変化させる場合に生じる短時間の高速な眼球運動である。マイクロサッカードは、人が注視している際に不随意に生じる固視微動のうちのごく細かい急速な眼球運動である。急速眼球運動抽出部112は、サッカードとマイクロサッカードとのうちのいずれか一方のみを抽出する構成としてもよいし、両方を抽出する構成としてもよい。 The rapid eye movement extraction unit 112 extracts rapid eye movements such as a driver's saccade and a microsaccade. Saccade is a short, high-speed eye movement that occurs when a person intentionally changes his or her line of sight. Microsaccades are the finest and most rapid eye movements of involuntary fixation tremors that occur when a person is gazing. The rapid eye movement extraction unit 112 may be configured to extract only one of the saccade and the microsaccade, or may be configured to extract both.

急速眼球運動抽出部112は、画像認識処理部100で算出した過去数フレーム分(例えば10フレーム分)の視線角度から、視線角度の変化量を算出し、この変化量を時間で除算することで視線角速度を算出する。また、急速眼球運動抽出部112は、上述したように算出した視線角速度の変化量を時間で除算することで視線角加速度を算出する。 The rapid eye movement extraction unit 112 calculates the amount of change in the line-of-sight angle from the line-of-sight angles of the past several frames (for example, 10 frames) calculated by the image recognition processing unit 100, and divides this amount of change by the time. Calculate the line-of-sight angular velocity. Further, the rapid eye movement extraction unit 112 calculates the line-of-sight angular acceleration by dividing the amount of change in the line-of-sight angular velocity calculated as described above by time.

そして、急速眼球運動抽出部112は、視線角加速度が基準角加速度以上であって、且つ、視線の移動距離が基準距離以上の場合にサッカードとして抽出する。一方、急速眼球運動抽出部112は、視線角加速度が基準角加速度以上であって、且つ、視線の移動距離が基準距離未満の場合にマイクロサッカードとして抽出する。基準角加速度は例えば1200deg/sとすればよく、基準距離は例えば2degとすればよい。なお、視線角加速度に換えて、視線角速度が基準角速度以上であるか否かによって判定を行う構成としてもよい。急速眼球運動抽出部112は、サッカード,マイクロサッカードの抽出結果として、サッカード,マイクロサッカードを抽出した時刻を眼球運動情報記憶部120に例えば有効時間Tが経過するまで記憶すればよい。 Then, the rapid eye movement extraction unit 112 extracts the saccade when the line-of-sight angular acceleration is equal to or greater than the reference angular acceleration and the line-of-sight movement distance is equal to or greater than the reference distance. On the other hand, the rapid eye movement extraction unit 112 extracts as a microsaccade when the line-of-sight angular acceleration is equal to or greater than the reference angular acceleration and the line-of-sight movement distance is less than the reference distance. The reference angular acceleration may be, for example, 1200 deg / s 2 , and the reference distance may be, for example, 2 deg. In addition, instead of the line-of-sight angular acceleration, the determination may be made based on whether or not the line-of-sight angular velocity is equal to or higher than the reference angular velocity. The rapid eye movement extraction unit 112 may store the time at which the saccade and the microsaccade are extracted as the extraction result of the saccade and the microsaccade in the eye movement information storage unit 120 until, for example, the effective time T elapses.

追従眼球運動抽出部113は、ドライバの追従眼球運動を抽出する。追従眼球運動は、対象に反射的に視線を追従させる眼球運動である。追従眼球運動抽出部113は、一定時間あたりの視線角速度が一定の範囲内である場合に、追従眼球運動として抽出する。一例としては、1秒あたりの視線角速度が0.5〜2.0deg/sである場合に、追従眼球運動として抽出する。なお、追従眼球運動抽出部113は、視線角速度に換えて、視線角加速度が一定の範囲内であるか否かによって判定を行う構成としてもよい。追従眼球運動抽出部113は、追従眼球運動の抽出結果として、追従眼球運動の抽出有無を時刻別に眼球運動情報記憶部120に例えば有効時間Tが経過するまで記憶すればよい。 The follow-up eye movement extraction unit 113 extracts the follow-up eye movement of the driver. The follow-up eye movement is an eye movement that causes the subject to reflexively follow the line of sight. The follow-up eye movement extraction unit 113 extracts the follow-up eye movement when the line-of-sight angular velocity per fixed time is within a certain range. As an example, when the line-of-sight angular velocity per second is 0.5 to 2.0 deg / s 2, it is extracted as a follow-up eye movement. The following eye movement extraction unit 113 may be configured to make a determination based on whether or not the line-of-sight angular acceleration is within a certain range, instead of the line-of-sight angular velocity. The following eye movement extraction unit 113 may store, as a result of extracting the following eye movement, whether or not the following eye movement is extracted in the eye movement information storage unit 120 for each time until, for example, the effective time T elapses.

判定用データ算出部130は、ドライバの状態を推定するのに用いる判定用データを算出することで、この判定用データを取得する。図2に示すように、判定用データ算出部130は、サブ機能ブロックとして、瞬目頻度算出部131、急速眼球運動頻度算出部132、追従眼球運動時間算出部133、及び変化量算出部134を備える。瞬目頻度算出部131、追従眼球運動時間算出部133、及び変化量算出部134が補強情報取得部135にあたる。 The determination data calculation unit 130 acquires the determination data by calculating the determination data used for estimating the state of the driver. As shown in FIG. 2, the determination data calculation unit 130 includes the blink frequency calculation unit 131, the rapid eye movement frequency calculation unit 132, the follow-up eye movement time calculation unit 133, and the change amount calculation unit 134 as sub-functional blocks. Be prepared. The blink frequency calculation unit 131, the follow-up eye movement time calculation unit 133, and the change amount calculation unit 134 correspond to the reinforcement information acquisition unit 135.

瞬目頻度算出部131は、眼球運動情報記憶部120に蓄積された瞬目抽出部111での抽出結果である瞬目を抽出した時刻をもとに、ドライバの瞬目の発生頻度(以下、瞬目頻度)を算出することで、瞬目頻度を取得する。この瞬目頻度算出部131が請求項の瞬目取得部に相当する。具体例としては、瞬目頻度算出部131は、所定時間tごとに、所定時間t内の瞬目抽出部111での抽出結果から、所定時間tあたりの瞬目頻度を算出すればよい。所定時間tは、例えば10秒程度とする。以降についても同様とする。瞬目頻度算出部131は、逐次算出する瞬目頻度を時系列に沿って眼球運動情報記憶部120に蓄積する。 The blink frequency calculation unit 131 is based on the time when the blink is extracted, which is the extraction result of the blink extraction unit 111 stored in the eye movement information storage unit 120, and the driver's blink frequency (hereinafter referred to as “blink frequency”). The blink frequency) is calculated to obtain the blink frequency. The blink frequency calculation unit 131 corresponds to the blink acquisition unit of the claim. As a specific example, the blink frequency calculation unit 131 may calculate the blink frequency per predetermined time t from the extraction result of the blink extraction unit 111 within the predetermined time t for each predetermined time t. The predetermined time t is, for example, about 10 seconds. The same shall apply thereafter. The blink frequency calculation unit 131 accumulates the blink frequency calculated sequentially in the eye movement information storage unit 120 in chronological order.

急速眼球運動頻度算出部132は、眼球運動情報記憶部120に蓄積された急速眼球運動抽出部112での抽出結果であるサッカード,マイクロサッカードを抽出した時刻をもとに、ドライバのサッカード,マイクロサッカードの発生頻度(以下、急速眼球運動頻度)を算出することで、急速眼球運動頻度を取得する。この急速眼球運動頻度算出部132が請求項の頻度取得部に相当する。 The rapid eye movement frequency calculation unit 132 extracts the saccade and microsaccade, which are the extraction results of the rapid eye movement extraction unit 112 accumulated in the eye movement information storage unit 120, and the driver's saccade. , The frequency of rapid eye movements is obtained by calculating the frequency of occurrence of microsaccades (hereinafter referred to as the frequency of rapid eye movements). The rapid eye movement frequency calculation unit 132 corresponds to the frequency acquisition unit according to the claim.

具体例としては、急速眼球運動頻度算出部132は、所定時間tごとに、所定時間t内の急速眼球運動抽出部112での抽出結果から、所定時間tあたりの急速眼球運動頻度を算出すればよい。急速眼球運動頻度算出部132は、逐次算出する急速眼球運動頻度を時系列に沿って眼球運動情報記憶部120に蓄積する。なお、瞬目抽出部111で瞬目を抽出していた時刻のデータは急速眼球運動頻度の算出の処理から除外することで、急速眼球運動頻度の算出精度を向上させることが好ましい。 As a specific example, if the rapid eye movement frequency calculation unit 132 calculates the rapid eye movement frequency per predetermined time t from the extraction result of the rapid eye movement extraction unit 112 within the predetermined time t every predetermined time t. good. The rapid eye movement frequency calculation unit 132 stores the rapidly calculated rapid eye movement frequency in the eye movement information storage unit 120 in chronological order. It is preferable to improve the calculation accuracy of the rapid eye movement frequency by excluding the data at the time when the blink extraction unit 111 is extracting the blink from the process of calculating the rapid eye movement frequency.

追従眼球運動時間算出部133は、眼球運動情報記憶部120に蓄積された追従眼球運動抽出部113での抽出結果である時刻別の追従眼球運動の有無をもとに、ドライバの追従眼球運動の発生時間(以下、追従眼球運動時間)を算出することで、追従眼球運動時間を取得する。追従眼球運動の発生時間は、追従眼球運動に要した時間と言い換えることもできる。この追従眼球運動時間算出部133が請求項の追従眼球運動取得部に相当する。具体例としては、追従眼球運動時間算出部133は、所定時間tごとに、所定時間t内の追従眼球運動抽出部113での抽出結果から、所定時間tあたりの追従眼球運動時間を算出すればよい。追従眼球運動時間算出部133は、逐次算出する追従眼球運動時間を時系列に沿って眼球運動情報記憶部120に蓄積する。 The follow-up eye movement time calculation unit 133 determines the follow-up eye movement of the driver based on the presence or absence of the follow-up eye movement for each time, which is the extraction result of the follow-up eye movement extraction unit 113 accumulated in the eye movement information storage unit 120. The follow-up eye movement time is acquired by calculating the occurrence time (hereinafter referred to as the follow-up eye movement time). The time required for the follow-up eye movement can be rephrased as the time required for the follow-up eye movement. The following eye movement time calculation unit 133 corresponds to the following eye movement acquisition unit according to the claim. As a specific example, if the follow-up eye movement time calculation unit 133 calculates the follow-up eye movement time per predetermined time t from the extraction result of the follow-up eye movement extraction unit 113 within the predetermined time t for each predetermined time t. good. The follow-up eye movement time calculation unit 133 stores the follow-up eye movement time calculated sequentially in the eye movement information storage unit 120 in chronological order.

変化量算出部134は、眼球運動情報記憶部120に蓄積された急速眼球運動抽出部112での抽出結果であるサッカード,マイクロサッカードを抽出した時刻をもとに、急速眼球運動頻度の変化量(以下、急速眼球運動頻度変化量)を算出することで、この急速眼球運動頻度変化量を取得する。この変化量算出部134が、請求項の頻度変化量取得部に相当する。具体例としては、急速眼球運動頻度算出部132での所定時間tごとの急速眼球運動頻度の算出時に、その所定時間tの直前s秒間のサッカード,マイクロサッカードの発生回数を算出する。ここで言うところのs秒とは、所定時間tよりも短い時間であって、例えば2〜3秒とすればよい。そして、直前s秒間のサッカード,マイクロサッカードの発生回数の、所定時間t内での全発生回数における割合を、急速眼球運動頻度変化量として算出する。変化量算出部134は、逐次算出する急速眼球運動頻度変化量を時系列に沿って眼球運動情報記憶部120に蓄積する。 The change amount calculation unit 134 changes the rapid eye movement frequency based on the time when the saccade and the microsaccade, which are the extraction results of the rapid eye movement extraction unit 112 accumulated in the eye movement information storage unit 120, are extracted. By calculating the amount (hereinafter, the amount of change in the frequency of rapid eye movements), the amount of change in the frequency of rapid eye movements is obtained. This change amount calculation unit 134 corresponds to the frequency change amount acquisition unit of the claim. As a specific example, when the rapid eye movement frequency calculation unit 132 calculates the rapid eye movement frequency for each predetermined time t, the number of occurrences of saccade and microsaccade for s seconds immediately before the predetermined time t is calculated. The s seconds referred to here is a time shorter than the predetermined time t, and may be, for example, 2 to 3 seconds. Then, the ratio of the number of occurrences of saccade and microsaccade in the immediately preceding s seconds to the total number of occurrences within the predetermined time t is calculated as the amount of change in the frequency of rapid eye movements. The change amount calculation unit 134 stores the rapidly calculated rapid eye movement frequency change amount in the eye movement information storage unit 120 in chronological order.

状態推定部140は、判定用データ算出部130で逐次算出した判定用データのデータ群から、ドライバの状態を推定するのに用いる判定閾値を決定する判定閾値決定処理を行う。そして、判定用データ算出部130で逐次算出する判定用データとこの判定閾値とから、ドライバの状態を推定する状態推定処理を行う。図2に示すように、状態推定部140は、サブ機能ブロックとして判定閾値決定部141を備える。 The state estimation unit 140 performs a determination threshold value determination process for determining a determination threshold value used for estimating the driver's state from the data group of the determination data sequentially calculated by the determination data calculation unit 130. Then, a state estimation process for estimating the driver's state is performed from the determination data sequentially calculated by the determination data calculation unit 130 and the determination threshold value. As shown in FIG. 2, the state estimation unit 140 includes a determination threshold value determination unit 141 as a sub-function block.

判定閾値決定部141は、瞬目頻度についての判定閾値,急速眼球運動頻度についての判定閾値,追従眼球運動時間についての判定閾値,急速眼球運動頻度変化量についての判定閾値を決定する判定閾値決定処理を行う。 The judgment threshold value determination unit 141 determines a judgment threshold value for the blink frequency, a judgment threshold value for the rapid eye movement frequency, a judgment threshold value for the follow-up eye movement time, and a judgment threshold value for the amount of change in the rapid eye movement frequency. I do.

判定閾値決定部141での瞬目頻度についての判定閾値の決定は、一例として以下のようにして行う。判定閾値決定部141は、眼球運動情報記憶部120に蓄積されている、瞬目頻度算出部131で算出した有効時間T内における所定時間tごとの瞬目頻度の平均値(以下、平均瞬目頻度)を算出する。そして、算出した平均瞬目頻度から瞬目頻度についての判定閾値を決定する。言い換えると、瞬目頻度算出部131で算出した過去の一定期間における実際の瞬目の発生頻度のデータ群から瞬目頻度についての判定閾値を決定する。 As an example, the determination threshold value determination unit 141 determines the determination threshold value for the blink frequency as follows. The determination threshold value determination unit 141 is an average value of the blink frequency for each predetermined time t within the effective time T calculated by the blink frequency calculation unit 131, which is stored in the eye movement information storage unit 120 (hereinafter, average blink frequency). Frequency) is calculated. Then, the determination threshold value for the blink frequency is determined from the calculated average blink frequency. In other words, the determination threshold value for the blink frequency is determined from the data group of the actual blink frequency occurrence frequency in the past fixed period calculated by the blink frequency calculation unit 131.

例えば、平均瞬目頻度が1回/秒より少ない場合には、判定閾値を0.5回/秒とし、平均瞬目頻度が1〜2回の場合は判定閾値を1回/秒とし、平均瞬目頻度が2回以上である場合は判定閾値を2回/秒とする。また、所定時間tごとの瞬目頻度のばらつきを算出し、ばらつきの度合いが大きくなるのに応じて判定閾値を小さく決定する構成としてもよい。 For example, if the average blink frequency is less than 1 time / second, the judgment threshold is 0.5 times / second, and if the average blink frequency is 1 to 2 times, the judgment threshold is 1 time / second, and the average. When the blink frequency is 2 times or more, the judgment threshold value is set to 2 times / second. Further, the variation in the blink frequency for each predetermined time t may be calculated, and the determination threshold value may be determined to be smaller as the degree of variation increases.

判定閾値決定部141での急速眼球運動頻度についての判定閾値の決定は、一例として以下のようにして行う。判定閾値決定部141は、眼球運動情報記憶部120に蓄積されている、急速眼球運動頻度算出部132で算出した有効時間T内における所定時間tごとの急速眼球運動頻度をもとに、急速眼球運動頻度についての判定閾値を決定する。言い換えると、急速眼球運動頻度算出部132で算出した過去の一定期間における実際の急速眼球運動頻度のデータ群から瞬目頻度についての判定閾値を決定する。 The determination threshold value determination unit 141 determines the determination threshold value for the rapid eye movement frequency as follows, for example. The determination threshold value determination unit 141 is based on the rapid eye movement frequency for each predetermined time t within the effective time T calculated by the rapid eye movement frequency calculation unit 132 stored in the eye movement information storage unit 120. Determine the judgment threshold for exercise frequency. In other words, the determination threshold value for the blink frequency is determined from the data group of the actual rapid eye movement frequency in the past fixed period calculated by the rapid eye movement frequency calculation unit 132.

急速眼球運動頻度として、サッカードの発生頻度とマイクロサッカードの発生頻度とのうちのいずれかのみを用いる場合には、この発生頻度の平均値から予め定められたシフト量だけ低くした値を判定閾値とすればよい。このシフト量は、ドライバの状態の推定精度が所望の精度となるように実験等によって予め定める構成とすればよい。また、所定時間tごとの発生頻度のばらつきの度合いが大きくなるのに応じて判定閾値を小さく決定する構成としてもよい。 When only one of the saccade frequency and the microsaccade frequency is used as the rapid eye movement frequency, a value obtained by lowering the average value of the saccade frequency by a predetermined shift amount is determined. It may be a threshold value. This shift amount may be configured in advance by an experiment or the like so that the estimation accuracy of the driver's state becomes a desired accuracy. Further, the determination threshold value may be determined to be smaller as the degree of variation in the occurrence frequency for each predetermined time t increases.

一方、急速眼球運動頻度として、サッカードの発生頻度とマイクロサッカードの発生頻度とのいずれも用いる場合には、サッカードの発生頻度とマイクロサッカードの発生頻度とから求める回帰式を用いて判定閾値を決定すればよい。回帰式は、以下のようにして求めればよい。まず、サッカードの発生頻度とマイクロサッカードの発生頻度とをそれぞれ横軸と縦軸としたグラフ上において、有効時間T内における所定時間tごとのサッカードの発生頻度及びマイクロサッカードの発生頻度をプロットする(図3参照)。続いて、これらのプロットの傾向を示す最も確からしい直線若しくは曲線といった線Aを求める。例えば、最小二乗法によって最も確からしい線A(図3のA参照)を求める構成とすればよい。そして、この線Aをグラフの原点方向にシフトさせることで、回帰式B(図3のB参照)を求める。この回帰式Bが示す境界が判定閾値となる。 On the other hand, when both the frequency of occurrence of saccade and the frequency of occurrence of microsaccade are used as the frequency of rapid eye movement, the determination is made using a regression equation obtained from the frequency of occurrence of saccade and the frequency of occurrence of microsaccade. The threshold value may be determined. The regression equation may be obtained as follows. First, on a graph in which the frequency of occurrence of saccade and the frequency of occurrence of microsaccade are on the horizontal axis and the vertical axis, respectively, the frequency of occurrence of saccade and the frequency of occurrence of microsaccade at predetermined time t within the effective time T, respectively. Is plotted (see FIG. 3). Then, the line A such as the most probable straight line or curve showing the tendency of these plots is obtained. For example, the most probable line A (see A in FIG. 3) may be obtained by the least squares method. Then, by shifting this line A toward the origin of the graph, the regression equation B (see B in FIG. 3) is obtained. The boundary represented by this regression equation B is the determination threshold value.

なお、線Aを原点方向にシフトさせる際のシフト量は、ドライバの状態の推定精度が所望の精度となるように実験等によって予め定める構成とすればよい。また、所定時間tごとのサッカード,マイクロサッカードの発生頻度のばらつきの度合いが大きくなるのに応じてシフト量を大きくする構成としてもよい。 The shift amount when shifting the line A toward the origin may be configured in advance by an experiment or the like so that the estimation accuracy of the driver's state becomes a desired accuracy. Further, the shift amount may be increased as the degree of variation in the frequency of occurrence of saccades and microsaccades at predetermined time t increases.

判定閾値決定部141での追従眼球運動時間についての判定閾値の決定は、一例として以下のようにして行う。判定閾値決定部141は、眼球運動情報記憶部120に蓄積されている、追従眼球運動時間算出部133で算出した有効時間T内における所定時間tごとの追従眼球運動時間の平均値(以下、平均追従眼球運動時間)を算出する。そして、算出した平均追従眼球運動時間から追従眼球運動時間についての判定閾値を決定する。言い換えると、追従眼球運動時間算出部133で算出した過去の一定期間における実際の追従眼球運動の発生時間のデータ群から追従眼球運動時間についての判定閾値を決定する。例えば、判定閾値決定部141は、平均追従眼球運動時間から予め定められたシフト量だけ低くした値を判定閾値とすればよい。このシフト量は、ドライバの状態の推定精度が所望の精度となるように実験等によって予め定める構成とすればよい。また、所定時間tごとの追従眼球運動時間のばらつきの度合いが大きくなるのに応じて判定閾値を小さく決定する構成としてもよい。 The determination threshold value for the follow-up eye movement time in the determination threshold value determination unit 141 is determined as follows as an example. The determination threshold determination unit 141 is the average value of the follow-up eye movement time for each predetermined time t within the effective time T calculated by the follow-up eye movement time calculation unit 133 stored in the eye movement information storage unit 120 (hereinafter, average). Follow-up eye movement time) is calculated. Then, the determination threshold value for the following eye movement time is determined from the calculated average following eye movement time. In other words, the determination threshold value for the following eye movement time is determined from the data group of the actual occurrence time of the following eye movement in the past fixed period calculated by the following eye movement time calculation unit 133. For example, the determination threshold value determination unit 141 may set a value obtained by lowering the average follow-up eye movement time by a predetermined shift amount as the determination threshold value. This shift amount may be configured in advance by an experiment or the like so that the estimation accuracy of the driver's state becomes a desired accuracy. Further, the determination threshold value may be determined to be smaller as the degree of variation in the follow-up eye movement time for each predetermined time t increases.

判定閾値決定部141での急速眼球運動頻度変化量についての判定閾値の決定は、一例として以下のようにして行う。判定閾値決定部141は、眼球運動情報記憶部120に蓄積されている、変化量算出部134で算出した有効時間T内における所定時間tごとの急速眼球運動頻度変化量の平均値(以下、平均変化量)を算出する。そして、算出した平均変化量から急速眼球運動頻度変化量についての判定閾値を決定する。言い換えると、変化量算出部134で算出した過去の一定期間における実際の急速眼球運動頻度変化量のデータ群から急速眼球運動頻度変化量についての判定閾値を決定する。例えば、判定閾値決定部141は、平均変化量から予め定められたシフト量だけ低くした値を判定閾値とすればよい。このシフト量は、ドライバの状態の推定精度が所望の精度となるように実験等によって予め定める構成とすればよい。また、所定時間tごとの平均変化量のばらつきの度合いが大きくなるのに応じて判定閾値を小さく決定する構成としてもよい。 As an example, the determination threshold value determination unit 141 determines the determination threshold value for the amount of rapid eye movement frequency change as follows. The determination threshold determination unit 141 is an average value (hereinafter, average) of the rapid eye movement frequency change amount for each predetermined time t within the effective time T calculated by the change amount calculation unit 134, which is stored in the eye movement information storage unit 120. Change amount) is calculated. Then, the determination threshold value for the rapid eye movement frequency change amount is determined from the calculated average change amount. In other words, the determination threshold value for the rapid eye movement frequency change amount is determined from the data group of the actual rapid eye movement frequency change amount in the past fixed period calculated by the change amount calculation unit 134. For example, the determination threshold value determination unit 141 may set a value obtained by lowering the average change amount by a predetermined shift amount as the determination threshold value. This shift amount may be configured in advance by an experiment or the like so that the estimation accuracy of the driver's state becomes a desired accuracy. Further, the determination threshold value may be determined to be smaller as the degree of variation in the average change amount for each predetermined time t increases.

状態推定部140の状態推定処理では、急速眼球運動頻度算出部132で逐次算出する急速眼球運動頻度が、判定閾値決定部141で決定した急速眼球運動頻度についての判定閾値以上である場合には、ドライバの状態が正常であると判定する。また、状態推定部140の状態推定処理では、急速眼球運動頻度算出部132で逐次算出する急速眼球運動頻度が、急速眼球運動頻度についての判定閾値未満である場合であっても、瞬目頻度算出部131で逐次算出する瞬目頻度,追従眼球運動時間算出部133で逐次算出する追従眼球運動時間,変化量算出部134で逐次算出する急速眼球運動頻度変化量のいずれかが、それぞれの判定閾値以上である場合には、ドライバの状態が正常であると判定する。 In the state estimation process of the state estimation unit 140, when the rapid eye movement frequency sequentially calculated by the rapid eye movement frequency calculation unit 132 is equal to or greater than the judgment threshold value for the rapid eye movement frequency determined by the judgment threshold value determination unit 141, Judge that the driver status is normal. Further, in the state estimation process of the state estimation unit 140, the blink frequency is calculated even when the rapid eye movement frequency sequentially calculated by the rapid eye movement frequency calculation unit 132 is less than the determination threshold value for the rapid eye movement frequency. Each judgment threshold is one of the blink frequency sequentially calculated by the unit 131, the following eye movement time sequentially calculated by the following eye movement time calculation unit 133, and the rapid eye movement frequency change amount sequentially calculated by the change amount calculation unit 134. If it is the above, it is determined that the state of the driver is normal.

一方、状態推定部140は、急速眼球運動頻度算出部132で逐次算出する急速眼球運動頻度が、急速眼球運動頻度についての判定閾値未満である場合であって、且つ、瞬目頻度算出部131で逐次算出する瞬目頻度,追従眼球運動時間算出部133で逐次算出する追従眼球運動時間,変化量算出部134で逐次算出する急速眼球運動頻度変化量の全てが、それぞれの判定閾値未満である場合に、ドライバの状態が異常であると判定する。本実施形態では、一例として、ドライバが集中している集中状態が正常であるものとし、ドライバの注意力が低下している不注意状態が異常であるものとして説明を行う。 On the other hand, the state estimation unit 140 is a case where the rapid eye movement frequency sequentially calculated by the rapid eye movement frequency calculation unit 132 is less than the determination threshold value for the rapid eye movement frequency, and the blink frequency calculation unit 131. When the blink frequency calculated sequentially, the following eye movement time calculated sequentially by the following eye movement time calculation unit 133, and the rapid eye movement frequency change amount sequentially calculated by the change amount calculation unit 134 are all less than the respective judgment thresholds. In addition, it is determined that the state of the driver is abnormal. In the present embodiment, as an example, it is assumed that the concentrated state in which the driver is concentrated is normal, and the careless state in which the driver's attention is reduced is abnormal.

報知処理部150は、状態推定部140でドライバの状態が不注意状態であると推定した場合に、報知装置60に指示を行って報知を行わせる。報知としては、不注意状態であることをドライバに認識させるものであればよく、例えば警報等とすればよい。 When the state estimation unit 140 estimates that the driver's state is inadvertent, the notification processing unit 150 instructs the notification device 60 to perform notification. The notification may be any as long as it causes the driver to recognize that the driver is inadvertent, for example, an alarm or the like.

<HCU10での状態推定関連処理>
続いて、図4〜図7のフローチャートを用いて、HCU10での、ドライバの状態の推定に関連する処理(以下、状態推定関連処理)の流れの一例について説明を行う。図4のフローチャートは、HCU10の電源がオンになったときに開始し、HCU10の電源がオフになったときに終了する構成とすればよい。HCU10の電源のオンオフが、自車の内燃機関又はモータジェネレータを始動させるためのスイッチ(以下、パワースイッチ)のオンオフに応じて切り替えられる場合には、このパワースイッチのオン時に開始し、オフ時に終了する構成とすればよい。
<State estimation related processing in HCU10>
Subsequently, an example of the flow of the process related to the estimation of the driver state (hereinafter, the state estimation related process) in the HCU 10 will be described with reference to the flowcharts of FIGS. 4 to 7. The flowchart of FIG. 4 may be configured to start when the power of the HCU 10 is turned on and end when the power of the HCU 10 is turned off. When the power of the HCU 10 is turned on and off according to the on / off of the switch for starting the internal combustion engine or the motor generator of the own vehicle (hereinafter referred to as the power switch), it starts when the power switch is turned on and ends when the power switch is turned off. It may be configured to be used.

まず、ステップS1では、画像認識処理部100が、ドライバ撮像ユニット50から取得する顔画像から画像認識処理を行う。画像認識処理部100は、この画像認識処理によって、ドライバの顔部位の抽出,顔部位の形状的な特徴の抽出,視線角度の算出等を行う。 First, in step S1, the image recognition processing unit 100 performs image recognition processing from the face image acquired from the driver imaging unit 50. The image recognition processing unit 100 extracts the driver's face portion, extracts the shape feature of the face portion, calculates the line-of-sight angle, and the like by this image recognition processing.

ステップS2では、眼球運動抽出部110が眼球運動抽出処理を行って、ステップS3に移る。眼球運動抽出処理では、抽出対象とする眼球運動が生じている場合に、この眼球運動を抽出する。ここで、図5のフローチャートを用いて、眼球運動抽出処理の概略について説明を行う。 In step S2, the eye movement extraction unit 110 performs the eye movement extraction process and proceeds to step S3. In the eye movement extraction process, when the eye movement to be extracted occurs, this eye movement is extracted. Here, the outline of the eye movement extraction process will be described with reference to the flowchart of FIG.

まず、ステップS21では、瞬目抽出部111が、ドライバの瞬目を抽出する。ステップS22では、急速眼球運動抽出部112が、画像認識処理部100で算出した過去数フレーム分の視線角度をもとに視線角速度を算出する。ステップS23では、急速眼球運動抽出部112が、上述した視線角速度をもとに視線角加速度を算出する。 First, in step S21, the blink extraction unit 111 extracts the blink of the driver. In step S22, the rapid eye movement extraction unit 112 calculates the line-of-sight angular velocity based on the line-of-sight angles for the past several frames calculated by the image recognition processing unit 100. In step S23, the rapid eye movement extraction unit 112 calculates the line-of-sight angular acceleration based on the above-mentioned line-of-sight angular velocity.

ステップS24では、急速眼球運動抽出部112が、S23で算出した視線角加速度が基準角加速度以上であって、且つ、視線の移動距離が基準距離以上の場合に、サッカードを抽出する。ステップS25では、急速眼球運動抽出部112が、視線角加速度が基準角加速度以上であって、且つ、視線の移動距離が基準距離未満の場合に、マイクロサッカードを抽出する。ステップS26では、追従眼球運動抽出部113が、ドライバの追従眼球運動を抽出し、ステップS3に移る。なお、S24〜S26の処理は順番を入れ替えても構わない。 In step S24, the rapid eye movement extraction unit 112 extracts the saccade when the line-of-sight angular acceleration calculated in S23 is equal to or greater than the reference angular acceleration and the line-of-sight movement distance is equal to or greater than the reference distance. In step S25, the rapid eye movement extraction unit 112 extracts the microsaccade when the line-of-sight angular acceleration is equal to or greater than the reference angular acceleration and the line-of-sight movement distance is less than the reference distance. In step S26, the following eye movement extraction unit 113 extracts the following eye movement of the driver, and proceeds to step S3. The order of the processes of S24 to S26 may be changed.

図4に戻って、ステップS3では、S2の眼球運動抽出処理で抽出した眼球運動のデータを眼球運動情報記憶部120に有効時間Tが経過するまで記憶する。ステップS4では、状態推定関連処理を開始してから有効時間Tが経過した場合(S4でYES)には、ステップS5に移る。状態推定関連処理を開始してから有効時間Tが経過していない場合(S4でNO)には、S1に戻って処理を繰り返す。状態推定関連処理を開始してから有効時間Tが経過したか否かについては、状態推定部140が例えばタイマ回路によるカウント等をもとに判断すればよい。 Returning to FIG. 4, in step S3, the eye movement data extracted by the eye movement extraction process of S2 is stored in the eye movement information storage unit 120 until the effective time T elapses. In step S4, when the effective time T has elapsed since the state estimation-related processing was started (YES in S4), the process proceeds to step S5. If the effective time T has not elapsed since the state estimation-related processing was started (NO in S4), the process returns to S1 and the processing is repeated. Whether or not the effective time T has elapsed since the state estimation-related processing was started may be determined by the state estimation unit 140 based on, for example, counting by the timer circuit or the like.

ステップS5では、判定閾値決定部141が判定閾値を決定済みであった場合には、ステップS7に移る。一方、判定閾値決定部141が判定閾値を決定済みでなかった場合には、ステップS6に移る。ステップS6では、判定閾値決定部141が判定閾値決定処理を行って、ステップS7に移る。ここで、図6のフローチャートを用いて、判定閾値決定処理の概略について説明を行う。 In step S5, if the determination threshold value determination unit 141 has already determined the determination threshold value, the process proceeds to step S7. On the other hand, if the determination threshold value determination unit 141 has not determined the determination threshold value, the process proceeds to step S6. In step S6, the determination threshold value determination unit 141 performs the determination threshold value determination process, and proceeds to step S7. Here, the outline of the determination threshold value determination process will be described with reference to the flowchart of FIG.

まず、ステップS61では、判定閾値決定部141が急速眼球運動頻度についての判定閾値を決定する。ステップS62では、判定閾値決定部141が瞬目頻度についての判定閾値を決定する。ステップS63では、判定閾値決定部141が追従眼球運動についての判定閾値を決定する。ステップS64では、判定閾値決定部141が急速眼球運動変化量についての判定閾値を決定し、ステップS7に移る。なお、S61〜S64の処理は順番を入れ替えても構わない。 First, in step S61, the determination threshold value determination unit 141 determines the determination threshold value for the rapid eye movement frequency. In step S62, the determination threshold value determination unit 141 determines the determination threshold value for the blink frequency. In step S63, the determination threshold value determination unit 141 determines the determination threshold value for the follow-up eye movement. In step S64, the determination threshold value determination unit 141 determines the determination threshold value for the amount of rapid eye movement change, and the process proceeds to step S7. The order of the processes of S61 to S64 may be changed.

状態推定関連処理において、判定閾値決定処理は1回のみ実施され、判定閾値を決定した後は、決定済みの判定閾値を用いて状態推定処理を行う構成とすればよい。本実施形態では、HCU10の電源がオンになった後に判定閾値決定処理を1回実施して判定閾値を決定し、HCU10の電源がオフになるまでは決定済みの判定閾値を用いて状態推定を行う。これによれば、自車のパワースイッチのオン,HCU10の電源オン等の状態推定関連処理の開始のトリガごとに判定閾値を新たに決定し直すので、乗車ごとにドライバに合った判定閾値を決定し直すことが可能になる。よって、日ごとにドライバの体調が異なる場合であっても、その日のドライバの体調に合わせた判定閾値を決定し、ドライバの状態の推定精度を向上させることができる。従って、自車の走行中に何度も判定閾値を決定し直す処理負荷を抑えつつ、ドライバの状態の推定精度を向上させることが可能になる。 In the state estimation-related processing, the determination threshold value determination process may be performed only once, and after the determination threshold value is determined, the state estimation process may be performed using the determined determination threshold value. In the present embodiment, the determination threshold value determination process is performed once after the power of the HCU 10 is turned on to determine the determination threshold value, and the state is estimated using the determined determination threshold value until the power of the HCU 10 is turned off. conduct. According to this, the judgment threshold value is newly determined for each trigger of the start of the state estimation related processing such as turning on the power switch of the own vehicle and turning on the power of the HCU10, so that the judgment threshold value suitable for the driver is determined for each ride. It will be possible to redo. Therefore, even if the physical condition of the driver differs from day to day, it is possible to determine the determination threshold value according to the physical condition of the driver on that day and improve the estimation accuracy of the driver's state. Therefore, it is possible to improve the estimation accuracy of the driver's state while suppressing the processing load of redetermining the determination threshold value many times while the vehicle is traveling.

図4に戻って、ステップS7では、状態推定部140が状態推定処理を行ってドライバの状態を推定し、ステップS8に移る。ここで、図7のフローチャートを用いて、状態推定処理の概略について説明を行う。状態推定処理では、所定時間tごとの判定用データを算出し、この判定用データとS6で決定した判定閾値との比較によってドライバの状態を推定する。本実施形態では、ドライバの注意力を推定する。 Returning to FIG. 4, in step S7, the state estimation unit 140 performs a state estimation process to estimate the driver's state, and proceeds to step S8. Here, the outline of the state estimation process will be described with reference to the flowchart of FIG. 7. In the state estimation process, the determination data for each predetermined time t is calculated, and the driver state is estimated by comparing the determination data with the determination threshold value determined in S6. In this embodiment, the driver's attention is estimated.

まず、S71では、状態推定部140が、急速眼球運動頻度算出部132で算出した直近の所定時間tにおけるドライバのサッカード,マイクロサッカードの発生頻度(つまり、急速眼球運動頻度)を取得する。急速眼球運動頻度は、サッカード及びマイクロサッカードのいずれかの発生頻度であってもよいが、ここではサッカードの発生頻度とマイクロサッカードの発生頻度の合計値とする。続いて、状態推定部140は、直近の所定時間tの急速眼球運動頻度とS6で決定した急速眼球運動頻度についての判定閾値とを比較する。そして、急速眼球運動頻度がこの判定閾値よりも大きい場合(S71でYES)には、ステップS75に移る。一方、急速眼球運動頻度がこの判定閾値以下である場合(S71でNO)には、ステップS72に移る。 First, in S71, the state estimation unit 140 acquires the frequency of occurrence of the driver's saccade and microsaccade (that is, the frequency of rapid eye movement) calculated by the rapid eye movement frequency calculation unit 132 at the latest predetermined time t. The frequency of rapid eye movement may be any frequency of occurrence of saccade or microsaccade, but here, it is the total value of the frequency of occurrence of saccade and the frequency of occurrence of microsaccade. Subsequently, the state estimation unit 140 compares the rapid eye movement frequency at the latest predetermined time t with the determination threshold value for the rapid eye movement frequency determined in S6. Then, when the rapid eye movement frequency is higher than this determination threshold value (YES in S71), the process proceeds to step S75. On the other hand, when the rapid eye movement frequency is equal to or less than this determination threshold value (NO in S71), the process proceeds to step S72.

ステップS72では、状態推定部140が、瞬目頻度算出部131で算出した直近の所定時間tにおけるドライバの瞬目頻度を取得し、この瞬目頻度とS6で決定した瞬目頻度についての判定閾値とを比較する。そして、瞬目頻度がこの判定閾値よりも大きい場合(S72でYES)には、ステップS75に移る。一方、瞬目頻度がこの判定閾値以下である場合(S72でNO)には、ステップS73に移る。 In step S72, the state estimation unit 140 acquires the driver's blink frequency at the latest predetermined time t calculated by the blink frequency calculation unit 131, and determines the threshold for the blink frequency and the blink frequency determined in S6. Compare with. Then, when the blink frequency is higher than this determination threshold value (YES in S72), the process proceeds to step S75. On the other hand, when the blink frequency is equal to or less than this determination threshold value (NO in S72), the process proceeds to step S73.

ステップS73では、状態推定部140が、追従眼球運動時間算出部133で算出した直近の所定時間tにおけるドライバの追従眼球運動時間を取得し、この追従眼球運動時間とS6で決定した追従眼球運動時間についての判定閾値とを比較する。そして、追従眼球運動時間がこの判定閾値よりも大きい場合(S73でYES)には、ステップS75に移る。一方、追従眼球運動時間がこの判定閾値以下である場合(S73でNO)には、ステップS74に移る。 In step S73, the state estimation unit 140 acquires the following eye movement time of the driver at the latest predetermined time t calculated by the following eye movement time calculation unit 133, and the following eye movement time and the following eye movement time determined in S6. Compare with the judgment threshold for. Then, when the following eye movement time is larger than this determination threshold value (YES in S73), the process proceeds to step S75. On the other hand, when the following eye movement time is equal to or less than this determination threshold value (NO in S73), the process proceeds to step S74.

ステップS74では、状態推定部140が、変化量算出部134で算出した直近の所定時間tについてのドライバの急速眼球運動頻度変化量を取得し、この急速眼球運動頻度変化量とS6で決定した急速眼球運動頻度変化量についての判定閾値とを比較する。そして、急速眼球運動頻度変化量がこの判定閾値よりも大きい場合(S74でYES)には、ステップS75に移る。一方、急速眼球運動頻度変化量がこの判定閾値以下である場合(S74でNO)には、ステップS76に移る。 In step S74, the state estimation unit 140 acquires the driver's rapid eye movement frequency change amount for the latest predetermined time t calculated by the change amount calculation unit 134, and the rapid eye movement frequency change amount and the rapid eye movement frequency change amount determined in S6 are determined. Compare with the judgment threshold value for the amount of change in eye movement frequency. Then, when the amount of change in the frequency of rapid eye movements is larger than this determination threshold value (YES in S74), the process proceeds to step S75. On the other hand, when the amount of rapid eye movement frequency change is equal to or less than this determination threshold value (NO in S74), the process proceeds to step S76.

ステップS75では、状態推定部140が、ドライバの状態を正常、つまり集中状態であると推定し、ステップS8に移る。つまり、状態推定部140は、急速眼球運動頻度、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量のいずれかでもそれぞれの判定閾値よりも大きい場合に、ドライバの状態を集中状態であると推定する。 In step S75, the state estimation unit 140 estimates that the driver's state is normal, that is, a concentrated state, and proceeds to step S8. That is, the state estimation unit 140 concentrates the driver's state when any of the rapid eye movement frequency, the blink frequency, the follow-up eye movement time, and the rapid eye movement frequency change amount is larger than the respective determination threshold values. Presumed to be.

一方、ステップS76では、状態推定部140が、ドライバの状態を異常、つまり不注意状態であると推定し、ステップS8に移る。つまり、状態推定部140は、急速眼球運動頻度、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量の全てがそれぞれの判定閾値以下の場合に、ドライバの状態を不注意状態であると推定する。なお、S71〜S74の処理の順番は入れ替えても構わない。 On the other hand, in step S76, the state estimation unit 140 estimates that the driver's state is abnormal, that is, a careless state, and proceeds to step S8. That is, the state estimation unit 140 is inattentive to the driver's state when all of the rapid eye movement frequency, the blink frequency, the follow-up eye movement time, and the rapid eye movement frequency change amount are equal to or less than the respective determination threshold values. Presumed to be. The order of processing of S71 to S74 may be changed.

図4に戻って、ステップS8では、S7でドライバの状態を不注意状態と推定した場合(S8でYES)には、ステップS9に移る。一方、S7でドライバの状態を集中状態と推定した場合(S8でNO)には、ステップS10に移る。ステップS9では、報知処理部150が、報知装置60に指示を行って警報を行わせ、ステップS10に移る。 Returning to FIG. 4, in step S8, when the driver's state is estimated to be a careless state in S7 (YES in S8), the process proceeds to step S9. On the other hand, when the driver state is estimated to be the concentrated state in S7 (NO in S8), the process proceeds to step S10. In step S9, the notification processing unit 150 gives an instruction to the notification device 60 to give an alarm, and the process proceeds to step S10.

ステップS10では、状態推定関連処理の終了タイミングである場合(S10でYES)には、状態推定関連処理を終了する。一方、状態推定関連処理の終了タイミングでない場合(S10でNO)には、S1に戻って処理を繰り返す。状態推定関連処理の終了タイミングとしては、例えばHCU10の電源がオフになった場合,自車のパワースイッチがオフになった場合等がある。 In step S10, when it is the end timing of the state estimation-related processing (YES in S10), the state estimation-related processing is ended. On the other hand, if it is not the end timing of the state estimation related processing (NO in S10), the process returns to S1 and the processing is repeated. The end timing of the state estimation-related processing includes, for example, the case where the power of the HCU 10 is turned off, the case where the power switch of the own vehicle is turned off, and the like.

<実施形態1のまとめ>
実施形態1の構成によれば、ドライバのサッカード及びマイクロサッカードの少なくともいずれかの発生頻度である急速眼球運動頻度だけでなく、ドライバの瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量を用いてドライバの状態を推定することで、ドライバの状態をより精度良く推定することが可能になる。
<Summary of Embodiment 1>
According to the configuration of the first embodiment, not only the rapid eye movement frequency which is the occurrence frequency of at least one of the driver's saccade and the microsaccade, but also the driver's blink frequency, the follow-up eye movement time, and the rapid eye movement frequency. By estimating the driver state using the amount of change, it becomes possible to estimate the driver state more accurately.

詳しくは、瞬目頻度を用いることで、瞬目による急速眼球運動頻度の低下をドライバの状態の異常と推定しないようにすることが可能になる。また、追従眼球運動時間を用いることで、追従眼球運動による急速眼球運動頻度の低下をドライバの状態の異常と推定しないようにすることが可能になる。さらに、急速眼球運動頻度変化量を用いた場合には、急速眼球運動頻度が増加傾向にある場合の急速眼球運動頻度の低下をドライバの状態の異常と推定しないようにすることが可能になる。よって、急速眼球運動頻度だけを用いる場合に比べ、ドライバの状態をより精度良く推定することが可能になる。また、ドライバの瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量の一部を用いる場合と比較しても、ドライバの状態をより精度良く推定することが可能になる。 Specifically, by using the blink frequency, it is possible to prevent the decrease in the rapid eye movement frequency due to the blink from being estimated as an abnormality in the driver's condition. Further, by using the follow-up eye movement time, it is possible to prevent the decrease in the frequency of rapid eye movement due to the follow-up eye movement from being estimated as an abnormality in the driver's state. Furthermore, when the amount of change in the frequency of rapid eye movements is used, it becomes possible not to presume that the decrease in the frequency of rapid eye movements when the frequency of rapid eye movements tends to increase is an abnormality in the driver's condition. Therefore, the driver's state can be estimated more accurately than when only the rapid eye movement frequency is used. In addition, the driver's state can be estimated more accurately than when a part of the driver's blink frequency, the following eye movement time, and the rapid eye movement frequency change amount is used.

(実施形態2)
実施形態1では、視線角速度若しくは視線角加速度をもとにドライバの追従眼球運動を抽出する構成を示したが、必ずしもこれに限らない。例えば、注視対象物の自車に対する位置及び/又は速度をもとにドライバの追従眼球運動の発生を推定することでドライバの追従眼球運動を抽出する構成(以下、実施形態2)としてもよい。以下、実施形態2の構成について説明する。
(Embodiment 2)
In the first embodiment, the configuration in which the driver's follow-up eye movement is extracted based on the line-of-sight angular velocity or the line-of-sight angular acceleration is shown, but the present invention is not necessarily limited to this. For example, the configuration may be such that the driver's follow-up eye movement is extracted by estimating the occurrence of the driver's follow-up eye movement based on the position and / or speed of the gaze object with respect to the own vehicle (hereinafter, embodiment 2). Hereinafter, the configuration of the second embodiment will be described.

実施形態2の車両システム1は、HCU10の代わりにHCU10aを含む点を除けば、実施形態1の車両システム1と同様である。ここで、図8を用いて、HCU10aの概略構成を説明する。 The vehicle system 1 of the second embodiment is the same as the vehicle system 1 of the first embodiment except that the HCU 10a is included instead of the HCU 10. Here, a schematic configuration of the HCU 10a will be described with reference to FIG.

図8に示すように、HCU10aは、機能ブロックとして、画像認識処理部100、眼球運動抽出部110a、眼球運動情報記憶部120、判定用データ算出部130、状態推定部140、報知処理部150、及び対象物情報取得部160を備えている。HCU10aは、対象物情報取得部160を備えている点、及び眼球運動抽出部110の代わりに眼球運動抽出部110aを備えている点を除けばHCU10と同様である。このHCU10aも請求項の状態推定装置に相当する。 As shown in FIG. 8, as functional blocks, the HCU 10a includes an image recognition processing unit 100, an eye movement extraction unit 110a, an eye movement information storage unit 120, a determination data calculation unit 130, a state estimation unit 140, and a notification processing unit 150. And the object information acquisition unit 160 is provided. The HCU 10a is the same as the HCU 10 except that the object information acquisition unit 160 is provided and the eye movement extraction unit 110a is provided instead of the eye movement extraction unit 110. This HCU 10a also corresponds to the state estimation device of the claim.

対象物情報取得部160は、自車周辺の注視対象物の自車に対する位置及び速度の少なくともいずれかである対象物情報を取得する。一例としては、周辺監視ECU40で検出した、自車に対する注視対象物の位置及び/又は速度を対象物情報として取得する構成とすればよい。注視対象物が複数存在する場合には、その複数の注視対象物についての対象物情報を取得する構成とすればよい。 The object information acquisition unit 160 acquires object information that is at least one of the position and speed of the gaze object around the vehicle with respect to the vehicle. As an example, the position and / or speed of the gaze object with respect to the own vehicle detected by the peripheral monitoring ECU 40 may be acquired as the object information. When there are a plurality of gaze objects, the object information about the plurality of gaze objects may be acquired.

眼球運動抽出部110aは、サブ機能ブロックとして、瞬目抽出部111、急速眼球運動抽出部112、及び追従眼球運動抽出部113aを備える。眼球運動抽出部110aは、追従眼球運動抽出部113の代わりに追従眼球運動抽出部113aを備える点を除けば眼球運動抽出部110と同様である。 The eye movement extraction unit 110a includes a blinking eye movement extraction unit 111, a rapid eye movement extraction unit 112, and a follow-up eye movement extraction unit 113a as sub-functional blocks. The eye movement extraction unit 110a is the same as the eye movement extraction unit 110 except that the follow-up eye movement extraction unit 113a is provided instead of the follow-up eye movement extraction unit 113.

追従眼球運動抽出部113aは、対象物情報取得部160で取得する対象物情報をもとにドライバの追従眼球運動の発生を推定することでドライバの追従眼球運動を抽出する。よって、この追従眼球運動抽出部113aが請求項の発生推定部に相当する。ドライバは、注視対象物が視野範囲内に位置し、且つ、自車に対する速度差が一定以上に大きい場合に、この注視対象物に対して追従眼球運動を起こす。よって、注視対象物が自車の前方に位置したり、自車に対する注視対象物の速度差が一定以上に大きかったりする場合には、追従眼球運動が発生する確率が高い。よって、このような場合を条件としてドライバの追従眼球運動の発生を推定することでドライバの追従眼球運動を抽出すればよい。 The following eye movement extraction unit 113a extracts the driver's following eye movement by estimating the occurrence of the driver's following eye movement based on the object information acquired by the object information acquisition unit 160. Therefore, the following eye movement extraction unit 113a corresponds to the occurrence estimation unit of the claim. When the gaze object is located within the visual field range and the speed difference with respect to the own vehicle is larger than a certain level, the driver causes a follow-up eye movement with respect to the gaze object. Therefore, when the gaze object is located in front of the own vehicle or the speed difference of the gaze object with respect to the own vehicle is larger than a certain level, there is a high probability that the following eye movement will occur. Therefore, the driver's follow-up eye movement may be extracted by estimating the occurrence of the driver's follow-up eye movement under such a case.

実施形態2の構成であっても、追従眼球運動の抽出の態様が異なる点を除けば実施形態1と同様であるので、実施形態1の構成と同様の効果を奏することができる。 The configuration of the second embodiment is the same as that of the first embodiment except that the mode of extracting the follow-up eye movement is different, so that the same effect as that of the first embodiment can be obtained.

(実施形態3)
実施形態1では、追従眼球運動時間についての判定閾値を、有効時間T内における所定時間tごとの追従眼球運動時間の平均値又はばらつきの度合いから決定する構成を示したが、必ずしもこれに限らない。例えば、注視対象物の自車に対する位置及び/又は速度をもとに、追従眼球運動時間についての判定閾値を決定する構成(以下、実施形態3)としてもよい。以下、実施形態3の構成について説明する。
(Embodiment 3)
In the first embodiment, the determination threshold value for the follow-up eye movement time is determined from the average value or the degree of variation of the follow-up eye movement time for each predetermined time t within the effective time T, but the present invention is not necessarily limited to this. .. For example, it may be configured to determine the determination threshold value for the following eye movement time based on the position and / or speed of the gaze object with respect to the own vehicle (hereinafter, embodiment 3). Hereinafter, the configuration of the third embodiment will be described.

実施形態3の車両システム1は、HCU10の代わりにHCU10bを含む点を除けば、実施形態1の車両システム1と同様である。ここで、図9を用いて、HCU10bの概略構成を説明する。 The vehicle system 1 of the third embodiment is the same as the vehicle system 1 of the first embodiment except that the HCU 10b is included instead of the HCU 10. Here, the schematic configuration of the HCU 10b will be described with reference to FIG.

図9に示すように、HCU10bは、機能ブロックとして、画像認識処理部100、眼球運動抽出部110、眼球運動情報記憶部120、判定用データ算出部130、状態推定部140b、報知処理部150、及び対象物情報取得部160を備えている。HCU10bは、対象物情報取得部160を備えている点、及び状態推定部140の代わりに状態推定部140bを備えている点を除けばHCU10と同様である。このHCU10bも請求項の状態推定装置に相当する。 As shown in FIG. 9, the HCU 10b includes an image recognition processing unit 100, an eye movement extraction unit 110, an eye movement information storage unit 120, a determination data calculation unit 130, a state estimation unit 140b, and a notification processing unit 150 as functional blocks. And the object information acquisition unit 160 is provided. The HCU 10b is the same as the HCU 10 except that the object information acquisition unit 160 is provided and the state estimation unit 140b is provided instead of the state estimation unit 140. This HCU10b also corresponds to the state estimation device of the claim.

対象物情報取得部160は、実施形態2の対象物情報取得部160と同様である。状態推定部140bは、サブ機能ブロックとして、判定閾値決定部141bを備える。状態推定部140bは、判定閾値決定部141の代わりに判定閾値決定部141bを備える点を除けば状態推定部140と同様である。 The object information acquisition unit 160 is the same as the object information acquisition unit 160 of the second embodiment. The state estimation unit 140b includes a determination threshold value determination unit 141b as a sub-function block. The state estimation unit 140b is the same as the state estimation unit 140 except that the determination threshold value determination unit 141b is provided instead of the determination threshold value determination unit 141.

判定閾値決定部141bは、対象物情報取得部160で取得する対象物情報に応じて、追従眼球運動時間についての判定閾値を決定する。また、判定閾値決定部141bは、実施形態1の判定閾値決定部141と同様にして決定した追従眼球運動時間についての判定閾値を、対象物情報取得部160で取得する対象物情報に応じて変更することで決定する構成としてもよい。 The determination threshold value determination unit 141b determines the determination threshold value for the follow-up eye movement time according to the object information acquired by the object information acquisition unit 160. Further, the determination threshold value determination unit 141b changes the determination threshold value for the follow-up eye movement time determined in the same manner as the determination threshold value determination unit 141 of the first embodiment according to the object information acquired by the object information acquisition unit 160. The configuration may be determined by doing so.

一例としては、自車に対する注視対象物の速度が速くなるほど追従眼球運動時間が短くなる確率が高いため、自車に対する注視対象物の速度が速くなるのに応じて、追従眼球運動時間についての判定閾値を小さく決定する構成とすればよい。また、自車に対して注視対象物が遠くにある場合は追従眼球運動時間が長くなる確率が高いため、自車に対する注視対象物の位置及び速度から、自車に対する注視対象物の接近の度合いが低くなるのに応じて、追従眼球運動時間についての判定閾値を大きく決定する構成としてもよい。他にも、自車周辺の注視対象物の数が多くなるほど一つの注視対象物に対する追従眼球運動時間が短くなる確率が高いため、自車に対する注視対象物の位置から、自車周辺の注視対象物の数が多くなるのに応じて、追従眼球運動時間についての判定閾値を小さく決定する構成としてもよい。 As an example, the faster the speed of the gaze object with respect to the own vehicle, the higher the probability that the follow-up eye movement time becomes shorter. The configuration may be such that the threshold value is determined to be small. In addition, when the gaze object is far away from the own vehicle, there is a high probability that the follow-up eye movement time will be longer. The determination threshold value for the follow-up eye movement time may be largely determined according to the decrease in the value. In addition, as the number of gaze objects around the vehicle increases, there is a high probability that the tracking eye movement time for one gaze object will become shorter. As the number increases, the determination threshold value for the follow-up eye movement time may be determined to be smaller.

注視対象物の自車に対する位置及び/又は速度によって、自車のドライバがその注視対象物を注視することによって生じる追従眼球運動の発生時間の長さの傾向が変わる。実施形態3の構成によれば、対象物情報取得部160で取得する対象物情報に応じて追従眼球運動時間についての判定閾値を決定することで、この対象物情報に応じて変わる追従眼球運動の発生時間の長さの傾向に合わせて、追従眼球運動時間についての判定閾値を決定することが可能になる。従って、追従眼球運動時間についての判定閾値の精度をより向上させ、ドライバの状態の推定精度をより向上させることが可能になる。 Depending on the position and / or speed of the gaze object with respect to the own vehicle, the tendency of the length of time during which the follow-up eye movement occurs when the driver of the own vehicle gazes at the gaze object changes. According to the configuration of the third embodiment, by determining the determination threshold value for the follow-up eye movement time according to the object information acquired by the object information acquisition unit 160, the follow-up eye movement that changes according to the object information It becomes possible to determine the determination threshold value for the follow-up eye movement time according to the tendency of the length of the occurrence time. Therefore, it is possible to further improve the accuracy of the determination threshold value for the follow-up eye movement time and further improve the estimation accuracy of the driver's state.

なお、実施形態3の構成であっても、追従眼球運動時間についての判定閾値を変更する点を除けば実施形態1と同様であるので、実施形態1の構成と同様の効果も奏することができる。また、実施形態3の構成を実施形態1若しくは実施形態2と組み合わせても構わない。 The configuration of the third embodiment is the same as that of the first embodiment except that the determination threshold value for the following eye movement time is changed, so that the same effect as that of the first embodiment can be obtained. .. Further, the configuration of the third embodiment may be combined with the first embodiment or the second embodiment.

(実施形態4)
実施形態1では、瞬目頻度についての判定閾値を、有効時間T内における所定時間tごとの瞬目頻度の平均値又はばらつきの度合いから決定する構成を示したが、必ずしもこれに限らない。例えば、自車の室内の湿度及び/又は明るさをもとに、瞬目頻度についての判定閾値を決定する構成(以下、実施形態4)としてもよい。以下、実施形態4の構成について説明する。
(Embodiment 4)
In the first embodiment, the determination threshold value for the blink frequency is determined from the average value or the degree of variation of the blink frequency for each predetermined time t within the effective time T, but the present invention is not necessarily limited to this. For example, the configuration may be such that the determination threshold value for the blink frequency is determined based on the humidity and / or brightness in the interior of the own vehicle (hereinafter referred to as the fourth embodiment). Hereinafter, the configuration of the fourth embodiment will be described.

実施形態4の車両システム1は、HCU10の代わりにHCU10cを含む点を除けば、実施形態1の車両システム1と同様である。ここで、図10を用いて、HCU10cの概略構成を説明する。 The vehicle system 1 of the fourth embodiment is the same as the vehicle system 1 of the first embodiment except that the HCU 10c is included instead of the HCU 10. Here, the schematic configuration of the HCU 10c will be described with reference to FIG.

図10に示すように、HCU10bは、機能ブロックとして、画像認識処理部100、眼球運動抽出部110、眼球運動情報記憶部120、判定用データ算出部130、状態推定部140c、報知処理部150、及び室内環境情報取得部170を備えている。HCU10cは、室内環境情報取得部170を備えている点、及び状態推定部140の代わりに状態推定部140cを備えている点を除けばHCU10と同様である。このHCU10cも請求項の状態推定装置に相当する。 As shown in FIG. 10, as functional blocks, the HCU 10b includes an image recognition processing unit 100, an eye movement extraction unit 110, an eye movement information storage unit 120, a determination data calculation unit 130, a state estimation unit 140c, and a notification processing unit 150. It also has an indoor environment information acquisition unit 170. The HCU 10c is the same as the HCU 10 except that it includes an indoor environment information acquisition unit 170 and a state estimation unit 140c instead of the state estimation unit 140. This HCU 10c also corresponds to the state estimation device of the claim.

室内環境情報取得部170は、自車の室内の湿度及び/又は明るさである室内環境情報を取得する。一例としては、車両センサ20のうちの外光センサで検出する照度及び/又は車両センサ20のうちの湿度センサで検出する湿度を室内環境情報として取得する構成とすればよい。 The indoor environment information acquisition unit 170 acquires indoor environment information which is the humidity and / or brightness of the interior of the own vehicle. As an example, the illuminance detected by the external light sensor of the vehicle sensor 20 and / or the humidity detected by the humidity sensor of the vehicle sensor 20 may be acquired as indoor environment information.

状態推定部140cは、サブ機能ブロックとして、判定閾値決定部141cを備える。状態推定部140cは、判定閾値決定部141の代わりに判定閾値決定部141cを備える点を除けば状態推定部140と同様である。 The state estimation unit 140c includes a determination threshold value determination unit 141c as a sub-function block. The state estimation unit 140c is the same as the state estimation unit 140 except that the determination threshold value determination unit 141c is provided instead of the determination threshold value determination unit 141.

判定閾値決定部141cは、室内環境情報取得部170で取得する室内環境情報に応じて、瞬目頻度についての判定閾値を決定する。また、判定閾値決定部141cは、実施形態1の判定閾値決定部141と同様にして決定した瞬目頻度についての判定閾値を、室内環境情報取得部170で取得する室内環境情報に応じて変更することで決定する構成としてもよい。一例としては、外光センサで検出する照度が大きくなるのに応じて、瞬目頻度についての判定閾値を大きく決定する構成とすればよい。また、湿度センサで検出する湿度が低くなるのに応じて、瞬目頻度についての判定閾値を大きく変更する構成としてもよい。 The determination threshold value determination unit 141c determines the determination threshold value for the blink frequency according to the indoor environment information acquired by the indoor environment information acquisition unit 170. Further, the determination threshold value determination unit 141c changes the determination threshold value for the blink frequency determined in the same manner as the determination threshold value determination unit 141 of the first embodiment according to the indoor environment information acquired by the indoor environment information acquisition unit 170. The configuration may be determined by the above. As an example, the determination threshold value for the blink frequency may be largely determined as the illuminance detected by the external light sensor increases. Further, the determination threshold value for the blink frequency may be significantly changed according to the decrease in the humidity detected by the humidity sensor.

自車の室内の湿度及び/又は明るさによって、自車のドライバの瞬目頻度の傾向が変わる。例えば、湿度が低いほど乾燥によって瞬きが増えるため瞬目頻度は高くなる。また、明るさが大きいほど瞬きが増えるため瞬目頻度は高くなる。実施形態4の構成によれば、室内環境情報取得部170で取得する室内環境情報に応じて瞬目頻度についての判定閾値を変更することで、この室内環境情報に応じて変わる瞬目頻度の傾向に合わせて、瞬目頻度についての判定閾値を変更することが可能になる。従って、瞬目頻度についての判定閾値の精度をより向上させ、ドライバの状態の推定精度をより向上させることが可能になる。 The tendency of the blink frequency of the driver of the own vehicle changes depending on the humidity and / or the brightness of the interior of the own vehicle. For example, the lower the humidity, the more blinks due to drying, and the higher the frequency of blinks. In addition, the greater the brightness, the greater the number of blinks, and the higher the frequency of blinks. According to the configuration of the fourth embodiment, by changing the determination threshold value for the blink frequency according to the indoor environment information acquired by the indoor environment information acquisition unit 170, the tendency of the blink frequency to change according to the indoor environment information. It is possible to change the determination threshold value for the blink frequency according to the above. Therefore, it is possible to further improve the accuracy of the determination threshold value for the blink frequency and further improve the estimation accuracy of the driver's state.

なお、実施形態4の構成であっても、瞬目頻度についての判定閾値を変更する点を除けば実施形態1と同様であるので、実施形態1の構成と同様の効果も奏することができる。また、実施形態4の構成を実施形態1〜3の構成と組み合わせても構わない。 The configuration of the fourth embodiment is the same as that of the first embodiment except that the determination threshold value for the blink frequency is changed, so that the same effect as that of the first embodiment can be obtained. Further, the configuration of the fourth embodiment may be combined with the configurations of the first to third embodiments.

(実施形態5)
前述の実施形態では、急速眼球運動頻度、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量をHCU10,10a,10b,10cで算出することで取得する構成を示したが、必ずしもこれに限らない。例えば、HCU10,10a,10b,10c以外の装置で算出した急速眼球運動頻度、瞬目頻度、追従眼球運動時間、及び/又は急速眼球運動頻度変化量を、HCU10,10a,10b,10cが取得する構成としてもよい。また、HCU10,10a,10b,10cの機能は、複数の装置で担う構成としてもよい。
(Embodiment 5)
In the above-described embodiment, the configuration obtained by calculating the rapid eye movement frequency, the blink frequency, the follow-up eye movement time, and the amount of change in the rapid eye movement frequency by HCU10, 10a, 10b, 10c is shown, but this is not necessarily the case. Not limited to. For example, the HCU 10, 10a, 10b, 10c acquires the rapid eye movement frequency, the blink frequency, the follow-up eye movement time, and / or the amount of change in the rapid eye movement frequency calculated by a device other than the HCU 10, 10a, 10b, 10c. It may be configured. Further, the functions of the HCUs 10, 10a, 10b, and 10c may be provided by a plurality of devices.

(実施形態6)
前述の実施形態では、状態推定部140,140b,140cが、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量を用いてドライバの状態を推定する構成を示したが、必ずしもこれに限らない。例えば、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量のうちの一部のみをドライバの状態の推定に用いる構成としてもよい。なお、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量のうち、急速眼球運動頻度変化量は、急速眼球運動頻度の算出結果を用いて算出できるため、急速眼球運動頻度変化量も用いてドライバの状態を推定する構成とした場合でも、新たな演算処理の増加を抑えることができ、処理負荷を抑えることができる利点がある。
(Embodiment 6)
In the above-described embodiment, the state estimation units 140, 140b, 140c show a configuration in which the driver's state is estimated using the blink frequency, the follow-up eye movement time, and the rapid eye movement frequency change amount, but this is not necessarily the case. Not exclusively. For example, only a part of the blink frequency, the follow-up eye movement time, and the rapid eye movement frequency change amount may be used for estimating the driver's state. Of the blink frequency, follow-up eye movement time, and rapid eye movement frequency change amount, the rapid eye movement frequency change amount can be calculated using the calculation result of the rapid eye movement frequency, so that the rapid eye movement frequency change amount is also included. Even if the configuration is used to estimate the state of the driver, there is an advantage that the increase in new arithmetic processing can be suppressed and the processing load can be suppressed.

(実施形態7)
前述の実施形態では、状態推定関連処理をHCU10,10a,10b,10cの電源がオンになるごとに実行する構成を示したが、必ずしもこれに限らない。例えば、自車に設けられた操作入力部に状態推定関連処理を実行するための操作入力をユーザが行うごとに、状態推定関連処理を実行する構成としてもよい。これによれば、自車のドライバが変更するごとにドライバからこの操作入力を受け付けることで、個々のドライバに応じた判定閾値を決定し、個々のドライバに応じてドライバの状態を精度良く推定することが可能になる。
(Embodiment 7)
In the above-described embodiment, the configuration in which the state estimation-related processing is executed every time the power of the HCUs 10, 10a, 10b, and 10c is turned on is shown, but the present invention is not necessarily limited to this. For example, the state estimation-related processing may be executed every time the user inputs an operation input for executing the state estimation-related processing to the operation input unit provided in the own vehicle. According to this, by accepting this operation input from the driver every time the driver of the own vehicle changes, the judgment threshold value corresponding to each driver is determined, and the state of the driver is estimated accurately according to each driver. Will be possible.

また、個々のドライバごとに異なる電子キーのIDといった識別情報を車両システム1のメモリに登録しておくことで、電子キーIDから近距離無線通信で得られるドライバごとの識別情報をもとに、ドライバが変更されるごとに状態推定関連処理を実行する構成としてもよい。この場合でも、個々のドライバに応じた判定閾値を決定し、個々のドライバに応じてドライバの状態を精度良く推定することが可能になる。 Further, by registering identification information such as an electronic key ID different for each driver in the memory of the vehicle system 1, the identification information for each driver obtained from the electronic key ID by short-range wireless communication can be used. It may be configured to execute the state estimation related processing every time the driver is changed. Even in this case, it is possible to determine the determination threshold value according to each driver and accurately estimate the state of the driver according to each driver.

(実施形態8)
前述の実施形態では、本発明を車両に適用した場合を例に挙げて説明を行ったが、必ずしもこれに限らない。例えば、車両以外の移動体に適用し、車両以外の移動体の乗員の状態を推定する構成としてもよい。また、移動体以外に適用する構成としてもよい。例えば、工場のライン等での作業員の状態を推定する構成としてもよい。
(Embodiment 8)
In the above-described embodiment, the case where the present invention is applied to a vehicle has been described as an example, but the present invention is not necessarily limited to this. For example, it may be applied to a moving body other than a vehicle to estimate the state of an occupant of the moving body other than the vehicle. Further, the configuration may be applied to other than the moving body. For example, it may be configured to estimate the state of workers on a factory line or the like.

なお、本発明は、上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiment, and various modifications can be made within the scope of the claims, and the present invention can be obtained by appropriately combining the technical means disclosed in the different embodiments. Embodiments are also included in the technical scope of the present invention.

1 車両システム、10,10a,10b,10c HCU(状態推定装置)、20 車両センサ、30 周辺監視センサ、40 周辺監視ECU、50 ドライバ撮像ユニット、100 画像認識処理部、110 眼球運動抽出部、111 瞬目抽出部、112 急速眼球運動抽出部、113 追従眼球運動抽出部、113a 追従眼球運動抽出部(発生推定部)、120 眼球運動情報記憶部、130 判定用データ算出部、131 瞬目頻度算出部(瞬目取得部)、132 急速眼球運動頻度算出部(頻度取得部)、133 追従眼球運動時間算出部(追従眼球運動取得部)、134 変化量算出部(頻度変化量取得部)、135 補強情報取得部、140,140b,140c 状態推定部、141,141b,141c 判定閾値決定部、150 報知処理部、160 対象物情報取得部、170 室内環境情報取得部 1 Vehicle system, 10, 10a, 10b, 10c HCU (state estimation device), 20 vehicle sensor, 30 peripheral monitoring sensor, 40 peripheral monitoring ECU, 50 driver imaging unit, 100 image recognition processing unit, 110 eye movement extraction unit, 111 Instantaneous eye movement extraction unit, 112 Rapid eye movement extraction unit, 113 Follow-up eye movement extraction unit, 113a Follow-up eye movement extraction unit (occurrence estimation unit), 120 Eye movement information storage unit, 130 Judgment data calculation unit, 131 Instantaneous frequency calculation Unit (flash acquisition unit), 132 Rapid eye movement frequency calculation unit (frequency acquisition unit), 133 Follow-up eye movement time calculation unit (following eye movement acquisition unit), 134 Change amount calculation unit (frequency change acquisition unit), 135 Reinforcement information acquisition unit, 140, 140b, 140c state estimation unit, 141, 141b, 141c judgment threshold determination unit, 150 notification processing unit, 160 object information acquisition unit, 170 indoor environment information acquisition unit

Claims (13)

監視対象者の眼球運動に基づいて前記監視対象者の状態を推定する状態推定装置であって、
前記監視対象者のサッカード及びマイクロサッカードの少なくともいずれかの発生頻度である急速眼球運動頻度を取得する頻度取得部(132)と、
前記監視対象者の瞬目の発生頻度を取得する瞬目取得部(131)、前記監視対象者の追従眼球運動の発生時間を取得する追従眼球運動取得部(133)、及び前記監視対象者の前記急速眼球運動頻度の変化量を取得する頻度変化量取得部(134)の少なくともいずれかである補強情報取得部(135)と、
前記頻度取得部で取得する前記急速眼球運動頻度に加え、前記補強情報取得部で取得する情報を用いて、前記監視対象者の状態を推定する状態推定部(140,140b,140c)とを備え
前記補強情報取得部は、少なくとも前記瞬目取得部であり、
前記状態推定部は、前記頻度取得部で取得する前記急速眼球運動頻度がその急速眼球運動頻度についての閾値よりも大きい場合に、前記監視対象者の状態が正常であると推定する一方、前記頻度取得部で取得する前記急速眼球運動頻度がその急速眼球運動頻度についての閾値以下である場合であっても、前記瞬目取得部で取得する前記瞬目の発生頻度がその発生頻度についての閾値よりも大きい場合には、前記監視対象者の状態が正常であると推定する状態推定装置。
A state estimation device that estimates the state of the monitored person based on the eye movements of the monitored person.
A frequency acquisition unit (132) for acquiring the frequency of rapid eye movement, which is the frequency of occurrence of at least one of the saccade and microsaccade of the monitored person, and
The blink acquisition unit (131) for acquiring the frequency of occurrence of the blink of the monitored person, the following eye movement acquisition unit (133) for acquiring the occurrence time of the follow-up eye movement of the monitored person, and the monitoring target person. The reinforcement information acquisition unit (135), which is at least one of the frequency change acquisition units (134) for acquiring the change amount of the rapid eye movement frequency,
In addition to the rapid eye movement frequency acquired by the frequency acquisition unit, a state estimation unit (140, 140b, 140c) that estimates the state of the monitored person by using the information acquired by the reinforcement information acquisition unit is provided. ,
The reinforcement information acquisition unit is at least the blink acquisition unit, and is
The state estimation unit estimates that the state of the monitored subject is normal when the rapid eye movement frequency acquired by the frequency acquisition unit is larger than the threshold value for the rapid eye movement frequency, while the frequency is estimated. Even when the rapid eye movement frequency acquired by the acquisition unit is equal to or less than the threshold value for the rapid eye movement frequency, the occurrence frequency of the blink acquired by the blink acquisition unit is greater than the threshold value for the occurrence frequency. If even larger, the monitoring subject of the state state estimating device you presumed to be normal.
前記状態推定部は、前記瞬目の発生頻度についての閾値を、前記瞬目取得部で逐次取得した過去の一定期間における実際の前記瞬目の発生頻度のデータ群から決定する請求項に記載の状態推定装置。 The state estimation unit, wherein the threshold for frequency of occurrence of the blink, to claim 1 for determining from the data set of the actual frequency of the blink in a certain period in the past which were sequentially acquired by the blink acquisition unit State estimator. 車両で用いられ、前記監視対象者として前記車両のドライバの状態を推定するものであり、
前記車両の室内の湿度及び明るさの少なくともいずれかである室内環境情報を取得する室内環境情報取得部(170)を備え、
前記状態推定部(140c)は、前記瞬目の発生頻度についての閾値を、前記室内環境情報取得部で逐次取得する前記室内環境情報に応じて逐次決定して更新する請求項又はに記載の状態推定装置。
It is used in a vehicle and estimates the state of the driver of the vehicle as the person to be monitored.
The vehicle is provided with an indoor environment information acquisition unit (170) that acquires indoor environment information that is at least one of the humidity and brightness of the interior of the vehicle.
The state estimation unit (140c) according to claim 1 or 2 , wherein the state estimation unit (140c) sequentially determines and updates the threshold value for the occurrence frequency of the blinks according to the indoor environment information sequentially acquired by the indoor environment information acquisition unit. State estimator.
前記補強情報取得部は、少なくとも前記追従眼球運動取得部であり、
前記状態推定部は、前記頻度取得部で取得する前記急速眼球運動頻度がその急速眼球運動頻度についての閾値以下である場合であっても、前記追従眼球運動取得部で取得する前記追従眼球運動の発生時間がその発生時間についての閾値よりも大きい場合には、前記監視対象者の状態が正常であると推定する請求項のいずれか1項に記載の状態推定装置。
The reinforcement information acquisition unit is at least the follow-up eye movement acquisition unit, and is
Even when the rapid eye movement frequency acquired by the frequency acquisition unit is equal to or less than the threshold value for the rapid eye movement frequency, the state estimation unit obtains the follow-up eye movement of the follow-up eye movement acquisition unit. The state estimation device according to any one of claims 1 to 3 , wherein when the occurrence time is larger than the threshold value for the occurrence time, the state of the monitored person is estimated to be normal.
監視対象者の眼球運動に基づいて前記監視対象者の状態を推定する状態推定装置であって、
前記監視対象者のサッカード及びマイクロサッカードの少なくともいずれかの発生頻度である急速眼球運動頻度を取得する頻度取得部(132)と、
前記監視対象者の瞬目の発生頻度を取得する瞬目取得部(131)、前記監視対象者の追従眼球運動の発生時間を取得する追従眼球運動取得部(133)、及び前記監視対象者の前記急速眼球運動頻度の変化量を取得する頻度変化量取得部(134)の少なくともいずれかである補強情報取得部(135)と、
前記頻度取得部で取得する前記急速眼球運動頻度に加え、前記補強情報取得部で取得する情報を用いて、前記監視対象者の状態を推定する状態推定部(140,140b,140c)とを備え
前記補強情報取得部は、少なくとも前記追従眼球運動取得部であり、
前記状態推定部は、前記頻度取得部で取得する前記急速眼球運動頻度がその急速眼球運動頻度についての閾値よりも大きい場合に、前記監視対象者の状態が正常であると推定する一方、前記頻度取得部で取得する前記急速眼球運動頻度がその急速眼球運動頻度についての閾値以下である場合であっても、前記追従眼球運動取得部で取得する前記追従眼球運動の発生時間がその発生時間についての閾値よりも大きい場合には、前記監視対象者の状態が正常であると推定する状態推定装置。
A state estimation device that estimates the state of the monitored person based on the eye movements of the monitored person.
A frequency acquisition unit (132) for acquiring the frequency of rapid eye movement, which is the frequency of occurrence of at least one of the saccade and microsaccade of the monitored person, and
The blink acquisition unit (131) for acquiring the frequency of occurrence of the blink of the monitored person, the following eye movement acquisition unit (133) for acquiring the occurrence time of the follow-up eye movement of the monitored person, and the monitoring target person. The reinforcement information acquisition unit (135), which is at least one of the frequency change acquisition units (134) for acquiring the change amount of the rapid eye movement frequency,
In addition to the rapid eye movement frequency acquired by the frequency acquisition unit, a state estimation unit (140, 140b, 140c) that estimates the state of the monitored person by using the information acquired by the reinforcement information acquisition unit is provided. ,
The reinforcement information acquisition unit is at least the follow-up eye movement acquisition unit, and is
The state estimation unit estimates that the state of the monitored subject is normal when the rapid eye movement frequency acquired by the frequency acquisition unit is larger than the threshold value for the rapid eye movement frequency, while the frequency is estimated. Even when the rapid eye movement frequency acquired by the acquisition unit is equal to or less than the threshold value for the rapid eye movement frequency, the occurrence time of the follow-up eye movement acquired by the follow-up eye movement acquisition unit is related to the occurrence time. If greater than the threshold, the state estimating device status of the monitored person estimated to be normal.
前記状態推定部は、前記追従眼球運動の発生時間についての閾値を、前記追従眼球運動取得部で逐次取得した過去の一定期間における実際の前記追従眼球運動の発生時間のデータ群から決定する請求項4又は5に記載の状態推定装置。 The state estimation unit determines a threshold value for the occurrence time of the follow-up eye movement from a data group of the actual occurrence time of the follow-up eye movement in a certain past period sequentially acquired by the follow-up eye movement acquisition unit. The state estimation device according to 4 or 5. 車両で用いられ、前記監視対象者として前記車両のドライバの状態を推定するものであり、
前記車両周辺の注視対象物の前記車両に対する位置及び速度の少なくともいずれかである対象物情報を取得する対象物情報取得部(160)と、
前記対象物情報取得部で取得する前記対象物情報をもとに前記監視対象者の追従眼球運動の発生を推定する発生推定部(113a)とを備え、
前記追従眼球運動取得部は、前記発生推定部での推定結果をもとに前記監視対象者の追従眼球運動の発生時間を取得する請求項4〜6のいずれか1項に記載の状態推定装置。
It is used in a vehicle and estimates the state of the driver of the vehicle as the person to be monitored.
An object information acquisition unit (160) that acquires object information that is at least one of the position and speed of the gaze object around the vehicle with respect to the vehicle.
It is provided with an occurrence estimation unit (113a) that estimates the occurrence of follow-up eye movements of the monitored subject based on the object information acquired by the object information acquisition unit.
The state estimation device according to any one of claims 4 to 6, wherein the following eye movement acquisition unit acquires the occurrence time of the following eye movement of the monitored person based on the estimation result of the occurrence estimation unit. ..
車両で用いられ、前記監視対象者として前記車両のドライバの状態を推定するものであって、
前記車両周辺の注視対象物の前記車両に対する位置及び速度の少なくともいずれかである対象物情報を取得する対象物情報取得部(160)を備えるものであり、
前記状態推定部(140b)は、前記追従眼球運動の発生時間についての閾値を、前記対象物情報取得部で取得する前記対象物情報に応じて決定する請求項のいずれか1項に記載の状態推定装置。
It is used in a vehicle and estimates the state of the driver of the vehicle as the person to be monitored.
It is provided with an object information acquisition unit (160) for acquiring object information which is at least one of the position and speed of the gaze object around the vehicle with respect to the vehicle.
The state estimation unit (140b) determines the threshold value for the occurrence time of the follow-up eye movement according to the object information acquired by the object information acquisition unit according to any one of claims 4 to 7. The described state estimator.
前記補強情報取得部は、少なくとも前記頻度変化量取得部であり、
前記状態推定部は、前記頻度取得部で取得する前記急速眼球運動頻度がその急速眼球運動頻度についての閾値以下である場合であっても、前記頻度変化量取得部で取得する前記監視対象者の前記急速眼球運動頻度の変化量がその変化量についての閾値よりも大きい増加である場合には、前記監視対象者の状態が正常であると推定する請求項のいずれか1項に記載の状態推定装置。
The reinforcement information acquisition unit is at least the frequency change amount acquisition unit.
Even when the rapid eye movement frequency acquired by the frequency acquisition unit is equal to or less than the threshold value for the rapid eye movement frequency, the state estimation unit acquires the frequency change amount acquisition unit of the monitored person. wherein when the change amount of the rapid eye movement frequency is increased greater than the threshold for the amount of change is according to any one of claims 1 to 8, the state of the monitored person is estimated to be normal State estimator.
監視対象者の眼球運動に基づいて前記監視対象者の状態を推定する状態推定装置であって、
前記監視対象者のサッカード及びマイクロサッカードの少なくともいずれかの発生頻度である急速眼球運動頻度を取得する頻度取得部(132)と、
前記監視対象者の瞬目の発生頻度を取得する瞬目取得部(131)、前記監視対象者の追従眼球運動の発生時間を取得する追従眼球運動取得部(133)、及び前記監視対象者の前記急速眼球運動頻度の変化量を取得する頻度変化量取得部(134)の少なくともいずれかである補強情報取得部(135)と、
前記頻度取得部で取得する前記急速眼球運動頻度に加え、前記補強情報取得部で取得する情報を用いて、前記監視対象者の状態を推定する状態推定部(140,140b,140c)とを備え
前記補強情報取得部は、少なくとも前記頻度変化量取得部であり、
前記状態推定部は、前記頻度取得部で取得する前記急速眼球運動頻度がその急速眼球運動頻度についての閾値よりも大きい場合に、前記監視対象者の状態が正常であると推定する一方、前記頻度取得部で取得する前記急速眼球運動頻度がその急速眼球運動頻度についての閾値以下である場合であっても、前記頻度変化量取得部で取得する前記監視対象者の前記急速眼球運動頻度の変化量がその変化量についての閾値よりも大きい増加である場合には、前記監視対象者の状態が正常であると推定する状態推定装置。
A state estimation device that estimates the state of the monitored person based on the eye movements of the monitored person.
A frequency acquisition unit (132) for acquiring the frequency of rapid eye movement, which is the frequency of occurrence of at least one of the saccade and microsaccade of the monitored person, and
The blink acquisition unit (131) for acquiring the frequency of occurrence of the blink of the monitored person, the following eye movement acquisition unit (133) for acquiring the occurrence time of the follow-up eye movement of the monitored person, and the monitoring target person. The reinforcement information acquisition unit (135), which is at least one of the frequency change acquisition units (134) for acquiring the change amount of the rapid eye movement frequency,
In addition to the rapid eye movement frequency acquired by the frequency acquisition unit, a state estimation unit (140, 140b, 140c) that estimates the state of the monitored person by using the information acquired by the reinforcement information acquisition unit is provided. ,
The reinforcement information acquisition unit is at least the frequency change amount acquisition unit.
The state estimation unit estimates that the state of the monitored subject is normal when the rapid eye movement frequency acquired by the frequency acquisition unit is larger than the threshold value for the rapid eye movement frequency, while the frequency is estimated. Even when the rapid eye movement frequency acquired by the acquisition unit is equal to or less than the threshold value for the rapid eye movement frequency, the change amount of the rapid eye movement frequency of the monitored person acquired by the frequency change acquisition unit. There the case is an increase greater than a threshold for the amount of change, the state estimating device status of the monitored person estimated to be normal.
前記状態推定部は、前記急速眼球運動頻度の変化量についての閾値を、前記頻度変化量取得部で逐次取得した過去の一定期間における実際の前記急速眼球運動頻度の変化量のデータ群から決定する請求項9又は10に記載の状態推定装置。 The state estimation unit determines a threshold value for the amount of change in the rapid eye movement frequency from the data group of the actual amount of change in the rapid eye movement frequency in the past fixed period sequentially acquired by the frequency change acquisition unit. The state estimation device according to claim 9 or 10. 前記状態推定部は、前記頻度取得部で取得する直近の一定期間における前記急速眼球運動頻度に加え、前記補強情報取得部で取得するその直近の一定期間の情報を用いて、前記監視対象者の状態を逐次推定する請求項1〜11のいずれか1項に記載の状態推定装置。 The state estimation unit uses the information acquired by the reinforcement information acquisition unit for the latest fixed period in addition to the rapid eye movement frequency acquired by the frequency acquisition unit for the latest fixed period, and uses the information of the monitored person. The state estimation device according to any one of claims 1 to 11, wherein the state is sequentially estimated. 前記状態推定部は、前記急速眼球運動頻度についての閾値を、前記頻度取得部で逐次取得した過去の一定期間における実際の前記急速眼球運動頻度のデータ群から決定する請求項1〜12のいずれか1項に記載の状態推定装置。 Any one of claims 1 to 12, wherein the state estimation unit determines a threshold value for the rapid eye movement frequency from the data group of the actual rapid eye movement frequency in the past fixed period sequentially acquired by the frequency acquisition unit. The state estimation device according to item 1.
JP2017088748A 2017-04-27 2017-04-27 State estimator Active JP6926636B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017088748A JP6926636B2 (en) 2017-04-27 2017-04-27 State estimator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017088748A JP6926636B2 (en) 2017-04-27 2017-04-27 State estimator

Publications (2)

Publication Number Publication Date
JP2018183532A JP2018183532A (en) 2018-11-22
JP6926636B2 true JP6926636B2 (en) 2021-08-25

Family

ID=64357240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017088748A Active JP6926636B2 (en) 2017-04-27 2017-04-27 State estimator

Country Status (1)

Country Link
JP (1) JP6926636B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109285321A (en) * 2018-11-23 2019-01-29 泰安宇祺通讯技术有限公司 A kind of rail traffic driver drowsy early warning system and its application method
JP7131491B2 (en) * 2019-06-12 2022-09-06 株式会社デンソー Saccade detection device, saccade detection method, saccade detection program
JP7131490B2 (en) * 2019-06-12 2022-09-06 株式会社デンソー Saccade detection device, saccade detection method, saccade detection program
WO2021014939A1 (en) * 2019-07-22 2021-01-28 日本電気株式会社 Drowsiness estimation information correction device, drowsiness estimation device, drowsiness estimation information correction method, drowsiness estimation method, and recording medium
JP7140072B2 (en) * 2019-07-29 2022-09-21 株式会社デンソー Eyeball index detection device, eyeball index detection method, eyeball index detection program
JP7342636B2 (en) * 2019-11-11 2023-09-12 マツダ株式会社 Vehicle control device and driver condition determination method

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001338363A (en) * 2000-05-24 2001-12-07 Yokogawa Electric Corp Method and device for generating alarm
JP5179686B2 (en) * 2001-09-25 2013-04-10 株式会社豊田中央研究所 Driving behavior risk calculation device
AU2003269772A1 (en) * 2002-10-15 2004-05-04 Volvo Technology Corporation Method and arrangement for interpreting a subjects head and eye activity
JP2008158619A (en) * 2006-12-21 2008-07-10 Hino Motors Ltd Apparatus and method for determining degree of vigilance
JP4655035B2 (en) * 2006-12-27 2011-03-23 トヨタ自動車株式会社 Dozing detection device, dozing detection method
JP2009090876A (en) * 2007-10-10 2009-04-30 Toyota Motor Corp Nap prevention device
JP2010108235A (en) * 2008-10-30 2010-05-13 Equos Research Co Ltd Awakening support system
US8576081B2 (en) * 2009-02-13 2013-11-05 Toyota Jidosha Kabushiki Kaisha Physiological condition estimation device and vehicle control device
JP2012128523A (en) * 2010-12-13 2012-07-05 Canon Inc Information processing device and operating method thereof
JP5830944B2 (en) * 2011-06-02 2015-12-09 日産自動車株式会社 Vehicle driving support apparatus and vehicle driving support method
JP6273823B2 (en) * 2013-12-19 2018-02-07 株式会社デンソー State estimation device and state estimation program
JP2016134077A (en) * 2015-01-21 2016-07-25 株式会社豊田中央研究所 Awakening maintenance device and program

Also Published As

Publication number Publication date
JP2018183532A (en) 2018-11-22

Similar Documents

Publication Publication Date Title
JP6926636B2 (en) State estimator
US9526448B2 (en) State estimation device and state estimation program
US10936888B2 (en) Apparatus detecting driving incapability state of driver
US9888875B2 (en) Driver monitoring apparatus
JP6350145B2 (en) Face orientation detection device and vehicle warning system
CN114666499A (en) Image processing apparatus, image processing method, and movable body
JP7099037B2 (en) Data processing equipment, monitoring system, awakening system, data processing method, and data processing program
JP2010128649A (en) Awakening state determining device and awakening state determining method
US9892333B2 (en) Viewing area estimation device
JP2015207163A (en) State estimation device and state estimation program
JP6578784B2 (en) State estimation device and state estimation program
JP4647387B2 (en) Vehicle driving support device
JP2008204107A (en) Carelessness warning device, vehicle equipment control method for the device and program for vehicle control device
US20180201276A1 (en) Driver condition detection system
Bergasa et al. Visual monitoring of driver inattention
WO2019155914A1 (en) Data processing device, monitoring system, alertness system, data processing method, data processing program, and storage medium
JP2010198205A (en) Collision avoidance support device
WO2019176492A1 (en) Calculation system, information processing device, driving assistance system, index calculation method, computer program, and storage medium
WO2019155913A1 (en) Data processing device, monitoring system, alertness system, data processing method, data processing program, and storage medium
JP4973613B2 (en) Driver status detection device
JP7014680B2 (en) Gaze object detection device, gaze object detection method, and program
JP6714425B2 (en) Driving support device
JP6948254B2 (en) Visual burden quantifier
KR102331937B1 (en) Apparatus for vehicle emergency rescue based on the analysis of the driving state risk and the driver state and method thereof
US20240029454A1 (en) Line of sight estimating device, storage medium for storing computer program for line of sight estimation, and line of sight estimating method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210719

R151 Written notification of patent or utility model registration

Ref document number: 6926636

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151