JP6926636B2 - State estimator - Google Patents
State estimator Download PDFInfo
- Publication number
- JP6926636B2 JP6926636B2 JP2017088748A JP2017088748A JP6926636B2 JP 6926636 B2 JP6926636 B2 JP 6926636B2 JP 2017088748 A JP2017088748 A JP 2017088748A JP 2017088748 A JP2017088748 A JP 2017088748A JP 6926636 B2 JP6926636 B2 JP 6926636B2
- Authority
- JP
- Japan
- Prior art keywords
- frequency
- eye movement
- acquisition unit
- state
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、監視対象者の眼球運動に基づいて監視対象者の状態を推定する状態推定装置に関するものである。 The present invention relates to a state estimation device that estimates the state of a monitored person based on the eye movements of the monitored person.
特許文献1には、監視対象者のサッカードの発生頻度を表す通常サッカード頻度と監視対象者のマイクロサッカードの発生頻度を表すマイクロサッカード頻度との合計値が閾値未満である場合に異常であると推定する技術が開示されている。つまり、サッカード及びマイクロサッカードの発生頻度が閾値未満である場合に異常であると推定する技術が開示されている。
しかしながら、サッカード,マイクロサッカードの発生頻度が低い場合であっても、監視対象者が異常でない場合もある。例えば、サッカード,マイクロサッカードの発生頻度は、監視対象者の周辺環境によって生じる瞬目及び/又は追従眼球運動によっても低下する。よって、監視対象者の周辺環境によっては、監視対象者が正常であってもサッカード,マイクロサッカードの発生頻度が低下し、監視対象者の状態の推定精度が低下する場合がある。 However, even when the frequency of saccades and microsaccades is low, the monitored person may not be abnormal. For example, the frequency of occurrence of saccades and microsaccades is also reduced by blinks and / or follow-up eye movements caused by the surrounding environment of the monitored person. Therefore, depending on the surrounding environment of the monitored person, the frequency of occurrence of saccades and microsaccades may decrease even if the monitored person is normal, and the accuracy of estimating the state of the monitored person may decrease.
また、サッカード,マイクロサッカードの発生頻度が低い場合であっても、時間経過とともに増加傾向にある場合には、監視対象者の状態がすでに正常に回復していると考えられる。よって、このような場合にも、監視対象者の状態の推定精度が低下すると考えられる。 Even if the frequency of saccades and microsaccades is low, if they tend to increase over time, it is considered that the condition of the monitored person has already recovered to normal. Therefore, even in such a case, it is considered that the estimation accuracy of the state of the monitored person is lowered.
この開示のひとつの目的は、監視対象者の眼球運動に基づいて監視対象者の状態をより精度良く推定することを可能にする状態推定装置を提供することにある。 One object of this disclosure is to provide a state estimation device capable of more accurately estimating the state of a monitored person based on the eye movements of the monitored person.
上記目的は独立請求項に記載の特徴の組み合わせにより達成され、また、下位請求項は、発明の更なる有利な具体例を規定する。特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。 The above object is achieved by a combination of the features described in the independent claims, and the sub-claims define further advantageous specific examples of the invention. The reference numerals in parentheses described in the claims indicate, as one embodiment, the correspondence with the specific means described in the embodiments described later, and do not limit the technical scope of the present invention. ..
上記目的を達成するために、本発明の第1の状態推定装置は、監視対象者の眼球運動に基づいて監視対象者の状態を推定する状態推定装置であって、監視対象者のサッカード及びマイクロサッカードの少なくともいずれかの発生頻度である急速眼球運動頻度を取得する頻度取得部(132)と、監視対象者の瞬目の発生頻度を取得する瞬目取得部(131)、監視対象者の追従眼球運動の発生時間を取得する追従眼球運動取得部(133)、及び監視対象者の急速眼球運動頻度の変化量を取得する頻度変化量取得部(134)の少なくともいずれかである補強情報取得部(135)と、頻度取得部で取得する急速眼球運動頻度に加え、補強情報取得部で取得する情報を用いて、監視対象者の状態を推定する状態推定部(140,140b,140c)とを備え、補強情報取得部は、少なくとも瞬目取得部であり、状態推定部は、頻度取得部で取得する急速眼球運動頻度がその急速眼球運動頻度についての閾値よりも大きい場合に、監視対象者の状態が正常であると推定する一方、頻度取得部で取得する急速眼球運動頻度がその急速眼球運動頻度についての閾値以下である場合であっても、瞬目取得部で取得する瞬目の発生頻度がその発生頻度についての閾値よりも大きい場合には、監視対象者の状態が正常であると推定する。
上記目的を達成するために、本発明の第2の状態推定装置は、監視対象者の眼球運動に基づいて監視対象者の状態を推定する状態推定装置であって、監視対象者のサッカード及びマイクロサッカードの少なくともいずれかの発生頻度である急速眼球運動頻度を取得する頻度取得部(132)と、監視対象者の瞬目の発生頻度を取得する瞬目取得部(131)、監視対象者の追従眼球運動の発生時間を取得する追従眼球運動取得部(133)、及び監視対象者の急速眼球運動頻度の変化量を取得する頻度変化量取得部(134)の少なくともいずれかである補強情報取得部(135)と、頻度取得部で取得する急速眼球運動頻度に加え、補強情報取得部で取得する情報を用いて、監視対象者の状態を推定する状態推定部(140,140b,140c)とを備え、補強情報取得部は、少なくとも追従眼球運動取得部であり、状態推定部は、頻度取得部で取得する急速眼球運動頻度がその急速眼球運動頻度についての閾値よりも大きい場合に、監視対象者の状態が正常であると推定する一方、頻度取得部で取得する急速眼球運動頻度がその急速眼球運動頻度についての閾値以下である場合であっても、追従眼球運動取得部で取得する追従眼球運動の発生時間がその発生時間についての閾値よりも大きい場合には、監視対象者の状態が正常であると推定する。
上記目的を達成するために、本発明の第3の状態推定装置は、監視対象者の眼球運動に基づいて監視対象者の状態を推定する状態推定装置であって、監視対象者のサッカード及びマイクロサッカードの少なくともいずれかの発生頻度である急速眼球運動頻度を取得する頻度取得部(132)と、監視対象者の瞬目の発生頻度を取得する瞬目取得部(131)、監視対象者の追従眼球運動の発生時間を取得する追従眼球運動取得部(133)、及び監視対象者の急速眼球運動頻度の変化量を取得する頻度変化量取得部(134)の少なくともいずれかである補強情報取得部(135)と、頻度取得部で取得する急速眼球運動頻度に加え、補強情報取得部で取得する情報を用いて、監視対象者の状態を推定する状態推定部(140,140b,140c)とを備え、補強情報取得部は、少なくとも頻度変化量取得部であり、状態推定部は、頻度取得部で取得する急速眼球運動頻度がその急速眼球運動頻度についての閾値よりも大きい場合に、監視対象者の状態が正常であると推定する一方、頻度取得部で取得する急速眼球運動頻度がその急速眼球運動頻度についての閾値以下である場合であっても、頻度変化量取得部で取得する監視対象者の急速眼球運動頻度の変化量がその変化量についての閾値よりも大きい増加である場合には、監視対象者の状態が正常であると推定する。
In order to achieve the above object, the first state estimation device of the present invention is a state estimation device that estimates the state of the monitored person based on the eye movements of the monitored person, and is a saccade of the monitored person and a saccade of the monitored person. A frequency acquisition unit (132) that acquires the frequency of rapid eye movements, which is at least one of the occurrence frequencies of microsaccades, an eye blink acquisition unit (131) that acquires the frequency of blinks of the monitored person, and a monitored person. Reinforcement information that is at least one of the follow-up eye movement acquisition unit (133) that acquires the occurrence time of the follow-up eye movement and the frequency change amount acquisition unit (134) that acquires the change amount of the rapid eye movement frequency of the monitored subject. State estimation unit (140, 140b, 140c) that estimates the state of the monitored person using the information acquired by the augmentation information acquisition unit in addition to the rapid eye movement frequency acquired by the acquisition unit (135) and the frequency acquisition unit. The reinforcement information acquisition unit is at least the blink acquisition unit, and the state estimation unit is monitored when the frequency of rapid eye movements acquired by the frequency acquisition unit is larger than the threshold value for the frequency of rapid eye movements. While presuming that the person's condition is normal, even if the frequency of rapid eye movements acquired by the frequency acquisition unit is less than or equal to the threshold for the frequency of rapid eye movements, the blinks acquired by the blink acquisition unit If the occurrence frequency is greater than the threshold value for that frequency, the state of the monitored person estimated to be normal.
In order to achieve the above object, the second state estimation device of the present invention is a state estimation device that estimates the state of the monitored person based on the eye movements of the monitored person, and is a saccade of the monitored person and a saccade of the monitored person. A frequency acquisition unit (132) that acquires the frequency of rapid eye movements, which is at least one of the occurrence frequencies of microsaccades, a blink acquisition unit (131) that acquires the frequency of blinks of the monitored person, and a monitored person. Reinforcement information that is at least one of the follow-up eye movement acquisition unit (133) that acquires the occurrence time of the follow-up eye movement and the frequency change amount acquisition unit (134) that acquires the change amount of the rapid eye movement frequency of the monitored subject. State estimation unit (140, 140b, 140c) that estimates the state of the monitored person using the information acquired by the augmentation information acquisition unit in addition to the rapid eye movement frequency acquired by the acquisition unit (135) and the frequency acquisition unit. The reinforcement information acquisition unit is at least a follow-up eye movement acquisition unit, and the state estimation unit monitors when the rapid eye movement frequency acquired by the frequency acquisition unit is larger than the threshold value for the rapid eye movement frequency. While presuming that the subject's condition is normal, even if the frequency of rapid eye movements acquired by the frequency acquisition unit is less than or equal to the threshold for the frequency of rapid eye movements, the follow-up eye movement acquisition unit acquires follow-up. When the occurrence time of eye movement is larger than the threshold value for the occurrence time, it is estimated that the condition of the monitored subject is normal.
In order to achieve the above object, the third state estimation device of the present invention is a state estimation device that estimates the state of the monitored person based on the eye movements of the monitored person, and is a saccade of the monitored person and a saccade of the monitored person. A frequency acquisition unit (132) that acquires the frequency of rapid eye movements, which is at least one of the occurrence frequencies of microsaccades, a blink acquisition unit (131) that acquires the frequency of blinks of the monitored person, and a monitored person. Reinforcement information that is at least one of the follow-up eye movement acquisition unit (133) that acquires the occurrence time of the follow-up eye movement and the frequency change amount acquisition unit (134) that acquires the change amount of the rapid eye movement frequency of the monitored subject. State estimation unit (140, 140b, 140c) that estimates the state of the monitored person using the information acquired by the augmentation information acquisition unit in addition to the rapid eye movement frequency acquired by the acquisition unit (135) and the frequency acquisition unit. The supplementary information acquisition unit is at least a frequency change acquisition unit, and the state estimation unit monitors when the frequency of rapid eye movements acquired by the frequency acquisition unit is greater than the threshold value for the frequency of rapid eye movements. While presuming that the subject's condition is normal, even if the frequency of rapid eye movements acquired by the frequency acquisition unit is less than or equal to the threshold for the frequency of rapid eye movements, the monitoring acquired by the frequency change acquisition unit When the amount of change in the frequency of rapid eye movements of the subject is an increase larger than the threshold for the amount of change, it is presumed that the condition of the monitored subject is normal.
これによれば、監視対象者の瞬目の発生頻度と、監視対象者の追従眼球運動の発生時間と、監視対象者のサッカード及びマイクロサッカードの発生頻度の変化量との少なくともいずれかを用いて監視対象者の状態を推定することが可能になる。監視対象者の瞬目の発生頻度を用いた場合には、瞬目による急速眼球運動頻度の低下を監視対象者の状態の異常と推定しないようにすることが可能になる。監視対象者の追従眼球運動の発生時間を用いた場合には、追従眼球運動による急速眼球運動頻度の低下を監視対象者の状態の異常と推定しないようにすることが可能になる。監視対象者の急速眼球運動頻度の変化量を用いた場合には、急速眼球運動頻度が増加傾向にある場合の急速眼球運動頻度の低下を監視対象者の状態の異常と推定しないようにすることが可能になる。よって、監視対象者のサッカード及びマイクロサッカードの発生頻度だけを用いる場合に比べ、監視対象者の状態をより精度良く推定することが可能になる。その結果、監視対象者の眼球運動に基づいて監視対象者の状態をより精度良く推定することが可能になる。 According to this, at least one of the frequency of blinks of the monitored person, the time of occurrence of the follow-up eye movement of the monitored person, and the amount of change in the frequency of occurrence of saccade and microsaccade of the monitored person are determined. It becomes possible to estimate the state of the monitored person by using it. When the frequency of blinks of the monitored person is used, it is possible to prevent the decrease in the frequency of rapid eye movements due to the blinks from being estimated as an abnormality in the state of the monitored person. When the occurrence time of the follow-up eye movement of the monitored person is used, it is possible to prevent the decrease in the frequency of rapid eye movement due to the follow-up eye movement from being estimated as an abnormality in the state of the monitored person. When the amount of change in the rapid eye movement frequency of the monitored person is used, the decrease in the rapid eye movement frequency when the rapid eye movement frequency tends to increase should not be estimated as an abnormality in the state of the monitored person. Becomes possible. Therefore, the state of the monitored person can be estimated more accurately than the case where only the occurrence frequency of the saccade and the microsaccade of the monitored person is used. As a result, it becomes possible to more accurately estimate the state of the monitored person based on the eye movements of the monitored person.
図面を参照しながら、開示のための複数の実施形態を説明する。なお、説明の便宜上、複数の実施形態の間において、それまでの説明に用いた図に示した部分と同一の機能を有する部分については、同一の符号を付し、その説明を省略する場合がある。同一の符号を付した部分については、他の実施形態における説明を参照することができる。 A plurality of embodiments for disclosure will be described with reference to the drawings. For convenience of explanation, the parts having the same functions as the parts shown in the drawings used in the explanations up to that point may be designated by the same reference numerals and the description thereof may be omitted. be. For the parts with the same reference numerals, the description in other embodiments can be referred to.
(実施形態1)
<車両システム1の概略構成>
図1に示す車両システム1は、車両といった移動体で用いられるものであり、HCU(Human Machine Interface Control Unit)10、車両センサ20、周辺監視センサ30、周辺監視ECU40、ドライバ撮像ユニット50、及び報知装置60を含んでいる。HCU10と車両センサ20と周辺監視ECU40とは、例えば車内LANに接続されているものとする。以下では、車両システム1を自動車で用いる場合を例に挙げて説明を続ける。
(Embodiment 1)
<Outline configuration of
The
車両センサ20は、自車の状態を検出するためのセンサ群である。車両センサ20としては、自車の車室内の湿度を検出する湿度センサ,自車前方の明るさを検出する外光センサ,自車の操舵角を検出する舵角センサ等がある。一例として、外光センサとしては照度を検出する照度センサを用いればよい。車両センサ20は、センシング結果を車内LANへ出力する。なお、車両センサ20でのセンシング結果は、自車に搭載されるECUを介して車両LANへ出力される構成であってもよい。
The
周辺監視センサ30は、歩行者、人間以外の動物、車両等の移動物体、さらに標識,ガードレール,縁石,樹木等の静止物体といった自車周辺の物体を検出する。他にも、自車周辺の走行区画線、停止線等の路面標示を検出する。周辺監視センサ30は、例えば、自車周囲の所定範囲を撮像する周辺監視カメラ、自車周囲の所定範囲に探査波を送信するミリ波レーダ、ソナー、LIDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)等のセンサである。周辺監視カメラは、逐次撮像する撮像画像をセンシング情報として周辺監視ECU40へ逐次出力する。ソナー、ミリ波レーダ、LIDAR等の探査波を送信するセンサは、障害物によって反射された反射波を受信した場合に得られる受信信号に基づく走査結果をセンシング情報として周辺監視ECU40へ逐次出力する。
The peripheral monitoring sensor 30 detects moving objects such as pedestrians, animals other than humans, vehicles, and stationary objects such as signs, guardrails, curbs, and trees around the vehicle. In addition, it detects road markings such as lane markings and stop lines around the vehicle. The peripheral monitoring sensor 30 includes, for example, a peripheral monitoring camera that captures a predetermined range around the vehicle, a millimeter wave radar that transmits exploration waves to a predetermined range around the vehicle, a sonar, and a LIDAR (Light Detection and Ranging / Laser Imaging Detection and). Ranging) and other sensors. The peripheral monitoring camera sequentially outputs the captured images to be sequentially captured as sensing information to the
周辺監視ECU40は、プロセッサ、揮発性メモリ、不揮発性メモリ、及びこれらを相互に接続するバス等からなるマイクロコンピュータを備え、不揮発性メモリに記憶された制御プログラムを実行することで各種の処理を実行する。周辺監視ECU40は、周辺監視センサ30から取得したセンシング結果から、自車の周辺環境を認識する。
The
周辺監視ECU40は、周辺監視カメラのセンシング結果から、自車の周辺環境として、自車周辺の物体を検出する。一例として、テンプレートマッチング等の周知の画像認識処理によって、ドライバの注視対象となる物体を注視対象としない物体と区別して検出することが好ましい。ドライバの注視対象となる物体(以下、注視対象物)の一例としては、歩行者,他車両,標識等がある。また、周辺監視ECU40は、周辺監視センサのセンシング結果から、公知の手法によって自車周辺に存在する物体の自車に対する相対位置,相対速度を検出する。なお、周辺監視ECU40は、自車で用いられる通信モジュールを介した車車間通信及び/又は路車間通信によって得られた他車両,歩行者等の対象物の位置,速度の情報から、自車の周辺に存在する対象物について、自車に対する相対位置,相対速度を検出してもよい。
The
ドライバ撮像ユニット50は、ドライバの頭部を撮像するための撮像装置を含む。一例としては、照明装置と、この照明装置による照明と同じ帯域に感度を持つ撮像装置とを含む構成とすればよい。具体例としては、近赤外カメラと近赤外光源とを含む構成とすればよい。以下では、この近赤外カメラと近赤外光源とを用いる場合を例に挙げて説明を行う。後述するマイクロサッカードを抽出する場合には、例えば空間分解能0.01度,時間分解能220Hzといった高性能カメラを用いればよい。
The
近赤外カメラは、自車の運転席側に向けた姿勢にて、例えばステアリングコラムカバーに配置される。なお、近赤外カメラは、自車の運転席に着座したドライバの顔を撮像できる位置であれば他の位置に配置される構成であってもよく、インスツルメントパネルの上面等に配置される構成であってもよい。ドライバ撮像ユニットは、近赤外光源によって近赤外光を照射されたドライバの頭部を、近赤外カメラによって撮影する。近赤外カメラによる撮像画像(以下、顔画像)は、HCU10に出力する。
The near-infrared camera is arranged, for example, on the steering column cover in a posture toward the driver's seat side of the own vehicle. The near-infrared camera may be arranged at another position as long as it can capture the face of the driver seated in the driver's seat of the own vehicle, and is arranged on the upper surface of the instrument panel or the like. May be configured. The driver imaging unit uses a near-infrared camera to photograph the head of the driver irradiated with near-infrared light by a near-infrared light source. The image captured by the near-infrared camera (hereinafter referred to as the face image) is output to the
報知装置60は、自車のドライバに向けて報知を行う。報知装置60としては、表示装置,音声出力装置,振動子等がある。また、報知装置60による報知としては、表示装置による表示,音声出力装置による音声出力,振動子による振動等がある。
The
HCU10は、プロセッサ、揮発性メモリ、非遷移的実体的記録媒体(non- transitory tangible storage medium)である不揮発性メモリ、I/O、これらを接続するバスを備えるマイクロコンピュータを主体として構成され、ドライバ撮像ユニット50,報知装置60と車内LANとに接続される。HCU10は、不揮発性メモリに記憶された制御プログラムを実行することにより、自車のドライバの状態を推定したり、自車のドライバに向けた報知を行わせたりする。このHCU10が請求項の状態推定装置に相当し、ドライバが請求項の監視対象者に相当する。
The
<HCU10の概略構成>
ここで、図2を用いて、HCU10の概略構成を説明する。図2に示すように、HCU10は、機能ブロックとして、画像認識処理部100、眼球運動抽出部110、眼球運動情報記憶部120、判定用データ算出部130、状態推定部140、及び報知処理部150を備えている。なお、HCU10が実行する機能の一部又は全部を、一つ或いは複数のIC等によりハードウェア的に構成してもよい。また、HCU10が備える機能ブロックの一部又は全部は、プロセッサによるソフトウェアの実行とハードウェア部材との組み合わせによって実現されてもよい。
<Outline configuration of HCU10>
Here, the schematic configuration of the
画像認識処理部100は、ドライバ撮像ユニット50から逐次出力される顔画像から、公知の画像認識処理によって、ドライバの顔部位の抽出,顔部位の形状的な特徴の抽出,視線角度の算出等を逐次行う。視線角度は視線方向と言い換えることもできる。以下に、画像認識処理部100で行う画像認識処理の一例について述べる。
The image
まず、画像認識処理部100は、顔画像中の目を抽出し、その目の中の黒い丸を瞳孔として抽出する。続いて、顔画像中の目の中の白い点を角膜反射像として抽出する。そして、瞳孔と角膜反射との位置関係から車室内の基準位置に対する視線角度を検出する。基準位置は、例えば近赤外カメラの設置位置等とすればよい。ここで言うところの視線角度は、自車の左右方向と概ね一致する水平方向と垂直方向との両方についての視線角度であるものとする。算出した視線角度は、例えば揮発性メモリといったメモリに記憶する構成とすればよい。
First, the image
眼球運動抽出部110は、画像認識処理部100での画像認識処理の結果をもとに、自車のドライバの眼球運動を抽出する眼球運動抽出処理を行う。図2に示すように、眼球運動抽出部110は、サブ機能ブロックとして、瞬目抽出部111、急速眼球運動抽出部112、及び追従眼球運動抽出部113を備える。
The eye
瞬目抽出部111は、ドライバの瞬目を抽出する。瞬目は瞬きと言い換えることもできる。瞬目抽出部111は、画像認識処理部100で逐次行う画像認識処理において、例えば瞳孔が抽出できない場合を瞬目として抽出する構成とすればよい。他にも、画像認識処理部100で抽出したドライバの上瞼の曲率半径に基づいて瞬目を抽出する構成としてもよい。瞬目抽出部111は、瞬目の抽出結果として、瞬目を抽出した時刻を眼球運動情報記憶部120に例えば有効時間Tが経過するまで記憶する。眼球運動情報記憶部120としては、例えば揮発性メモリを用いる構成とすればよい。有効時間Tとは、後述するサッカード,マイクロサッカードといった急速眼球運動の発生頻度を精度よく算出するために必要な時間であって、例えば1〜数分程度の時間とすればよい。以降についても同様とする。
The
急速眼球運動抽出部112は、ドライバのサッカード,マイクロサッカードといった急速眼球運動を抽出する。サッカードは、人が意図的に視線方向を変化させる場合に生じる短時間の高速な眼球運動である。マイクロサッカードは、人が注視している際に不随意に生じる固視微動のうちのごく細かい急速な眼球運動である。急速眼球運動抽出部112は、サッカードとマイクロサッカードとのうちのいずれか一方のみを抽出する構成としてもよいし、両方を抽出する構成としてもよい。
The rapid eye
急速眼球運動抽出部112は、画像認識処理部100で算出した過去数フレーム分(例えば10フレーム分)の視線角度から、視線角度の変化量を算出し、この変化量を時間で除算することで視線角速度を算出する。また、急速眼球運動抽出部112は、上述したように算出した視線角速度の変化量を時間で除算することで視線角加速度を算出する。
The rapid eye
そして、急速眼球運動抽出部112は、視線角加速度が基準角加速度以上であって、且つ、視線の移動距離が基準距離以上の場合にサッカードとして抽出する。一方、急速眼球運動抽出部112は、視線角加速度が基準角加速度以上であって、且つ、視線の移動距離が基準距離未満の場合にマイクロサッカードとして抽出する。基準角加速度は例えば1200deg/s2とすればよく、基準距離は例えば2degとすればよい。なお、視線角加速度に換えて、視線角速度が基準角速度以上であるか否かによって判定を行う構成としてもよい。急速眼球運動抽出部112は、サッカード,マイクロサッカードの抽出結果として、サッカード,マイクロサッカードを抽出した時刻を眼球運動情報記憶部120に例えば有効時間Tが経過するまで記憶すればよい。
Then, the rapid eye
追従眼球運動抽出部113は、ドライバの追従眼球運動を抽出する。追従眼球運動は、対象に反射的に視線を追従させる眼球運動である。追従眼球運動抽出部113は、一定時間あたりの視線角速度が一定の範囲内である場合に、追従眼球運動として抽出する。一例としては、1秒あたりの視線角速度が0.5〜2.0deg/s2である場合に、追従眼球運動として抽出する。なお、追従眼球運動抽出部113は、視線角速度に換えて、視線角加速度が一定の範囲内であるか否かによって判定を行う構成としてもよい。追従眼球運動抽出部113は、追従眼球運動の抽出結果として、追従眼球運動の抽出有無を時刻別に眼球運動情報記憶部120に例えば有効時間Tが経過するまで記憶すればよい。
The follow-up eye
判定用データ算出部130は、ドライバの状態を推定するのに用いる判定用データを算出することで、この判定用データを取得する。図2に示すように、判定用データ算出部130は、サブ機能ブロックとして、瞬目頻度算出部131、急速眼球運動頻度算出部132、追従眼球運動時間算出部133、及び変化量算出部134を備える。瞬目頻度算出部131、追従眼球運動時間算出部133、及び変化量算出部134が補強情報取得部135にあたる。
The determination
瞬目頻度算出部131は、眼球運動情報記憶部120に蓄積された瞬目抽出部111での抽出結果である瞬目を抽出した時刻をもとに、ドライバの瞬目の発生頻度(以下、瞬目頻度)を算出することで、瞬目頻度を取得する。この瞬目頻度算出部131が請求項の瞬目取得部に相当する。具体例としては、瞬目頻度算出部131は、所定時間tごとに、所定時間t内の瞬目抽出部111での抽出結果から、所定時間tあたりの瞬目頻度を算出すればよい。所定時間tは、例えば10秒程度とする。以降についても同様とする。瞬目頻度算出部131は、逐次算出する瞬目頻度を時系列に沿って眼球運動情報記憶部120に蓄積する。
The blink
急速眼球運動頻度算出部132は、眼球運動情報記憶部120に蓄積された急速眼球運動抽出部112での抽出結果であるサッカード,マイクロサッカードを抽出した時刻をもとに、ドライバのサッカード,マイクロサッカードの発生頻度(以下、急速眼球運動頻度)を算出することで、急速眼球運動頻度を取得する。この急速眼球運動頻度算出部132が請求項の頻度取得部に相当する。
The rapid eye movement
具体例としては、急速眼球運動頻度算出部132は、所定時間tごとに、所定時間t内の急速眼球運動抽出部112での抽出結果から、所定時間tあたりの急速眼球運動頻度を算出すればよい。急速眼球運動頻度算出部132は、逐次算出する急速眼球運動頻度を時系列に沿って眼球運動情報記憶部120に蓄積する。なお、瞬目抽出部111で瞬目を抽出していた時刻のデータは急速眼球運動頻度の算出の処理から除外することで、急速眼球運動頻度の算出精度を向上させることが好ましい。
As a specific example, if the rapid eye movement
追従眼球運動時間算出部133は、眼球運動情報記憶部120に蓄積された追従眼球運動抽出部113での抽出結果である時刻別の追従眼球運動の有無をもとに、ドライバの追従眼球運動の発生時間(以下、追従眼球運動時間)を算出することで、追従眼球運動時間を取得する。追従眼球運動の発生時間は、追従眼球運動に要した時間と言い換えることもできる。この追従眼球運動時間算出部133が請求項の追従眼球運動取得部に相当する。具体例としては、追従眼球運動時間算出部133は、所定時間tごとに、所定時間t内の追従眼球運動抽出部113での抽出結果から、所定時間tあたりの追従眼球運動時間を算出すればよい。追従眼球運動時間算出部133は、逐次算出する追従眼球運動時間を時系列に沿って眼球運動情報記憶部120に蓄積する。
The follow-up eye movement
変化量算出部134は、眼球運動情報記憶部120に蓄積された急速眼球運動抽出部112での抽出結果であるサッカード,マイクロサッカードを抽出した時刻をもとに、急速眼球運動頻度の変化量(以下、急速眼球運動頻度変化量)を算出することで、この急速眼球運動頻度変化量を取得する。この変化量算出部134が、請求項の頻度変化量取得部に相当する。具体例としては、急速眼球運動頻度算出部132での所定時間tごとの急速眼球運動頻度の算出時に、その所定時間tの直前s秒間のサッカード,マイクロサッカードの発生回数を算出する。ここで言うところのs秒とは、所定時間tよりも短い時間であって、例えば2〜3秒とすればよい。そして、直前s秒間のサッカード,マイクロサッカードの発生回数の、所定時間t内での全発生回数における割合を、急速眼球運動頻度変化量として算出する。変化量算出部134は、逐次算出する急速眼球運動頻度変化量を時系列に沿って眼球運動情報記憶部120に蓄積する。
The change
状態推定部140は、判定用データ算出部130で逐次算出した判定用データのデータ群から、ドライバの状態を推定するのに用いる判定閾値を決定する判定閾値決定処理を行う。そして、判定用データ算出部130で逐次算出する判定用データとこの判定閾値とから、ドライバの状態を推定する状態推定処理を行う。図2に示すように、状態推定部140は、サブ機能ブロックとして判定閾値決定部141を備える。
The
判定閾値決定部141は、瞬目頻度についての判定閾値,急速眼球運動頻度についての判定閾値,追従眼球運動時間についての判定閾値,急速眼球運動頻度変化量についての判定閾値を決定する判定閾値決定処理を行う。
The judgment threshold
判定閾値決定部141での瞬目頻度についての判定閾値の決定は、一例として以下のようにして行う。判定閾値決定部141は、眼球運動情報記憶部120に蓄積されている、瞬目頻度算出部131で算出した有効時間T内における所定時間tごとの瞬目頻度の平均値(以下、平均瞬目頻度)を算出する。そして、算出した平均瞬目頻度から瞬目頻度についての判定閾値を決定する。言い換えると、瞬目頻度算出部131で算出した過去の一定期間における実際の瞬目の発生頻度のデータ群から瞬目頻度についての判定閾値を決定する。
As an example, the determination threshold
例えば、平均瞬目頻度が1回/秒より少ない場合には、判定閾値を0.5回/秒とし、平均瞬目頻度が1〜2回の場合は判定閾値を1回/秒とし、平均瞬目頻度が2回以上である場合は判定閾値を2回/秒とする。また、所定時間tごとの瞬目頻度のばらつきを算出し、ばらつきの度合いが大きくなるのに応じて判定閾値を小さく決定する構成としてもよい。 For example, if the average blink frequency is less than 1 time / second, the judgment threshold is 0.5 times / second, and if the average blink frequency is 1 to 2 times, the judgment threshold is 1 time / second, and the average. When the blink frequency is 2 times or more, the judgment threshold value is set to 2 times / second. Further, the variation in the blink frequency for each predetermined time t may be calculated, and the determination threshold value may be determined to be smaller as the degree of variation increases.
判定閾値決定部141での急速眼球運動頻度についての判定閾値の決定は、一例として以下のようにして行う。判定閾値決定部141は、眼球運動情報記憶部120に蓄積されている、急速眼球運動頻度算出部132で算出した有効時間T内における所定時間tごとの急速眼球運動頻度をもとに、急速眼球運動頻度についての判定閾値を決定する。言い換えると、急速眼球運動頻度算出部132で算出した過去の一定期間における実際の急速眼球運動頻度のデータ群から瞬目頻度についての判定閾値を決定する。
The determination threshold
急速眼球運動頻度として、サッカードの発生頻度とマイクロサッカードの発生頻度とのうちのいずれかのみを用いる場合には、この発生頻度の平均値から予め定められたシフト量だけ低くした値を判定閾値とすればよい。このシフト量は、ドライバの状態の推定精度が所望の精度となるように実験等によって予め定める構成とすればよい。また、所定時間tごとの発生頻度のばらつきの度合いが大きくなるのに応じて判定閾値を小さく決定する構成としてもよい。 When only one of the saccade frequency and the microsaccade frequency is used as the rapid eye movement frequency, a value obtained by lowering the average value of the saccade frequency by a predetermined shift amount is determined. It may be a threshold value. This shift amount may be configured in advance by an experiment or the like so that the estimation accuracy of the driver's state becomes a desired accuracy. Further, the determination threshold value may be determined to be smaller as the degree of variation in the occurrence frequency for each predetermined time t increases.
一方、急速眼球運動頻度として、サッカードの発生頻度とマイクロサッカードの発生頻度とのいずれも用いる場合には、サッカードの発生頻度とマイクロサッカードの発生頻度とから求める回帰式を用いて判定閾値を決定すればよい。回帰式は、以下のようにして求めればよい。まず、サッカードの発生頻度とマイクロサッカードの発生頻度とをそれぞれ横軸と縦軸としたグラフ上において、有効時間T内における所定時間tごとのサッカードの発生頻度及びマイクロサッカードの発生頻度をプロットする(図3参照)。続いて、これらのプロットの傾向を示す最も確からしい直線若しくは曲線といった線Aを求める。例えば、最小二乗法によって最も確からしい線A(図3のA参照)を求める構成とすればよい。そして、この線Aをグラフの原点方向にシフトさせることで、回帰式B(図3のB参照)を求める。この回帰式Bが示す境界が判定閾値となる。 On the other hand, when both the frequency of occurrence of saccade and the frequency of occurrence of microsaccade are used as the frequency of rapid eye movement, the determination is made using a regression equation obtained from the frequency of occurrence of saccade and the frequency of occurrence of microsaccade. The threshold value may be determined. The regression equation may be obtained as follows. First, on a graph in which the frequency of occurrence of saccade and the frequency of occurrence of microsaccade are on the horizontal axis and the vertical axis, respectively, the frequency of occurrence of saccade and the frequency of occurrence of microsaccade at predetermined time t within the effective time T, respectively. Is plotted (see FIG. 3). Then, the line A such as the most probable straight line or curve showing the tendency of these plots is obtained. For example, the most probable line A (see A in FIG. 3) may be obtained by the least squares method. Then, by shifting this line A toward the origin of the graph, the regression equation B (see B in FIG. 3) is obtained. The boundary represented by this regression equation B is the determination threshold value.
なお、線Aを原点方向にシフトさせる際のシフト量は、ドライバの状態の推定精度が所望の精度となるように実験等によって予め定める構成とすればよい。また、所定時間tごとのサッカード,マイクロサッカードの発生頻度のばらつきの度合いが大きくなるのに応じてシフト量を大きくする構成としてもよい。 The shift amount when shifting the line A toward the origin may be configured in advance by an experiment or the like so that the estimation accuracy of the driver's state becomes a desired accuracy. Further, the shift amount may be increased as the degree of variation in the frequency of occurrence of saccades and microsaccades at predetermined time t increases.
判定閾値決定部141での追従眼球運動時間についての判定閾値の決定は、一例として以下のようにして行う。判定閾値決定部141は、眼球運動情報記憶部120に蓄積されている、追従眼球運動時間算出部133で算出した有効時間T内における所定時間tごとの追従眼球運動時間の平均値(以下、平均追従眼球運動時間)を算出する。そして、算出した平均追従眼球運動時間から追従眼球運動時間についての判定閾値を決定する。言い換えると、追従眼球運動時間算出部133で算出した過去の一定期間における実際の追従眼球運動の発生時間のデータ群から追従眼球運動時間についての判定閾値を決定する。例えば、判定閾値決定部141は、平均追従眼球運動時間から予め定められたシフト量だけ低くした値を判定閾値とすればよい。このシフト量は、ドライバの状態の推定精度が所望の精度となるように実験等によって予め定める構成とすればよい。また、所定時間tごとの追従眼球運動時間のばらつきの度合いが大きくなるのに応じて判定閾値を小さく決定する構成としてもよい。
The determination threshold value for the follow-up eye movement time in the determination threshold
判定閾値決定部141での急速眼球運動頻度変化量についての判定閾値の決定は、一例として以下のようにして行う。判定閾値決定部141は、眼球運動情報記憶部120に蓄積されている、変化量算出部134で算出した有効時間T内における所定時間tごとの急速眼球運動頻度変化量の平均値(以下、平均変化量)を算出する。そして、算出した平均変化量から急速眼球運動頻度変化量についての判定閾値を決定する。言い換えると、変化量算出部134で算出した過去の一定期間における実際の急速眼球運動頻度変化量のデータ群から急速眼球運動頻度変化量についての判定閾値を決定する。例えば、判定閾値決定部141は、平均変化量から予め定められたシフト量だけ低くした値を判定閾値とすればよい。このシフト量は、ドライバの状態の推定精度が所望の精度となるように実験等によって予め定める構成とすればよい。また、所定時間tごとの平均変化量のばらつきの度合いが大きくなるのに応じて判定閾値を小さく決定する構成としてもよい。
As an example, the determination threshold
状態推定部140の状態推定処理では、急速眼球運動頻度算出部132で逐次算出する急速眼球運動頻度が、判定閾値決定部141で決定した急速眼球運動頻度についての判定閾値以上である場合には、ドライバの状態が正常であると判定する。また、状態推定部140の状態推定処理では、急速眼球運動頻度算出部132で逐次算出する急速眼球運動頻度が、急速眼球運動頻度についての判定閾値未満である場合であっても、瞬目頻度算出部131で逐次算出する瞬目頻度,追従眼球運動時間算出部133で逐次算出する追従眼球運動時間,変化量算出部134で逐次算出する急速眼球運動頻度変化量のいずれかが、それぞれの判定閾値以上である場合には、ドライバの状態が正常であると判定する。
In the state estimation process of the
一方、状態推定部140は、急速眼球運動頻度算出部132で逐次算出する急速眼球運動頻度が、急速眼球運動頻度についての判定閾値未満である場合であって、且つ、瞬目頻度算出部131で逐次算出する瞬目頻度,追従眼球運動時間算出部133で逐次算出する追従眼球運動時間,変化量算出部134で逐次算出する急速眼球運動頻度変化量の全てが、それぞれの判定閾値未満である場合に、ドライバの状態が異常であると判定する。本実施形態では、一例として、ドライバが集中している集中状態が正常であるものとし、ドライバの注意力が低下している不注意状態が異常であるものとして説明を行う。
On the other hand, the
報知処理部150は、状態推定部140でドライバの状態が不注意状態であると推定した場合に、報知装置60に指示を行って報知を行わせる。報知としては、不注意状態であることをドライバに認識させるものであればよく、例えば警報等とすればよい。
When the
<HCU10での状態推定関連処理>
続いて、図4〜図7のフローチャートを用いて、HCU10での、ドライバの状態の推定に関連する処理(以下、状態推定関連処理)の流れの一例について説明を行う。図4のフローチャートは、HCU10の電源がオンになったときに開始し、HCU10の電源がオフになったときに終了する構成とすればよい。HCU10の電源のオンオフが、自車の内燃機関又はモータジェネレータを始動させるためのスイッチ(以下、パワースイッチ)のオンオフに応じて切り替えられる場合には、このパワースイッチのオン時に開始し、オフ時に終了する構成とすればよい。
<State estimation related processing in HCU10>
Subsequently, an example of the flow of the process related to the estimation of the driver state (hereinafter, the state estimation related process) in the
まず、ステップS1では、画像認識処理部100が、ドライバ撮像ユニット50から取得する顔画像から画像認識処理を行う。画像認識処理部100は、この画像認識処理によって、ドライバの顔部位の抽出,顔部位の形状的な特徴の抽出,視線角度の算出等を行う。
First, in step S1, the image
ステップS2では、眼球運動抽出部110が眼球運動抽出処理を行って、ステップS3に移る。眼球運動抽出処理では、抽出対象とする眼球運動が生じている場合に、この眼球運動を抽出する。ここで、図5のフローチャートを用いて、眼球運動抽出処理の概略について説明を行う。
In step S2, the eye
まず、ステップS21では、瞬目抽出部111が、ドライバの瞬目を抽出する。ステップS22では、急速眼球運動抽出部112が、画像認識処理部100で算出した過去数フレーム分の視線角度をもとに視線角速度を算出する。ステップS23では、急速眼球運動抽出部112が、上述した視線角速度をもとに視線角加速度を算出する。
First, in step S21, the
ステップS24では、急速眼球運動抽出部112が、S23で算出した視線角加速度が基準角加速度以上であって、且つ、視線の移動距離が基準距離以上の場合に、サッカードを抽出する。ステップS25では、急速眼球運動抽出部112が、視線角加速度が基準角加速度以上であって、且つ、視線の移動距離が基準距離未満の場合に、マイクロサッカードを抽出する。ステップS26では、追従眼球運動抽出部113が、ドライバの追従眼球運動を抽出し、ステップS3に移る。なお、S24〜S26の処理は順番を入れ替えても構わない。
In step S24, the rapid eye
図4に戻って、ステップS3では、S2の眼球運動抽出処理で抽出した眼球運動のデータを眼球運動情報記憶部120に有効時間Tが経過するまで記憶する。ステップS4では、状態推定関連処理を開始してから有効時間Tが経過した場合(S4でYES)には、ステップS5に移る。状態推定関連処理を開始してから有効時間Tが経過していない場合(S4でNO)には、S1に戻って処理を繰り返す。状態推定関連処理を開始してから有効時間Tが経過したか否かについては、状態推定部140が例えばタイマ回路によるカウント等をもとに判断すればよい。
Returning to FIG. 4, in step S3, the eye movement data extracted by the eye movement extraction process of S2 is stored in the eye movement
ステップS5では、判定閾値決定部141が判定閾値を決定済みであった場合には、ステップS7に移る。一方、判定閾値決定部141が判定閾値を決定済みでなかった場合には、ステップS6に移る。ステップS6では、判定閾値決定部141が判定閾値決定処理を行って、ステップS7に移る。ここで、図6のフローチャートを用いて、判定閾値決定処理の概略について説明を行う。
In step S5, if the determination threshold
まず、ステップS61では、判定閾値決定部141が急速眼球運動頻度についての判定閾値を決定する。ステップS62では、判定閾値決定部141が瞬目頻度についての判定閾値を決定する。ステップS63では、判定閾値決定部141が追従眼球運動についての判定閾値を決定する。ステップS64では、判定閾値決定部141が急速眼球運動変化量についての判定閾値を決定し、ステップS7に移る。なお、S61〜S64の処理は順番を入れ替えても構わない。
First, in step S61, the determination threshold
状態推定関連処理において、判定閾値決定処理は1回のみ実施され、判定閾値を決定した後は、決定済みの判定閾値を用いて状態推定処理を行う構成とすればよい。本実施形態では、HCU10の電源がオンになった後に判定閾値決定処理を1回実施して判定閾値を決定し、HCU10の電源がオフになるまでは決定済みの判定閾値を用いて状態推定を行う。これによれば、自車のパワースイッチのオン,HCU10の電源オン等の状態推定関連処理の開始のトリガごとに判定閾値を新たに決定し直すので、乗車ごとにドライバに合った判定閾値を決定し直すことが可能になる。よって、日ごとにドライバの体調が異なる場合であっても、その日のドライバの体調に合わせた判定閾値を決定し、ドライバの状態の推定精度を向上させることができる。従って、自車の走行中に何度も判定閾値を決定し直す処理負荷を抑えつつ、ドライバの状態の推定精度を向上させることが可能になる。
In the state estimation-related processing, the determination threshold value determination process may be performed only once, and after the determination threshold value is determined, the state estimation process may be performed using the determined determination threshold value. In the present embodiment, the determination threshold value determination process is performed once after the power of the
図4に戻って、ステップS7では、状態推定部140が状態推定処理を行ってドライバの状態を推定し、ステップS8に移る。ここで、図7のフローチャートを用いて、状態推定処理の概略について説明を行う。状態推定処理では、所定時間tごとの判定用データを算出し、この判定用データとS6で決定した判定閾値との比較によってドライバの状態を推定する。本実施形態では、ドライバの注意力を推定する。
Returning to FIG. 4, in step S7, the
まず、S71では、状態推定部140が、急速眼球運動頻度算出部132で算出した直近の所定時間tにおけるドライバのサッカード,マイクロサッカードの発生頻度(つまり、急速眼球運動頻度)を取得する。急速眼球運動頻度は、サッカード及びマイクロサッカードのいずれかの発生頻度であってもよいが、ここではサッカードの発生頻度とマイクロサッカードの発生頻度の合計値とする。続いて、状態推定部140は、直近の所定時間tの急速眼球運動頻度とS6で決定した急速眼球運動頻度についての判定閾値とを比較する。そして、急速眼球運動頻度がこの判定閾値よりも大きい場合(S71でYES)には、ステップS75に移る。一方、急速眼球運動頻度がこの判定閾値以下である場合(S71でNO)には、ステップS72に移る。
First, in S71, the
ステップS72では、状態推定部140が、瞬目頻度算出部131で算出した直近の所定時間tにおけるドライバの瞬目頻度を取得し、この瞬目頻度とS6で決定した瞬目頻度についての判定閾値とを比較する。そして、瞬目頻度がこの判定閾値よりも大きい場合(S72でYES)には、ステップS75に移る。一方、瞬目頻度がこの判定閾値以下である場合(S72でNO)には、ステップS73に移る。
In step S72, the
ステップS73では、状態推定部140が、追従眼球運動時間算出部133で算出した直近の所定時間tにおけるドライバの追従眼球運動時間を取得し、この追従眼球運動時間とS6で決定した追従眼球運動時間についての判定閾値とを比較する。そして、追従眼球運動時間がこの判定閾値よりも大きい場合(S73でYES)には、ステップS75に移る。一方、追従眼球運動時間がこの判定閾値以下である場合(S73でNO)には、ステップS74に移る。
In step S73, the
ステップS74では、状態推定部140が、変化量算出部134で算出した直近の所定時間tについてのドライバの急速眼球運動頻度変化量を取得し、この急速眼球運動頻度変化量とS6で決定した急速眼球運動頻度変化量についての判定閾値とを比較する。そして、急速眼球運動頻度変化量がこの判定閾値よりも大きい場合(S74でYES)には、ステップS75に移る。一方、急速眼球運動頻度変化量がこの判定閾値以下である場合(S74でNO)には、ステップS76に移る。
In step S74, the
ステップS75では、状態推定部140が、ドライバの状態を正常、つまり集中状態であると推定し、ステップS8に移る。つまり、状態推定部140は、急速眼球運動頻度、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量のいずれかでもそれぞれの判定閾値よりも大きい場合に、ドライバの状態を集中状態であると推定する。
In step S75, the
一方、ステップS76では、状態推定部140が、ドライバの状態を異常、つまり不注意状態であると推定し、ステップS8に移る。つまり、状態推定部140は、急速眼球運動頻度、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量の全てがそれぞれの判定閾値以下の場合に、ドライバの状態を不注意状態であると推定する。なお、S71〜S74の処理の順番は入れ替えても構わない。
On the other hand, in step S76, the
図4に戻って、ステップS8では、S7でドライバの状態を不注意状態と推定した場合(S8でYES)には、ステップS9に移る。一方、S7でドライバの状態を集中状態と推定した場合(S8でNO)には、ステップS10に移る。ステップS9では、報知処理部150が、報知装置60に指示を行って警報を行わせ、ステップS10に移る。
Returning to FIG. 4, in step S8, when the driver's state is estimated to be a careless state in S7 (YES in S8), the process proceeds to step S9. On the other hand, when the driver state is estimated to be the concentrated state in S7 (NO in S8), the process proceeds to step S10. In step S9, the
ステップS10では、状態推定関連処理の終了タイミングである場合(S10でYES)には、状態推定関連処理を終了する。一方、状態推定関連処理の終了タイミングでない場合(S10でNO)には、S1に戻って処理を繰り返す。状態推定関連処理の終了タイミングとしては、例えばHCU10の電源がオフになった場合,自車のパワースイッチがオフになった場合等がある。
In step S10, when it is the end timing of the state estimation-related processing (YES in S10), the state estimation-related processing is ended. On the other hand, if it is not the end timing of the state estimation related processing (NO in S10), the process returns to S1 and the processing is repeated. The end timing of the state estimation-related processing includes, for example, the case where the power of the
<実施形態1のまとめ>
実施形態1の構成によれば、ドライバのサッカード及びマイクロサッカードの少なくともいずれかの発生頻度である急速眼球運動頻度だけでなく、ドライバの瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量を用いてドライバの状態を推定することで、ドライバの状態をより精度良く推定することが可能になる。
<Summary of
According to the configuration of the first embodiment, not only the rapid eye movement frequency which is the occurrence frequency of at least one of the driver's saccade and the microsaccade, but also the driver's blink frequency, the follow-up eye movement time, and the rapid eye movement frequency. By estimating the driver state using the amount of change, it becomes possible to estimate the driver state more accurately.
詳しくは、瞬目頻度を用いることで、瞬目による急速眼球運動頻度の低下をドライバの状態の異常と推定しないようにすることが可能になる。また、追従眼球運動時間を用いることで、追従眼球運動による急速眼球運動頻度の低下をドライバの状態の異常と推定しないようにすることが可能になる。さらに、急速眼球運動頻度変化量を用いた場合には、急速眼球運動頻度が増加傾向にある場合の急速眼球運動頻度の低下をドライバの状態の異常と推定しないようにすることが可能になる。よって、急速眼球運動頻度だけを用いる場合に比べ、ドライバの状態をより精度良く推定することが可能になる。また、ドライバの瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量の一部を用いる場合と比較しても、ドライバの状態をより精度良く推定することが可能になる。 Specifically, by using the blink frequency, it is possible to prevent the decrease in the rapid eye movement frequency due to the blink from being estimated as an abnormality in the driver's condition. Further, by using the follow-up eye movement time, it is possible to prevent the decrease in the frequency of rapid eye movement due to the follow-up eye movement from being estimated as an abnormality in the driver's state. Furthermore, when the amount of change in the frequency of rapid eye movements is used, it becomes possible not to presume that the decrease in the frequency of rapid eye movements when the frequency of rapid eye movements tends to increase is an abnormality in the driver's condition. Therefore, the driver's state can be estimated more accurately than when only the rapid eye movement frequency is used. In addition, the driver's state can be estimated more accurately than when a part of the driver's blink frequency, the following eye movement time, and the rapid eye movement frequency change amount is used.
(実施形態2)
実施形態1では、視線角速度若しくは視線角加速度をもとにドライバの追従眼球運動を抽出する構成を示したが、必ずしもこれに限らない。例えば、注視対象物の自車に対する位置及び/又は速度をもとにドライバの追従眼球運動の発生を推定することでドライバの追従眼球運動を抽出する構成(以下、実施形態2)としてもよい。以下、実施形態2の構成について説明する。
(Embodiment 2)
In the first embodiment, the configuration in which the driver's follow-up eye movement is extracted based on the line-of-sight angular velocity or the line-of-sight angular acceleration is shown, but the present invention is not necessarily limited to this. For example, the configuration may be such that the driver's follow-up eye movement is extracted by estimating the occurrence of the driver's follow-up eye movement based on the position and / or speed of the gaze object with respect to the own vehicle (hereinafter, embodiment 2). Hereinafter, the configuration of the second embodiment will be described.
実施形態2の車両システム1は、HCU10の代わりにHCU10aを含む点を除けば、実施形態1の車両システム1と同様である。ここで、図8を用いて、HCU10aの概略構成を説明する。
The
図8に示すように、HCU10aは、機能ブロックとして、画像認識処理部100、眼球運動抽出部110a、眼球運動情報記憶部120、判定用データ算出部130、状態推定部140、報知処理部150、及び対象物情報取得部160を備えている。HCU10aは、対象物情報取得部160を備えている点、及び眼球運動抽出部110の代わりに眼球運動抽出部110aを備えている点を除けばHCU10と同様である。このHCU10aも請求項の状態推定装置に相当する。
As shown in FIG. 8, as functional blocks, the
対象物情報取得部160は、自車周辺の注視対象物の自車に対する位置及び速度の少なくともいずれかである対象物情報を取得する。一例としては、周辺監視ECU40で検出した、自車に対する注視対象物の位置及び/又は速度を対象物情報として取得する構成とすればよい。注視対象物が複数存在する場合には、その複数の注視対象物についての対象物情報を取得する構成とすればよい。
The object
眼球運動抽出部110aは、サブ機能ブロックとして、瞬目抽出部111、急速眼球運動抽出部112、及び追従眼球運動抽出部113aを備える。眼球運動抽出部110aは、追従眼球運動抽出部113の代わりに追従眼球運動抽出部113aを備える点を除けば眼球運動抽出部110と同様である。
The eye
追従眼球運動抽出部113aは、対象物情報取得部160で取得する対象物情報をもとにドライバの追従眼球運動の発生を推定することでドライバの追従眼球運動を抽出する。よって、この追従眼球運動抽出部113aが請求項の発生推定部に相当する。ドライバは、注視対象物が視野範囲内に位置し、且つ、自車に対する速度差が一定以上に大きい場合に、この注視対象物に対して追従眼球運動を起こす。よって、注視対象物が自車の前方に位置したり、自車に対する注視対象物の速度差が一定以上に大きかったりする場合には、追従眼球運動が発生する確率が高い。よって、このような場合を条件としてドライバの追従眼球運動の発生を推定することでドライバの追従眼球運動を抽出すればよい。
The following eye
実施形態2の構成であっても、追従眼球運動の抽出の態様が異なる点を除けば実施形態1と同様であるので、実施形態1の構成と同様の効果を奏することができる。 The configuration of the second embodiment is the same as that of the first embodiment except that the mode of extracting the follow-up eye movement is different, so that the same effect as that of the first embodiment can be obtained.
(実施形態3)
実施形態1では、追従眼球運動時間についての判定閾値を、有効時間T内における所定時間tごとの追従眼球運動時間の平均値又はばらつきの度合いから決定する構成を示したが、必ずしもこれに限らない。例えば、注視対象物の自車に対する位置及び/又は速度をもとに、追従眼球運動時間についての判定閾値を決定する構成(以下、実施形態3)としてもよい。以下、実施形態3の構成について説明する。
(Embodiment 3)
In the first embodiment, the determination threshold value for the follow-up eye movement time is determined from the average value or the degree of variation of the follow-up eye movement time for each predetermined time t within the effective time T, but the present invention is not necessarily limited to this. .. For example, it may be configured to determine the determination threshold value for the following eye movement time based on the position and / or speed of the gaze object with respect to the own vehicle (hereinafter, embodiment 3). Hereinafter, the configuration of the third embodiment will be described.
実施形態3の車両システム1は、HCU10の代わりにHCU10bを含む点を除けば、実施形態1の車両システム1と同様である。ここで、図9を用いて、HCU10bの概略構成を説明する。
The
図9に示すように、HCU10bは、機能ブロックとして、画像認識処理部100、眼球運動抽出部110、眼球運動情報記憶部120、判定用データ算出部130、状態推定部140b、報知処理部150、及び対象物情報取得部160を備えている。HCU10bは、対象物情報取得部160を備えている点、及び状態推定部140の代わりに状態推定部140bを備えている点を除けばHCU10と同様である。このHCU10bも請求項の状態推定装置に相当する。
As shown in FIG. 9, the
対象物情報取得部160は、実施形態2の対象物情報取得部160と同様である。状態推定部140bは、サブ機能ブロックとして、判定閾値決定部141bを備える。状態推定部140bは、判定閾値決定部141の代わりに判定閾値決定部141bを備える点を除けば状態推定部140と同様である。
The object
判定閾値決定部141bは、対象物情報取得部160で取得する対象物情報に応じて、追従眼球運動時間についての判定閾値を決定する。また、判定閾値決定部141bは、実施形態1の判定閾値決定部141と同様にして決定した追従眼球運動時間についての判定閾値を、対象物情報取得部160で取得する対象物情報に応じて変更することで決定する構成としてもよい。
The determination threshold
一例としては、自車に対する注視対象物の速度が速くなるほど追従眼球運動時間が短くなる確率が高いため、自車に対する注視対象物の速度が速くなるのに応じて、追従眼球運動時間についての判定閾値を小さく決定する構成とすればよい。また、自車に対して注視対象物が遠くにある場合は追従眼球運動時間が長くなる確率が高いため、自車に対する注視対象物の位置及び速度から、自車に対する注視対象物の接近の度合いが低くなるのに応じて、追従眼球運動時間についての判定閾値を大きく決定する構成としてもよい。他にも、自車周辺の注視対象物の数が多くなるほど一つの注視対象物に対する追従眼球運動時間が短くなる確率が高いため、自車に対する注視対象物の位置から、自車周辺の注視対象物の数が多くなるのに応じて、追従眼球運動時間についての判定閾値を小さく決定する構成としてもよい。 As an example, the faster the speed of the gaze object with respect to the own vehicle, the higher the probability that the follow-up eye movement time becomes shorter. The configuration may be such that the threshold value is determined to be small. In addition, when the gaze object is far away from the own vehicle, there is a high probability that the follow-up eye movement time will be longer. The determination threshold value for the follow-up eye movement time may be largely determined according to the decrease in the value. In addition, as the number of gaze objects around the vehicle increases, there is a high probability that the tracking eye movement time for one gaze object will become shorter. As the number increases, the determination threshold value for the follow-up eye movement time may be determined to be smaller.
注視対象物の自車に対する位置及び/又は速度によって、自車のドライバがその注視対象物を注視することによって生じる追従眼球運動の発生時間の長さの傾向が変わる。実施形態3の構成によれば、対象物情報取得部160で取得する対象物情報に応じて追従眼球運動時間についての判定閾値を決定することで、この対象物情報に応じて変わる追従眼球運動の発生時間の長さの傾向に合わせて、追従眼球運動時間についての判定閾値を決定することが可能になる。従って、追従眼球運動時間についての判定閾値の精度をより向上させ、ドライバの状態の推定精度をより向上させることが可能になる。
Depending on the position and / or speed of the gaze object with respect to the own vehicle, the tendency of the length of time during which the follow-up eye movement occurs when the driver of the own vehicle gazes at the gaze object changes. According to the configuration of the third embodiment, by determining the determination threshold value for the follow-up eye movement time according to the object information acquired by the object
なお、実施形態3の構成であっても、追従眼球運動時間についての判定閾値を変更する点を除けば実施形態1と同様であるので、実施形態1の構成と同様の効果も奏することができる。また、実施形態3の構成を実施形態1若しくは実施形態2と組み合わせても構わない。 The configuration of the third embodiment is the same as that of the first embodiment except that the determination threshold value for the following eye movement time is changed, so that the same effect as that of the first embodiment can be obtained. .. Further, the configuration of the third embodiment may be combined with the first embodiment or the second embodiment.
(実施形態4)
実施形態1では、瞬目頻度についての判定閾値を、有効時間T内における所定時間tごとの瞬目頻度の平均値又はばらつきの度合いから決定する構成を示したが、必ずしもこれに限らない。例えば、自車の室内の湿度及び/又は明るさをもとに、瞬目頻度についての判定閾値を決定する構成(以下、実施形態4)としてもよい。以下、実施形態4の構成について説明する。
(Embodiment 4)
In the first embodiment, the determination threshold value for the blink frequency is determined from the average value or the degree of variation of the blink frequency for each predetermined time t within the effective time T, but the present invention is not necessarily limited to this. For example, the configuration may be such that the determination threshold value for the blink frequency is determined based on the humidity and / or brightness in the interior of the own vehicle (hereinafter referred to as the fourth embodiment). Hereinafter, the configuration of the fourth embodiment will be described.
実施形態4の車両システム1は、HCU10の代わりにHCU10cを含む点を除けば、実施形態1の車両システム1と同様である。ここで、図10を用いて、HCU10cの概略構成を説明する。
The
図10に示すように、HCU10bは、機能ブロックとして、画像認識処理部100、眼球運動抽出部110、眼球運動情報記憶部120、判定用データ算出部130、状態推定部140c、報知処理部150、及び室内環境情報取得部170を備えている。HCU10cは、室内環境情報取得部170を備えている点、及び状態推定部140の代わりに状態推定部140cを備えている点を除けばHCU10と同様である。このHCU10cも請求項の状態推定装置に相当する。
As shown in FIG. 10, as functional blocks, the
室内環境情報取得部170は、自車の室内の湿度及び/又は明るさである室内環境情報を取得する。一例としては、車両センサ20のうちの外光センサで検出する照度及び/又は車両センサ20のうちの湿度センサで検出する湿度を室内環境情報として取得する構成とすればよい。
The indoor environment
状態推定部140cは、サブ機能ブロックとして、判定閾値決定部141cを備える。状態推定部140cは、判定閾値決定部141の代わりに判定閾値決定部141cを備える点を除けば状態推定部140と同様である。
The
判定閾値決定部141cは、室内環境情報取得部170で取得する室内環境情報に応じて、瞬目頻度についての判定閾値を決定する。また、判定閾値決定部141cは、実施形態1の判定閾値決定部141と同様にして決定した瞬目頻度についての判定閾値を、室内環境情報取得部170で取得する室内環境情報に応じて変更することで決定する構成としてもよい。一例としては、外光センサで検出する照度が大きくなるのに応じて、瞬目頻度についての判定閾値を大きく決定する構成とすればよい。また、湿度センサで検出する湿度が低くなるのに応じて、瞬目頻度についての判定閾値を大きく変更する構成としてもよい。
The determination threshold
自車の室内の湿度及び/又は明るさによって、自車のドライバの瞬目頻度の傾向が変わる。例えば、湿度が低いほど乾燥によって瞬きが増えるため瞬目頻度は高くなる。また、明るさが大きいほど瞬きが増えるため瞬目頻度は高くなる。実施形態4の構成によれば、室内環境情報取得部170で取得する室内環境情報に応じて瞬目頻度についての判定閾値を変更することで、この室内環境情報に応じて変わる瞬目頻度の傾向に合わせて、瞬目頻度についての判定閾値を変更することが可能になる。従って、瞬目頻度についての判定閾値の精度をより向上させ、ドライバの状態の推定精度をより向上させることが可能になる。
The tendency of the blink frequency of the driver of the own vehicle changes depending on the humidity and / or the brightness of the interior of the own vehicle. For example, the lower the humidity, the more blinks due to drying, and the higher the frequency of blinks. In addition, the greater the brightness, the greater the number of blinks, and the higher the frequency of blinks. According to the configuration of the fourth embodiment, by changing the determination threshold value for the blink frequency according to the indoor environment information acquired by the indoor environment
なお、実施形態4の構成であっても、瞬目頻度についての判定閾値を変更する点を除けば実施形態1と同様であるので、実施形態1の構成と同様の効果も奏することができる。また、実施形態4の構成を実施形態1〜3の構成と組み合わせても構わない。 The configuration of the fourth embodiment is the same as that of the first embodiment except that the determination threshold value for the blink frequency is changed, so that the same effect as that of the first embodiment can be obtained. Further, the configuration of the fourth embodiment may be combined with the configurations of the first to third embodiments.
(実施形態5)
前述の実施形態では、急速眼球運動頻度、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量をHCU10,10a,10b,10cで算出することで取得する構成を示したが、必ずしもこれに限らない。例えば、HCU10,10a,10b,10c以外の装置で算出した急速眼球運動頻度、瞬目頻度、追従眼球運動時間、及び/又は急速眼球運動頻度変化量を、HCU10,10a,10b,10cが取得する構成としてもよい。また、HCU10,10a,10b,10cの機能は、複数の装置で担う構成としてもよい。
(Embodiment 5)
In the above-described embodiment, the configuration obtained by calculating the rapid eye movement frequency, the blink frequency, the follow-up eye movement time, and the amount of change in the rapid eye movement frequency by HCU10, 10a, 10b, 10c is shown, but this is not necessarily the case. Not limited to. For example, the
(実施形態6)
前述の実施形態では、状態推定部140,140b,140cが、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量を用いてドライバの状態を推定する構成を示したが、必ずしもこれに限らない。例えば、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量のうちの一部のみをドライバの状態の推定に用いる構成としてもよい。なお、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量のうち、急速眼球運動頻度変化量は、急速眼球運動頻度の算出結果を用いて算出できるため、急速眼球運動頻度変化量も用いてドライバの状態を推定する構成とした場合でも、新たな演算処理の増加を抑えることができ、処理負荷を抑えることができる利点がある。
(Embodiment 6)
In the above-described embodiment, the
(実施形態7)
前述の実施形態では、状態推定関連処理をHCU10,10a,10b,10cの電源がオンになるごとに実行する構成を示したが、必ずしもこれに限らない。例えば、自車に設けられた操作入力部に状態推定関連処理を実行するための操作入力をユーザが行うごとに、状態推定関連処理を実行する構成としてもよい。これによれば、自車のドライバが変更するごとにドライバからこの操作入力を受け付けることで、個々のドライバに応じた判定閾値を決定し、個々のドライバに応じてドライバの状態を精度良く推定することが可能になる。
(Embodiment 7)
In the above-described embodiment, the configuration in which the state estimation-related processing is executed every time the power of the
また、個々のドライバごとに異なる電子キーのIDといった識別情報を車両システム1のメモリに登録しておくことで、電子キーIDから近距離無線通信で得られるドライバごとの識別情報をもとに、ドライバが変更されるごとに状態推定関連処理を実行する構成としてもよい。この場合でも、個々のドライバに応じた判定閾値を決定し、個々のドライバに応じてドライバの状態を精度良く推定することが可能になる。
Further, by registering identification information such as an electronic key ID different for each driver in the memory of the
(実施形態8)
前述の実施形態では、本発明を車両に適用した場合を例に挙げて説明を行ったが、必ずしもこれに限らない。例えば、車両以外の移動体に適用し、車両以外の移動体の乗員の状態を推定する構成としてもよい。また、移動体以外に適用する構成としてもよい。例えば、工場のライン等での作業員の状態を推定する構成としてもよい。
(Embodiment 8)
In the above-described embodiment, the case where the present invention is applied to a vehicle has been described as an example, but the present invention is not necessarily limited to this. For example, it may be applied to a moving body other than a vehicle to estimate the state of an occupant of the moving body other than the vehicle. Further, the configuration may be applied to other than the moving body. For example, it may be configured to estimate the state of workers on a factory line or the like.
なお、本発明は、上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiment, and various modifications can be made within the scope of the claims, and the present invention can be obtained by appropriately combining the technical means disclosed in the different embodiments. Embodiments are also included in the technical scope of the present invention.
1 車両システム、10,10a,10b,10c HCU(状態推定装置)、20 車両センサ、30 周辺監視センサ、40 周辺監視ECU、50 ドライバ撮像ユニット、100 画像認識処理部、110 眼球運動抽出部、111 瞬目抽出部、112 急速眼球運動抽出部、113 追従眼球運動抽出部、113a 追従眼球運動抽出部(発生推定部)、120 眼球運動情報記憶部、130 判定用データ算出部、131 瞬目頻度算出部(瞬目取得部)、132 急速眼球運動頻度算出部(頻度取得部)、133 追従眼球運動時間算出部(追従眼球運動取得部)、134 変化量算出部(頻度変化量取得部)、135 補強情報取得部、140,140b,140c 状態推定部、141,141b,141c 判定閾値決定部、150 報知処理部、160 対象物情報取得部、170 室内環境情報取得部 1 Vehicle system, 10, 10a, 10b, 10c HCU (state estimation device), 20 vehicle sensor, 30 peripheral monitoring sensor, 40 peripheral monitoring ECU, 50 driver imaging unit, 100 image recognition processing unit, 110 eye movement extraction unit, 111 Instantaneous eye movement extraction unit, 112 Rapid eye movement extraction unit, 113 Follow-up eye movement extraction unit, 113a Follow-up eye movement extraction unit (occurrence estimation unit), 120 Eye movement information storage unit, 130 Judgment data calculation unit, 131 Instantaneous frequency calculation Unit (flash acquisition unit), 132 Rapid eye movement frequency calculation unit (frequency acquisition unit), 133 Follow-up eye movement time calculation unit (following eye movement acquisition unit), 134 Change amount calculation unit (frequency change acquisition unit), 135 Reinforcement information acquisition unit, 140, 140b, 140c state estimation unit, 141, 141b, 141c judgment threshold determination unit, 150 notification processing unit, 160 object information acquisition unit, 170 indoor environment information acquisition unit
Claims (13)
前記監視対象者のサッカード及びマイクロサッカードの少なくともいずれかの発生頻度である急速眼球運動頻度を取得する頻度取得部(132)と、
前記監視対象者の瞬目の発生頻度を取得する瞬目取得部(131)、前記監視対象者の追従眼球運動の発生時間を取得する追従眼球運動取得部(133)、及び前記監視対象者の前記急速眼球運動頻度の変化量を取得する頻度変化量取得部(134)の少なくともいずれかである補強情報取得部(135)と、
前記頻度取得部で取得する前記急速眼球運動頻度に加え、前記補強情報取得部で取得する情報を用いて、前記監視対象者の状態を推定する状態推定部(140,140b,140c)とを備え、
前記補強情報取得部は、少なくとも前記瞬目取得部であり、
前記状態推定部は、前記頻度取得部で取得する前記急速眼球運動頻度がその急速眼球運動頻度についての閾値よりも大きい場合に、前記監視対象者の状態が正常であると推定する一方、前記頻度取得部で取得する前記急速眼球運動頻度がその急速眼球運動頻度についての閾値以下である場合であっても、前記瞬目取得部で取得する前記瞬目の発生頻度がその発生頻度についての閾値よりも大きい場合には、前記監視対象者の状態が正常であると推定する状態推定装置。 A state estimation device that estimates the state of the monitored person based on the eye movements of the monitored person.
A frequency acquisition unit (132) for acquiring the frequency of rapid eye movement, which is the frequency of occurrence of at least one of the saccade and microsaccade of the monitored person, and
The blink acquisition unit (131) for acquiring the frequency of occurrence of the blink of the monitored person, the following eye movement acquisition unit (133) for acquiring the occurrence time of the follow-up eye movement of the monitored person, and the monitoring target person. The reinforcement information acquisition unit (135), which is at least one of the frequency change acquisition units (134) for acquiring the change amount of the rapid eye movement frequency,
In addition to the rapid eye movement frequency acquired by the frequency acquisition unit, a state estimation unit (140, 140b, 140c) that estimates the state of the monitored person by using the information acquired by the reinforcement information acquisition unit is provided. ,
The reinforcement information acquisition unit is at least the blink acquisition unit, and is
The state estimation unit estimates that the state of the monitored subject is normal when the rapid eye movement frequency acquired by the frequency acquisition unit is larger than the threshold value for the rapid eye movement frequency, while the frequency is estimated. Even when the rapid eye movement frequency acquired by the acquisition unit is equal to or less than the threshold value for the rapid eye movement frequency, the occurrence frequency of the blink acquired by the blink acquisition unit is greater than the threshold value for the occurrence frequency. If even larger, the monitoring subject of the state state estimating device you presumed to be normal.
前記車両の室内の湿度及び明るさの少なくともいずれかである室内環境情報を取得する室内環境情報取得部(170)を備え、
前記状態推定部(140c)は、前記瞬目の発生頻度についての閾値を、前記室内環境情報取得部で逐次取得する前記室内環境情報に応じて逐次決定して更新する請求項1又は2に記載の状態推定装置。 It is used in a vehicle and estimates the state of the driver of the vehicle as the person to be monitored.
The vehicle is provided with an indoor environment information acquisition unit (170) that acquires indoor environment information that is at least one of the humidity and brightness of the interior of the vehicle.
The state estimation unit (140c) according to claim 1 or 2 , wherein the state estimation unit (140c) sequentially determines and updates the threshold value for the occurrence frequency of the blinks according to the indoor environment information sequentially acquired by the indoor environment information acquisition unit. State estimator.
前記状態推定部は、前記頻度取得部で取得する前記急速眼球運動頻度がその急速眼球運動頻度についての閾値以下である場合であっても、前記追従眼球運動取得部で取得する前記追従眼球運動の発生時間がその発生時間についての閾値よりも大きい場合には、前記監視対象者の状態が正常であると推定する請求項1〜3のいずれか1項に記載の状態推定装置。 The reinforcement information acquisition unit is at least the follow-up eye movement acquisition unit, and is
Even when the rapid eye movement frequency acquired by the frequency acquisition unit is equal to or less than the threshold value for the rapid eye movement frequency, the state estimation unit obtains the follow-up eye movement of the follow-up eye movement acquisition unit. The state estimation device according to any one of claims 1 to 3 , wherein when the occurrence time is larger than the threshold value for the occurrence time, the state of the monitored person is estimated to be normal.
前記監視対象者のサッカード及びマイクロサッカードの少なくともいずれかの発生頻度である急速眼球運動頻度を取得する頻度取得部(132)と、
前記監視対象者の瞬目の発生頻度を取得する瞬目取得部(131)、前記監視対象者の追従眼球運動の発生時間を取得する追従眼球運動取得部(133)、及び前記監視対象者の前記急速眼球運動頻度の変化量を取得する頻度変化量取得部(134)の少なくともいずれかである補強情報取得部(135)と、
前記頻度取得部で取得する前記急速眼球運動頻度に加え、前記補強情報取得部で取得する情報を用いて、前記監視対象者の状態を推定する状態推定部(140,140b,140c)とを備え、
前記補強情報取得部は、少なくとも前記追従眼球運動取得部であり、
前記状態推定部は、前記頻度取得部で取得する前記急速眼球運動頻度がその急速眼球運動頻度についての閾値よりも大きい場合に、前記監視対象者の状態が正常であると推定する一方、前記頻度取得部で取得する前記急速眼球運動頻度がその急速眼球運動頻度についての閾値以下である場合であっても、前記追従眼球運動取得部で取得する前記追従眼球運動の発生時間がその発生時間についての閾値よりも大きい場合には、前記監視対象者の状態が正常であると推定する状態推定装置。 A state estimation device that estimates the state of the monitored person based on the eye movements of the monitored person.
A frequency acquisition unit (132) for acquiring the frequency of rapid eye movement, which is the frequency of occurrence of at least one of the saccade and microsaccade of the monitored person, and
The blink acquisition unit (131) for acquiring the frequency of occurrence of the blink of the monitored person, the following eye movement acquisition unit (133) for acquiring the occurrence time of the follow-up eye movement of the monitored person, and the monitoring target person. The reinforcement information acquisition unit (135), which is at least one of the frequency change acquisition units (134) for acquiring the change amount of the rapid eye movement frequency,
In addition to the rapid eye movement frequency acquired by the frequency acquisition unit, a state estimation unit (140, 140b, 140c) that estimates the state of the monitored person by using the information acquired by the reinforcement information acquisition unit is provided. ,
The reinforcement information acquisition unit is at least the follow-up eye movement acquisition unit, and is
The state estimation unit estimates that the state of the monitored subject is normal when the rapid eye movement frequency acquired by the frequency acquisition unit is larger than the threshold value for the rapid eye movement frequency, while the frequency is estimated. Even when the rapid eye movement frequency acquired by the acquisition unit is equal to or less than the threshold value for the rapid eye movement frequency, the occurrence time of the follow-up eye movement acquired by the follow-up eye movement acquisition unit is related to the occurrence time. If greater than the threshold, the state estimating device status of the monitored person estimated to be normal.
前記車両周辺の注視対象物の前記車両に対する位置及び速度の少なくともいずれかである対象物情報を取得する対象物情報取得部(160)と、
前記対象物情報取得部で取得する前記対象物情報をもとに前記監視対象者の追従眼球運動の発生を推定する発生推定部(113a)とを備え、
前記追従眼球運動取得部は、前記発生推定部での推定結果をもとに前記監視対象者の追従眼球運動の発生時間を取得する請求項4〜6のいずれか1項に記載の状態推定装置。 It is used in a vehicle and estimates the state of the driver of the vehicle as the person to be monitored.
An object information acquisition unit (160) that acquires object information that is at least one of the position and speed of the gaze object around the vehicle with respect to the vehicle.
It is provided with an occurrence estimation unit (113a) that estimates the occurrence of follow-up eye movements of the monitored subject based on the object information acquired by the object information acquisition unit.
The state estimation device according to any one of claims 4 to 6, wherein the following eye movement acquisition unit acquires the occurrence time of the following eye movement of the monitored person based on the estimation result of the occurrence estimation unit. ..
前記車両周辺の注視対象物の前記車両に対する位置及び速度の少なくともいずれかである対象物情報を取得する対象物情報取得部(160)を備えるものであり、
前記状態推定部(140b)は、前記追従眼球運動の発生時間についての閾値を、前記対象物情報取得部で取得する前記対象物情報に応じて決定する請求項4〜7のいずれか1項に記載の状態推定装置。 It is used in a vehicle and estimates the state of the driver of the vehicle as the person to be monitored.
It is provided with an object information acquisition unit (160) for acquiring object information which is at least one of the position and speed of the gaze object around the vehicle with respect to the vehicle.
The state estimation unit (140b) determines the threshold value for the occurrence time of the follow-up eye movement according to the object information acquired by the object information acquisition unit according to any one of claims 4 to 7. The described state estimator.
前記状態推定部は、前記頻度取得部で取得する前記急速眼球運動頻度がその急速眼球運動頻度についての閾値以下である場合であっても、前記頻度変化量取得部で取得する前記監視対象者の前記急速眼球運動頻度の変化量がその変化量についての閾値よりも大きい増加である場合には、前記監視対象者の状態が正常であると推定する請求項1〜8のいずれか1項に記載の状態推定装置。 The reinforcement information acquisition unit is at least the frequency change amount acquisition unit.
Even when the rapid eye movement frequency acquired by the frequency acquisition unit is equal to or less than the threshold value for the rapid eye movement frequency, the state estimation unit acquires the frequency change amount acquisition unit of the monitored person. wherein when the change amount of the rapid eye movement frequency is increased greater than the threshold for the amount of change is according to any one of claims 1 to 8, the state of the monitored person is estimated to be normal State estimator.
前記監視対象者のサッカード及びマイクロサッカードの少なくともいずれかの発生頻度である急速眼球運動頻度を取得する頻度取得部(132)と、
前記監視対象者の瞬目の発生頻度を取得する瞬目取得部(131)、前記監視対象者の追従眼球運動の発生時間を取得する追従眼球運動取得部(133)、及び前記監視対象者の前記急速眼球運動頻度の変化量を取得する頻度変化量取得部(134)の少なくともいずれかである補強情報取得部(135)と、
前記頻度取得部で取得する前記急速眼球運動頻度に加え、前記補強情報取得部で取得する情報を用いて、前記監視対象者の状態を推定する状態推定部(140,140b,140c)とを備え、
前記補強情報取得部は、少なくとも前記頻度変化量取得部であり、
前記状態推定部は、前記頻度取得部で取得する前記急速眼球運動頻度がその急速眼球運動頻度についての閾値よりも大きい場合に、前記監視対象者の状態が正常であると推定する一方、前記頻度取得部で取得する前記急速眼球運動頻度がその急速眼球運動頻度についての閾値以下である場合であっても、前記頻度変化量取得部で取得する前記監視対象者の前記急速眼球運動頻度の変化量がその変化量についての閾値よりも大きい増加である場合には、前記監視対象者の状態が正常であると推定する状態推定装置。 A state estimation device that estimates the state of the monitored person based on the eye movements of the monitored person.
A frequency acquisition unit (132) for acquiring the frequency of rapid eye movement, which is the frequency of occurrence of at least one of the saccade and microsaccade of the monitored person, and
The blink acquisition unit (131) for acquiring the frequency of occurrence of the blink of the monitored person, the following eye movement acquisition unit (133) for acquiring the occurrence time of the follow-up eye movement of the monitored person, and the monitoring target person. The reinforcement information acquisition unit (135), which is at least one of the frequency change acquisition units (134) for acquiring the change amount of the rapid eye movement frequency,
In addition to the rapid eye movement frequency acquired by the frequency acquisition unit, a state estimation unit (140, 140b, 140c) that estimates the state of the monitored person by using the information acquired by the reinforcement information acquisition unit is provided. ,
The reinforcement information acquisition unit is at least the frequency change amount acquisition unit.
The state estimation unit estimates that the state of the monitored subject is normal when the rapid eye movement frequency acquired by the frequency acquisition unit is larger than the threshold value for the rapid eye movement frequency, while the frequency is estimated. Even when the rapid eye movement frequency acquired by the acquisition unit is equal to or less than the threshold value for the rapid eye movement frequency, the change amount of the rapid eye movement frequency of the monitored person acquired by the frequency change acquisition unit. There the case is an increase greater than a threshold for the amount of change, the state estimating device status of the monitored person estimated to be normal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017088748A JP6926636B2 (en) | 2017-04-27 | 2017-04-27 | State estimator |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017088748A JP6926636B2 (en) | 2017-04-27 | 2017-04-27 | State estimator |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018183532A JP2018183532A (en) | 2018-11-22 |
JP6926636B2 true JP6926636B2 (en) | 2021-08-25 |
Family
ID=64357240
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017088748A Active JP6926636B2 (en) | 2017-04-27 | 2017-04-27 | State estimator |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6926636B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109285321A (en) * | 2018-11-23 | 2019-01-29 | 泰安宇祺通讯技术有限公司 | A kind of rail traffic driver drowsy early warning system and its application method |
JP7131491B2 (en) * | 2019-06-12 | 2022-09-06 | 株式会社デンソー | Saccade detection device, saccade detection method, saccade detection program |
JP7131490B2 (en) * | 2019-06-12 | 2022-09-06 | 株式会社デンソー | Saccade detection device, saccade detection method, saccade detection program |
WO2021014939A1 (en) * | 2019-07-22 | 2021-01-28 | 日本電気株式会社 | Drowsiness estimation information correction device, drowsiness estimation device, drowsiness estimation information correction method, drowsiness estimation method, and recording medium |
JP7140072B2 (en) * | 2019-07-29 | 2022-09-21 | 株式会社デンソー | Eyeball index detection device, eyeball index detection method, eyeball index detection program |
JP7342636B2 (en) * | 2019-11-11 | 2023-09-12 | マツダ株式会社 | Vehicle control device and driver condition determination method |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001338363A (en) * | 2000-05-24 | 2001-12-07 | Yokogawa Electric Corp | Method and device for generating alarm |
JP5179686B2 (en) * | 2001-09-25 | 2013-04-10 | 株式会社豊田中央研究所 | Driving behavior risk calculation device |
AU2003269772A1 (en) * | 2002-10-15 | 2004-05-04 | Volvo Technology Corporation | Method and arrangement for interpreting a subjects head and eye activity |
JP2008158619A (en) * | 2006-12-21 | 2008-07-10 | Hino Motors Ltd | Apparatus and method for determining degree of vigilance |
JP4655035B2 (en) * | 2006-12-27 | 2011-03-23 | トヨタ自動車株式会社 | Dozing detection device, dozing detection method |
JP2009090876A (en) * | 2007-10-10 | 2009-04-30 | Toyota Motor Corp | Nap prevention device |
JP2010108235A (en) * | 2008-10-30 | 2010-05-13 | Equos Research Co Ltd | Awakening support system |
US8576081B2 (en) * | 2009-02-13 | 2013-11-05 | Toyota Jidosha Kabushiki Kaisha | Physiological condition estimation device and vehicle control device |
JP2012128523A (en) * | 2010-12-13 | 2012-07-05 | Canon Inc | Information processing device and operating method thereof |
JP5830944B2 (en) * | 2011-06-02 | 2015-12-09 | 日産自動車株式会社 | Vehicle driving support apparatus and vehicle driving support method |
JP6273823B2 (en) * | 2013-12-19 | 2018-02-07 | 株式会社デンソー | State estimation device and state estimation program |
JP2016134077A (en) * | 2015-01-21 | 2016-07-25 | 株式会社豊田中央研究所 | Awakening maintenance device and program |
-
2017
- 2017-04-27 JP JP2017088748A patent/JP6926636B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018183532A (en) | 2018-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6926636B2 (en) | State estimator | |
US9526448B2 (en) | State estimation device and state estimation program | |
US10936888B2 (en) | Apparatus detecting driving incapability state of driver | |
US9888875B2 (en) | Driver monitoring apparatus | |
JP6350145B2 (en) | Face orientation detection device and vehicle warning system | |
CN114666499A (en) | Image processing apparatus, image processing method, and movable body | |
JP7099037B2 (en) | Data processing equipment, monitoring system, awakening system, data processing method, and data processing program | |
JP2010128649A (en) | Awakening state determining device and awakening state determining method | |
US9892333B2 (en) | Viewing area estimation device | |
JP2015207163A (en) | State estimation device and state estimation program | |
JP6578784B2 (en) | State estimation device and state estimation program | |
JP4647387B2 (en) | Vehicle driving support device | |
JP2008204107A (en) | Carelessness warning device, vehicle equipment control method for the device and program for vehicle control device | |
US20180201276A1 (en) | Driver condition detection system | |
Bergasa et al. | Visual monitoring of driver inattention | |
WO2019155914A1 (en) | Data processing device, monitoring system, alertness system, data processing method, data processing program, and storage medium | |
JP2010198205A (en) | Collision avoidance support device | |
WO2019176492A1 (en) | Calculation system, information processing device, driving assistance system, index calculation method, computer program, and storage medium | |
WO2019155913A1 (en) | Data processing device, monitoring system, alertness system, data processing method, data processing program, and storage medium | |
JP4973613B2 (en) | Driver status detection device | |
JP7014680B2 (en) | Gaze object detection device, gaze object detection method, and program | |
JP6714425B2 (en) | Driving support device | |
JP6948254B2 (en) | Visual burden quantifier | |
KR102331937B1 (en) | Apparatus for vehicle emergency rescue based on the analysis of the driving state risk and the driver state and method thereof | |
US20240029454A1 (en) | Line of sight estimating device, storage medium for storing computer program for line of sight estimation, and line of sight estimating method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200403 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210302 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210706 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210719 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6926636 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |