JP2018183532A - State estimation apparatus - Google Patents
State estimation apparatus Download PDFInfo
- Publication number
- JP2018183532A JP2018183532A JP2017088748A JP2017088748A JP2018183532A JP 2018183532 A JP2018183532 A JP 2018183532A JP 2017088748 A JP2017088748 A JP 2017088748A JP 2017088748 A JP2017088748 A JP 2017088748A JP 2018183532 A JP2018183532 A JP 2018183532A
- Authority
- JP
- Japan
- Prior art keywords
- eye movement
- frequency
- state estimation
- acquisition unit
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004424 eye movement Effects 0.000 claims abstract description 171
- 230000004461 rapid eye movement Effects 0.000 claims abstract description 131
- 238000012544 monitoring process Methods 0.000 claims abstract description 66
- 230000004459 microsaccades Effects 0.000 claims abstract description 36
- 230000004434 saccadic eye movement Effects 0.000 claims abstract description 35
- 230000008859 change Effects 0.000 claims description 62
- 238000000034 method Methods 0.000 claims description 50
- 230000002787 reinforcement Effects 0.000 claims description 9
- 230000004397 blinking Effects 0.000 claims description 6
- 238000004519 manufacturing process Methods 0.000 claims description 5
- 238000000605 extraction Methods 0.000 description 70
- 230000008569 process Effects 0.000 description 45
- 238000012545 processing Methods 0.000 description 42
- 239000000284 extract Substances 0.000 description 16
- 230000001133 acceleration Effects 0.000 description 14
- 238000003384 imaging method Methods 0.000 description 11
- 230000002159 abnormal effect Effects 0.000 description 10
- 230000007423 decrease Effects 0.000 description 9
- 210000005252 bulbus oculi Anatomy 0.000 description 5
- 210000001508 eye Anatomy 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 239000006185 dispersion Substances 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Eye Examination Apparatus (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、監視対象者の眼球運動に基づいて監視対象者の状態を推定する状態推定装置に関するものである。 The present invention relates to a state estimation device that estimates the state of a monitoring target person based on the eye movement of the monitoring target person.
特許文献1には、監視対象者のサッカードの発生頻度を表す通常サッカード頻度と監視対象者のマイクロサッカードの発生頻度を表すマイクロサッカード頻度との合計値が閾値未満である場合に異常であると推定する技術が開示されている。つまり、サッカード及びマイクロサッカードの発生頻度が閾値未満である場合に異常であると推定する技術が開示されている。
In
しかしながら、サッカード,マイクロサッカードの発生頻度が低い場合であっても、監視対象者が異常でない場合もある。例えば、サッカード,マイクロサッカードの発生頻度は、監視対象者の周辺環境によって生じる瞬目及び/又は追従眼球運動によっても低下する。よって、監視対象者の周辺環境によっては、監視対象者が正常であってもサッカード,マイクロサッカードの発生頻度が低下し、監視対象者の状態の推定精度が低下する場合がある。 However, even if the occurrence frequency of saccades and microsaccades is low, the monitoring subject may not be abnormal. For example, the occurrence frequency of saccades and microsaccades is also reduced by blinking and / or following eye movements caused by the surrounding environment of the monitoring subject. Therefore, depending on the surrounding environment of the monitoring target person, even if the monitoring target person is normal, the occurrence frequency of saccades and microsaccades may decrease, and the estimation accuracy of the state of the monitoring target person may decrease.
また、サッカード,マイクロサッカードの発生頻度が低い場合であっても、時間経過とともに増加傾向にある場合には、監視対象者の状態がすでに正常に回復していると考えられる。よって、このような場合にも、監視対象者の状態の推定精度が低下すると考えられる。 Even if the occurrence frequency of saccades and microsaccades is low, it is considered that the state of the monitoring subject has already recovered normally if there is a tendency to increase over time. Therefore, even in such a case, it is considered that the estimation accuracy of the state of the monitoring subject is lowered.
この開示のひとつの目的は、監視対象者の眼球運動に基づいて監視対象者の状態をより精度良く推定することを可能にする状態推定装置を提供することにある。 One object of this disclosure is to provide a state estimation device that makes it possible to estimate the state of the monitoring subject with higher accuracy based on the eyeball movement of the monitoring subject.
上記目的は独立請求項に記載の特徴の組み合わせにより達成され、また、下位請求項は、発明の更なる有利な具体例を規定する。特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。 The above object is achieved by a combination of the features described in the independent claims, and the subclaims define further advantageous embodiments of the invention. Reference numerals in parentheses described in the claims indicate a correspondence relationship with specific means described in the embodiments described later as one aspect, and do not limit the technical scope of the present invention. .
上記目的を達成するために、本発明の状態推定装置は、監視対象者の眼球運動に基づいて監視対象者の状態を推定する状態推定装置であって、監視対象者のサッカード及びマイクロサッカードの少なくともいずれかの発生頻度である急速眼球運動頻度を取得する頻度取得部(132)と、監視対象者の瞬目の発生頻度を取得する瞬目取得部(131)、監視対象者の追従眼球運動の発生時間を取得する追従眼球運動取得部(133)、及び監視対象者の急速眼球運動頻度の変化量を取得する頻度変化量取得部(134)の少なくともいずれかである補強情報取得部(135)と、頻度取得部で取得する急速眼球運動頻度に加え、補強情報取得部で取得する情報を用いて、監視対象者の状態を推定する状態推定部(140,140b,140c)とを備える。 In order to achieve the above object, a state estimation device according to the present invention is a state estimation device that estimates a state of a monitoring subject based on eye movements of the monitoring subject, and includes a saccade and a microsaccade of the monitoring subject. A frequency acquisition unit (132) that acquires a rapid eye movement frequency that is at least one of the following, a blink acquisition unit (131) that acquires a blink occurrence frequency of the monitoring target person, and a tracking eye of the monitoring target person A reinforcing information acquisition unit (133) that is at least one of a follow-up eye movement acquisition unit (133) that acquires the occurrence time of movement and a frequency change amount acquisition unit (134) that acquires the amount of change in the rapid eye movement frequency of the monitoring subject. 135) and the state estimation unit (140, 140b, 140c) that estimates the state of the person to be monitored using information acquired by the reinforcement information acquisition unit in addition to the rapid eye movement frequency acquired by the frequency acquisition unit. Provided with a door.
これによれば、監視対象者の瞬目の発生頻度と、監視対象者の追従眼球運動の発生時間と、監視対象者のサッカード及びマイクロサッカードの発生頻度の変化量との少なくともいずれかを用いて監視対象者の状態を推定することが可能になる。監視対象者の瞬目の発生頻度を用いた場合には、瞬目による急速眼球運動頻度の低下を監視対象者の状態の異常と推定しないようにすることが可能になる。監視対象者の追従眼球運動の発生時間を用いた場合には、追従眼球運動による急速眼球運動頻度の低下を監視対象者の状態の異常と推定しないようにすることが可能になる。監視対象者の急速眼球運動頻度の変化量を用いた場合には、急速眼球運動頻度が増加傾向にある場合の急速眼球運動頻度の低下を監視対象者の状態の異常と推定しないようにすることが可能になる。よって、監視対象者のサッカード及びマイクロサッカードの発生頻度だけを用いる場合に比べ、監視対象者の状態をより精度良く推定することが可能になる。その結果、監視対象者の眼球運動に基づいて監視対象者の状態をより精度良く推定することが可能になる。 According to this, at least one of the occurrence frequency of the blink of the monitoring subject, the occurrence time of the tracking eye movement of the monitoring subject, and the amount of change in the occurrence frequency of the saccade and microsaccade of the monitoring subject. It becomes possible to estimate the state of the person being monitored. When the occurrence frequency of blinks of the monitoring target person is used, it is possible not to estimate the decrease in the rapid eye movement frequency due to the blinking as an abnormality in the state of the monitoring target person. When the generation time of the follow-up eye movement of the monitoring target person is used, it is possible not to estimate the decrease in the rapid eye movement frequency due to the follow-up eye movement as an abnormal state of the monitoring target person. When using the amount of change in the rapid eye movement frequency of the monitored person, do not estimate the decrease in the rapid eye movement frequency when the rapid eye movement frequency is increasing as an abnormal condition of the monitored person. Is possible. Therefore, it is possible to estimate the state of the monitoring subject with higher accuracy than when only the occurrence frequency of the saccade and microsaccade of the monitoring subject is used. As a result, it is possible to estimate the state of the monitoring subject with higher accuracy based on the eye movement of the monitoring subject.
図面を参照しながら、開示のための複数の実施形態を説明する。なお、説明の便宜上、複数の実施形態の間において、それまでの説明に用いた図に示した部分と同一の機能を有する部分については、同一の符号を付し、その説明を省略する場合がある。同一の符号を付した部分については、他の実施形態における説明を参照することができる。 A plurality of embodiments for disclosure will be described with reference to the drawings. For convenience of explanation, among the embodiments, parts having the same functions as those shown in the drawings used in the explanation so far may be given the same reference numerals and explanation thereof may be omitted. is there. For the parts denoted by the same reference numerals, the description in other embodiments can be referred to.
(実施形態1)
<車両システム1の概略構成>
図1に示す車両システム1は、車両といった移動体で用いられるものであり、HCU(Human Machine Interface Control Unit)10、車両センサ20、周辺監視センサ30、周辺監視ECU40、ドライバ撮像ユニット50、及び報知装置60を含んでいる。HCU10と車両センサ20と周辺監視ECU40とは、例えば車内LANに接続されているものとする。以下では、車両システム1を自動車で用いる場合を例に挙げて説明を続ける。
(Embodiment 1)
<Schematic configuration of
A
車両センサ20は、自車の状態を検出するためのセンサ群である。車両センサ20としては、自車の車室内の湿度を検出する湿度センサ,自車前方の明るさを検出する外光センサ,自車の操舵角を検出する舵角センサ等がある。一例として、外光センサとしては照度を検出する照度センサを用いればよい。車両センサ20は、センシング結果を車内LANへ出力する。なお、車両センサ20でのセンシング結果は、自車に搭載されるECUを介して車両LANへ出力される構成であってもよい。
The
周辺監視センサ30は、歩行者、人間以外の動物、車両等の移動物体、さらに標識,ガードレール,縁石,樹木等の静止物体といった自車周辺の物体を検出する。他にも、自車周辺の走行区画線、停止線等の路面標示を検出する。周辺監視センサ30は、例えば、自車周囲の所定範囲を撮像する周辺監視カメラ、自車周囲の所定範囲に探査波を送信するミリ波レーダ、ソナー、LIDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)等のセンサである。周辺監視カメラは、逐次撮像する撮像画像をセンシング情報として周辺監視ECU40へ逐次出力する。ソナー、ミリ波レーダ、LIDAR等の探査波を送信するセンサは、障害物によって反射された反射波を受信した場合に得られる受信信号に基づく走査結果をセンシング情報として周辺監視ECU40へ逐次出力する。
The surrounding monitoring sensor 30 detects objects around the vehicle such as pedestrians, moving animals such as animals other than humans, vehicles, and still objects such as signs, guardrails, curbs, trees, and the like. In addition, road markings such as travel lane lines and stop lines around the vehicle are detected. The peripheral monitoring sensor 30 is, for example, a peripheral monitoring camera that images a predetermined range around the host vehicle, a millimeter wave radar that transmits an exploration wave to the predetermined range around the host vehicle, sonar, LIDAR (Light Detection and Ranging / Laser Imaging Detection and Ranging). The peripheral monitoring camera sequentially outputs captured images to be sequentially captured to the
周辺監視ECU40は、プロセッサ、揮発性メモリ、不揮発性メモリ、及びこれらを相互に接続するバス等からなるマイクロコンピュータを備え、不揮発性メモリに記憶された制御プログラムを実行することで各種の処理を実行する。周辺監視ECU40は、周辺監視センサ30から取得したセンシング結果から、自車の周辺環境を認識する。 The peripheral monitoring ECU 40 includes a microcomputer including a processor, a volatile memory, a nonvolatile memory, and a bus that interconnects these, and executes various processes by executing a control program stored in the nonvolatile memory. To do. The surrounding monitoring ECU 40 recognizes the surrounding environment of the host vehicle from the sensing result acquired from the surrounding monitoring sensor 30.
周辺監視ECU40は、周辺監視カメラのセンシング結果から、自車の周辺環境として、自車周辺の物体を検出する。一例として、テンプレートマッチング等の周知の画像認識処理によって、ドライバの注視対象となる物体を注視対象としない物体と区別して検出することが好ましい。ドライバの注視対象となる物体(以下、注視対象物)の一例としては、歩行者,他車両,標識等がある。また、周辺監視ECU40は、周辺監視センサのセンシング結果から、公知の手法によって自車周辺に存在する物体の自車に対する相対位置,相対速度を検出する。なお、周辺監視ECU40は、自車で用いられる通信モジュールを介した車車間通信及び/又は路車間通信によって得られた他車両,歩行者等の対象物の位置,速度の情報から、自車の周辺に存在する対象物について、自車に対する相対位置,相対速度を検出してもよい。
The surrounding
ドライバ撮像ユニット50は、ドライバの頭部を撮像するための撮像装置を含む。一例としては、照明装置と、この照明装置による照明と同じ帯域に感度を持つ撮像装置とを含む構成とすればよい。具体例としては、近赤外カメラと近赤外光源とを含む構成とすればよい。以下では、この近赤外カメラと近赤外光源とを用いる場合を例に挙げて説明を行う。後述するマイクロサッカードを抽出する場合には、例えば空間分解能0.01度,時間分解能220Hzといった高性能カメラを用いればよい。
The
近赤外カメラは、自車の運転席側に向けた姿勢にて、例えばステアリングコラムカバーに配置される。なお、近赤外カメラは、自車の運転席に着座したドライバの顔を撮像できる位置であれば他の位置に配置される構成であってもよく、インスツルメントパネルの上面等に配置される構成であってもよい。ドライバ撮像ユニットは、近赤外光源によって近赤外光を照射されたドライバの頭部を、近赤外カメラによって撮影する。近赤外カメラによる撮像画像(以下、顔画像)は、HCU10に出力する。
The near-infrared camera is arranged, for example, on a steering column cover in a posture directed toward the driver's seat side of the own vehicle. Note that the near-infrared camera may be arranged at other positions as long as it can capture the face of the driver seated in the driver's seat of the host vehicle, such as the upper surface of the instrument panel. It may be a configuration. The driver imaging unit images a driver's head irradiated with near-infrared light from a near-infrared light source with a near-infrared camera. An image captured by the near-infrared camera (hereinafter referred to as a face image) is output to the
報知装置60は、自車のドライバに向けて報知を行う。報知装置60としては、表示装置,音声出力装置,振動子等がある。また、報知装置60による報知としては、表示装置による表示,音声出力装置による音声出力,振動子による振動等がある。
The
HCU10は、プロセッサ、揮発性メモリ、非遷移的実体的記録媒体(non- transitory tangible storage medium)である不揮発性メモリ、I/O、これらを接続するバスを備えるマイクロコンピュータを主体として構成され、ドライバ撮像ユニット50,報知装置60と車内LANとに接続される。HCU10は、不揮発性メモリに記憶された制御プログラムを実行することにより、自車のドライバの状態を推定したり、自車のドライバに向けた報知を行わせたりする。このHCU10が請求項の状態推定装置に相当し、ドライバが請求項の監視対象者に相当する。
The
<HCU10の概略構成>
ここで、図2を用いて、HCU10の概略構成を説明する。図2に示すように、HCU10は、機能ブロックとして、画像認識処理部100、眼球運動抽出部110、眼球運動情報記憶部120、判定用データ算出部130、状態推定部140、及び報知処理部150を備えている。なお、HCU10が実行する機能の一部又は全部を、一つ或いは複数のIC等によりハードウェア的に構成してもよい。また、HCU10が備える機能ブロックの一部又は全部は、プロセッサによるソフトウェアの実行とハードウェア部材との組み合わせによって実現されてもよい。
<Schematic configuration of HCU10>
Here, the schematic configuration of the
画像認識処理部100は、ドライバ撮像ユニット50から逐次出力される顔画像から、公知の画像認識処理によって、ドライバの顔部位の抽出,顔部位の形状的な特徴の抽出,視線角度の算出等を逐次行う。視線角度は視線方向と言い換えることもできる。以下に、画像認識処理部100で行う画像認識処理の一例について述べる。
The image
まず、画像認識処理部100は、顔画像中の目を抽出し、その目の中の黒い丸を瞳孔として抽出する。続いて、顔画像中の目の中の白い点を角膜反射像として抽出する。そして、瞳孔と角膜反射との位置関係から車室内の基準位置に対する視線角度を検出する。基準位置は、例えば近赤外カメラの設置位置等とすればよい。ここで言うところの視線角度は、自車の左右方向と概ね一致する水平方向と垂直方向との両方についての視線角度であるものとする。算出した視線角度は、例えば揮発性メモリといったメモリに記憶する構成とすればよい。
First, the image
眼球運動抽出部110は、画像認識処理部100での画像認識処理の結果をもとに、自車のドライバの眼球運動を抽出する眼球運動抽出処理を行う。図2に示すように、眼球運動抽出部110は、サブ機能ブロックとして、瞬目抽出部111、急速眼球運動抽出部112、及び追従眼球運動抽出部113を備える。
The eye
瞬目抽出部111は、ドライバの瞬目を抽出する。瞬目は瞬きと言い換えることもできる。瞬目抽出部111は、画像認識処理部100で逐次行う画像認識処理において、例えば瞳孔が抽出できない場合を瞬目として抽出する構成とすればよい。他にも、画像認識処理部100で抽出したドライバの上瞼の曲率半径に基づいて瞬目を抽出する構成としてもよい。瞬目抽出部111は、瞬目の抽出結果として、瞬目を抽出した時刻を眼球運動情報記憶部120に例えば有効時間Tが経過するまで記憶する。眼球運動情報記憶部120としては、例えば揮発性メモリを用いる構成とすればよい。有効時間Tとは、後述するサッカード,マイクロサッカードといった急速眼球運動の発生頻度を精度よく算出するために必要な時間であって、例えば1〜数分程度の時間とすればよい。以降についても同様とする。
The
急速眼球運動抽出部112は、ドライバのサッカード,マイクロサッカードといった急速眼球運動を抽出する。サッカードは、人が意図的に視線方向を変化させる場合に生じる短時間の高速な眼球運動である。マイクロサッカードは、人が注視している際に不随意に生じる固視微動のうちのごく細かい急速な眼球運動である。急速眼球運動抽出部112は、サッカードとマイクロサッカードとのうちのいずれか一方のみを抽出する構成としてもよいし、両方を抽出する構成としてもよい。
The rapid eye
急速眼球運動抽出部112は、画像認識処理部100で算出した過去数フレーム分(例えば10フレーム分)の視線角度から、視線角度の変化量を算出し、この変化量を時間で除算することで視線角速度を算出する。また、急速眼球運動抽出部112は、上述したように算出した視線角速度の変化量を時間で除算することで視線角加速度を算出する。
The rapid eye
そして、急速眼球運動抽出部112は、視線角加速度が基準角加速度以上であって、且つ、視線の移動距離が基準距離以上の場合にサッカードとして抽出する。一方、急速眼球運動抽出部112は、視線角加速度が基準角加速度以上であって、且つ、視線の移動距離が基準距離未満の場合にマイクロサッカードとして抽出する。基準角加速度は例えば1200deg/s2とすればよく、基準距離は例えば2degとすればよい。なお、視線角加速度に換えて、視線角速度が基準角速度以上であるか否かによって判定を行う構成としてもよい。急速眼球運動抽出部112は、サッカード,マイクロサッカードの抽出結果として、サッカード,マイクロサッカードを抽出した時刻を眼球運動情報記憶部120に例えば有効時間Tが経過するまで記憶すればよい。
Then, the rapid eye
追従眼球運動抽出部113は、ドライバの追従眼球運動を抽出する。追従眼球運動は、対象に反射的に視線を追従させる眼球運動である。追従眼球運動抽出部113は、一定時間あたりの視線角速度が一定の範囲内である場合に、追従眼球運動として抽出する。一例としては、1秒あたりの視線角速度が0.5〜2.0deg/s2である場合に、追従眼球運動として抽出する。なお、追従眼球運動抽出部113は、視線角速度に換えて、視線角加速度が一定の範囲内であるか否かによって判定を行う構成としてもよい。追従眼球運動抽出部113は、追従眼球運動の抽出結果として、追従眼球運動の抽出有無を時刻別に眼球運動情報記憶部120に例えば有効時間Tが経過するまで記憶すればよい。
The following eye
判定用データ算出部130は、ドライバの状態を推定するのに用いる判定用データを算出することで、この判定用データを取得する。図2に示すように、判定用データ算出部130は、サブ機能ブロックとして、瞬目頻度算出部131、急速眼球運動頻度算出部132、追従眼球運動時間算出部133、及び変化量算出部134を備える。瞬目頻度算出部131、追従眼球運動時間算出部133、及び変化量算出部134が補強情報取得部135にあたる。
The determination
瞬目頻度算出部131は、眼球運動情報記憶部120に蓄積された瞬目抽出部111での抽出結果である瞬目を抽出した時刻をもとに、ドライバの瞬目の発生頻度(以下、瞬目頻度)を算出することで、瞬目頻度を取得する。この瞬目頻度算出部131が請求項の瞬目取得部に相当する。具体例としては、瞬目頻度算出部131は、所定時間tごとに、所定時間t内の瞬目抽出部111での抽出結果から、所定時間tあたりの瞬目頻度を算出すればよい。所定時間tは、例えば10秒程度とする。以降についても同様とする。瞬目頻度算出部131は、逐次算出する瞬目頻度を時系列に沿って眼球運動情報記憶部120に蓄積する。
The blink
急速眼球運動頻度算出部132は、眼球運動情報記憶部120に蓄積された急速眼球運動抽出部112での抽出結果であるサッカード,マイクロサッカードを抽出した時刻をもとに、ドライバのサッカード,マイクロサッカードの発生頻度(以下、急速眼球運動頻度)を算出することで、急速眼球運動頻度を取得する。この急速眼球運動頻度算出部132が請求項の頻度取得部に相当する。
The rapid eye movement
具体例としては、急速眼球運動頻度算出部132は、所定時間tごとに、所定時間t内の急速眼球運動抽出部112での抽出結果から、所定時間tあたりの急速眼球運動頻度を算出すればよい。急速眼球運動頻度算出部132は、逐次算出する急速眼球運動頻度を時系列に沿って眼球運動情報記憶部120に蓄積する。なお、瞬目抽出部111で瞬目を抽出していた時刻のデータは急速眼球運動頻度の算出の処理から除外することで、急速眼球運動頻度の算出精度を向上させることが好ましい。
As a specific example, if the rapid eye movement
追従眼球運動時間算出部133は、眼球運動情報記憶部120に蓄積された追従眼球運動抽出部113での抽出結果である時刻別の追従眼球運動の有無をもとに、ドライバの追従眼球運動の発生時間(以下、追従眼球運動時間)を算出することで、追従眼球運動時間を取得する。追従眼球運動の発生時間は、追従眼球運動に要した時間と言い換えることもできる。この追従眼球運動時間算出部133が請求項の追従眼球運動取得部に相当する。具体例としては、追従眼球運動時間算出部133は、所定時間tごとに、所定時間t内の追従眼球運動抽出部113での抽出結果から、所定時間tあたりの追従眼球運動時間を算出すればよい。追従眼球運動時間算出部133は、逐次算出する追従眼球運動時間を時系列に沿って眼球運動情報記憶部120に蓄積する。
The follow-up eye movement
変化量算出部134は、眼球運動情報記憶部120に蓄積された急速眼球運動抽出部112での抽出結果であるサッカード,マイクロサッカードを抽出した時刻をもとに、急速眼球運動頻度の変化量(以下、急速眼球運動頻度変化量)を算出することで、この急速眼球運動頻度変化量を取得する。この変化量算出部134が、請求項の頻度変化量取得部に相当する。具体例としては、急速眼球運動頻度算出部132での所定時間tごとの急速眼球運動頻度の算出時に、その所定時間tの直前s秒間のサッカード,マイクロサッカードの発生回数を算出する。ここで言うところのs秒とは、所定時間tよりも短い時間であって、例えば2〜3秒とすればよい。そして、直前s秒間のサッカード,マイクロサッカードの発生回数の、所定時間t内での全発生回数における割合を、急速眼球運動頻度変化量として算出する。変化量算出部134は、逐次算出する急速眼球運動頻度変化量を時系列に沿って眼球運動情報記憶部120に蓄積する。
The change
状態推定部140は、判定用データ算出部130で逐次算出した判定用データのデータ群から、ドライバの状態を推定するのに用いる判定閾値を決定する判定閾値決定処理を行う。そして、判定用データ算出部130で逐次算出する判定用データとこの判定閾値とから、ドライバの状態を推定する状態推定処理を行う。図2に示すように、状態推定部140は、サブ機能ブロックとして判定閾値決定部141を備える。
The
判定閾値決定部141は、瞬目頻度についての判定閾値,急速眼球運動頻度についての判定閾値,追従眼球運動時間についての判定閾値,急速眼球運動頻度変化量についての判定閾値を決定する判定閾値決定処理を行う。
The determination threshold
判定閾値決定部141での瞬目頻度についての判定閾値の決定は、一例として以下のようにして行う。判定閾値決定部141は、眼球運動情報記憶部120に蓄積されている、瞬目頻度算出部131で算出した有効時間T内における所定時間tごとの瞬目頻度の平均値(以下、平均瞬目頻度)を算出する。そして、算出した平均瞬目頻度から瞬目頻度についての判定閾値を決定する。言い換えると、瞬目頻度算出部131で算出した過去の一定期間における実際の瞬目の発生頻度のデータ群から瞬目頻度についての判定閾値を決定する。
The determination threshold value for the blink frequency in the determination threshold
例えば、平均瞬目頻度が1回/秒より少ない場合には、判定閾値を0.5回/秒とし、平均瞬目頻度が1〜2回の場合は判定閾値を1回/秒とし、平均瞬目頻度が2回以上である場合は判定閾値を2回/秒とする。また、所定時間tごとの瞬目頻度のばらつきを算出し、ばらつきの度合いが大きくなるのに応じて判定閾値を小さく決定する構成としてもよい。 For example, when the average blink frequency is less than 1 / second, the determination threshold is 0.5 times / second, and when the average blink frequency is 1 to 2 times, the determination threshold is 1 / second. When the blink frequency is 2 times or more, the determination threshold is 2 times / second. Further, it may be configured such that the variation in blink frequency for each predetermined time t is calculated, and the determination threshold is determined to be small as the degree of variation increases.
判定閾値決定部141での急速眼球運動頻度についての判定閾値の決定は、一例として以下のようにして行う。判定閾値決定部141は、眼球運動情報記憶部120に蓄積されている、急速眼球運動頻度算出部132で算出した有効時間T内における所定時間tごとの急速眼球運動頻度をもとに、急速眼球運動頻度についての判定閾値を決定する。言い換えると、急速眼球運動頻度算出部132で算出した過去の一定期間における実際の急速眼球運動頻度のデータ群から瞬目頻度についての判定閾値を決定する。
The determination threshold for the rapid eye movement frequency in the determination
急速眼球運動頻度として、サッカードの発生頻度とマイクロサッカードの発生頻度とのうちのいずれかのみを用いる場合には、この発生頻度の平均値から予め定められたシフト量だけ低くした値を判定閾値とすればよい。このシフト量は、ドライバの状態の推定精度が所望の精度となるように実験等によって予め定める構成とすればよい。また、所定時間tごとの発生頻度のばらつきの度合いが大きくなるのに応じて判定閾値を小さく決定する構成としてもよい。 When only one of the saccade occurrence frequency and the microsaccade occurrence frequency is used as the rapid eye movement frequency, a value obtained by lowering the predetermined shift amount from the average value of the occurrence frequency is determined. What is necessary is just to set it as a threshold value. This shift amount may be determined in advance by experiments or the like so that the estimated accuracy of the driver state becomes a desired accuracy. Moreover, it is good also as a structure which determines a determination threshold value small according to the degree of the dispersion | variation in the occurrence frequency for every predetermined time t becoming large.
一方、急速眼球運動頻度として、サッカードの発生頻度とマイクロサッカードの発生頻度とのいずれも用いる場合には、サッカードの発生頻度とマイクロサッカードの発生頻度とから求める回帰式を用いて判定閾値を決定すればよい。回帰式は、以下のようにして求めればよい。まず、サッカードの発生頻度とマイクロサッカードの発生頻度とをそれぞれ横軸と縦軸としたグラフ上において、有効時間T内における所定時間tごとのサッカードの発生頻度及びマイクロサッカードの発生頻度をプロットする(図3参照)。続いて、これらのプロットの傾向を示す最も確からしい直線若しくは曲線といった線Aを求める。例えば、最小二乗法によって最も確からしい線A(図3のA参照)を求める構成とすればよい。そして、この線Aをグラフの原点方向にシフトさせることで、回帰式B(図3のB参照)を求める。この回帰式Bが示す境界が判定閾値となる。 On the other hand, when both the saccade frequency and the microsaccade frequency are used as the rapid eye movement frequency, a determination is made using a regression equation obtained from the saccade frequency and the microsaccade frequency. What is necessary is just to determine a threshold value. The regression equation may be obtained as follows. First, on the graph with the horizontal and vertical axes representing the occurrence frequency of saccade and the occurrence frequency of microsaccade, respectively, the occurrence frequency of saccade and the occurrence frequency of microsaccade for each predetermined time t within the effective time T. Is plotted (see FIG. 3). Subsequently, a line A such as a most probable straight line or curve indicating the tendency of these plots is obtained. For example, the most probable line A (see A in FIG. 3) may be obtained by the least square method. Then, the regression equation B (see B in FIG. 3) is obtained by shifting the line A toward the origin of the graph. The boundary indicated by the regression equation B is a determination threshold value.
なお、線Aを原点方向にシフトさせる際のシフト量は、ドライバの状態の推定精度が所望の精度となるように実験等によって予め定める構成とすればよい。また、所定時間tごとのサッカード,マイクロサッカードの発生頻度のばらつきの度合いが大きくなるのに応じてシフト量を大きくする構成としてもよい。 Note that the shift amount for shifting the line A in the direction of the origin may be determined in advance by experiments or the like so that the estimated accuracy of the driver state becomes a desired accuracy. Moreover, it is good also as a structure which enlarges the amount of shift according to the degree of the dispersion | variation in the generation | occurrence | production frequency of saccade and microsaccade for every predetermined time t becoming large.
判定閾値決定部141での追従眼球運動時間についての判定閾値の決定は、一例として以下のようにして行う。判定閾値決定部141は、眼球運動情報記憶部120に蓄積されている、追従眼球運動時間算出部133で算出した有効時間T内における所定時間tごとの追従眼球運動時間の平均値(以下、平均追従眼球運動時間)を算出する。そして、算出した平均追従眼球運動時間から追従眼球運動時間についての判定閾値を決定する。言い換えると、追従眼球運動時間算出部133で算出した過去の一定期間における実際の追従眼球運動の発生時間のデータ群から追従眼球運動時間についての判定閾値を決定する。例えば、判定閾値決定部141は、平均追従眼球運動時間から予め定められたシフト量だけ低くした値を判定閾値とすればよい。このシフト量は、ドライバの状態の推定精度が所望の精度となるように実験等によって予め定める構成とすればよい。また、所定時間tごとの追従眼球運動時間のばらつきの度合いが大きくなるのに応じて判定閾値を小さく決定する構成としてもよい。
Determination of the determination threshold for the following eye movement time in the determination
判定閾値決定部141での急速眼球運動頻度変化量についての判定閾値の決定は、一例として以下のようにして行う。判定閾値決定部141は、眼球運動情報記憶部120に蓄積されている、変化量算出部134で算出した有効時間T内における所定時間tごとの急速眼球運動頻度変化量の平均値(以下、平均変化量)を算出する。そして、算出した平均変化量から急速眼球運動頻度変化量についての判定閾値を決定する。言い換えると、変化量算出部134で算出した過去の一定期間における実際の急速眼球運動頻度変化量のデータ群から急速眼球運動頻度変化量についての判定閾値を決定する。例えば、判定閾値決定部141は、平均変化量から予め定められたシフト量だけ低くした値を判定閾値とすればよい。このシフト量は、ドライバの状態の推定精度が所望の精度となるように実験等によって予め定める構成とすればよい。また、所定時間tごとの平均変化量のばらつきの度合いが大きくなるのに応じて判定閾値を小さく決定する構成としてもよい。
Determination of the determination threshold for the rapid eye movement frequency change amount by the determination
状態推定部140の状態推定処理では、急速眼球運動頻度算出部132で逐次算出する急速眼球運動頻度が、判定閾値決定部141で決定した急速眼球運動頻度についての判定閾値以上である場合には、ドライバの状態が正常であると判定する。また、状態推定部140の状態推定処理では、急速眼球運動頻度算出部132で逐次算出する急速眼球運動頻度が、急速眼球運動頻度についての判定閾値未満である場合であっても、瞬目頻度算出部131で逐次算出する瞬目頻度,追従眼球運動時間算出部133で逐次算出する追従眼球運動時間,変化量算出部134で逐次算出する急速眼球運動頻度変化量のいずれかが、それぞれの判定閾値以上である場合には、ドライバの状態が正常であると判定する。
In the state estimation process of the
一方、状態推定部140は、急速眼球運動頻度算出部132で逐次算出する急速眼球運動頻度が、急速眼球運動頻度についての判定閾値未満である場合であって、且つ、瞬目頻度算出部131で逐次算出する瞬目頻度,追従眼球運動時間算出部133で逐次算出する追従眼球運動時間,変化量算出部134で逐次算出する急速眼球運動頻度変化量の全てが、それぞれの判定閾値未満である場合に、ドライバの状態が異常であると判定する。本実施形態では、一例として、ドライバが集中している集中状態が正常であるものとし、ドライバの注意力が低下している不注意状態が異常であるものとして説明を行う。
On the other hand, the
報知処理部150は、状態推定部140でドライバの状態が不注意状態であると推定した場合に、報知装置60に指示を行って報知を行わせる。報知としては、不注意状態であることをドライバに認識させるものであればよく、例えば警報等とすればよい。
The
<HCU10での状態推定関連処理>
続いて、図4〜図7のフローチャートを用いて、HCU10での、ドライバの状態の推定に関連する処理(以下、状態推定関連処理)の流れの一例について説明を行う。図4のフローチャートは、HCU10の電源がオンになったときに開始し、HCU10の電源がオフになったときに終了する構成とすればよい。HCU10の電源のオンオフが、自車の内燃機関又はモータジェネレータを始動させるためのスイッチ(以下、パワースイッチ)のオンオフに応じて切り替えられる場合には、このパワースイッチのオン時に開始し、オフ時に終了する構成とすればよい。
<State estimation related processing in HCU10>
Next, an example of the flow of processing related to driver state estimation (hereinafter referred to as state estimation related processing) in the
まず、ステップS1では、画像認識処理部100が、ドライバ撮像ユニット50から取得する顔画像から画像認識処理を行う。画像認識処理部100は、この画像認識処理によって、ドライバの顔部位の抽出,顔部位の形状的な特徴の抽出,視線角度の算出等を行う。
First, in step S <b> 1, the image
ステップS2では、眼球運動抽出部110が眼球運動抽出処理を行って、ステップS3に移る。眼球運動抽出処理では、抽出対象とする眼球運動が生じている場合に、この眼球運動を抽出する。ここで、図5のフローチャートを用いて、眼球運動抽出処理の概略について説明を行う。
In step S2, the eye
まず、ステップS21では、瞬目抽出部111が、ドライバの瞬目を抽出する。ステップS22では、急速眼球運動抽出部112が、画像認識処理部100で算出した過去数フレーム分の視線角度をもとに視線角速度を算出する。ステップS23では、急速眼球運動抽出部112が、上述した視線角速度をもとに視線角加速度を算出する。
First, in step S21, the
ステップS24では、急速眼球運動抽出部112が、S23で算出した視線角加速度が基準角加速度以上であって、且つ、視線の移動距離が基準距離以上の場合に、サッカードを抽出する。ステップS25では、急速眼球運動抽出部112が、視線角加速度が基準角加速度以上であって、且つ、視線の移動距離が基準距離未満の場合に、マイクロサッカードを抽出する。ステップS26では、追従眼球運動抽出部113が、ドライバの追従眼球運動を抽出し、ステップS3に移る。なお、S24〜S26の処理は順番を入れ替えても構わない。
In step S24, the rapid eye
図4に戻って、ステップS3では、S2の眼球運動抽出処理で抽出した眼球運動のデータを眼球運動情報記憶部120に有効時間Tが経過するまで記憶する。ステップS4では、状態推定関連処理を開始してから有効時間Tが経過した場合(S4でYES)には、ステップS5に移る。状態推定関連処理を開始してから有効時間Tが経過していない場合(S4でNO)には、S1に戻って処理を繰り返す。状態推定関連処理を開始してから有効時間Tが経過したか否かについては、状態推定部140が例えばタイマ回路によるカウント等をもとに判断すればよい。
Returning to FIG. 4, in step S <b> 3, the eye movement data extracted by the eye movement extraction process of S <b> 2 is stored in the eye movement
ステップS5では、判定閾値決定部141が判定閾値を決定済みであった場合には、ステップS7に移る。一方、判定閾値決定部141が判定閾値を決定済みでなかった場合には、ステップS6に移る。ステップS6では、判定閾値決定部141が判定閾値決定処理を行って、ステップS7に移る。ここで、図6のフローチャートを用いて、判定閾値決定処理の概略について説明を行う。
In step S5, when the determination threshold
まず、ステップS61では、判定閾値決定部141が急速眼球運動頻度についての判定閾値を決定する。ステップS62では、判定閾値決定部141が瞬目頻度についての判定閾値を決定する。ステップS63では、判定閾値決定部141が追従眼球運動についての判定閾値を決定する。ステップS64では、判定閾値決定部141が急速眼球運動変化量についての判定閾値を決定し、ステップS7に移る。なお、S61〜S64の処理は順番を入れ替えても構わない。
First, in step S61, the determination threshold
状態推定関連処理において、判定閾値決定処理は1回のみ実施され、判定閾値を決定した後は、決定済みの判定閾値を用いて状態推定処理を行う構成とすればよい。本実施形態では、HCU10の電源がオンになった後に判定閾値決定処理を1回実施して判定閾値を決定し、HCU10の電源がオフになるまでは決定済みの判定閾値を用いて状態推定を行う。これによれば、自車のパワースイッチのオン,HCU10の電源オン等の状態推定関連処理の開始のトリガごとに判定閾値を新たに決定し直すので、乗車ごとにドライバに合った判定閾値を決定し直すことが可能になる。よって、日ごとにドライバの体調が異なる場合であっても、その日のドライバの体調に合わせた判定閾値を決定し、ドライバの状態の推定精度を向上させることができる。従って、自車の走行中に何度も判定閾値を決定し直す処理負荷を抑えつつ、ドライバの状態の推定精度を向上させることが可能になる。
In the state estimation related process, the determination threshold determination process is performed only once, and after determining the determination threshold, the state estimation process may be performed using the determined determination threshold. In this embodiment, after the power of the
図4に戻って、ステップS7では、状態推定部140が状態推定処理を行ってドライバの状態を推定し、ステップS8に移る。ここで、図7のフローチャートを用いて、状態推定処理の概略について説明を行う。状態推定処理では、所定時間tごとの判定用データを算出し、この判定用データとS6で決定した判定閾値との比較によってドライバの状態を推定する。本実施形態では、ドライバの注意力を推定する。
Returning to FIG. 4, in step S <b> 7, the
まず、S71では、状態推定部140が、急速眼球運動頻度算出部132で算出した直近の所定時間tにおけるドライバのサッカード,マイクロサッカードの発生頻度(つまり、急速眼球運動頻度)を取得する。急速眼球運動頻度は、サッカード及びマイクロサッカードのいずれかの発生頻度であってもよいが、ここではサッカードの発生頻度とマイクロサッカードの発生頻度の合計値とする。続いて、状態推定部140は、直近の所定時間tの急速眼球運動頻度とS6で決定した急速眼球運動頻度についての判定閾値とを比較する。そして、急速眼球運動頻度がこの判定閾値よりも大きい場合(S71でYES)には、ステップS75に移る。一方、急速眼球運動頻度がこの判定閾値以下である場合(S71でNO)には、ステップS72に移る。
First, in S <b> 71, the
ステップS72では、状態推定部140が、瞬目頻度算出部131で算出した直近の所定時間tにおけるドライバの瞬目頻度を取得し、この瞬目頻度とS6で決定した瞬目頻度についての判定閾値とを比較する。そして、瞬目頻度がこの判定閾値よりも大きい場合(S72でYES)には、ステップS75に移る。一方、瞬目頻度がこの判定閾値以下である場合(S72でNO)には、ステップS73に移る。
In step S72, the
ステップS73では、状態推定部140が、追従眼球運動時間算出部133で算出した直近の所定時間tにおけるドライバの追従眼球運動時間を取得し、この追従眼球運動時間とS6で決定した追従眼球運動時間についての判定閾値とを比較する。そして、追従眼球運動時間がこの判定閾値よりも大きい場合(S73でYES)には、ステップS75に移る。一方、追従眼球運動時間がこの判定閾値以下である場合(S73でNO)には、ステップS74に移る。
In step S73, the
ステップS74では、状態推定部140が、変化量算出部134で算出した直近の所定時間tについてのドライバの急速眼球運動頻度変化量を取得し、この急速眼球運動頻度変化量とS6で決定した急速眼球運動頻度変化量についての判定閾値とを比較する。そして、急速眼球運動頻度変化量がこの判定閾値よりも大きい場合(S74でYES)には、ステップS75に移る。一方、急速眼球運動頻度変化量がこの判定閾値以下である場合(S74でNO)には、ステップS76に移る。
In step S74, the
ステップS75では、状態推定部140が、ドライバの状態を正常、つまり集中状態であると推定し、ステップS8に移る。つまり、状態推定部140は、急速眼球運動頻度、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量のいずれかでもそれぞれの判定閾値よりも大きい場合に、ドライバの状態を集中状態であると推定する。
In step S75, the
一方、ステップS76では、状態推定部140が、ドライバの状態を異常、つまり不注意状態であると推定し、ステップS8に移る。つまり、状態推定部140は、急速眼球運動頻度、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量の全てがそれぞれの判定閾値以下の場合に、ドライバの状態を不注意状態であると推定する。なお、S71〜S74の処理の順番は入れ替えても構わない。
On the other hand, in step S76, the
図4に戻って、ステップS8では、S7でドライバの状態を不注意状態と推定した場合(S8でYES)には、ステップS9に移る。一方、S7でドライバの状態を集中状態と推定した場合(S8でNO)には、ステップS10に移る。ステップS9では、報知処理部150が、報知装置60に指示を行って警報を行わせ、ステップS10に移る。
Returning to FIG. 4, in step S8, when the driver state is estimated to be careless in S7 (YES in S8), the process proceeds to step S9. On the other hand, when the driver state is estimated to be a concentrated state in S7 (NO in S8), the process proceeds to step S10. In step S9, the
ステップS10では、状態推定関連処理の終了タイミングである場合(S10でYES)には、状態推定関連処理を終了する。一方、状態推定関連処理の終了タイミングでない場合(S10でNO)には、S1に戻って処理を繰り返す。状態推定関連処理の終了タイミングとしては、例えばHCU10の電源がオフになった場合,自車のパワースイッチがオフになった場合等がある。
In step S10, if it is the end timing of the state estimation related process (YES in S10), the state estimation related process is ended. On the other hand, when it is not the end timing of the state estimation related process (NO in S10), the process returns to S1 and the process is repeated. As the end timing of the state estimation related process, for example, when the power supply of the
<実施形態1のまとめ>
実施形態1の構成によれば、ドライバのサッカード及びマイクロサッカードの少なくともいずれかの発生頻度である急速眼球運動頻度だけでなく、ドライバの瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量を用いてドライバの状態を推定することで、ドライバの状態をより精度良く推定することが可能になる。
<Summary of
According to the configuration of the first embodiment, not only the rapid eye movement frequency that is the occurrence frequency of at least one of the driver's saccade and microsaccade, but also the driver's blink frequency, the following eye movement time, and the rapid eye movement frequency. By estimating the driver state using the amount of change, the driver state can be estimated more accurately.
詳しくは、瞬目頻度を用いることで、瞬目による急速眼球運動頻度の低下をドライバの状態の異常と推定しないようにすることが可能になる。また、追従眼球運動時間を用いることで、追従眼球運動による急速眼球運動頻度の低下をドライバの状態の異常と推定しないようにすることが可能になる。さらに、急速眼球運動頻度変化量を用いた場合には、急速眼球運動頻度が増加傾向にある場合の急速眼球運動頻度の低下をドライバの状態の異常と推定しないようにすることが可能になる。よって、急速眼球運動頻度だけを用いる場合に比べ、ドライバの状態をより精度良く推定することが可能になる。また、ドライバの瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量の一部を用いる場合と比較しても、ドライバの状態をより精度良く推定することが可能になる。 Specifically, by using the blink frequency, it is possible to prevent a decrease in the rapid eye movement frequency due to the blink from being estimated as an abnormal state of the driver. In addition, by using the following eye movement time, it is possible to prevent a decrease in the rapid eye movement frequency due to the following eye movement from being estimated as an abnormal state of the driver. Further, when the rapid eye movement frequency change amount is used, it is possible not to estimate a decrease in the rapid eye movement frequency when the rapid eye movement frequency tends to increase as an abnormal state of the driver. Therefore, the driver's state can be estimated with higher accuracy than when only the rapid eye movement frequency is used. In addition, the driver's state can be estimated more accurately than when using a part of the driver's blink frequency, follow-up eye movement time, and rapid eye movement frequency change amount.
(実施形態2)
実施形態1では、視線角速度若しくは視線角加速度をもとにドライバの追従眼球運動を抽出する構成を示したが、必ずしもこれに限らない。例えば、注視対象物の自車に対する位置及び/又は速度をもとにドライバの追従眼球運動の発生を推定することでドライバの追従眼球運動を抽出する構成(以下、実施形態2)としてもよい。以下、実施形態2の構成について説明する。
(Embodiment 2)
In the first embodiment, the configuration in which the driver's following eyeball movement is extracted based on the gaze angular velocity or the gaze angular acceleration is shown, but the configuration is not necessarily limited thereto. For example, the configuration may be such that the driver's following eye movement is extracted by estimating the generation of the driver's following eye movement based on the position and / or speed of the gaze target with respect to the vehicle (hereinafter, Embodiment 2). Hereinafter, the configuration of the second embodiment will be described.
実施形態2の車両システム1は、HCU10の代わりにHCU10aを含む点を除けば、実施形態1の車両システム1と同様である。ここで、図8を用いて、HCU10aの概略構成を説明する。
The
図8に示すように、HCU10aは、機能ブロックとして、画像認識処理部100、眼球運動抽出部110a、眼球運動情報記憶部120、判定用データ算出部130、状態推定部140、報知処理部150、及び対象物情報取得部160を備えている。HCU10aは、対象物情報取得部160を備えている点、及び眼球運動抽出部110の代わりに眼球運動抽出部110aを備えている点を除けばHCU10と同様である。このHCU10aも請求項の状態推定装置に相当する。
As shown in FIG. 8, the
対象物情報取得部160は、自車周辺の注視対象物の自車に対する位置及び速度の少なくともいずれかである対象物情報を取得する。一例としては、周辺監視ECU40で検出した、自車に対する注視対象物の位置及び/又は速度を対象物情報として取得する構成とすればよい。注視対象物が複数存在する場合には、その複数の注視対象物についての対象物情報を取得する構成とすればよい。
The target object
眼球運動抽出部110aは、サブ機能ブロックとして、瞬目抽出部111、急速眼球運動抽出部112、及び追従眼球運動抽出部113aを備える。眼球運動抽出部110aは、追従眼球運動抽出部113の代わりに追従眼球運動抽出部113aを備える点を除けば眼球運動抽出部110と同様である。
The eye
追従眼球運動抽出部113aは、対象物情報取得部160で取得する対象物情報をもとにドライバの追従眼球運動の発生を推定することでドライバの追従眼球運動を抽出する。よって、この追従眼球運動抽出部113aが請求項の発生推定部に相当する。ドライバは、注視対象物が視野範囲内に位置し、且つ、自車に対する速度差が一定以上に大きい場合に、この注視対象物に対して追従眼球運動を起こす。よって、注視対象物が自車の前方に位置したり、自車に対する注視対象物の速度差が一定以上に大きかったりする場合には、追従眼球運動が発生する確率が高い。よって、このような場合を条件としてドライバの追従眼球運動の発生を推定することでドライバの追従眼球運動を抽出すればよい。
The following eye
実施形態2の構成であっても、追従眼球運動の抽出の態様が異なる点を除けば実施形態1と同様であるので、実施形態1の構成と同様の効果を奏することができる。 The configuration of the second embodiment is the same as that of the first embodiment except that the follow-up eye movement extraction mode is different, so that the same effect as the configuration of the first embodiment can be obtained.
(実施形態3)
実施形態1では、追従眼球運動時間についての判定閾値を、有効時間T内における所定時間tごとの追従眼球運動時間の平均値又はばらつきの度合いから決定する構成を示したが、必ずしもこれに限らない。例えば、注視対象物の自車に対する位置及び/又は速度をもとに、追従眼球運動時間についての判定閾値を決定する構成(以下、実施形態3)としてもよい。以下、実施形態3の構成について説明する。
(Embodiment 3)
In the first embodiment, the determination threshold for the following eye movement time is determined from the average value or the degree of variation of the following eye movement time for each predetermined time t within the effective time T. However, the present invention is not limited to this. . For example, it is good also as a structure (henceforth Embodiment 3) which determines the determination threshold value about tracking eyeball movement time based on the position and / or speed with respect to the own vehicle of a gaze target object. Hereinafter, the configuration of the third embodiment will be described.
実施形態3の車両システム1は、HCU10の代わりにHCU10bを含む点を除けば、実施形態1の車両システム1と同様である。ここで、図9を用いて、HCU10bの概略構成を説明する。
The
図9に示すように、HCU10bは、機能ブロックとして、画像認識処理部100、眼球運動抽出部110、眼球運動情報記憶部120、判定用データ算出部130、状態推定部140b、報知処理部150、及び対象物情報取得部160を備えている。HCU10bは、対象物情報取得部160を備えている点、及び状態推定部140の代わりに状態推定部140bを備えている点を除けばHCU10と同様である。このHCU10bも請求項の状態推定装置に相当する。
As shown in FIG. 9, the
対象物情報取得部160は、実施形態2の対象物情報取得部160と同様である。状態推定部140bは、サブ機能ブロックとして、判定閾値決定部141bを備える。状態推定部140bは、判定閾値決定部141の代わりに判定閾値決定部141bを備える点を除けば状態推定部140と同様である。
The object
判定閾値決定部141bは、対象物情報取得部160で取得する対象物情報に応じて、追従眼球運動時間についての判定閾値を決定する。また、判定閾値決定部141bは、実施形態1の判定閾値決定部141と同様にして決定した追従眼球運動時間についての判定閾値を、対象物情報取得部160で取得する対象物情報に応じて変更することで決定する構成としてもよい。
The determination threshold
一例としては、自車に対する注視対象物の速度が速くなるほど追従眼球運動時間が短くなる確率が高いため、自車に対する注視対象物の速度が速くなるのに応じて、追従眼球運動時間についての判定閾値を小さく決定する構成とすればよい。また、自車に対して注視対象物が遠くにある場合は追従眼球運動時間が長くなる確率が高いため、自車に対する注視対象物の位置及び速度から、自車に対する注視対象物の接近の度合いが低くなるのに応じて、追従眼球運動時間についての判定閾値を大きく決定する構成としてもよい。他にも、自車周辺の注視対象物の数が多くなるほど一つの注視対象物に対する追従眼球運動時間が短くなる確率が高いため、自車に対する注視対象物の位置から、自車周辺の注視対象物の数が多くなるのに応じて、追従眼球運動時間についての判定閾値を小さく決定する構成としてもよい。 As an example, since the tracking eye movement time is likely to be shortened as the speed of the gaze target with respect to the vehicle increases, the determination of the tracking eye movement time according to the speed of the gaze object with respect to the vehicle increases. What is necessary is just to set it as the structure which determines a threshold value small. In addition, when the target object is far away from the host vehicle, the tracking eye movement time is likely to be long, so the degree of approach of the target object to the host vehicle from the position and speed of the target object relative to the host vehicle is high. It is good also as a structure which determines largely the determination threshold value about a follow-up eye movement time according to becoming low. In addition, since the tracking eye movement time for one gaze target is likely to be shorter as the number of gaze objects around the vehicle increases, the number of gaze objects around the vehicle is determined from the position of the gaze target with respect to the own vehicle. It is good also as a structure which determines the determination threshold value about a following eyeball movement time small according to increasing.
注視対象物の自車に対する位置及び/又は速度によって、自車のドライバがその注視対象物を注視することによって生じる追従眼球運動の発生時間の長さの傾向が変わる。実施形態3の構成によれば、対象物情報取得部160で取得する対象物情報に応じて追従眼球運動時間についての判定閾値を決定することで、この対象物情報に応じて変わる追従眼球運動の発生時間の長さの傾向に合わせて、追従眼球運動時間についての判定閾値を決定することが可能になる。従って、追従眼球運動時間についての判定閾値の精度をより向上させ、ドライバの状態の推定精度をより向上させることが可能になる。
Depending on the position and / or speed of the gaze target with respect to the own vehicle, the tendency of the length of time of occurrence of the following eye movement that occurs when the driver of the own vehicle gazes at the gaze target changes. According to the configuration of the third embodiment, by determining the determination threshold value for the tracking eye movement time according to the object information acquired by the object
なお、実施形態3の構成であっても、追従眼球運動時間についての判定閾値を変更する点を除けば実施形態1と同様であるので、実施形態1の構成と同様の効果も奏することができる。また、実施形態3の構成を実施形態1若しくは実施形態2と組み合わせても構わない。 Note that the configuration of the third embodiment is the same as that of the first embodiment except that the determination threshold value for the tracking eye movement time is changed. Therefore, the same effect as the configuration of the first embodiment can be obtained. . The configuration of the third embodiment may be combined with the first or second embodiment.
(実施形態4)
実施形態1では、瞬目頻度についての判定閾値を、有効時間T内における所定時間tごとの瞬目頻度の平均値又はばらつきの度合いから決定する構成を示したが、必ずしもこれに限らない。例えば、自車の室内の湿度及び/又は明るさをもとに、瞬目頻度についての判定閾値を決定する構成(以下、実施形態4)としてもよい。以下、実施形態4の構成について説明する。
(Embodiment 4)
In the first embodiment, the determination threshold for the blink frequency is determined based on the average value or the degree of variation of the blink frequency for each predetermined time t within the effective time T. However, the present invention is not limited to this. For example, it is good also as a structure (henceforth Embodiment 4) which determines the determination threshold value about blink frequency based on the humidity and / or brightness of the interior of the own vehicle. Hereinafter, the configuration of the fourth embodiment will be described.
実施形態4の車両システム1は、HCU10の代わりにHCU10cを含む点を除けば、実施形態1の車両システム1と同様である。ここで、図10を用いて、HCU10cの概略構成を説明する。
The
図10に示すように、HCU10bは、機能ブロックとして、画像認識処理部100、眼球運動抽出部110、眼球運動情報記憶部120、判定用データ算出部130、状態推定部140c、報知処理部150、及び室内環境情報取得部170を備えている。HCU10cは、室内環境情報取得部170を備えている点、及び状態推定部140の代わりに状態推定部140cを備えている点を除けばHCU10と同様である。このHCU10cも請求項の状態推定装置に相当する。
As shown in FIG. 10, the
室内環境情報取得部170は、自車の室内の湿度及び/又は明るさである室内環境情報を取得する。一例としては、車両センサ20のうちの外光センサで検出する照度及び/又は車両センサ20のうちの湿度センサで検出する湿度を室内環境情報として取得する構成とすればよい。
The indoor environment
状態推定部140cは、サブ機能ブロックとして、判定閾値決定部141cを備える。状態推定部140cは、判定閾値決定部141の代わりに判定閾値決定部141cを備える点を除けば状態推定部140と同様である。
The
判定閾値決定部141cは、室内環境情報取得部170で取得する室内環境情報に応じて、瞬目頻度についての判定閾値を決定する。また、判定閾値決定部141cは、実施形態1の判定閾値決定部141と同様にして決定した瞬目頻度についての判定閾値を、室内環境情報取得部170で取得する室内環境情報に応じて変更することで決定する構成としてもよい。一例としては、外光センサで検出する照度が大きくなるのに応じて、瞬目頻度についての判定閾値を大きく決定する構成とすればよい。また、湿度センサで検出する湿度が低くなるのに応じて、瞬目頻度についての判定閾値を大きく変更する構成としてもよい。
The determination threshold
自車の室内の湿度及び/又は明るさによって、自車のドライバの瞬目頻度の傾向が変わる。例えば、湿度が低いほど乾燥によって瞬きが増えるため瞬目頻度は高くなる。また、明るさが大きいほど瞬きが増えるため瞬目頻度は高くなる。実施形態4の構成によれば、室内環境情報取得部170で取得する室内環境情報に応じて瞬目頻度についての判定閾値を変更することで、この室内環境情報に応じて変わる瞬目頻度の傾向に合わせて、瞬目頻度についての判定閾値を変更することが可能になる。従って、瞬目頻度についての判定閾値の精度をより向上させ、ドライバの状態の推定精度をより向上させることが可能になる。
The tendency of the blink frequency of the driver of the vehicle changes depending on the humidity and / or brightness of the vehicle interior. For example, the blink frequency increases because the blinking increases as the humidity decreases. In addition, the blink frequency increases because the blink increases as the brightness increases. According to the configuration of the fourth embodiment, by changing the determination threshold for the blink frequency according to the indoor environment information acquired by the indoor environment
なお、実施形態4の構成であっても、瞬目頻度についての判定閾値を変更する点を除けば実施形態1と同様であるので、実施形態1の構成と同様の効果も奏することができる。また、実施形態4の構成を実施形態1〜3の構成と組み合わせても構わない。 The configuration of the fourth embodiment is the same as that of the first embodiment except that the determination threshold for the blink frequency is changed, and thus the same effect as the configuration of the first embodiment can be obtained. Further, the configuration of the fourth embodiment may be combined with the configurations of the first to third embodiments.
(実施形態5)
前述の実施形態では、急速眼球運動頻度、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量をHCU10,10a,10b,10cで算出することで取得する構成を示したが、必ずしもこれに限らない。例えば、HCU10,10a,10b,10c以外の装置で算出した急速眼球運動頻度、瞬目頻度、追従眼球運動時間、及び/又は急速眼球運動頻度変化量を、HCU10,10a,10b,10cが取得する構成としてもよい。また、HCU10,10a,10b,10cの機能は、複数の装置で担う構成としてもよい。
(Embodiment 5)
In the above-described embodiment, the configuration in which the rapid eye movement frequency, the blink frequency, the tracking eye movement time, and the rapid eye movement frequency change amount are obtained by calculating with the
(実施形態6)
前述の実施形態では、状態推定部140,140b,140cが、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量を用いてドライバの状態を推定する構成を示したが、必ずしもこれに限らない。例えば、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量のうちの一部のみをドライバの状態の推定に用いる構成としてもよい。なお、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量のうち、急速眼球運動頻度変化量は、急速眼球運動頻度の算出結果を用いて算出できるため、急速眼球運動頻度変化量も用いてドライバの状態を推定する構成とした場合でも、新たな演算処理の増加を抑えることができ、処理負荷を抑えることができる利点がある。
(Embodiment 6)
In the above-described embodiment, the
(実施形態7)
前述の実施形態では、状態推定関連処理をHCU10,10a,10b,10cの電源がオンになるごとに実行する構成を示したが、必ずしもこれに限らない。例えば、自車に設けられた操作入力部に状態推定関連処理を実行するための操作入力をユーザが行うごとに、状態推定関連処理を実行する構成としてもよい。これによれば、自車のドライバが変更するごとにドライバからこの操作入力を受け付けることで、個々のドライバに応じた判定閾値を決定し、個々のドライバに応じてドライバの状態を精度良く推定することが可能になる。
(Embodiment 7)
In the above-described embodiment, the configuration in which the state estimation-related processing is executed every time the power of the
また、個々のドライバごとに異なる電子キーのIDといった識別情報を車両システム1のメモリに登録しておくことで、電子キーIDから近距離無線通信で得られるドライバごとの識別情報をもとに、ドライバが変更されるごとに状態推定関連処理を実行する構成としてもよい。この場合でも、個々のドライバに応じた判定閾値を決定し、個々のドライバに応じてドライバの状態を精度良く推定することが可能になる。
In addition, by registering identification information such as an electronic key ID that is different for each driver in the memory of the
(実施形態8)
前述の実施形態では、本発明を車両に適用した場合を例に挙げて説明を行ったが、必ずしもこれに限らない。例えば、車両以外の移動体に適用し、車両以外の移動体の乗員の状態を推定する構成としてもよい。また、移動体以外に適用する構成としてもよい。例えば、工場のライン等での作業員の状態を推定する構成としてもよい。
(Embodiment 8)
In the above-described embodiment, the case where the present invention is applied to a vehicle has been described as an example, but the present invention is not necessarily limited thereto. For example, it is good also as a structure applied to moving bodies other than a vehicle and estimating the passenger | crew's state of moving bodies other than a vehicle. Moreover, it is good also as a structure applied other than a moving body. For example, it is good also as a structure which estimates the state of the worker in a factory line etc.
なお、本発明は、上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 Note that the present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. Embodiments are also included in the technical scope of the present invention.
1 車両システム、10,10a,10b,10c HCU(状態推定装置)、20 車両センサ、30 周辺監視センサ、40 周辺監視ECU、50 ドライバ撮像ユニット、100 画像認識処理部、110 眼球運動抽出部、111 瞬目抽出部、112 急速眼球運動抽出部、113 追従眼球運動抽出部、113a 追従眼球運動抽出部(発生推定部)、120 眼球運動情報記憶部、130 判定用データ算出部、131 瞬目頻度算出部(瞬目取得部)、132 急速眼球運動頻度算出部(頻度取得部)、133 追従眼球運動時間算出部(追従眼球運動取得部)、134 変化量算出部(頻度変化量取得部)、135 補強情報取得部、140,140b,140c 状態推定部、141,141b,141c 判定閾値決定部、150 報知処理部、160 対象物情報取得部、170 室内環境情報取得部
DESCRIPTION OF
Claims (13)
前記監視対象者のサッカード及びマイクロサッカードの少なくともいずれかの発生頻度である急速眼球運動頻度を取得する頻度取得部(132)と、
前記監視対象者の瞬目の発生頻度を取得する瞬目取得部(131)、前記監視対象者の追従眼球運動の発生時間を取得する追従眼球運動取得部(133)、及び前記監視対象者の前記急速眼球運動頻度の変化量を取得する頻度変化量取得部(134)の少なくともいずれかである補強情報取得部(135)と、
前記頻度取得部で取得する前記急速眼球運動頻度に加え、前記補強情報取得部で取得する情報を用いて、前記監視対象者の状態を推定する状態推定部(140,140b,140c)とを備える状態推定装置。 A state estimation device that estimates the state of the monitoring subject based on the eye movement of the monitoring subject,
A frequency acquisition unit (132) for acquiring a rapid eye movement frequency, which is an occurrence frequency of at least one of saccade and microsaccade of the monitoring target;
A blink acquisition unit (131) that acquires the occurrence frequency of blinks of the monitoring target person, a tracking eye movement acquisition unit (133) that acquires the generation time of the tracking eye movement of the monitoring target person, and the monitoring target person A reinforcement information acquisition unit (135) that is at least one of a frequency change amount acquisition unit (134) that acquires a change amount of the rapid eye movement frequency;
In addition to the rapid eye movement frequency acquired by the frequency acquisition unit, a state estimation unit (140, 140b, 140c) that estimates the state of the monitoring target person using information acquired by the reinforcement information acquisition unit. State estimation device.
前記状態推定部は、前記頻度取得部で取得する前記急速眼球運動頻度がその急速眼球運動頻度についての閾値以下である場合であっても、前記瞬目取得部で取得する前記瞬目の発生頻度がその発生頻度についての閾値よりも大きい場合には、前記監視対象者の状態が正常であると推定する請求項3又は4に記載の状態推定装置。 The reinforcement information acquisition unit is at least the blink acquisition unit,
The state estimation unit may generate the blinking frequency acquired by the blink acquisition unit even when the rapid eye movement frequency acquired by the frequency acquisition unit is equal to or less than a threshold value for the rapid eye movement frequency. The state estimation device according to claim 3 or 4 that estimates that the state of the person to be monitored is normal when is greater than a threshold value regarding the occurrence frequency.
前記車両の室内の湿度及び明るさの少なくともいずれかである室内環境情報を取得する室内環境情報取得部(170)を備え、
前記状態推定部(140c)は、前記瞬目の発生頻度についての閾値を、前記室内環境情報取得部で逐次取得する前記室内環境情報に応じて逐次決定して更新する請求項5又は6に記載の状態推定装置。 Used in a vehicle to estimate the state of the driver of the vehicle as the person to be monitored,
An indoor environment information acquisition unit (170) that acquires indoor environment information that is at least one of humidity and brightness in the vehicle interior;
The said state estimation part (140c) determines and updates the threshold value about the generation | occurrence | production frequency of the said blink sequentially according to the said indoor environment information acquired sequentially by the said indoor environment information acquisition part. State estimation device.
前記状態推定部は、前記頻度取得部で取得する前記急速眼球運動頻度がその急速眼球運動頻度についての閾値以下である場合であっても、前記追従眼球運動取得部で取得する前記追従眼球運動の発生時間がその発生時間についての閾値よりも大きい場合には、前記監視対象者の状態が正常であると推定する請求項3〜7のいずれか1項に記載の状態推定装置。 The reinforcement information acquisition unit is at least the following eye movement acquisition unit,
Even if the rapid eye movement frequency acquired by the frequency acquisition unit is equal to or less than a threshold value for the rapid eye movement frequency, the state estimation unit is configured to acquire the tracking eye movement acquired by the tracking eye movement acquisition unit. The state estimation device according to any one of claims 3 to 7, wherein when the occurrence time is greater than a threshold value for the occurrence time, the state of the monitoring subject is estimated to be normal.
前記車両周辺の注視対象物の前記車両に対する位置及び速度の少なくともいずれかである対象物情報を取得する対象物情報取得部(160)と、
前記対象物情報取得部で取得する前記対象物情報をもとに前記監視対象者の追従眼球運動の発生を推定する発生推定部(113a)とを備え、
前記追従眼球運動取得部は、前記発生推定部での推定結果をもとに前記監視対象者の追従眼球運動の発生時間を取得する請求項8又は9に記載の状態推定装置。 Used in a vehicle to estimate the state of the driver of the vehicle as the person to be monitored,
An object information acquisition unit (160) that acquires object information that is at least one of a position and a speed of a gaze object around the vehicle;
A generation estimation unit (113a) that estimates the generation of the following eye movement of the monitoring target person based on the target information acquired by the target information acquisition unit;
The state estimation device according to claim 8 or 9, wherein the tracking eye movement acquisition unit acquires a generation time of the tracking eye movement of the monitoring target person based on an estimation result in the generation estimation unit.
前記車両周辺の注視対象物の前記車両に対する位置及び速度の少なくともいずれかである対象物情報を取得する対象物情報取得部(160)を備えるものであり、
前記状態推定部(140b)は、前記追従眼球運動の発生時間についての閾値を、前記対象物情報取得部で取得する前記対象物情報に応じて決定する請求項8〜10のいずれか1項に記載の状態推定装置。 It is used in a vehicle and estimates the state of the driver of the vehicle as the monitoring subject,
An object information acquisition unit (160) that acquires object information that is at least one of a position and a speed of a gaze object around the vehicle;
The said state estimation part (140b) determines the threshold value about the generation | occurrence | production time of the said following eye movement according to the said target object information acquired with the said target object information acquisition part. The state estimation apparatus described.
前記状態推定部は、前記頻度取得部で取得する前記急速眼球運動頻度がその急速眼球運動頻度についての閾値以下である場合であっても、前記頻度変化量取得部で取得する前記監視対象者の前記急速眼球運動頻度の変化量がその変化量についての閾値よりも大きい増加である場合には、前記監視対象者の状態が正常であると推定する請求項3〜11のいずれか1項に記載の状態推定装置。 The reinforcement information acquisition unit is at least the frequency change amount acquisition unit,
Even if the rapid eye movement frequency acquired by the frequency acquisition unit is equal to or less than a threshold value for the rapid eye movement frequency, the state estimation unit may acquire the monitoring target person acquired by the frequency change amount acquisition unit. 12. The method according to claim 3, wherein when the amount of change in the rapid eye movement frequency is greater than a threshold value for the amount of change, the state of the monitoring subject is estimated to be normal. State estimation device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017088748A JP6926636B2 (en) | 2017-04-27 | 2017-04-27 | State estimator |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017088748A JP6926636B2 (en) | 2017-04-27 | 2017-04-27 | State estimator |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018183532A true JP2018183532A (en) | 2018-11-22 |
JP6926636B2 JP6926636B2 (en) | 2021-08-25 |
Family
ID=64357240
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017088748A Active JP6926636B2 (en) | 2017-04-27 | 2017-04-27 | State estimator |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6926636B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109285321A (en) * | 2018-11-23 | 2019-01-29 | 泰安宇祺通讯技术有限公司 | A kind of rail traffic driver drowsy early warning system and its application method |
JP2020199165A (en) * | 2019-06-12 | 2020-12-17 | 株式会社デンソー | Saccade detection device, saccade detection method, and saccade detection program |
JP2020199166A (en) * | 2019-06-12 | 2020-12-17 | 株式会社デンソー | Saccade detection device, saccade detection method, and saccade detection program |
JPWO2021014939A1 (en) * | 2019-07-22 | 2021-01-28 | ||
JP2021019942A (en) * | 2019-07-29 | 2021-02-18 | 株式会社デンソー | Eyeball index detection device, eyeball index detection method, and eyeball index detection program |
JP2021077134A (en) * | 2019-11-11 | 2021-05-20 | マツダ株式会社 | Vehicle control device and driver state determination method |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001338363A (en) * | 2000-05-24 | 2001-12-07 | Yokogawa Electric Corp | Method and device for generating alarm |
JP2003099899A (en) * | 2001-09-25 | 2003-04-04 | Toyota Central Res & Dev Lab Inc | Device for operating degree of risk of driving behavior |
JP2008158619A (en) * | 2006-12-21 | 2008-07-10 | Hino Motors Ltd | Apparatus and method for determining degree of vigilance |
JP2008165348A (en) * | 2006-12-27 | 2008-07-17 | Toyota Motor Corp | Unit and method for doze detection |
JP2009090876A (en) * | 2007-10-10 | 2009-04-30 | Toyota Motor Corp | Nap prevention device |
JP2010108235A (en) * | 2008-10-30 | 2010-05-13 | Equos Research Co Ltd | Awakening support system |
WO2010092860A1 (en) * | 2009-02-13 | 2010-08-19 | トヨタ自動車株式会社 | Physiological condition estimation device and vehicle control device |
JP2012128523A (en) * | 2010-12-13 | 2012-07-05 | Canon Inc | Information processing device and operating method thereof |
JP2012252497A (en) * | 2011-06-02 | 2012-12-20 | Nissan Motor Co Ltd | Driving support device and driving support method for vehicle |
JP2013056180A (en) * | 2002-10-15 | 2013-03-28 | Volvo Technology Corp | Method and arrangement for interpreting subject's head and eye activity |
JP2015116376A (en) * | 2013-12-19 | 2015-06-25 | 株式会社デンソー | State estimation apparatus and state estimation program |
JP2016134077A (en) * | 2015-01-21 | 2016-07-25 | 株式会社豊田中央研究所 | Awakening maintenance device and program |
-
2017
- 2017-04-27 JP JP2017088748A patent/JP6926636B2/en active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001338363A (en) * | 2000-05-24 | 2001-12-07 | Yokogawa Electric Corp | Method and device for generating alarm |
JP2003099899A (en) * | 2001-09-25 | 2003-04-04 | Toyota Central Res & Dev Lab Inc | Device for operating degree of risk of driving behavior |
JP2013056180A (en) * | 2002-10-15 | 2013-03-28 | Volvo Technology Corp | Method and arrangement for interpreting subject's head and eye activity |
JP2008158619A (en) * | 2006-12-21 | 2008-07-10 | Hino Motors Ltd | Apparatus and method for determining degree of vigilance |
JP2008165348A (en) * | 2006-12-27 | 2008-07-17 | Toyota Motor Corp | Unit and method for doze detection |
JP2009090876A (en) * | 2007-10-10 | 2009-04-30 | Toyota Motor Corp | Nap prevention device |
JP2010108235A (en) * | 2008-10-30 | 2010-05-13 | Equos Research Co Ltd | Awakening support system |
WO2010092860A1 (en) * | 2009-02-13 | 2010-08-19 | トヨタ自動車株式会社 | Physiological condition estimation device and vehicle control device |
JP2012128523A (en) * | 2010-12-13 | 2012-07-05 | Canon Inc | Information processing device and operating method thereof |
JP2012252497A (en) * | 2011-06-02 | 2012-12-20 | Nissan Motor Co Ltd | Driving support device and driving support method for vehicle |
JP2015116376A (en) * | 2013-12-19 | 2015-06-25 | 株式会社デンソー | State estimation apparatus and state estimation program |
JP2016134077A (en) * | 2015-01-21 | 2016-07-25 | 株式会社豊田中央研究所 | Awakening maintenance device and program |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109285321A (en) * | 2018-11-23 | 2019-01-29 | 泰安宇祺通讯技术有限公司 | A kind of rail traffic driver drowsy early warning system and its application method |
JP2020199165A (en) * | 2019-06-12 | 2020-12-17 | 株式会社デンソー | Saccade detection device, saccade detection method, and saccade detection program |
JP2020199166A (en) * | 2019-06-12 | 2020-12-17 | 株式会社デンソー | Saccade detection device, saccade detection method, and saccade detection program |
JP7131490B2 (en) | 2019-06-12 | 2022-09-06 | 株式会社デンソー | Saccade detection device, saccade detection method, saccade detection program |
JP7131491B2 (en) | 2019-06-12 | 2022-09-06 | 株式会社デンソー | Saccade detection device, saccade detection method, saccade detection program |
JPWO2021014939A1 (en) * | 2019-07-22 | 2021-01-28 | ||
WO2021014939A1 (en) * | 2019-07-22 | 2021-01-28 | 日本電気株式会社 | Drowsiness estimation information correction device, drowsiness estimation device, drowsiness estimation information correction method, drowsiness estimation method, and recording medium |
JP7231035B2 (en) | 2019-07-22 | 2023-03-01 | 日本電気株式会社 | Sleepiness estimation information correction device, sleepiness estimation device, sleepiness estimation information correction method, sleepiness estimation method and program |
JP2021019942A (en) * | 2019-07-29 | 2021-02-18 | 株式会社デンソー | Eyeball index detection device, eyeball index detection method, and eyeball index detection program |
JP7140072B2 (en) | 2019-07-29 | 2022-09-21 | 株式会社デンソー | Eyeball index detection device, eyeball index detection method, eyeball index detection program |
JP2021077134A (en) * | 2019-11-11 | 2021-05-20 | マツダ株式会社 | Vehicle control device and driver state determination method |
JP7342636B2 (en) | 2019-11-11 | 2023-09-12 | マツダ株式会社 | Vehicle control device and driver condition determination method |
Also Published As
Publication number | Publication date |
---|---|
JP6926636B2 (en) | 2021-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6926636B2 (en) | State estimator | |
US9526448B2 (en) | State estimation device and state estimation program | |
EP2860664B1 (en) | Face detection apparatus | |
JP7099037B2 (en) | Data processing equipment, monitoring system, awakening system, data processing method, and data processing program | |
US11144052B2 (en) | Readiness and identification by gaze and/or gesture pattern detection | |
US10604160B2 (en) | Driver condition detection system | |
JP2015207163A (en) | State estimation device and state estimation program | |
US11455810B2 (en) | Driver attention state estimation | |
JP2016057839A (en) | Facial direction detection device and warning system for vehicle | |
JP4647387B2 (en) | Vehicle driving support device | |
JP6578784B2 (en) | State estimation device and state estimation program | |
TWI522257B (en) | Vehicle safety system and operating method thereof | |
CN112119438A (en) | Vehicle rear-lateral-direction warning device and vehicle rear-lateral-direction warning method | |
JP2014153875A (en) | Operation support device | |
WO2019155914A1 (en) | Data processing device, monitoring system, alertness system, data processing method, data processing program, and storage medium | |
WO2019176492A1 (en) | Calculation system, information processing device, driving assistance system, index calculation method, computer program, and storage medium | |
JP7099036B2 (en) | Data processing equipment, monitoring system, awakening system, data processing method, and data processing program | |
WO2019155913A1 (en) | Data processing device, monitoring system, alertness system, data processing method, data processing program, and storage medium | |
US11807264B2 (en) | Driving assistance apparatus, driving assistance method, and medium | |
JP7014680B2 (en) | Gaze object detection device, gaze object detection method, and program | |
JP6098476B2 (en) | Driving assistance device | |
JP6714425B2 (en) | Driving support device | |
US20240029454A1 (en) | Line of sight estimating device, storage medium for storing computer program for line of sight estimation, and line of sight estimating method | |
KR102331937B1 (en) | Apparatus for vehicle emergency rescue based on the analysis of the driving state risk and the driver state and method thereof | |
JP2023169625A (en) | Monitoring device, computer program for monitoring, and monitoring method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200403 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210706 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210719 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6926636 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |