JP2018183532A - State estimation apparatus - Google Patents

State estimation apparatus Download PDF

Info

Publication number
JP2018183532A
JP2018183532A JP2017088748A JP2017088748A JP2018183532A JP 2018183532 A JP2018183532 A JP 2018183532A JP 2017088748 A JP2017088748 A JP 2017088748A JP 2017088748 A JP2017088748 A JP 2017088748A JP 2018183532 A JP2018183532 A JP 2018183532A
Authority
JP
Japan
Prior art keywords
eye movement
frequency
state estimation
acquisition unit
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017088748A
Other languages
Japanese (ja)
Other versions
JP6926636B2 (en
Inventor
克彦 濱田
Katsuhiko Hamada
克彦 濱田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2017088748A priority Critical patent/JP6926636B2/en
Publication of JP2018183532A publication Critical patent/JP2018183532A/en
Application granted granted Critical
Publication of JP6926636B2 publication Critical patent/JP6926636B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to more accurately estimate a state of a monitoring target person on the basis of eye movement of the monitoring target person.SOLUTION: A state estimation apparatus comprises: a rapid eye movement frequency calculation unit 132 for calculating a rapid eye movement frequency, an occurrence frequency of at least any of a saccade and micro saccade of a driver; a nictation frequency calculation unit 131 for calculating a nictation frequency of the driver; a tracking eye movement time calculation unit 133 for calculating an occurrence time of tracking eye movement of the driver; a variation calculation unit 134 for calculating a variation in the rapid eye movement frequency of the driver; and a state estimation unit 140 for estimating a state of the driver using the nictation frequency, tracking eye movement time, and rapid eye movement frequency variation in addition to the rapid eye movement frequency.SELECTED DRAWING: Figure 2

Description

本発明は、監視対象者の眼球運動に基づいて監視対象者の状態を推定する状態推定装置に関するものである。   The present invention relates to a state estimation device that estimates the state of a monitoring target person based on the eye movement of the monitoring target person.

特許文献1には、監視対象者のサッカードの発生頻度を表す通常サッカード頻度と監視対象者のマイクロサッカードの発生頻度を表すマイクロサッカード頻度との合計値が閾値未満である場合に異常であると推定する技術が開示されている。つまり、サッカード及びマイクロサッカードの発生頻度が閾値未満である場合に異常であると推定する技術が開示されている。   In Patent Document 1, an abnormality occurs when the total value of the normal saccade frequency indicating the occurrence frequency of the saccade of the monitoring target and the microsaccade frequency indicating the occurrence frequency of the microsaccade of the monitoring target is less than a threshold value. A technique for presuming that is is disclosed. That is, a technique is disclosed that estimates that the occurrence frequency of saccade and microsaccade is abnormal when it is less than a threshold value.

特開2017−23519号公報JP 2017-23519 A

しかしながら、サッカード,マイクロサッカードの発生頻度が低い場合であっても、監視対象者が異常でない場合もある。例えば、サッカード,マイクロサッカードの発生頻度は、監視対象者の周辺環境によって生じる瞬目及び/又は追従眼球運動によっても低下する。よって、監視対象者の周辺環境によっては、監視対象者が正常であってもサッカード,マイクロサッカードの発生頻度が低下し、監視対象者の状態の推定精度が低下する場合がある。   However, even if the occurrence frequency of saccades and microsaccades is low, the monitoring subject may not be abnormal. For example, the occurrence frequency of saccades and microsaccades is also reduced by blinking and / or following eye movements caused by the surrounding environment of the monitoring subject. Therefore, depending on the surrounding environment of the monitoring target person, even if the monitoring target person is normal, the occurrence frequency of saccades and microsaccades may decrease, and the estimation accuracy of the state of the monitoring target person may decrease.

また、サッカード,マイクロサッカードの発生頻度が低い場合であっても、時間経過とともに増加傾向にある場合には、監視対象者の状態がすでに正常に回復していると考えられる。よって、このような場合にも、監視対象者の状態の推定精度が低下すると考えられる。   Even if the occurrence frequency of saccades and microsaccades is low, it is considered that the state of the monitoring subject has already recovered normally if there is a tendency to increase over time. Therefore, even in such a case, it is considered that the estimation accuracy of the state of the monitoring subject is lowered.

この開示のひとつの目的は、監視対象者の眼球運動に基づいて監視対象者の状態をより精度良く推定することを可能にする状態推定装置を提供することにある。   One object of this disclosure is to provide a state estimation device that makes it possible to estimate the state of the monitoring subject with higher accuracy based on the eyeball movement of the monitoring subject.

上記目的は独立請求項に記載の特徴の組み合わせにより達成され、また、下位請求項は、発明の更なる有利な具体例を規定する。特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。   The above object is achieved by a combination of the features described in the independent claims, and the subclaims define further advantageous embodiments of the invention. Reference numerals in parentheses described in the claims indicate a correspondence relationship with specific means described in the embodiments described later as one aspect, and do not limit the technical scope of the present invention. .

上記目的を達成するために、本発明の状態推定装置は、監視対象者の眼球運動に基づいて監視対象者の状態を推定する状態推定装置であって、監視対象者のサッカード及びマイクロサッカードの少なくともいずれかの発生頻度である急速眼球運動頻度を取得する頻度取得部(132)と、監視対象者の瞬目の発生頻度を取得する瞬目取得部(131)、監視対象者の追従眼球運動の発生時間を取得する追従眼球運動取得部(133)、及び監視対象者の急速眼球運動頻度の変化量を取得する頻度変化量取得部(134)の少なくともいずれかである補強情報取得部(135)と、頻度取得部で取得する急速眼球運動頻度に加え、補強情報取得部で取得する情報を用いて、監視対象者の状態を推定する状態推定部(140,140b,140c)とを備える。   In order to achieve the above object, a state estimation device according to the present invention is a state estimation device that estimates a state of a monitoring subject based on eye movements of the monitoring subject, and includes a saccade and a microsaccade of the monitoring subject. A frequency acquisition unit (132) that acquires a rapid eye movement frequency that is at least one of the following, a blink acquisition unit (131) that acquires a blink occurrence frequency of the monitoring target person, and a tracking eye of the monitoring target person A reinforcing information acquisition unit (133) that is at least one of a follow-up eye movement acquisition unit (133) that acquires the occurrence time of movement and a frequency change amount acquisition unit (134) that acquires the amount of change in the rapid eye movement frequency of the monitoring subject. 135) and the state estimation unit (140, 140b, 140c) that estimates the state of the person to be monitored using information acquired by the reinforcement information acquisition unit in addition to the rapid eye movement frequency acquired by the frequency acquisition unit. Provided with a door.

これによれば、監視対象者の瞬目の発生頻度と、監視対象者の追従眼球運動の発生時間と、監視対象者のサッカード及びマイクロサッカードの発生頻度の変化量との少なくともいずれかを用いて監視対象者の状態を推定することが可能になる。監視対象者の瞬目の発生頻度を用いた場合には、瞬目による急速眼球運動頻度の低下を監視対象者の状態の異常と推定しないようにすることが可能になる。監視対象者の追従眼球運動の発生時間を用いた場合には、追従眼球運動による急速眼球運動頻度の低下を監視対象者の状態の異常と推定しないようにすることが可能になる。監視対象者の急速眼球運動頻度の変化量を用いた場合には、急速眼球運動頻度が増加傾向にある場合の急速眼球運動頻度の低下を監視対象者の状態の異常と推定しないようにすることが可能になる。よって、監視対象者のサッカード及びマイクロサッカードの発生頻度だけを用いる場合に比べ、監視対象者の状態をより精度良く推定することが可能になる。その結果、監視対象者の眼球運動に基づいて監視対象者の状態をより精度良く推定することが可能になる。   According to this, at least one of the occurrence frequency of the blink of the monitoring subject, the occurrence time of the tracking eye movement of the monitoring subject, and the amount of change in the occurrence frequency of the saccade and microsaccade of the monitoring subject. It becomes possible to estimate the state of the person being monitored. When the occurrence frequency of blinks of the monitoring target person is used, it is possible not to estimate the decrease in the rapid eye movement frequency due to the blinking as an abnormality in the state of the monitoring target person. When the generation time of the follow-up eye movement of the monitoring target person is used, it is possible not to estimate the decrease in the rapid eye movement frequency due to the follow-up eye movement as an abnormal state of the monitoring target person. When using the amount of change in the rapid eye movement frequency of the monitored person, do not estimate the decrease in the rapid eye movement frequency when the rapid eye movement frequency is increasing as an abnormal condition of the monitored person. Is possible. Therefore, it is possible to estimate the state of the monitoring subject with higher accuracy than when only the occurrence frequency of the saccade and microsaccade of the monitoring subject is used. As a result, it is possible to estimate the state of the monitoring subject with higher accuracy based on the eye movement of the monitoring subject.

車両システム1の概略的な構成の一例を示す図である。1 is a diagram illustrating an example of a schematic configuration of a vehicle system 1. FIG. HCU10の概略的な構成の一例を示す図である。It is a figure which shows an example of a schematic structure of HCU10. 急速眼球運動頻度についての判定閾値の決定を説明するための図である。It is a figure for demonstrating determination of the determination threshold value about rapid eye movement frequency. HCU10での状態推定関連処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the state estimation related process in HCU10. HCU10での眼球運動抽出処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the eye movement extraction process in HCU10. HCU10での判定閾値決定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the determination threshold value determination process in HCU10. HCU10での状態推定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the state estimation process in HCU10. HCU10aの概略的な構成の一例を示す図である。It is a figure which shows an example of a schematic structure of HCU10a. HCU10bの概略的な構成の一例を示す図である。It is a figure which shows an example of a schematic structure of HCU10b. HCU10cの概略的な構成の一例を示す図である。It is a figure which shows an example of a schematic structure of HCU10c.

図面を参照しながら、開示のための複数の実施形態を説明する。なお、説明の便宜上、複数の実施形態の間において、それまでの説明に用いた図に示した部分と同一の機能を有する部分については、同一の符号を付し、その説明を省略する場合がある。同一の符号を付した部分については、他の実施形態における説明を参照することができる。   A plurality of embodiments for disclosure will be described with reference to the drawings. For convenience of explanation, among the embodiments, parts having the same functions as those shown in the drawings used in the explanation so far may be given the same reference numerals and explanation thereof may be omitted. is there. For the parts denoted by the same reference numerals, the description in other embodiments can be referred to.

(実施形態1)
<車両システム1の概略構成>
図1に示す車両システム1は、車両といった移動体で用いられるものであり、HCU(Human Machine Interface Control Unit)10、車両センサ20、周辺監視センサ30、周辺監視ECU40、ドライバ撮像ユニット50、及び報知装置60を含んでいる。HCU10と車両センサ20と周辺監視ECU40とは、例えば車内LANに接続されているものとする。以下では、車両システム1を自動車で用いる場合を例に挙げて説明を続ける。
(Embodiment 1)
<Schematic configuration of vehicle system 1>
A vehicle system 1 shown in FIG. 1 is used in a moving body such as a vehicle, and includes an HCU (Human Machine Interface Control Unit) 10, a vehicle sensor 20, a periphery monitoring sensor 30, a periphery monitoring ECU 40, a driver imaging unit 50, and a notification. A device 60 is included. It is assumed that the HCU 10, the vehicle sensor 20, and the periphery monitoring ECU 40 are connected to an in-vehicle LAN, for example. Below, the case where the vehicle system 1 is used by a motor vehicle is mentioned as an example, and description is continued.

車両センサ20は、自車の状態を検出するためのセンサ群である。車両センサ20としては、自車の車室内の湿度を検出する湿度センサ,自車前方の明るさを検出する外光センサ,自車の操舵角を検出する舵角センサ等がある。一例として、外光センサとしては照度を検出する照度センサを用いればよい。車両センサ20は、センシング結果を車内LANへ出力する。なお、車両センサ20でのセンシング結果は、自車に搭載されるECUを介して車両LANへ出力される構成であってもよい。   The vehicle sensor 20 is a sensor group for detecting the state of the host vehicle. Examples of the vehicle sensor 20 include a humidity sensor that detects the humidity in the cabin of the host vehicle, an external light sensor that detects the brightness in front of the host vehicle, and a steering angle sensor that detects the steering angle of the host vehicle. As an example, an illuminance sensor that detects illuminance may be used as the external light sensor. The vehicle sensor 20 outputs the sensing result to the in-vehicle LAN. Note that the sensing result of the vehicle sensor 20 may be output to the vehicle LAN via an ECU mounted on the host vehicle.

周辺監視センサ30は、歩行者、人間以外の動物、車両等の移動物体、さらに標識,ガードレール,縁石,樹木等の静止物体といった自車周辺の物体を検出する。他にも、自車周辺の走行区画線、停止線等の路面標示を検出する。周辺監視センサ30は、例えば、自車周囲の所定範囲を撮像する周辺監視カメラ、自車周囲の所定範囲に探査波を送信するミリ波レーダ、ソナー、LIDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)等のセンサである。周辺監視カメラは、逐次撮像する撮像画像をセンシング情報として周辺監視ECU40へ逐次出力する。ソナー、ミリ波レーダ、LIDAR等の探査波を送信するセンサは、障害物によって反射された反射波を受信した場合に得られる受信信号に基づく走査結果をセンシング情報として周辺監視ECU40へ逐次出力する。   The surrounding monitoring sensor 30 detects objects around the vehicle such as pedestrians, moving animals such as animals other than humans, vehicles, and still objects such as signs, guardrails, curbs, trees, and the like. In addition, road markings such as travel lane lines and stop lines around the vehicle are detected. The peripheral monitoring sensor 30 is, for example, a peripheral monitoring camera that images a predetermined range around the host vehicle, a millimeter wave radar that transmits an exploration wave to the predetermined range around the host vehicle, sonar, LIDAR (Light Detection and Ranging / Laser Imaging Detection and Ranging). The peripheral monitoring camera sequentially outputs captured images to be sequentially captured to the peripheral monitoring ECU 40 as sensing information. A sensor that transmits an exploration wave such as sonar, millimeter wave radar, or LIDAR sequentially outputs a scanning result based on a reception signal obtained when a reflected wave reflected by an obstacle is received as sensing information to the periphery monitoring ECU 40.

周辺監視ECU40は、プロセッサ、揮発性メモリ、不揮発性メモリ、及びこれらを相互に接続するバス等からなるマイクロコンピュータを備え、不揮発性メモリに記憶された制御プログラムを実行することで各種の処理を実行する。周辺監視ECU40は、周辺監視センサ30から取得したセンシング結果から、自車の周辺環境を認識する。   The peripheral monitoring ECU 40 includes a microcomputer including a processor, a volatile memory, a nonvolatile memory, and a bus that interconnects these, and executes various processes by executing a control program stored in the nonvolatile memory. To do. The surrounding monitoring ECU 40 recognizes the surrounding environment of the host vehicle from the sensing result acquired from the surrounding monitoring sensor 30.

周辺監視ECU40は、周辺監視カメラのセンシング結果から、自車の周辺環境として、自車周辺の物体を検出する。一例として、テンプレートマッチング等の周知の画像認識処理によって、ドライバの注視対象となる物体を注視対象としない物体と区別して検出することが好ましい。ドライバの注視対象となる物体(以下、注視対象物)の一例としては、歩行者,他車両,標識等がある。また、周辺監視ECU40は、周辺監視センサのセンシング結果から、公知の手法によって自車周辺に存在する物体の自車に対する相対位置,相対速度を検出する。なお、周辺監視ECU40は、自車で用いられる通信モジュールを介した車車間通信及び/又は路車間通信によって得られた他車両,歩行者等の対象物の位置,速度の情報から、自車の周辺に存在する対象物について、自車に対する相対位置,相対速度を検出してもよい。   The surrounding monitoring ECU 40 detects an object around the vehicle as the surrounding environment of the vehicle from the sensing result of the surrounding monitoring camera. As an example, it is preferable to detect an object that is a gaze target of the driver by distinguishing it from an object that is not a gaze target by a known image recognition process such as template matching. As an example of an object to be watched by the driver (hereinafter referred to as a watched object), there are a pedestrian, another vehicle, a sign, and the like. In addition, the periphery monitoring ECU 40 detects a relative position and a relative speed of an object existing around the vehicle from the sensing result of the periphery monitoring sensor by a known method. In addition, the periphery monitoring ECU 40 determines the vehicle's own vehicle from the information on the position and speed of the target object such as other vehicles and pedestrians obtained by the inter-vehicle communication and / or the road-vehicle communication via the communication module used in the own vehicle. You may detect the relative position and relative speed with respect to the own vehicle about the object which exists in the periphery.

ドライバ撮像ユニット50は、ドライバの頭部を撮像するための撮像装置を含む。一例としては、照明装置と、この照明装置による照明と同じ帯域に感度を持つ撮像装置とを含む構成とすればよい。具体例としては、近赤外カメラと近赤外光源とを含む構成とすればよい。以下では、この近赤外カメラと近赤外光源とを用いる場合を例に挙げて説明を行う。後述するマイクロサッカードを抽出する場合には、例えば空間分解能0.01度,時間分解能220Hzといった高性能カメラを用いればよい。   The driver imaging unit 50 includes an imaging device for imaging the driver's head. As an example, a configuration including an illumination device and an imaging device having sensitivity in the same band as the illumination by the illumination device may be used. As a specific example, a configuration including a near-infrared camera and a near-infrared light source may be used. Below, the case where this near-infrared camera and a near-infrared light source are used is mentioned as an example, and is demonstrated. When extracting a microsaccade described later, a high-performance camera having a spatial resolution of 0.01 degrees and a temporal resolution of 220 Hz may be used, for example.

近赤外カメラは、自車の運転席側に向けた姿勢にて、例えばステアリングコラムカバーに配置される。なお、近赤外カメラは、自車の運転席に着座したドライバの顔を撮像できる位置であれば他の位置に配置される構成であってもよく、インスツルメントパネルの上面等に配置される構成であってもよい。ドライバ撮像ユニットは、近赤外光源によって近赤外光を照射されたドライバの頭部を、近赤外カメラによって撮影する。近赤外カメラによる撮像画像(以下、顔画像)は、HCU10に出力する。   The near-infrared camera is arranged, for example, on a steering column cover in a posture directed toward the driver's seat side of the own vehicle. Note that the near-infrared camera may be arranged at other positions as long as it can capture the face of the driver seated in the driver's seat of the host vehicle, such as the upper surface of the instrument panel. It may be a configuration. The driver imaging unit images a driver's head irradiated with near-infrared light from a near-infrared light source with a near-infrared camera. An image captured by the near-infrared camera (hereinafter referred to as a face image) is output to the HCU 10.

報知装置60は、自車のドライバに向けて報知を行う。報知装置60としては、表示装置,音声出力装置,振動子等がある。また、報知装置60による報知としては、表示装置による表示,音声出力装置による音声出力,振動子による振動等がある。   The notification device 60 notifies the driver of the own vehicle. Examples of the notification device 60 include a display device, an audio output device, and a vibrator. The notification by the notification device 60 includes display by a display device, sound output by a sound output device, vibration by a vibrator, and the like.

HCU10は、プロセッサ、揮発性メモリ、非遷移的実体的記録媒体(non- transitory tangible storage medium)である不揮発性メモリ、I/O、これらを接続するバスを備えるマイクロコンピュータを主体として構成され、ドライバ撮像ユニット50,報知装置60と車内LANとに接続される。HCU10は、不揮発性メモリに記憶された制御プログラムを実行することにより、自車のドライバの状態を推定したり、自車のドライバに向けた報知を行わせたりする。このHCU10が請求項の状態推定装置に相当し、ドライバが請求項の監視対象者に相当する。   The HCU 10 is mainly composed of a processor, a volatile memory, a non-transitory tangible storage medium nonvolatile memory, an I / O, and a microcomputer having a bus connecting them, and a driver. It is connected to the imaging unit 50, the notification device 60, and the in-vehicle LAN. The HCU 10 executes the control program stored in the non-volatile memory, thereby estimating the state of the driver of the host vehicle or notifying the driver of the host vehicle. The HCU 10 corresponds to the state estimation device in the claims, and the driver corresponds to the person to be monitored in the claims.

<HCU10の概略構成>
ここで、図2を用いて、HCU10の概略構成を説明する。図2に示すように、HCU10は、機能ブロックとして、画像認識処理部100、眼球運動抽出部110、眼球運動情報記憶部120、判定用データ算出部130、状態推定部140、及び報知処理部150を備えている。なお、HCU10が実行する機能の一部又は全部を、一つ或いは複数のIC等によりハードウェア的に構成してもよい。また、HCU10が備える機能ブロックの一部又は全部は、プロセッサによるソフトウェアの実行とハードウェア部材との組み合わせによって実現されてもよい。
<Schematic configuration of HCU10>
Here, the schematic configuration of the HCU 10 will be described with reference to FIG. As shown in FIG. 2, the HCU 10 includes, as functional blocks, an image recognition processing unit 100, an eye movement extraction unit 110, an eye movement information storage unit 120, a determination data calculation unit 130, a state estimation unit 140, and a notification processing unit 150. It has. Note that part or all of the functions executed by the HCU 10 may be configured by hardware using one or a plurality of ICs. Further, part or all of the functional blocks provided in the HCU 10 may be realized by a combination of execution of software by a processor and hardware members.

画像認識処理部100は、ドライバ撮像ユニット50から逐次出力される顔画像から、公知の画像認識処理によって、ドライバの顔部位の抽出,顔部位の形状的な特徴の抽出,視線角度の算出等を逐次行う。視線角度は視線方向と言い換えることもできる。以下に、画像認識処理部100で行う画像認識処理の一例について述べる。   The image recognition processing unit 100 performs extraction of the driver's face part, extraction of the facial feature of the face part, calculation of the line-of-sight angle, and the like from the face image sequentially output from the driver imaging unit 50 by known image recognition processing. Perform sequentially. The line-of-sight angle can be rephrased as the line-of-sight direction. Hereinafter, an example of image recognition processing performed by the image recognition processing unit 100 will be described.

まず、画像認識処理部100は、顔画像中の目を抽出し、その目の中の黒い丸を瞳孔として抽出する。続いて、顔画像中の目の中の白い点を角膜反射像として抽出する。そして、瞳孔と角膜反射との位置関係から車室内の基準位置に対する視線角度を検出する。基準位置は、例えば近赤外カメラの設置位置等とすればよい。ここで言うところの視線角度は、自車の左右方向と概ね一致する水平方向と垂直方向との両方についての視線角度であるものとする。算出した視線角度は、例えば揮発性メモリといったメモリに記憶する構成とすればよい。   First, the image recognition processing unit 100 extracts eyes in the face image and extracts a black circle in the eyes as a pupil. Subsequently, a white point in the eye in the face image is extracted as a corneal reflection image. Then, the line-of-sight angle with respect to the reference position in the passenger compartment is detected from the positional relationship between the pupil and the corneal reflection. The reference position may be, for example, the installation position of the near infrared camera. The line-of-sight angle referred to here is the line-of-sight angle in both the horizontal direction and the vertical direction, which approximately coincide with the left-right direction of the vehicle. The calculated line-of-sight angle may be stored in a memory such as a volatile memory.

眼球運動抽出部110は、画像認識処理部100での画像認識処理の結果をもとに、自車のドライバの眼球運動を抽出する眼球運動抽出処理を行う。図2に示すように、眼球運動抽出部110は、サブ機能ブロックとして、瞬目抽出部111、急速眼球運動抽出部112、及び追従眼球運動抽出部113を備える。   The eye movement extraction unit 110 performs eye movement extraction processing for extracting the eye movement of the driver of the own vehicle based on the result of the image recognition processing in the image recognition processing unit 100. As shown in FIG. 2, the eye movement extraction unit 110 includes a blinking eye extraction unit 111, a rapid eye movement extraction unit 112, and a following eye movement extraction unit 113 as sub-function blocks.

瞬目抽出部111は、ドライバの瞬目を抽出する。瞬目は瞬きと言い換えることもできる。瞬目抽出部111は、画像認識処理部100で逐次行う画像認識処理において、例えば瞳孔が抽出できない場合を瞬目として抽出する構成とすればよい。他にも、画像認識処理部100で抽出したドライバの上瞼の曲率半径に基づいて瞬目を抽出する構成としてもよい。瞬目抽出部111は、瞬目の抽出結果として、瞬目を抽出した時刻を眼球運動情報記憶部120に例えば有効時間Tが経過するまで記憶する。眼球運動情報記憶部120としては、例えば揮発性メモリを用いる構成とすればよい。有効時間Tとは、後述するサッカード,マイクロサッカードといった急速眼球運動の発生頻度を精度よく算出するために必要な時間であって、例えば1〜数分程度の時間とすればよい。以降についても同様とする。   The blink extraction unit 111 extracts a driver's blink. A blink can be rephrased as a blink. The blink extraction unit 111 may be configured to extract, for example, a case where the pupil cannot be extracted in the image recognition processing sequentially performed by the image recognition processing unit 100. In addition, it may be configured to extract blinks based on the curvature radius of the driver's upper eyelid extracted by the image recognition processing unit 100. The blink extraction unit 111 stores, as the blink extraction result, the time when the blink is extracted in the eye movement information storage unit 120 until, for example, the valid time T elapses. The eye movement information storage unit 120 may be configured to use a volatile memory, for example. The effective time T is a time necessary for accurately calculating the occurrence frequency of rapid eye movements such as saccade and microsaccade, which will be described later, and may be, for example, about 1 to several minutes. The same applies to the following.

急速眼球運動抽出部112は、ドライバのサッカード,マイクロサッカードといった急速眼球運動を抽出する。サッカードは、人が意図的に視線方向を変化させる場合に生じる短時間の高速な眼球運動である。マイクロサッカードは、人が注視している際に不随意に生じる固視微動のうちのごく細かい急速な眼球運動である。急速眼球運動抽出部112は、サッカードとマイクロサッカードとのうちのいずれか一方のみを抽出する構成としてもよいし、両方を抽出する構成としてもよい。   The rapid eye movement extraction unit 112 extracts rapid eye movements such as a driver's saccade and microsaccade. Saccades are short-term, high-speed eye movements that occur when a person intentionally changes the line-of-sight direction. Microsaccade is a rapid eye movement that is very fine among the involuntary eye movements that occur involuntarily when a person is gazing. The rapid eye movement extraction unit 112 may be configured to extract only one of saccades and microsaccades, or may be configured to extract both.

急速眼球運動抽出部112は、画像認識処理部100で算出した過去数フレーム分(例えば10フレーム分)の視線角度から、視線角度の変化量を算出し、この変化量を時間で除算することで視線角速度を算出する。また、急速眼球運動抽出部112は、上述したように算出した視線角速度の変化量を時間で除算することで視線角加速度を算出する。   The rapid eye movement extraction unit 112 calculates a change amount of the line-of-sight angle from the line-of-sight angles for the past several frames (for example, 10 frames) calculated by the image recognition processing unit 100, and divides this change amount by time. The gaze angular velocity is calculated. The rapid eye movement extraction unit 112 calculates the gaze angular acceleration by dividing the change amount of the gaze angular velocity calculated as described above by time.

そして、急速眼球運動抽出部112は、視線角加速度が基準角加速度以上であって、且つ、視線の移動距離が基準距離以上の場合にサッカードとして抽出する。一方、急速眼球運動抽出部112は、視線角加速度が基準角加速度以上であって、且つ、視線の移動距離が基準距離未満の場合にマイクロサッカードとして抽出する。基準角加速度は例えば1200deg/sとすればよく、基準距離は例えば2degとすればよい。なお、視線角加速度に換えて、視線角速度が基準角速度以上であるか否かによって判定を行う構成としてもよい。急速眼球運動抽出部112は、サッカード,マイクロサッカードの抽出結果として、サッカード,マイクロサッカードを抽出した時刻を眼球運動情報記憶部120に例えば有効時間Tが経過するまで記憶すればよい。 Then, the rapid eye movement extraction unit 112 extracts the saccade when the gaze angular acceleration is equal to or greater than the reference angular acceleration and the gaze movement distance is equal to or greater than the reference distance. On the other hand, the rapid eye movement extraction unit 112 extracts microsaccades when the gaze angular acceleration is equal to or greater than the reference angular acceleration and the gaze movement distance is less than the reference distance. The reference angular acceleration may be 1200 deg / s 2 , for example, and the reference distance may be 2 deg, for example. In addition, it is good also as a structure which replaces with a gaze angular acceleration and makes determination by whether a gaze angular velocity is more than a reference | standard angular velocity. The rapid eye movement extraction unit 112 may store the time when the saccade and microsaccade are extracted as the saccade and microsaccade extraction results in the eye movement information storage unit 120 until, for example, an effective time T elapses.

追従眼球運動抽出部113は、ドライバの追従眼球運動を抽出する。追従眼球運動は、対象に反射的に視線を追従させる眼球運動である。追従眼球運動抽出部113は、一定時間あたりの視線角速度が一定の範囲内である場合に、追従眼球運動として抽出する。一例としては、1秒あたりの視線角速度が0.5〜2.0deg/sである場合に、追従眼球運動として抽出する。なお、追従眼球運動抽出部113は、視線角速度に換えて、視線角加速度が一定の範囲内であるか否かによって判定を行う構成としてもよい。追従眼球運動抽出部113は、追従眼球運動の抽出結果として、追従眼球運動の抽出有無を時刻別に眼球運動情報記憶部120に例えば有効時間Tが経過するまで記憶すればよい。 The following eye movement extracting unit 113 extracts the following eye movement of the driver. The following eye movement is an eye movement that makes the object follow the line of sight reflexively. The follow-up eye movement extraction unit 113 extracts the follow-up eye movement as the follow-up eye movement when the gaze angular velocity per fixed time is within a fixed range. As an example, when the visual axis angular velocity per second is 0.5 to 2.0 deg / s 2 , the eye movement is extracted as the following eye movement. The following eye movement extraction unit 113 may be configured to make a determination based on whether or not the gaze angular acceleration is within a certain range instead of the gaze angular velocity. The follow-up eye movement extraction unit 113 may store, as the follow-up eye movement extraction result, whether or not the follow-up eye movement is extracted in the eye movement information storage unit 120 according to time until, for example, the effective time T elapses.

判定用データ算出部130は、ドライバの状態を推定するのに用いる判定用データを算出することで、この判定用データを取得する。図2に示すように、判定用データ算出部130は、サブ機能ブロックとして、瞬目頻度算出部131、急速眼球運動頻度算出部132、追従眼球運動時間算出部133、及び変化量算出部134を備える。瞬目頻度算出部131、追従眼球運動時間算出部133、及び変化量算出部134が補強情報取得部135にあたる。   The determination data calculation unit 130 acquires the determination data by calculating the determination data used to estimate the driver state. As shown in FIG. 2, the determination data calculation unit 130 includes, as sub function blocks, a blink frequency calculation unit 131, a rapid eye movement frequency calculation unit 132, a following eye movement time calculation unit 133, and a change amount calculation unit 134. Prepare. The blink frequency calculation unit 131, the following eye movement time calculation unit 133, and the change amount calculation unit 134 correspond to the reinforcement information acquisition unit 135.

瞬目頻度算出部131は、眼球運動情報記憶部120に蓄積された瞬目抽出部111での抽出結果である瞬目を抽出した時刻をもとに、ドライバの瞬目の発生頻度(以下、瞬目頻度)を算出することで、瞬目頻度を取得する。この瞬目頻度算出部131が請求項の瞬目取得部に相当する。具体例としては、瞬目頻度算出部131は、所定時間tごとに、所定時間t内の瞬目抽出部111での抽出結果から、所定時間tあたりの瞬目頻度を算出すればよい。所定時間tは、例えば10秒程度とする。以降についても同様とする。瞬目頻度算出部131は、逐次算出する瞬目頻度を時系列に沿って眼球運動情報記憶部120に蓄積する。   The blink frequency calculation unit 131 generates the blink frequency of the driver (hereinafter, referred to as “blink occurrence frequency”) based on the time when the blink is extracted as the extraction result of the blink extraction unit 111 accumulated in the eye movement information storage unit 120. The blink frequency is obtained by calculating the blink frequency). The blink frequency calculation unit 131 corresponds to the blink acquisition unit in the claims. As a specific example, the blink frequency calculation unit 131 may calculate the blink frequency per predetermined time t from the extraction result of the blink extraction unit 111 within the predetermined time t every predetermined time t. The predetermined time t is about 10 seconds, for example. The same applies to the following. The blink frequency calculation unit 131 accumulates the blink frequency to be sequentially calculated in the eye movement information storage unit 120 in time series.

急速眼球運動頻度算出部132は、眼球運動情報記憶部120に蓄積された急速眼球運動抽出部112での抽出結果であるサッカード,マイクロサッカードを抽出した時刻をもとに、ドライバのサッカード,マイクロサッカードの発生頻度(以下、急速眼球運動頻度)を算出することで、急速眼球運動頻度を取得する。この急速眼球運動頻度算出部132が請求項の頻度取得部に相当する。   The rapid eye movement frequency calculating unit 132 extracts the saccade of the driver based on the time when the saccade and the micro saccade extracted from the rapid eye movement extraction unit 112 accumulated in the eye movement information storage unit 120 are extracted. , The rapid eye movement frequency is obtained by calculating the occurrence frequency of microsaccade (hereinafter, rapid eye movement frequency). The rapid eye movement frequency calculation unit 132 corresponds to a frequency acquisition unit in the claims.

具体例としては、急速眼球運動頻度算出部132は、所定時間tごとに、所定時間t内の急速眼球運動抽出部112での抽出結果から、所定時間tあたりの急速眼球運動頻度を算出すればよい。急速眼球運動頻度算出部132は、逐次算出する急速眼球運動頻度を時系列に沿って眼球運動情報記憶部120に蓄積する。なお、瞬目抽出部111で瞬目を抽出していた時刻のデータは急速眼球運動頻度の算出の処理から除外することで、急速眼球運動頻度の算出精度を向上させることが好ましい。   As a specific example, if the rapid eye movement frequency calculation unit 132 calculates the rapid eye movement frequency per predetermined time t from the extraction result of the rapid eye movement extraction unit 112 within the predetermined time t every predetermined time t. Good. The rapid eye movement frequency calculation unit 132 accumulates the rapid eye movement frequency that is sequentially calculated in the eye movement information storage unit 120 in time series. In addition, it is preferable to improve the calculation accuracy of the rapid eye movement frequency by excluding the data of the time when the blink has been extracted by the blink extraction unit 111 from the calculation process of the rapid eye movement frequency.

追従眼球運動時間算出部133は、眼球運動情報記憶部120に蓄積された追従眼球運動抽出部113での抽出結果である時刻別の追従眼球運動の有無をもとに、ドライバの追従眼球運動の発生時間(以下、追従眼球運動時間)を算出することで、追従眼球運動時間を取得する。追従眼球運動の発生時間は、追従眼球運動に要した時間と言い換えることもできる。この追従眼球運動時間算出部133が請求項の追従眼球運動取得部に相当する。具体例としては、追従眼球運動時間算出部133は、所定時間tごとに、所定時間t内の追従眼球運動抽出部113での抽出結果から、所定時間tあたりの追従眼球運動時間を算出すればよい。追従眼球運動時間算出部133は、逐次算出する追従眼球運動時間を時系列に沿って眼球運動情報記憶部120に蓄積する。   The follow-up eye movement time calculation unit 133 determines the follow-up eye movement of the driver based on the presence / absence of the follow-up eye movement by time, which is the extraction result of the follow-up eye movement extraction unit 113 accumulated in the eye movement information storage unit 120. The follow-up eye movement time is acquired by calculating the generation time (hereinafter, follow-up eye movement time). The generation time of the following eye movement can be rephrased as the time required for the following eye movement. The following eye movement time calculation unit 133 corresponds to the following eye movement acquisition unit. As a specific example, the tracking eye movement time calculation unit 133 calculates the tracking eye movement time per predetermined time t from the extraction result of the tracking eye movement extraction unit 113 within the predetermined time t for each predetermined time t. Good. The follow-up eye movement time calculation unit 133 accumulates the follow-up eye movement time sequentially calculated in the eye movement information storage unit 120 in time series.

変化量算出部134は、眼球運動情報記憶部120に蓄積された急速眼球運動抽出部112での抽出結果であるサッカード,マイクロサッカードを抽出した時刻をもとに、急速眼球運動頻度の変化量(以下、急速眼球運動頻度変化量)を算出することで、この急速眼球運動頻度変化量を取得する。この変化量算出部134が、請求項の頻度変化量取得部に相当する。具体例としては、急速眼球運動頻度算出部132での所定時間tごとの急速眼球運動頻度の算出時に、その所定時間tの直前s秒間のサッカード,マイクロサッカードの発生回数を算出する。ここで言うところのs秒とは、所定時間tよりも短い時間であって、例えば2〜3秒とすればよい。そして、直前s秒間のサッカード,マイクロサッカードの発生回数の、所定時間t内での全発生回数における割合を、急速眼球運動頻度変化量として算出する。変化量算出部134は、逐次算出する急速眼球運動頻度変化量を時系列に沿って眼球運動情報記憶部120に蓄積する。   The change amount calculation unit 134 changes the rapid eye movement frequency based on the time when the saccade and the microsaccade extracted from the rapid eye movement extraction unit 112 accumulated in the eye movement information storage unit 120 are extracted. The amount of rapid eye movement frequency change is acquired by calculating the amount (hereinafter, the amount of rapid eye movement frequency change). The change amount calculation unit 134 corresponds to a frequency change amount acquisition unit in claims. As a specific example, when the rapid eye movement frequency calculation unit 132 calculates the rapid eye movement frequency for each predetermined time t, the number of occurrences of saccades and microsaccades for s seconds immediately before the predetermined time t is calculated. Here, s seconds are shorter than the predetermined time t and may be, for example, 2 to 3 seconds. Then, the ratio of the number of occurrences of saccades and microsaccades in the immediately preceding s seconds to the total number of occurrences within a predetermined time t is calculated as a rapid eye movement frequency change amount. The change amount calculation unit 134 accumulates the rapid eye movement frequency change amount sequentially calculated in the eye movement information storage unit 120 in time series.

状態推定部140は、判定用データ算出部130で逐次算出した判定用データのデータ群から、ドライバの状態を推定するのに用いる判定閾値を決定する判定閾値決定処理を行う。そして、判定用データ算出部130で逐次算出する判定用データとこの判定閾値とから、ドライバの状態を推定する状態推定処理を行う。図2に示すように、状態推定部140は、サブ機能ブロックとして判定閾値決定部141を備える。   The state estimation unit 140 performs a determination threshold value determination process for determining a determination threshold value used for estimating the driver state from the data group of determination data sequentially calculated by the determination data calculation unit 130. Then, state estimation processing for estimating the state of the driver is performed from the determination data sequentially calculated by the determination data calculation unit 130 and the determination threshold. As illustrated in FIG. 2, the state estimation unit 140 includes a determination threshold value determination unit 141 as a sub functional block.

判定閾値決定部141は、瞬目頻度についての判定閾値,急速眼球運動頻度についての判定閾値,追従眼球運動時間についての判定閾値,急速眼球運動頻度変化量についての判定閾値を決定する判定閾値決定処理を行う。   The determination threshold value determination unit 141 determines a determination threshold value for the blink frequency, a determination threshold value for the rapid eye movement frequency, a determination threshold value for the following eye movement time, and a determination threshold value for the rapid eye movement frequency change amount. I do.

判定閾値決定部141での瞬目頻度についての判定閾値の決定は、一例として以下のようにして行う。判定閾値決定部141は、眼球運動情報記憶部120に蓄積されている、瞬目頻度算出部131で算出した有効時間T内における所定時間tごとの瞬目頻度の平均値(以下、平均瞬目頻度)を算出する。そして、算出した平均瞬目頻度から瞬目頻度についての判定閾値を決定する。言い換えると、瞬目頻度算出部131で算出した過去の一定期間における実際の瞬目の発生頻度のデータ群から瞬目頻度についての判定閾値を決定する。   The determination threshold value for the blink frequency in the determination threshold value determination unit 141 is determined as follows as an example. The determination threshold value determination unit 141 stores an average value of blink frequency for each predetermined time t within the effective time T calculated by the blink frequency calculation unit 131 (hereinafter, average blink) accumulated in the eye movement information storage unit 120. Frequency). Then, a determination threshold for the blink frequency is determined from the calculated average blink frequency. In other words, the determination threshold for the blink frequency is determined from the data group of the actual blink occurrence frequency in a past fixed period calculated by the blink frequency calculation unit 131.

例えば、平均瞬目頻度が1回/秒より少ない場合には、判定閾値を0.5回/秒とし、平均瞬目頻度が1〜2回の場合は判定閾値を1回/秒とし、平均瞬目頻度が2回以上である場合は判定閾値を2回/秒とする。また、所定時間tごとの瞬目頻度のばらつきを算出し、ばらつきの度合いが大きくなるのに応じて判定閾値を小さく決定する構成としてもよい。   For example, when the average blink frequency is less than 1 / second, the determination threshold is 0.5 times / second, and when the average blink frequency is 1 to 2 times, the determination threshold is 1 / second. When the blink frequency is 2 times or more, the determination threshold is 2 times / second. Further, it may be configured such that the variation in blink frequency for each predetermined time t is calculated, and the determination threshold is determined to be small as the degree of variation increases.

判定閾値決定部141での急速眼球運動頻度についての判定閾値の決定は、一例として以下のようにして行う。判定閾値決定部141は、眼球運動情報記憶部120に蓄積されている、急速眼球運動頻度算出部132で算出した有効時間T内における所定時間tごとの急速眼球運動頻度をもとに、急速眼球運動頻度についての判定閾値を決定する。言い換えると、急速眼球運動頻度算出部132で算出した過去の一定期間における実際の急速眼球運動頻度のデータ群から瞬目頻度についての判定閾値を決定する。   The determination threshold for the rapid eye movement frequency in the determination threshold determination unit 141 is determined as follows as an example. Based on the rapid eye movement frequency for each predetermined time t within the effective time T calculated by the rapid eye movement frequency calculation unit 132 accumulated in the eye movement information storage unit 120, the determination threshold value determination unit 141 is a rapid eye movement. A determination threshold for the exercise frequency is determined. In other words, the determination threshold for the blink frequency is determined from the data group of the actual rapid eye movement frequency in the past fixed period calculated by the rapid eye movement frequency calculation unit 132.

急速眼球運動頻度として、サッカードの発生頻度とマイクロサッカードの発生頻度とのうちのいずれかのみを用いる場合には、この発生頻度の平均値から予め定められたシフト量だけ低くした値を判定閾値とすればよい。このシフト量は、ドライバの状態の推定精度が所望の精度となるように実験等によって予め定める構成とすればよい。また、所定時間tごとの発生頻度のばらつきの度合いが大きくなるのに応じて判定閾値を小さく決定する構成としてもよい。   When only one of the saccade occurrence frequency and the microsaccade occurrence frequency is used as the rapid eye movement frequency, a value obtained by lowering the predetermined shift amount from the average value of the occurrence frequency is determined. What is necessary is just to set it as a threshold value. This shift amount may be determined in advance by experiments or the like so that the estimated accuracy of the driver state becomes a desired accuracy. Moreover, it is good also as a structure which determines a determination threshold value small according to the degree of the dispersion | variation in the occurrence frequency for every predetermined time t becoming large.

一方、急速眼球運動頻度として、サッカードの発生頻度とマイクロサッカードの発生頻度とのいずれも用いる場合には、サッカードの発生頻度とマイクロサッカードの発生頻度とから求める回帰式を用いて判定閾値を決定すればよい。回帰式は、以下のようにして求めればよい。まず、サッカードの発生頻度とマイクロサッカードの発生頻度とをそれぞれ横軸と縦軸としたグラフ上において、有効時間T内における所定時間tごとのサッカードの発生頻度及びマイクロサッカードの発生頻度をプロットする(図3参照)。続いて、これらのプロットの傾向を示す最も確からしい直線若しくは曲線といった線Aを求める。例えば、最小二乗法によって最も確からしい線A(図3のA参照)を求める構成とすればよい。そして、この線Aをグラフの原点方向にシフトさせることで、回帰式B(図3のB参照)を求める。この回帰式Bが示す境界が判定閾値となる。   On the other hand, when both the saccade frequency and the microsaccade frequency are used as the rapid eye movement frequency, a determination is made using a regression equation obtained from the saccade frequency and the microsaccade frequency. What is necessary is just to determine a threshold value. The regression equation may be obtained as follows. First, on the graph with the horizontal and vertical axes representing the occurrence frequency of saccade and the occurrence frequency of microsaccade, respectively, the occurrence frequency of saccade and the occurrence frequency of microsaccade for each predetermined time t within the effective time T. Is plotted (see FIG. 3). Subsequently, a line A such as a most probable straight line or curve indicating the tendency of these plots is obtained. For example, the most probable line A (see A in FIG. 3) may be obtained by the least square method. Then, the regression equation B (see B in FIG. 3) is obtained by shifting the line A toward the origin of the graph. The boundary indicated by the regression equation B is a determination threshold value.

なお、線Aを原点方向にシフトさせる際のシフト量は、ドライバの状態の推定精度が所望の精度となるように実験等によって予め定める構成とすればよい。また、所定時間tごとのサッカード,マイクロサッカードの発生頻度のばらつきの度合いが大きくなるのに応じてシフト量を大きくする構成としてもよい。   Note that the shift amount for shifting the line A in the direction of the origin may be determined in advance by experiments or the like so that the estimated accuracy of the driver state becomes a desired accuracy. Moreover, it is good also as a structure which enlarges the amount of shift according to the degree of the dispersion | variation in the generation | occurrence | production frequency of saccade and microsaccade for every predetermined time t becoming large.

判定閾値決定部141での追従眼球運動時間についての判定閾値の決定は、一例として以下のようにして行う。判定閾値決定部141は、眼球運動情報記憶部120に蓄積されている、追従眼球運動時間算出部133で算出した有効時間T内における所定時間tごとの追従眼球運動時間の平均値(以下、平均追従眼球運動時間)を算出する。そして、算出した平均追従眼球運動時間から追従眼球運動時間についての判定閾値を決定する。言い換えると、追従眼球運動時間算出部133で算出した過去の一定期間における実際の追従眼球運動の発生時間のデータ群から追従眼球運動時間についての判定閾値を決定する。例えば、判定閾値決定部141は、平均追従眼球運動時間から予め定められたシフト量だけ低くした値を判定閾値とすればよい。このシフト量は、ドライバの状態の推定精度が所望の精度となるように実験等によって予め定める構成とすればよい。また、所定時間tごとの追従眼球運動時間のばらつきの度合いが大きくなるのに応じて判定閾値を小さく決定する構成としてもよい。   Determination of the determination threshold for the following eye movement time in the determination threshold determination unit 141 is performed as follows as an example. The determination threshold value determination unit 141 stores the average value of the following eye movement time for each predetermined time t within the effective time T calculated by the following eye movement time calculation unit 133 accumulated in the eye movement information storage unit 120 (hereinafter, average). Follow-up eye movement time) is calculated. Then, a determination threshold for the following eye movement time is determined from the calculated average following eye movement time. In other words, the determination threshold value for the tracking eye movement time is determined from the data group of the actual generation time of the tracking eye movement in the past fixed period calculated by the tracking eye movement time calculation unit 133. For example, the determination threshold value determination unit 141 may set a value that is lower than the average tracking eye movement time by a predetermined shift amount as the determination threshold value. This shift amount may be determined in advance by experiments or the like so that the estimated accuracy of the driver state becomes a desired accuracy. Moreover, it is good also as a structure which determines a determination threshold value small according to the degree of the dispersion | variation in the follow-up eyeball movement time for every predetermined time t becoming large.

判定閾値決定部141での急速眼球運動頻度変化量についての判定閾値の決定は、一例として以下のようにして行う。判定閾値決定部141は、眼球運動情報記憶部120に蓄積されている、変化量算出部134で算出した有効時間T内における所定時間tごとの急速眼球運動頻度変化量の平均値(以下、平均変化量)を算出する。そして、算出した平均変化量から急速眼球運動頻度変化量についての判定閾値を決定する。言い換えると、変化量算出部134で算出した過去の一定期間における実際の急速眼球運動頻度変化量のデータ群から急速眼球運動頻度変化量についての判定閾値を決定する。例えば、判定閾値決定部141は、平均変化量から予め定められたシフト量だけ低くした値を判定閾値とすればよい。このシフト量は、ドライバの状態の推定精度が所望の精度となるように実験等によって予め定める構成とすればよい。また、所定時間tごとの平均変化量のばらつきの度合いが大きくなるのに応じて判定閾値を小さく決定する構成としてもよい。   Determination of the determination threshold for the rapid eye movement frequency change amount by the determination threshold determination unit 141 is performed as follows as an example. The determination threshold value determination unit 141 stores the average value of the rapid eye movement frequency change amount for each predetermined time t within the effective time T calculated by the change amount calculation unit 134 and accumulated in the eye movement information storage unit 120 (hereinafter, average) Change amount). Then, a determination threshold for the rapid eye movement frequency change amount is determined from the calculated average change amount. In other words, the determination threshold for the rapid eye movement frequency change amount is determined from the data group of the actual rapid eye movement frequency change amount in the past fixed period calculated by the change amount calculation unit 134. For example, the determination threshold value determination unit 141 may set a value obtained by lowering the average change amount by a predetermined shift amount as the determination threshold value. This shift amount may be determined in advance by experiments or the like so that the estimated accuracy of the driver state becomes a desired accuracy. Moreover, it is good also as a structure which determines a determination threshold value small according to the degree of dispersion | variation in the average variation | change_quantity for every predetermined time t becoming large.

状態推定部140の状態推定処理では、急速眼球運動頻度算出部132で逐次算出する急速眼球運動頻度が、判定閾値決定部141で決定した急速眼球運動頻度についての判定閾値以上である場合には、ドライバの状態が正常であると判定する。また、状態推定部140の状態推定処理では、急速眼球運動頻度算出部132で逐次算出する急速眼球運動頻度が、急速眼球運動頻度についての判定閾値未満である場合であっても、瞬目頻度算出部131で逐次算出する瞬目頻度,追従眼球運動時間算出部133で逐次算出する追従眼球運動時間,変化量算出部134で逐次算出する急速眼球運動頻度変化量のいずれかが、それぞれの判定閾値以上である場合には、ドライバの状態が正常であると判定する。   In the state estimation process of the state estimation unit 140, when the rapid eye movement frequency sequentially calculated by the rapid eye movement frequency calculation unit 132 is equal to or higher than the determination threshold for the rapid eye movement frequency determined by the determination threshold determination unit 141, It is determined that the driver status is normal. Further, in the state estimation processing of the state estimation unit 140, even if the rapid eye movement frequency sequentially calculated by the rapid eye movement frequency calculation unit 132 is less than the determination threshold for the rapid eye movement frequency, the blink frequency calculation Each of the blink threshold frequency sequentially calculated by the unit 131, the following eye movement time sequentially calculated by the following eye movement time calculating unit 133, and the rapid eye movement frequency change amount sequentially calculated by the change amount calculating unit 134 is determined by each of the determination threshold values. If it is above, it is determined that the state of the driver is normal.

一方、状態推定部140は、急速眼球運動頻度算出部132で逐次算出する急速眼球運動頻度が、急速眼球運動頻度についての判定閾値未満である場合であって、且つ、瞬目頻度算出部131で逐次算出する瞬目頻度,追従眼球運動時間算出部133で逐次算出する追従眼球運動時間,変化量算出部134で逐次算出する急速眼球運動頻度変化量の全てが、それぞれの判定閾値未満である場合に、ドライバの状態が異常であると判定する。本実施形態では、一例として、ドライバが集中している集中状態が正常であるものとし、ドライバの注意力が低下している不注意状態が異常であるものとして説明を行う。   On the other hand, the state estimation unit 140 is a case where the rapid eye movement frequency sequentially calculated by the rapid eye movement frequency calculation unit 132 is less than a determination threshold for the rapid eye movement frequency, and the blink frequency calculation unit 131 When the blinking frequency calculated sequentially, the tracking eye movement time sequentially calculated by the tracking eye movement time calculation unit 133, and the rapid eye movement frequency change amount sequentially calculated by the change amount calculation unit 134 are less than the respective determination thresholds. Then, it is determined that the state of the driver is abnormal. In the present embodiment, as an example, it is assumed that the concentration state where the driver is concentrated is normal, and the careless state where the driver's attention is reduced is abnormal.

報知処理部150は、状態推定部140でドライバの状態が不注意状態であると推定した場合に、報知装置60に指示を行って報知を行わせる。報知としては、不注意状態であることをドライバに認識させるものであればよく、例えば警報等とすればよい。   The notification processing unit 150 instructs the notification device 60 to perform notification when the state estimation unit 140 estimates that the driver's state is careless. The notification may be anything that allows the driver to recognize that it is an inattention state, for example, an alarm.

<HCU10での状態推定関連処理>
続いて、図4〜図7のフローチャートを用いて、HCU10での、ドライバの状態の推定に関連する処理(以下、状態推定関連処理)の流れの一例について説明を行う。図4のフローチャートは、HCU10の電源がオンになったときに開始し、HCU10の電源がオフになったときに終了する構成とすればよい。HCU10の電源のオンオフが、自車の内燃機関又はモータジェネレータを始動させるためのスイッチ(以下、パワースイッチ)のオンオフに応じて切り替えられる場合には、このパワースイッチのオン時に開始し、オフ時に終了する構成とすればよい。
<State estimation related processing in HCU10>
Next, an example of the flow of processing related to driver state estimation (hereinafter referred to as state estimation related processing) in the HCU 10 will be described using the flowcharts of FIGS. 4 to 7. The flowchart in FIG. 4 may be configured to start when the power supply of the HCU 10 is turned on and to end when the power supply of the HCU 10 is turned off. When the power supply of the HCU 10 is switched according to the on / off of a switch for starting the internal combustion engine or motor generator of the own vehicle (hereinafter referred to as a power switch), it starts when the power switch is turned on and ends when the power switch is turned off. What is necessary is just to be the structure to do.

まず、ステップS1では、画像認識処理部100が、ドライバ撮像ユニット50から取得する顔画像から画像認識処理を行う。画像認識処理部100は、この画像認識処理によって、ドライバの顔部位の抽出,顔部位の形状的な特徴の抽出,視線角度の算出等を行う。   First, in step S <b> 1, the image recognition processing unit 100 performs image recognition processing from the face image acquired from the driver imaging unit 50. The image recognition processing unit 100 extracts a face part of the driver, extracts a shape feature of the face part, calculates a gaze angle, and the like by this image recognition process.

ステップS2では、眼球運動抽出部110が眼球運動抽出処理を行って、ステップS3に移る。眼球運動抽出処理では、抽出対象とする眼球運動が生じている場合に、この眼球運動を抽出する。ここで、図5のフローチャートを用いて、眼球運動抽出処理の概略について説明を行う。   In step S2, the eye movement extraction unit 110 performs eye movement extraction processing, and proceeds to step S3. In the eye movement extraction process, when an eye movement to be extracted occurs, this eye movement is extracted. Here, an outline of the eye movement extraction process will be described with reference to the flowchart of FIG.

まず、ステップS21では、瞬目抽出部111が、ドライバの瞬目を抽出する。ステップS22では、急速眼球運動抽出部112が、画像認識処理部100で算出した過去数フレーム分の視線角度をもとに視線角速度を算出する。ステップS23では、急速眼球運動抽出部112が、上述した視線角速度をもとに視線角加速度を算出する。   First, in step S21, the blink extraction unit 111 extracts a driver's blink. In step S <b> 22, the rapid eye movement extraction unit 112 calculates the gaze angular velocity based on the gaze angles for the past several frames calculated by the image recognition processing unit 100. In step S23, the rapid eye movement extraction unit 112 calculates the gaze angular acceleration based on the gaze angular velocity described above.

ステップS24では、急速眼球運動抽出部112が、S23で算出した視線角加速度が基準角加速度以上であって、且つ、視線の移動距離が基準距離以上の場合に、サッカードを抽出する。ステップS25では、急速眼球運動抽出部112が、視線角加速度が基準角加速度以上であって、且つ、視線の移動距離が基準距離未満の場合に、マイクロサッカードを抽出する。ステップS26では、追従眼球運動抽出部113が、ドライバの追従眼球運動を抽出し、ステップS3に移る。なお、S24〜S26の処理は順番を入れ替えても構わない。   In step S24, the rapid eye movement extraction unit 112 extracts a saccade when the gaze angular acceleration calculated in S23 is greater than or equal to the reference angular acceleration and the gaze movement distance is greater than or equal to the reference distance. In step S <b> 25, the rapid eye movement extraction unit 112 extracts a microsaccade when the gaze angular acceleration is equal to or greater than the reference angular acceleration and the gaze movement distance is less than the reference distance. In step S26, the following eye movement extracting unit 113 extracts the driver's following eye movement, and the process proceeds to step S3. Note that the order of the processes in S24 to S26 may be changed.

図4に戻って、ステップS3では、S2の眼球運動抽出処理で抽出した眼球運動のデータを眼球運動情報記憶部120に有効時間Tが経過するまで記憶する。ステップS4では、状態推定関連処理を開始してから有効時間Tが経過した場合(S4でYES)には、ステップS5に移る。状態推定関連処理を開始してから有効時間Tが経過していない場合(S4でNO)には、S1に戻って処理を繰り返す。状態推定関連処理を開始してから有効時間Tが経過したか否かについては、状態推定部140が例えばタイマ回路によるカウント等をもとに判断すればよい。   Returning to FIG. 4, in step S <b> 3, the eye movement data extracted by the eye movement extraction process of S <b> 2 is stored in the eye movement information storage unit 120 until the valid time T elapses. In step S4, when the valid time T has elapsed since the start of the state estimation related process (YES in S4), the process proceeds to step S5. If the valid time T has not elapsed since the start of the state estimation related process (NO in S4), the process returns to S1 and is repeated. Whether or not the valid time T has elapsed since the start of the state estimation-related processing may be determined by the state estimation unit 140 based on, for example, a count by a timer circuit.

ステップS5では、判定閾値決定部141が判定閾値を決定済みであった場合には、ステップS7に移る。一方、判定閾値決定部141が判定閾値を決定済みでなかった場合には、ステップS6に移る。ステップS6では、判定閾値決定部141が判定閾値決定処理を行って、ステップS7に移る。ここで、図6のフローチャートを用いて、判定閾値決定処理の概略について説明を行う。   In step S5, when the determination threshold value determination unit 141 has already determined the determination threshold value, the process proceeds to step S7. On the other hand, when the determination threshold value determination unit 141 has not determined the determination threshold value, the process proceeds to step S6. In step S6, the determination threshold value determination unit 141 performs determination threshold value determination processing, and proceeds to step S7. Here, an outline of the determination threshold value determination process will be described using the flowchart of FIG.

まず、ステップS61では、判定閾値決定部141が急速眼球運動頻度についての判定閾値を決定する。ステップS62では、判定閾値決定部141が瞬目頻度についての判定閾値を決定する。ステップS63では、判定閾値決定部141が追従眼球運動についての判定閾値を決定する。ステップS64では、判定閾値決定部141が急速眼球運動変化量についての判定閾値を決定し、ステップS7に移る。なお、S61〜S64の処理は順番を入れ替えても構わない。   First, in step S61, the determination threshold value determination unit 141 determines a determination threshold value for the rapid eye movement frequency. In step S62, the determination threshold value determination unit 141 determines a determination threshold value for the blink frequency. In step S63, the determination threshold value determination unit 141 determines a determination threshold value for the following eye movement. In step S64, the determination threshold value determination unit 141 determines a determination threshold value for the rapid eye movement change amount, and proceeds to step S7. Note that the order of the processing of S61 to S64 may be changed.

状態推定関連処理において、判定閾値決定処理は1回のみ実施され、判定閾値を決定した後は、決定済みの判定閾値を用いて状態推定処理を行う構成とすればよい。本実施形態では、HCU10の電源がオンになった後に判定閾値決定処理を1回実施して判定閾値を決定し、HCU10の電源がオフになるまでは決定済みの判定閾値を用いて状態推定を行う。これによれば、自車のパワースイッチのオン,HCU10の電源オン等の状態推定関連処理の開始のトリガごとに判定閾値を新たに決定し直すので、乗車ごとにドライバに合った判定閾値を決定し直すことが可能になる。よって、日ごとにドライバの体調が異なる場合であっても、その日のドライバの体調に合わせた判定閾値を決定し、ドライバの状態の推定精度を向上させることができる。従って、自車の走行中に何度も判定閾値を決定し直す処理負荷を抑えつつ、ドライバの状態の推定精度を向上させることが可能になる。   In the state estimation related process, the determination threshold determination process is performed only once, and after determining the determination threshold, the state estimation process may be performed using the determined determination threshold. In this embodiment, after the power of the HCU 10 is turned on, the determination threshold value determination process is performed once to determine the determination threshold value, and state estimation is performed using the determined determination threshold value until the power supply of the HCU 10 is turned off. Do. According to this, since the determination threshold value is newly determined for each trigger for starting the state estimation related processing such as turning on the power switch of the own vehicle and turning on the power of the HCU 10, a determination threshold value suitable for the driver is determined for each boarding. It becomes possible to redo. Therefore, even if the driver's physical condition varies from day to day, a determination threshold value that matches the physical condition of the driver of the day can be determined, and the estimation accuracy of the driver's state can be improved. Therefore, it is possible to improve the estimation accuracy of the driver's state while suppressing the processing load for re-determining the determination threshold value while the host vehicle is traveling.

図4に戻って、ステップS7では、状態推定部140が状態推定処理を行ってドライバの状態を推定し、ステップS8に移る。ここで、図7のフローチャートを用いて、状態推定処理の概略について説明を行う。状態推定処理では、所定時間tごとの判定用データを算出し、この判定用データとS6で決定した判定閾値との比較によってドライバの状態を推定する。本実施形態では、ドライバの注意力を推定する。   Returning to FIG. 4, in step S <b> 7, the state estimation unit 140 performs a state estimation process to estimate the state of the driver, and proceeds to step S <b> 8. Here, an outline of the state estimation process will be described using the flowchart of FIG. In the state estimation process, determination data for each predetermined time t is calculated, and the driver state is estimated by comparing the determination data with the determination threshold value determined in S6. In this embodiment, the driver's attention is estimated.

まず、S71では、状態推定部140が、急速眼球運動頻度算出部132で算出した直近の所定時間tにおけるドライバのサッカード,マイクロサッカードの発生頻度(つまり、急速眼球運動頻度)を取得する。急速眼球運動頻度は、サッカード及びマイクロサッカードのいずれかの発生頻度であってもよいが、ここではサッカードの発生頻度とマイクロサッカードの発生頻度の合計値とする。続いて、状態推定部140は、直近の所定時間tの急速眼球運動頻度とS6で決定した急速眼球運動頻度についての判定閾値とを比較する。そして、急速眼球運動頻度がこの判定閾値よりも大きい場合(S71でYES)には、ステップS75に移る。一方、急速眼球運動頻度がこの判定閾値以下である場合(S71でNO)には、ステップS72に移る。   First, in S <b> 71, the state estimation unit 140 acquires the saccade / microsaccade occurrence frequency (that is, rapid eye movement frequency) of the driver at the latest predetermined time t calculated by the rapid eye movement frequency calculation unit 132. The rapid eye movement frequency may be the occurrence frequency of either saccade or microsaccade, but here it is the sum of the occurrence frequency of saccade and the occurrence frequency of microsaccade. Subsequently, the state estimation unit 140 compares the rapid eye movement frequency of the latest predetermined time t with the determination threshold value for the rapid eye movement frequency determined in S6. If the rapid eye movement frequency is greater than the determination threshold (YES in S71), the process proceeds to step S75. On the other hand, when the rapid eye movement frequency is equal to or lower than the determination threshold value (NO in S71), the process proceeds to step S72.

ステップS72では、状態推定部140が、瞬目頻度算出部131で算出した直近の所定時間tにおけるドライバの瞬目頻度を取得し、この瞬目頻度とS6で決定した瞬目頻度についての判定閾値とを比較する。そして、瞬目頻度がこの判定閾値よりも大きい場合(S72でYES)には、ステップS75に移る。一方、瞬目頻度がこの判定閾値以下である場合(S72でNO)には、ステップS73に移る。   In step S72, the state estimation unit 140 acquires the blink frequency of the driver at the latest predetermined time t calculated by the blink frequency calculation unit 131, and a determination threshold for the blink frequency and the blink frequency determined in S6. And compare. If the blink frequency is greater than the determination threshold (YES in S72), the process proceeds to step S75. On the other hand, when the blink frequency is equal to or lower than the determination threshold value (NO in S72), the process proceeds to step S73.

ステップS73では、状態推定部140が、追従眼球運動時間算出部133で算出した直近の所定時間tにおけるドライバの追従眼球運動時間を取得し、この追従眼球運動時間とS6で決定した追従眼球運動時間についての判定閾値とを比較する。そして、追従眼球運動時間がこの判定閾値よりも大きい場合(S73でYES)には、ステップS75に移る。一方、追従眼球運動時間がこの判定閾値以下である場合(S73でNO)には、ステップS74に移る。   In step S73, the state estimation unit 140 acquires the driver's following eye movement time at the latest predetermined time t calculated by the following eye movement time calculation unit 133, and the following eye movement time determined in S6. Is compared with the determination threshold for. If the follow-up eye movement time is longer than the determination threshold (YES in S73), the process proceeds to step S75. On the other hand, when the follow-up eye movement time is equal to or less than the determination threshold value (NO in S73), the process proceeds to step S74.

ステップS74では、状態推定部140が、変化量算出部134で算出した直近の所定時間tについてのドライバの急速眼球運動頻度変化量を取得し、この急速眼球運動頻度変化量とS6で決定した急速眼球運動頻度変化量についての判定閾値とを比較する。そして、急速眼球運動頻度変化量がこの判定閾値よりも大きい場合(S74でYES)には、ステップS75に移る。一方、急速眼球運動頻度変化量がこの判定閾値以下である場合(S74でNO)には、ステップS76に移る。   In step S74, the state estimation unit 140 acquires the rapid eye movement frequency change amount of the driver for the most recent predetermined time t calculated by the change amount calculation unit 134, and the rapid eye movement frequency change amount determined in S6. The determination threshold for the amount of change in eye movement frequency is compared. If the rapid eye movement frequency change amount is larger than this determination threshold (YES in S74), the process proceeds to step S75. On the other hand, when the rapid eye movement frequency change amount is equal to or smaller than the determination threshold value (NO in S74), the process proceeds to step S76.

ステップS75では、状態推定部140が、ドライバの状態を正常、つまり集中状態であると推定し、ステップS8に移る。つまり、状態推定部140は、急速眼球運動頻度、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量のいずれかでもそれぞれの判定閾値よりも大きい場合に、ドライバの状態を集中状態であると推定する。   In step S75, the state estimation unit 140 estimates that the driver state is normal, that is, a concentrated state, and proceeds to step S8. That is, the state estimation unit 140 concentrates the driver state in a concentrated state when any of the rapid eye movement frequency, the blink frequency, the following eye movement time, and the rapid eye movement frequency change amount is larger than each determination threshold. Presume that there is.

一方、ステップS76では、状態推定部140が、ドライバの状態を異常、つまり不注意状態であると推定し、ステップS8に移る。つまり、状態推定部140は、急速眼球運動頻度、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量の全てがそれぞれの判定閾値以下の場合に、ドライバの状態を不注意状態であると推定する。なお、S71〜S74の処理の順番は入れ替えても構わない。   On the other hand, in step S76, the state estimation unit 140 estimates that the driver is in an abnormal state, that is, an inattention state, and proceeds to step S8. In other words, the state estimating unit 140 cares about the driver's state when the rapid eye movement frequency, the blink frequency, the following eye movement time, and the rapid eye movement frequency change amount are all equal to or less than the respective determination thresholds. Estimated. Note that the processing order of S71 to S74 may be changed.

図4に戻って、ステップS8では、S7でドライバの状態を不注意状態と推定した場合(S8でYES)には、ステップS9に移る。一方、S7でドライバの状態を集中状態と推定した場合(S8でNO)には、ステップS10に移る。ステップS9では、報知処理部150が、報知装置60に指示を行って警報を行わせ、ステップS10に移る。   Returning to FIG. 4, in step S8, when the driver state is estimated to be careless in S7 (YES in S8), the process proceeds to step S9. On the other hand, when the driver state is estimated to be a concentrated state in S7 (NO in S8), the process proceeds to step S10. In step S9, the notification processing unit 150 instructs the notification device 60 to issue an alarm, and proceeds to step S10.

ステップS10では、状態推定関連処理の終了タイミングである場合(S10でYES)には、状態推定関連処理を終了する。一方、状態推定関連処理の終了タイミングでない場合(S10でNO)には、S1に戻って処理を繰り返す。状態推定関連処理の終了タイミングとしては、例えばHCU10の電源がオフになった場合,自車のパワースイッチがオフになった場合等がある。   In step S10, if it is the end timing of the state estimation related process (YES in S10), the state estimation related process is ended. On the other hand, when it is not the end timing of the state estimation related process (NO in S10), the process returns to S1 and the process is repeated. As the end timing of the state estimation related process, for example, when the power supply of the HCU 10 is turned off, the power switch of the own vehicle is turned off, or the like.

<実施形態1のまとめ>
実施形態1の構成によれば、ドライバのサッカード及びマイクロサッカードの少なくともいずれかの発生頻度である急速眼球運動頻度だけでなく、ドライバの瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量を用いてドライバの状態を推定することで、ドライバの状態をより精度良く推定することが可能になる。
<Summary of Embodiment 1>
According to the configuration of the first embodiment, not only the rapid eye movement frequency that is the occurrence frequency of at least one of the driver's saccade and microsaccade, but also the driver's blink frequency, the following eye movement time, and the rapid eye movement frequency. By estimating the driver state using the amount of change, the driver state can be estimated more accurately.

詳しくは、瞬目頻度を用いることで、瞬目による急速眼球運動頻度の低下をドライバの状態の異常と推定しないようにすることが可能になる。また、追従眼球運動時間を用いることで、追従眼球運動による急速眼球運動頻度の低下をドライバの状態の異常と推定しないようにすることが可能になる。さらに、急速眼球運動頻度変化量を用いた場合には、急速眼球運動頻度が増加傾向にある場合の急速眼球運動頻度の低下をドライバの状態の異常と推定しないようにすることが可能になる。よって、急速眼球運動頻度だけを用いる場合に比べ、ドライバの状態をより精度良く推定することが可能になる。また、ドライバの瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量の一部を用いる場合と比較しても、ドライバの状態をより精度良く推定することが可能になる。   Specifically, by using the blink frequency, it is possible to prevent a decrease in the rapid eye movement frequency due to the blink from being estimated as an abnormal state of the driver. In addition, by using the following eye movement time, it is possible to prevent a decrease in the rapid eye movement frequency due to the following eye movement from being estimated as an abnormal state of the driver. Further, when the rapid eye movement frequency change amount is used, it is possible not to estimate a decrease in the rapid eye movement frequency when the rapid eye movement frequency tends to increase as an abnormal state of the driver. Therefore, the driver's state can be estimated with higher accuracy than when only the rapid eye movement frequency is used. In addition, the driver's state can be estimated more accurately than when using a part of the driver's blink frequency, follow-up eye movement time, and rapid eye movement frequency change amount.

(実施形態2)
実施形態1では、視線角速度若しくは視線角加速度をもとにドライバの追従眼球運動を抽出する構成を示したが、必ずしもこれに限らない。例えば、注視対象物の自車に対する位置及び/又は速度をもとにドライバの追従眼球運動の発生を推定することでドライバの追従眼球運動を抽出する構成(以下、実施形態2)としてもよい。以下、実施形態2の構成について説明する。
(Embodiment 2)
In the first embodiment, the configuration in which the driver's following eyeball movement is extracted based on the gaze angular velocity or the gaze angular acceleration is shown, but the configuration is not necessarily limited thereto. For example, the configuration may be such that the driver's following eye movement is extracted by estimating the generation of the driver's following eye movement based on the position and / or speed of the gaze target with respect to the vehicle (hereinafter, Embodiment 2). Hereinafter, the configuration of the second embodiment will be described.

実施形態2の車両システム1は、HCU10の代わりにHCU10aを含む点を除けば、実施形態1の車両システム1と同様である。ここで、図8を用いて、HCU10aの概略構成を説明する。   The vehicle system 1 according to the second embodiment is the same as the vehicle system 1 according to the first embodiment except that the vehicle system 1 includes the HCU 10a instead of the HCU 10. Here, the schematic configuration of the HCU 10a will be described with reference to FIG.

図8に示すように、HCU10aは、機能ブロックとして、画像認識処理部100、眼球運動抽出部110a、眼球運動情報記憶部120、判定用データ算出部130、状態推定部140、報知処理部150、及び対象物情報取得部160を備えている。HCU10aは、対象物情報取得部160を備えている点、及び眼球運動抽出部110の代わりに眼球運動抽出部110aを備えている点を除けばHCU10と同様である。このHCU10aも請求項の状態推定装置に相当する。   As shown in FIG. 8, the HCU 10a includes, as functional blocks, an image recognition processing unit 100, an eye movement extraction unit 110a, an eye movement information storage unit 120, a determination data calculation unit 130, a state estimation unit 140, a notification processing unit 150, And an object information acquisition unit 160. The HCU 10a is the same as the HCU 10 except that the HCU 10a includes an object information acquisition unit 160 and an eye movement extraction unit 110a instead of the eye movement extraction unit 110. The HCU 10a also corresponds to the state estimation device in the claims.

対象物情報取得部160は、自車周辺の注視対象物の自車に対する位置及び速度の少なくともいずれかである対象物情報を取得する。一例としては、周辺監視ECU40で検出した、自車に対する注視対象物の位置及び/又は速度を対象物情報として取得する構成とすればよい。注視対象物が複数存在する場合には、その複数の注視対象物についての対象物情報を取得する構成とすればよい。   The target object information acquisition unit 160 acquires target object information that is at least one of the position and speed of the target object around the host vehicle with respect to the host vehicle. As an example, the configuration may be such that the position and / or speed of the gaze target with respect to the host vehicle detected by the periphery monitoring ECU 40 is acquired as the target information. In the case where there are a plurality of gaze objects, the object information for the plurality of gaze objects may be acquired.

眼球運動抽出部110aは、サブ機能ブロックとして、瞬目抽出部111、急速眼球運動抽出部112、及び追従眼球運動抽出部113aを備える。眼球運動抽出部110aは、追従眼球運動抽出部113の代わりに追従眼球運動抽出部113aを備える点を除けば眼球運動抽出部110と同様である。   The eye movement extraction unit 110a includes a blink extraction unit 111, a rapid eye movement extraction unit 112, and a tracking eye movement extraction unit 113a as sub-function blocks. The eye movement extraction unit 110a is the same as the eye movement extraction unit 110 except that it includes a tracking eye movement extraction unit 113a instead of the tracking eye movement extraction unit 113.

追従眼球運動抽出部113aは、対象物情報取得部160で取得する対象物情報をもとにドライバの追従眼球運動の発生を推定することでドライバの追従眼球運動を抽出する。よって、この追従眼球運動抽出部113aが請求項の発生推定部に相当する。ドライバは、注視対象物が視野範囲内に位置し、且つ、自車に対する速度差が一定以上に大きい場合に、この注視対象物に対して追従眼球運動を起こす。よって、注視対象物が自車の前方に位置したり、自車に対する注視対象物の速度差が一定以上に大きかったりする場合には、追従眼球運動が発生する確率が高い。よって、このような場合を条件としてドライバの追従眼球運動の発生を推定することでドライバの追従眼球運動を抽出すればよい。   The following eye movement extraction unit 113a extracts the following eye movement of the driver by estimating the occurrence of the following eye movement of the driver based on the object information acquired by the object information acquisition unit 160. Therefore, the following eye movement extraction unit 113a corresponds to the generation estimation unit in the claims. When the gaze object is located within the visual field range and the speed difference with respect to the own vehicle is larger than a certain level, the driver causes the following eye movement to the gaze object. Therefore, when the gaze target is located in front of the own vehicle or the speed difference of the gaze target with respect to the own vehicle is larger than a certain level, the probability that the following eye movement will occur is high. Therefore, the driver's following eye movement may be extracted by estimating the generation of the driver's following eye movement under such a condition.

実施形態2の構成であっても、追従眼球運動の抽出の態様が異なる点を除けば実施形態1と同様であるので、実施形態1の構成と同様の効果を奏することができる。   The configuration of the second embodiment is the same as that of the first embodiment except that the follow-up eye movement extraction mode is different, so that the same effect as the configuration of the first embodiment can be obtained.

(実施形態3)
実施形態1では、追従眼球運動時間についての判定閾値を、有効時間T内における所定時間tごとの追従眼球運動時間の平均値又はばらつきの度合いから決定する構成を示したが、必ずしもこれに限らない。例えば、注視対象物の自車に対する位置及び/又は速度をもとに、追従眼球運動時間についての判定閾値を決定する構成(以下、実施形態3)としてもよい。以下、実施形態3の構成について説明する。
(Embodiment 3)
In the first embodiment, the determination threshold for the following eye movement time is determined from the average value or the degree of variation of the following eye movement time for each predetermined time t within the effective time T. However, the present invention is not limited to this. . For example, it is good also as a structure (henceforth Embodiment 3) which determines the determination threshold value about tracking eyeball movement time based on the position and / or speed with respect to the own vehicle of a gaze target object. Hereinafter, the configuration of the third embodiment will be described.

実施形態3の車両システム1は、HCU10の代わりにHCU10bを含む点を除けば、実施形態1の車両システム1と同様である。ここで、図9を用いて、HCU10bの概略構成を説明する。   The vehicle system 1 of the third embodiment is the same as the vehicle system 1 of the first embodiment except that the vehicle system 1 includes the HCU 10b instead of the HCU 10. Here, the schematic configuration of the HCU 10b will be described with reference to FIG.

図9に示すように、HCU10bは、機能ブロックとして、画像認識処理部100、眼球運動抽出部110、眼球運動情報記憶部120、判定用データ算出部130、状態推定部140b、報知処理部150、及び対象物情報取得部160を備えている。HCU10bは、対象物情報取得部160を備えている点、及び状態推定部140の代わりに状態推定部140bを備えている点を除けばHCU10と同様である。このHCU10bも請求項の状態推定装置に相当する。   As shown in FIG. 9, the HCU 10b includes, as functional blocks, an image recognition processing unit 100, an eye movement extraction unit 110, an eye movement information storage unit 120, a determination data calculation unit 130, a state estimation unit 140b, a notification processing unit 150, And an object information acquisition unit 160. The HCU 10 b is the same as the HCU 10 except that the HCU 10 b includes the object information acquisition unit 160 and a state estimation unit 140 b instead of the state estimation unit 140. The HCU 10b also corresponds to the state estimation device in the claims.

対象物情報取得部160は、実施形態2の対象物情報取得部160と同様である。状態推定部140bは、サブ機能ブロックとして、判定閾値決定部141bを備える。状態推定部140bは、判定閾値決定部141の代わりに判定閾値決定部141bを備える点を除けば状態推定部140と同様である。   The object information acquisition unit 160 is the same as the object information acquisition unit 160 of the second embodiment. The state estimation unit 140b includes a determination threshold value determination unit 141b as a sub functional block. The state estimation unit 140b is the same as the state estimation unit 140 except that it includes a determination threshold value determination unit 141b instead of the determination threshold value determination unit 141.

判定閾値決定部141bは、対象物情報取得部160で取得する対象物情報に応じて、追従眼球運動時間についての判定閾値を決定する。また、判定閾値決定部141bは、実施形態1の判定閾値決定部141と同様にして決定した追従眼球運動時間についての判定閾値を、対象物情報取得部160で取得する対象物情報に応じて変更することで決定する構成としてもよい。   The determination threshold value determination unit 141b determines a determination threshold value for the following eye movement time according to the object information acquired by the object information acquisition unit 160. Further, the determination threshold value determination unit 141b changes the determination threshold value for the follow-up eye movement time determined in the same manner as the determination threshold value determination unit 141 of the first embodiment according to the object information acquired by the object information acquisition unit 160. It is good also as a structure determined by doing.

一例としては、自車に対する注視対象物の速度が速くなるほど追従眼球運動時間が短くなる確率が高いため、自車に対する注視対象物の速度が速くなるのに応じて、追従眼球運動時間についての判定閾値を小さく決定する構成とすればよい。また、自車に対して注視対象物が遠くにある場合は追従眼球運動時間が長くなる確率が高いため、自車に対する注視対象物の位置及び速度から、自車に対する注視対象物の接近の度合いが低くなるのに応じて、追従眼球運動時間についての判定閾値を大きく決定する構成としてもよい。他にも、自車周辺の注視対象物の数が多くなるほど一つの注視対象物に対する追従眼球運動時間が短くなる確率が高いため、自車に対する注視対象物の位置から、自車周辺の注視対象物の数が多くなるのに応じて、追従眼球運動時間についての判定閾値を小さく決定する構成としてもよい。   As an example, since the tracking eye movement time is likely to be shortened as the speed of the gaze target with respect to the vehicle increases, the determination of the tracking eye movement time according to the speed of the gaze object with respect to the vehicle increases. What is necessary is just to set it as the structure which determines a threshold value small. In addition, when the target object is far away from the host vehicle, the tracking eye movement time is likely to be long, so the degree of approach of the target object to the host vehicle from the position and speed of the target object relative to the host vehicle is high. It is good also as a structure which determines largely the determination threshold value about a follow-up eye movement time according to becoming low. In addition, since the tracking eye movement time for one gaze target is likely to be shorter as the number of gaze objects around the vehicle increases, the number of gaze objects around the vehicle is determined from the position of the gaze target with respect to the own vehicle. It is good also as a structure which determines the determination threshold value about a following eyeball movement time small according to increasing.

注視対象物の自車に対する位置及び/又は速度によって、自車のドライバがその注視対象物を注視することによって生じる追従眼球運動の発生時間の長さの傾向が変わる。実施形態3の構成によれば、対象物情報取得部160で取得する対象物情報に応じて追従眼球運動時間についての判定閾値を決定することで、この対象物情報に応じて変わる追従眼球運動の発生時間の長さの傾向に合わせて、追従眼球運動時間についての判定閾値を決定することが可能になる。従って、追従眼球運動時間についての判定閾値の精度をより向上させ、ドライバの状態の推定精度をより向上させることが可能になる。   Depending on the position and / or speed of the gaze target with respect to the own vehicle, the tendency of the length of time of occurrence of the following eye movement that occurs when the driver of the own vehicle gazes at the gaze target changes. According to the configuration of the third embodiment, by determining the determination threshold value for the tracking eye movement time according to the object information acquired by the object information acquisition unit 160, the tracking eye movement that changes according to the object information is determined. It is possible to determine a determination threshold for the following eye movement time in accordance with the tendency of the generation time. Therefore, it is possible to further improve the accuracy of the determination threshold for the tracking eye movement time and further improve the estimation accuracy of the driver state.

なお、実施形態3の構成であっても、追従眼球運動時間についての判定閾値を変更する点を除けば実施形態1と同様であるので、実施形態1の構成と同様の効果も奏することができる。また、実施形態3の構成を実施形態1若しくは実施形態2と組み合わせても構わない。   Note that the configuration of the third embodiment is the same as that of the first embodiment except that the determination threshold value for the tracking eye movement time is changed. Therefore, the same effect as the configuration of the first embodiment can be obtained. . The configuration of the third embodiment may be combined with the first or second embodiment.

(実施形態4)
実施形態1では、瞬目頻度についての判定閾値を、有効時間T内における所定時間tごとの瞬目頻度の平均値又はばらつきの度合いから決定する構成を示したが、必ずしもこれに限らない。例えば、自車の室内の湿度及び/又は明るさをもとに、瞬目頻度についての判定閾値を決定する構成(以下、実施形態4)としてもよい。以下、実施形態4の構成について説明する。
(Embodiment 4)
In the first embodiment, the determination threshold for the blink frequency is determined based on the average value or the degree of variation of the blink frequency for each predetermined time t within the effective time T. However, the present invention is not limited to this. For example, it is good also as a structure (henceforth Embodiment 4) which determines the determination threshold value about blink frequency based on the humidity and / or brightness of the interior of the own vehicle. Hereinafter, the configuration of the fourth embodiment will be described.

実施形態4の車両システム1は、HCU10の代わりにHCU10cを含む点を除けば、実施形態1の車両システム1と同様である。ここで、図10を用いて、HCU10cの概略構成を説明する。   The vehicle system 1 according to the fourth embodiment is the same as the vehicle system 1 according to the first embodiment except that the vehicle system 1 includes the HCU 10c instead of the HCU 10. Here, a schematic configuration of the HCU 10c will be described with reference to FIG.

図10に示すように、HCU10bは、機能ブロックとして、画像認識処理部100、眼球運動抽出部110、眼球運動情報記憶部120、判定用データ算出部130、状態推定部140c、報知処理部150、及び室内環境情報取得部170を備えている。HCU10cは、室内環境情報取得部170を備えている点、及び状態推定部140の代わりに状態推定部140cを備えている点を除けばHCU10と同様である。このHCU10cも請求項の状態推定装置に相当する。   As shown in FIG. 10, the HCU 10b includes, as functional blocks, an image recognition processing unit 100, an eye movement extraction unit 110, an eye movement information storage unit 120, a determination data calculation unit 130, a state estimation unit 140c, a notification processing unit 150, And an indoor environment information acquisition unit 170. The HCU 10 c is the same as the HCU 10 except that the indoor environment information acquisition unit 170 is provided and a state estimation unit 140 c is provided instead of the state estimation unit 140. The HCU 10c also corresponds to the state estimation device in the claims.

室内環境情報取得部170は、自車の室内の湿度及び/又は明るさである室内環境情報を取得する。一例としては、車両センサ20のうちの外光センサで検出する照度及び/又は車両センサ20のうちの湿度センサで検出する湿度を室内環境情報として取得する構成とすればよい。   The indoor environment information acquisition unit 170 acquires indoor environment information that is the humidity and / or brightness of the vehicle interior. As an example, the illuminance detected by the external light sensor of the vehicle sensor 20 and / or the humidity detected by the humidity sensor of the vehicle sensor 20 may be acquired as room environment information.

状態推定部140cは、サブ機能ブロックとして、判定閾値決定部141cを備える。状態推定部140cは、判定閾値決定部141の代わりに判定閾値決定部141cを備える点を除けば状態推定部140と同様である。   The state estimation unit 140c includes a determination threshold value determination unit 141c as a sub-function block. The state estimation unit 140c is the same as the state estimation unit 140 except that a determination threshold value determination unit 141c is provided instead of the determination threshold value determination unit 141.

判定閾値決定部141cは、室内環境情報取得部170で取得する室内環境情報に応じて、瞬目頻度についての判定閾値を決定する。また、判定閾値決定部141cは、実施形態1の判定閾値決定部141と同様にして決定した瞬目頻度についての判定閾値を、室内環境情報取得部170で取得する室内環境情報に応じて変更することで決定する構成としてもよい。一例としては、外光センサで検出する照度が大きくなるのに応じて、瞬目頻度についての判定閾値を大きく決定する構成とすればよい。また、湿度センサで検出する湿度が低くなるのに応じて、瞬目頻度についての判定閾値を大きく変更する構成としてもよい。   The determination threshold value determination unit 141c determines a determination threshold value for the blink frequency according to the indoor environment information acquired by the indoor environment information acquisition unit 170. In addition, the determination threshold value determination unit 141c changes the determination threshold value for the blink frequency determined in the same manner as the determination threshold value determination unit 141 of the first embodiment according to the indoor environment information acquired by the indoor environment information acquisition unit 170. It is good also as a structure determined by this. As an example, a configuration may be adopted in which the determination threshold for the blink frequency is largely determined as the illuminance detected by the external light sensor increases. Moreover, it is good also as a structure which changes the determination threshold value about blink frequency largely according to the humidity detected with a humidity sensor becoming low.

自車の室内の湿度及び/又は明るさによって、自車のドライバの瞬目頻度の傾向が変わる。例えば、湿度が低いほど乾燥によって瞬きが増えるため瞬目頻度は高くなる。また、明るさが大きいほど瞬きが増えるため瞬目頻度は高くなる。実施形態4の構成によれば、室内環境情報取得部170で取得する室内環境情報に応じて瞬目頻度についての判定閾値を変更することで、この室内環境情報に応じて変わる瞬目頻度の傾向に合わせて、瞬目頻度についての判定閾値を変更することが可能になる。従って、瞬目頻度についての判定閾値の精度をより向上させ、ドライバの状態の推定精度をより向上させることが可能になる。   The tendency of the blink frequency of the driver of the vehicle changes depending on the humidity and / or brightness of the vehicle interior. For example, the blink frequency increases because the blinking increases as the humidity decreases. In addition, the blink frequency increases because the blink increases as the brightness increases. According to the configuration of the fourth embodiment, by changing the determination threshold for the blink frequency according to the indoor environment information acquired by the indoor environment information acquisition unit 170, the tendency of the blink frequency that changes according to the indoor environment information. In accordance with this, it is possible to change the determination threshold for the blink frequency. Therefore, it is possible to further improve the accuracy of the determination threshold for the blink frequency and further improve the accuracy of estimating the driver state.

なお、実施形態4の構成であっても、瞬目頻度についての判定閾値を変更する点を除けば実施形態1と同様であるので、実施形態1の構成と同様の効果も奏することができる。また、実施形態4の構成を実施形態1〜3の構成と組み合わせても構わない。   The configuration of the fourth embodiment is the same as that of the first embodiment except that the determination threshold for the blink frequency is changed, and thus the same effect as the configuration of the first embodiment can be obtained. Further, the configuration of the fourth embodiment may be combined with the configurations of the first to third embodiments.

(実施形態5)
前述の実施形態では、急速眼球運動頻度、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量をHCU10,10a,10b,10cで算出することで取得する構成を示したが、必ずしもこれに限らない。例えば、HCU10,10a,10b,10c以外の装置で算出した急速眼球運動頻度、瞬目頻度、追従眼球運動時間、及び/又は急速眼球運動頻度変化量を、HCU10,10a,10b,10cが取得する構成としてもよい。また、HCU10,10a,10b,10cの機能は、複数の装置で担う構成としてもよい。
(Embodiment 5)
In the above-described embodiment, the configuration in which the rapid eye movement frequency, the blink frequency, the tracking eye movement time, and the rapid eye movement frequency change amount are obtained by calculating with the HCUs 10, 10a, 10b, and 10c is shown. Not limited to. For example, the HCU 10, 10a, 10b, 10c acquires the rapid eye movement frequency, blink frequency, follow-up eye movement time, and / or rapid eye movement frequency change amount calculated by a device other than the HCU 10, 10a, 10b, 10c. It is good also as a structure. The functions of the HCUs 10, 10a, 10b, and 10c may be configured to be performed by a plurality of devices.

(実施形態6)
前述の実施形態では、状態推定部140,140b,140cが、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量を用いてドライバの状態を推定する構成を示したが、必ずしもこれに限らない。例えば、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量のうちの一部のみをドライバの状態の推定に用いる構成としてもよい。なお、瞬目頻度、追従眼球運動時間、及び急速眼球運動頻度変化量のうち、急速眼球運動頻度変化量は、急速眼球運動頻度の算出結果を用いて算出できるため、急速眼球運動頻度変化量も用いてドライバの状態を推定する構成とした場合でも、新たな演算処理の増加を抑えることができ、処理負荷を抑えることができる利点がある。
(Embodiment 6)
In the above-described embodiment, the state estimation units 140, 140b, and 140c are configured to estimate the driver state using the blink frequency, the following eye movement time, and the rapid eye movement frequency change amount. Not exclusively. For example, only a part of the blink frequency, the following eye movement time, and the rapid eye movement frequency change amount may be used for estimating the driver state. Of the blink frequency, follow-up eye movement time, and rapid eye movement frequency change amount, the rapid eye movement frequency change amount can be calculated using the calculation result of the rapid eye movement frequency. Even when the configuration is used to estimate the state of the driver, there is an advantage that an increase in new arithmetic processing can be suppressed and the processing load can be suppressed.

(実施形態7)
前述の実施形態では、状態推定関連処理をHCU10,10a,10b,10cの電源がオンになるごとに実行する構成を示したが、必ずしもこれに限らない。例えば、自車に設けられた操作入力部に状態推定関連処理を実行するための操作入力をユーザが行うごとに、状態推定関連処理を実行する構成としてもよい。これによれば、自車のドライバが変更するごとにドライバからこの操作入力を受け付けることで、個々のドライバに応じた判定閾値を決定し、個々のドライバに応じてドライバの状態を精度良く推定することが可能になる。
(Embodiment 7)
In the above-described embodiment, the configuration in which the state estimation-related processing is executed every time the power of the HCUs 10, 10a, 10b, and 10c is turned on has been described. For example, it is good also as a structure which performs a state estimation related process, whenever a user performs operation input for performing a state estimation related process in the operation input part provided in the own vehicle. According to this, by receiving this operation input from the driver every time the driver of the own vehicle changes, a determination threshold value corresponding to each driver is determined, and the state of the driver is accurately estimated according to each driver. It becomes possible.

また、個々のドライバごとに異なる電子キーのIDといった識別情報を車両システム1のメモリに登録しておくことで、電子キーIDから近距離無線通信で得られるドライバごとの識別情報をもとに、ドライバが変更されるごとに状態推定関連処理を実行する構成としてもよい。この場合でも、個々のドライバに応じた判定閾値を決定し、個々のドライバに応じてドライバの状態を精度良く推定することが可能になる。   In addition, by registering identification information such as an electronic key ID that is different for each driver in the memory of the vehicle system 1, based on the identification information for each driver obtained from the electronic key ID by short-range wireless communication, The state estimation related process may be executed every time the driver is changed. Even in this case, it is possible to determine a determination threshold corresponding to each driver and accurately estimate the driver state according to each driver.

(実施形態8)
前述の実施形態では、本発明を車両に適用した場合を例に挙げて説明を行ったが、必ずしもこれに限らない。例えば、車両以外の移動体に適用し、車両以外の移動体の乗員の状態を推定する構成としてもよい。また、移動体以外に適用する構成としてもよい。例えば、工場のライン等での作業員の状態を推定する構成としてもよい。
(Embodiment 8)
In the above-described embodiment, the case where the present invention is applied to a vehicle has been described as an example, but the present invention is not necessarily limited thereto. For example, it is good also as a structure applied to moving bodies other than a vehicle and estimating the passenger | crew's state of moving bodies other than a vehicle. Moreover, it is good also as a structure applied other than a moving body. For example, it is good also as a structure which estimates the state of the worker in a factory line etc.

なお、本発明は、上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   Note that the present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. Embodiments are also included in the technical scope of the present invention.

1 車両システム、10,10a,10b,10c HCU(状態推定装置)、20 車両センサ、30 周辺監視センサ、40 周辺監視ECU、50 ドライバ撮像ユニット、100 画像認識処理部、110 眼球運動抽出部、111 瞬目抽出部、112 急速眼球運動抽出部、113 追従眼球運動抽出部、113a 追従眼球運動抽出部(発生推定部)、120 眼球運動情報記憶部、130 判定用データ算出部、131 瞬目頻度算出部(瞬目取得部)、132 急速眼球運動頻度算出部(頻度取得部)、133 追従眼球運動時間算出部(追従眼球運動取得部)、134 変化量算出部(頻度変化量取得部)、135 補強情報取得部、140,140b,140c 状態推定部、141,141b,141c 判定閾値決定部、150 報知処理部、160 対象物情報取得部、170 室内環境情報取得部 DESCRIPTION OF SYMBOLS 1 Vehicle system 10, 10a, 10b, 10c HCU (state estimation apparatus), 20 Vehicle sensor, 30 Perimeter monitoring sensor, 40 Perimeter monitoring ECU, 50 Driver imaging unit, 100 Image recognition process part, 110 Eye movement extraction part, 111 Blink extraction unit, 112 Rapid eye movement extraction unit, 113 Tracking eye movement extraction unit, 113a Tracking eye movement extraction unit (generation estimation unit), 120 Eye movement information storage unit, 130 Determination data calculation unit, 131 Blink frequency calculation Part (blink acquisition part), 132 rapid eye movement frequency calculation part (frequency acquisition part), 133 following eye movement time calculation part (following eye movement acquisition part), 134 change amount calculation part (frequency change amount acquisition part), 135 Reinforcement information acquisition unit, 140, 140b, 140c state estimation unit, 141, 141b, 141c determination threshold value determination unit, 150 Notification processing unit, 160 object information acquisition unit, 170 indoor environment information acquisition unit

Claims (13)

監視対象者の眼球運動に基づいて前記監視対象者の状態を推定する状態推定装置であって、
前記監視対象者のサッカード及びマイクロサッカードの少なくともいずれかの発生頻度である急速眼球運動頻度を取得する頻度取得部(132)と、
前記監視対象者の瞬目の発生頻度を取得する瞬目取得部(131)、前記監視対象者の追従眼球運動の発生時間を取得する追従眼球運動取得部(133)、及び前記監視対象者の前記急速眼球運動頻度の変化量を取得する頻度変化量取得部(134)の少なくともいずれかである補強情報取得部(135)と、
前記頻度取得部で取得する前記急速眼球運動頻度に加え、前記補強情報取得部で取得する情報を用いて、前記監視対象者の状態を推定する状態推定部(140,140b,140c)とを備える状態推定装置。
A state estimation device that estimates the state of the monitoring subject based on the eye movement of the monitoring subject,
A frequency acquisition unit (132) for acquiring a rapid eye movement frequency, which is an occurrence frequency of at least one of saccade and microsaccade of the monitoring target;
A blink acquisition unit (131) that acquires the occurrence frequency of blinks of the monitoring target person, a tracking eye movement acquisition unit (133) that acquires the generation time of the tracking eye movement of the monitoring target person, and the monitoring target person A reinforcement information acquisition unit (135) that is at least one of a frequency change amount acquisition unit (134) that acquires a change amount of the rapid eye movement frequency;
In addition to the rapid eye movement frequency acquired by the frequency acquisition unit, a state estimation unit (140, 140b, 140c) that estimates the state of the monitoring target person using information acquired by the reinforcement information acquisition unit. State estimation device.
前記状態推定部は、前記頻度取得部で取得する直近の一定期間における前記急速眼球運動頻度に加え、前記補強情報取得部で取得するその直近の一定期間の情報を用いて、前記監視対象者の状態を逐次推定する請求項1に記載の状態推定装置。   In addition to the rapid eye movement frequency in the latest fixed period acquired by the frequency acquisition unit, the state estimation unit uses the information of the latest fixed period acquired by the reinforcement information acquisition unit, and The state estimation apparatus according to claim 1, wherein the state is sequentially estimated. 前記状態推定部は、前記頻度取得部で取得する前記急速眼球運動頻度がその急速眼球運動頻度についての閾値よりも大きい場合に、前記監視対象者の状態が正常であると推定する請求項1又は2に記載の状態推定装置。   The said state estimation part estimates that the said monitoring subject's state is normal, when the said rapid eye movement frequency acquired in the said frequency acquisition part is larger than the threshold value about the rapid eye movement frequency. 2. The state estimation device according to 2. 前記状態推定部は、前記急速眼球運動頻度についての閾値を、前記頻度取得部で逐次取得した過去の一定期間における実際の前記急速眼球運動頻度のデータ群から決定する請求項3に記載の状態推定装置。   The state estimation unit according to claim 3, wherein the state estimation unit determines a threshold for the rapid eye movement frequency from a data group of actual rapid eye movement frequency in a past fixed period sequentially acquired by the frequency acquisition unit. apparatus. 前記補強情報取得部は、少なくとも前記瞬目取得部であり、
前記状態推定部は、前記頻度取得部で取得する前記急速眼球運動頻度がその急速眼球運動頻度についての閾値以下である場合であっても、前記瞬目取得部で取得する前記瞬目の発生頻度がその発生頻度についての閾値よりも大きい場合には、前記監視対象者の状態が正常であると推定する請求項3又は4に記載の状態推定装置。
The reinforcement information acquisition unit is at least the blink acquisition unit,
The state estimation unit may generate the blinking frequency acquired by the blink acquisition unit even when the rapid eye movement frequency acquired by the frequency acquisition unit is equal to or less than a threshold value for the rapid eye movement frequency. The state estimation device according to claim 3 or 4 that estimates that the state of the person to be monitored is normal when is greater than a threshold value regarding the occurrence frequency.
前記状態推定部は、前記瞬目の発生頻度についての閾値を、前記瞬目取得部で逐次取得した過去の一定期間における実際の前記瞬目の発生頻度のデータ群から決定する請求項5に記載の状態推定装置。   The said state estimation part determines the threshold value about the occurrence frequency of the said blink from the data group of the actual occurrence frequency of the said blink in the past fixed period acquired sequentially by the said blink acquisition part. State estimation device. 車両で用いられ、前記監視対象者として前記車両のドライバの状態を推定するものであり、
前記車両の室内の湿度及び明るさの少なくともいずれかである室内環境情報を取得する室内環境情報取得部(170)を備え、
前記状態推定部(140c)は、前記瞬目の発生頻度についての閾値を、前記室内環境情報取得部で逐次取得する前記室内環境情報に応じて逐次決定して更新する請求項5又は6に記載の状態推定装置。
Used in a vehicle to estimate the state of the driver of the vehicle as the person to be monitored,
An indoor environment information acquisition unit (170) that acquires indoor environment information that is at least one of humidity and brightness in the vehicle interior;
The said state estimation part (140c) determines and updates the threshold value about the generation | occurrence | production frequency of the said blink sequentially according to the said indoor environment information acquired sequentially by the said indoor environment information acquisition part. State estimation device.
前記補強情報取得部は、少なくとも前記追従眼球運動取得部であり、
前記状態推定部は、前記頻度取得部で取得する前記急速眼球運動頻度がその急速眼球運動頻度についての閾値以下である場合であっても、前記追従眼球運動取得部で取得する前記追従眼球運動の発生時間がその発生時間についての閾値よりも大きい場合には、前記監視対象者の状態が正常であると推定する請求項3〜7のいずれか1項に記載の状態推定装置。
The reinforcement information acquisition unit is at least the following eye movement acquisition unit,
Even if the rapid eye movement frequency acquired by the frequency acquisition unit is equal to or less than a threshold value for the rapid eye movement frequency, the state estimation unit is configured to acquire the tracking eye movement acquired by the tracking eye movement acquisition unit. The state estimation device according to any one of claims 3 to 7, wherein when the occurrence time is greater than a threshold value for the occurrence time, the state of the monitoring subject is estimated to be normal.
前記状態推定部は、前記追従眼球運動の発生時間についての閾値を、前記追従眼球運動取得部で逐次取得した過去の一定期間における実際の前記追従眼球運動の発生時間のデータ群から決定する請求項8に記載の状態推定装置。   The said state estimation part determines the threshold value about the generation | occurrence | production time of the said tracking eye movement from the data group of the actual generation | occurrence | production time of the following eye movement in the past fixed period acquired sequentially by the said tracking eye movement acquisition part. The state estimation device according to claim 8. 車両で用いられ、前記監視対象者として前記車両のドライバの状態を推定するものであり、
前記車両周辺の注視対象物の前記車両に対する位置及び速度の少なくともいずれかである対象物情報を取得する対象物情報取得部(160)と、
前記対象物情報取得部で取得する前記対象物情報をもとに前記監視対象者の追従眼球運動の発生を推定する発生推定部(113a)とを備え、
前記追従眼球運動取得部は、前記発生推定部での推定結果をもとに前記監視対象者の追従眼球運動の発生時間を取得する請求項8又は9に記載の状態推定装置。
Used in a vehicle to estimate the state of the driver of the vehicle as the person to be monitored,
An object information acquisition unit (160) that acquires object information that is at least one of a position and a speed of a gaze object around the vehicle;
A generation estimation unit (113a) that estimates the generation of the following eye movement of the monitoring target person based on the target information acquired by the target information acquisition unit;
The state estimation device according to claim 8 or 9, wherein the tracking eye movement acquisition unit acquires a generation time of the tracking eye movement of the monitoring target person based on an estimation result in the generation estimation unit.
車両で用いられ、前記監視対象者として前記車両のドライバの状態を推定するものであって、
前記車両周辺の注視対象物の前記車両に対する位置及び速度の少なくともいずれかである対象物情報を取得する対象物情報取得部(160)を備えるものであり、
前記状態推定部(140b)は、前記追従眼球運動の発生時間についての閾値を、前記対象物情報取得部で取得する前記対象物情報に応じて決定する請求項8〜10のいずれか1項に記載の状態推定装置。
It is used in a vehicle and estimates the state of the driver of the vehicle as the monitoring subject,
An object information acquisition unit (160) that acquires object information that is at least one of a position and a speed of a gaze object around the vehicle;
The said state estimation part (140b) determines the threshold value about the generation | occurrence | production time of the said following eye movement according to the said target object information acquired with the said target object information acquisition part. The state estimation apparatus described.
前記補強情報取得部は、少なくとも前記頻度変化量取得部であり、
前記状態推定部は、前記頻度取得部で取得する前記急速眼球運動頻度がその急速眼球運動頻度についての閾値以下である場合であっても、前記頻度変化量取得部で取得する前記監視対象者の前記急速眼球運動頻度の変化量がその変化量についての閾値よりも大きい増加である場合には、前記監視対象者の状態が正常であると推定する請求項3〜11のいずれか1項に記載の状態推定装置。
The reinforcement information acquisition unit is at least the frequency change amount acquisition unit,
Even if the rapid eye movement frequency acquired by the frequency acquisition unit is equal to or less than a threshold value for the rapid eye movement frequency, the state estimation unit may acquire the monitoring target person acquired by the frequency change amount acquisition unit. 12. The method according to claim 3, wherein when the amount of change in the rapid eye movement frequency is greater than a threshold value for the amount of change, the state of the monitoring subject is estimated to be normal. State estimation device.
前記状態推定部は、前記急速眼球運動頻度の変化量についての閾値を、前記頻度変化量取得部で逐次取得した過去の一定期間における実際の前記急速眼球運動頻度の変化量のデータ群から決定する請求項12に記載の状態推定装置。   The state estimation unit determines a threshold for the amount of change in the rapid eye movement frequency from the data group of the actual amount of change in the rapid eye movement frequency in a past fixed period sequentially acquired by the frequency change amount acquisition unit. The state estimation apparatus according to claim 12.
JP2017088748A 2017-04-27 2017-04-27 State estimator Active JP6926636B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017088748A JP6926636B2 (en) 2017-04-27 2017-04-27 State estimator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017088748A JP6926636B2 (en) 2017-04-27 2017-04-27 State estimator

Publications (2)

Publication Number Publication Date
JP2018183532A true JP2018183532A (en) 2018-11-22
JP6926636B2 JP6926636B2 (en) 2021-08-25

Family

ID=64357240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017088748A Active JP6926636B2 (en) 2017-04-27 2017-04-27 State estimator

Country Status (1)

Country Link
JP (1) JP6926636B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109285321A (en) * 2018-11-23 2019-01-29 泰安宇祺通讯技术有限公司 A kind of rail traffic driver drowsy early warning system and its application method
JP2020199165A (en) * 2019-06-12 2020-12-17 株式会社デンソー Saccade detection device, saccade detection method, and saccade detection program
JP2020199166A (en) * 2019-06-12 2020-12-17 株式会社デンソー Saccade detection device, saccade detection method, and saccade detection program
JPWO2021014939A1 (en) * 2019-07-22 2021-01-28
JP2021019942A (en) * 2019-07-29 2021-02-18 株式会社デンソー Eyeball index detection device, eyeball index detection method, and eyeball index detection program
JP2021077134A (en) * 2019-11-11 2021-05-20 マツダ株式会社 Vehicle control device and driver state determination method

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001338363A (en) * 2000-05-24 2001-12-07 Yokogawa Electric Corp Method and device for generating alarm
JP2003099899A (en) * 2001-09-25 2003-04-04 Toyota Central Res & Dev Lab Inc Device for operating degree of risk of driving behavior
JP2008158619A (en) * 2006-12-21 2008-07-10 Hino Motors Ltd Apparatus and method for determining degree of vigilance
JP2008165348A (en) * 2006-12-27 2008-07-17 Toyota Motor Corp Unit and method for doze detection
JP2009090876A (en) * 2007-10-10 2009-04-30 Toyota Motor Corp Nap prevention device
JP2010108235A (en) * 2008-10-30 2010-05-13 Equos Research Co Ltd Awakening support system
WO2010092860A1 (en) * 2009-02-13 2010-08-19 トヨタ自動車株式会社 Physiological condition estimation device and vehicle control device
JP2012128523A (en) * 2010-12-13 2012-07-05 Canon Inc Information processing device and operating method thereof
JP2012252497A (en) * 2011-06-02 2012-12-20 Nissan Motor Co Ltd Driving support device and driving support method for vehicle
JP2013056180A (en) * 2002-10-15 2013-03-28 Volvo Technology Corp Method and arrangement for interpreting subject's head and eye activity
JP2015116376A (en) * 2013-12-19 2015-06-25 株式会社デンソー State estimation apparatus and state estimation program
JP2016134077A (en) * 2015-01-21 2016-07-25 株式会社豊田中央研究所 Awakening maintenance device and program

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001338363A (en) * 2000-05-24 2001-12-07 Yokogawa Electric Corp Method and device for generating alarm
JP2003099899A (en) * 2001-09-25 2003-04-04 Toyota Central Res & Dev Lab Inc Device for operating degree of risk of driving behavior
JP2013056180A (en) * 2002-10-15 2013-03-28 Volvo Technology Corp Method and arrangement for interpreting subject's head and eye activity
JP2008158619A (en) * 2006-12-21 2008-07-10 Hino Motors Ltd Apparatus and method for determining degree of vigilance
JP2008165348A (en) * 2006-12-27 2008-07-17 Toyota Motor Corp Unit and method for doze detection
JP2009090876A (en) * 2007-10-10 2009-04-30 Toyota Motor Corp Nap prevention device
JP2010108235A (en) * 2008-10-30 2010-05-13 Equos Research Co Ltd Awakening support system
WO2010092860A1 (en) * 2009-02-13 2010-08-19 トヨタ自動車株式会社 Physiological condition estimation device and vehicle control device
JP2012128523A (en) * 2010-12-13 2012-07-05 Canon Inc Information processing device and operating method thereof
JP2012252497A (en) * 2011-06-02 2012-12-20 Nissan Motor Co Ltd Driving support device and driving support method for vehicle
JP2015116376A (en) * 2013-12-19 2015-06-25 株式会社デンソー State estimation apparatus and state estimation program
JP2016134077A (en) * 2015-01-21 2016-07-25 株式会社豊田中央研究所 Awakening maintenance device and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109285321A (en) * 2018-11-23 2019-01-29 泰安宇祺通讯技术有限公司 A kind of rail traffic driver drowsy early warning system and its application method
JP2020199165A (en) * 2019-06-12 2020-12-17 株式会社デンソー Saccade detection device, saccade detection method, and saccade detection program
JP2020199166A (en) * 2019-06-12 2020-12-17 株式会社デンソー Saccade detection device, saccade detection method, and saccade detection program
JP7131490B2 (en) 2019-06-12 2022-09-06 株式会社デンソー Saccade detection device, saccade detection method, saccade detection program
JP7131491B2 (en) 2019-06-12 2022-09-06 株式会社デンソー Saccade detection device, saccade detection method, saccade detection program
JPWO2021014939A1 (en) * 2019-07-22 2021-01-28
WO2021014939A1 (en) * 2019-07-22 2021-01-28 日本電気株式会社 Drowsiness estimation information correction device, drowsiness estimation device, drowsiness estimation information correction method, drowsiness estimation method, and recording medium
JP7231035B2 (en) 2019-07-22 2023-03-01 日本電気株式会社 Sleepiness estimation information correction device, sleepiness estimation device, sleepiness estimation information correction method, sleepiness estimation method and program
JP2021019942A (en) * 2019-07-29 2021-02-18 株式会社デンソー Eyeball index detection device, eyeball index detection method, and eyeball index detection program
JP7140072B2 (en) 2019-07-29 2022-09-21 株式会社デンソー Eyeball index detection device, eyeball index detection method, eyeball index detection program
JP2021077134A (en) * 2019-11-11 2021-05-20 マツダ株式会社 Vehicle control device and driver state determination method
JP7342636B2 (en) 2019-11-11 2023-09-12 マツダ株式会社 Vehicle control device and driver condition determination method

Also Published As

Publication number Publication date
JP6926636B2 (en) 2021-08-25

Similar Documents

Publication Publication Date Title
JP6926636B2 (en) State estimator
US9526448B2 (en) State estimation device and state estimation program
EP2860664B1 (en) Face detection apparatus
JP7099037B2 (en) Data processing equipment, monitoring system, awakening system, data processing method, and data processing program
US11144052B2 (en) Readiness and identification by gaze and/or gesture pattern detection
US10604160B2 (en) Driver condition detection system
JP2015207163A (en) State estimation device and state estimation program
US11455810B2 (en) Driver attention state estimation
JP2016057839A (en) Facial direction detection device and warning system for vehicle
JP4647387B2 (en) Vehicle driving support device
JP6578784B2 (en) State estimation device and state estimation program
TWI522257B (en) Vehicle safety system and operating method thereof
CN112119438A (en) Vehicle rear-lateral-direction warning device and vehicle rear-lateral-direction warning method
JP2014153875A (en) Operation support device
WO2019155914A1 (en) Data processing device, monitoring system, alertness system, data processing method, data processing program, and storage medium
WO2019176492A1 (en) Calculation system, information processing device, driving assistance system, index calculation method, computer program, and storage medium
JP7099036B2 (en) Data processing equipment, monitoring system, awakening system, data processing method, and data processing program
WO2019155913A1 (en) Data processing device, monitoring system, alertness system, data processing method, data processing program, and storage medium
US11807264B2 (en) Driving assistance apparatus, driving assistance method, and medium
JP7014680B2 (en) Gaze object detection device, gaze object detection method, and program
JP6098476B2 (en) Driving assistance device
JP6714425B2 (en) Driving support device
US20240029454A1 (en) Line of sight estimating device, storage medium for storing computer program for line of sight estimation, and line of sight estimating method
KR102331937B1 (en) Apparatus for vehicle emergency rescue based on the analysis of the driving state risk and the driver state and method thereof
JP2023169625A (en) Monitoring device, computer program for monitoring, and monitoring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210719

R151 Written notification of patent or utility model registration

Ref document number: 6926636

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151