JP2007034436A - Arousal estimation device and method - Google Patents

Arousal estimation device and method Download PDF

Info

Publication number
JP2007034436A
JP2007034436A JP2005213463A JP2005213463A JP2007034436A JP 2007034436 A JP2007034436 A JP 2007034436A JP 2005213463 A JP2005213463 A JP 2005213463A JP 2005213463 A JP2005213463 A JP 2005213463A JP 2007034436 A JP2007034436 A JP 2007034436A
Authority
JP
Japan
Prior art keywords
eye
detected
open
closed
arousal level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005213463A
Other languages
Japanese (ja)
Other versions
JP4412253B2 (en
Inventor
Haruo Matsuo
治夫 松尾
Masayuki Kaneda
雅之 金田
Kinya Iwamoto
欣也 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2005213463A priority Critical patent/JP4412253B2/en
Publication of JP2007034436A publication Critical patent/JP2007034436A/en
Application granted granted Critical
Publication of JP4412253B2 publication Critical patent/JP4412253B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Emergency Alarm Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an arousal estimation device and method, in which estimation accuracy of arousal can be improved even in a case of erroneous detection of eyes. <P>SOLUTION: In the device 30, an open and close eye determination part 33 determines, for the eyes detected by an eye detection part 32, whether the eyes are open or close, and an arousal estimation part 34 estimates the arousal of a subject based on the open/close eye determination results. Further, the eye detection part 32 decides if the detected eyes of the subject results from erroneous detection, and the estimation part 34 decides the arousal of the subject based on the determination results for erroneous detection. Therefore, even if a frame of glasses or the eyebrows are erroneously detected to be the eyes, the arousal is estimated, considering information for the erroneous detection. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、覚醒度推定装置及び方法に関する。   The present invention relates to an arousal level estimation apparatus and method.

従来、被検出者の眼の閉眼持続時間に基づいて、被検出者の覚醒度を推定する覚醒度推定装置が多数知られている。その1つとして、検出された眼の位置がばらつく場合、すなわち眼が動いている場合に、推定した覚醒度を覚醒側に補正する覚醒度推定装置が知られている(特許文献1参照)。
特開平2004−341954号公報
2. Description of the Related Art Conventionally, many wakefulness estimation apparatuses that estimate the wakefulness level of a detected person based on the closed eye duration of the eyes of the detected person are known. As one of them, there is known a wakefulness estimation device that corrects an estimated wakefulness to the wakefulness side when the position of the detected eye varies, that is, when the eye is moving (see Patent Document 1).
Japanese Unexamined Patent Publication No. 2004-341554

しかしながら、特許文献1に記載の装置では、眼鏡のフレームや眉などを眼であると誤検出してしまう可能性があり、誤検出してしまった場合には、被検出者の覚醒度の推定精度が低下してしまう。   However, in the apparatus described in Patent Document 1, there is a possibility that a frame of eyeglasses or an eyebrow may be erroneously detected as an eye, and in the case of erroneous detection, estimation of the arousal level of the detected person is performed. Accuracy will be reduced.

本発明はこのような従来の課題を解決するためになされたものであり、その目的とするところは、眼を誤検出してしまった場合において覚醒度の推定精度を向上させることが可能な覚醒度推定装置及び方法を提供することにある。   The present invention has been made to solve such a conventional problem, and an object thereof is to be awakening capable of improving the estimation accuracy of the awakening degree when an eye is erroneously detected. An object is to provide a degree estimation apparatus and method.

本発明に係る覚醒度推定装置は、眼検出手段と、開閉眼判定手段と、覚醒度推定手段とを備えている。眼検出手段は被検出者の顔を含む画像データを入力し、この画像から被検出者の眼を検出するものである。開閉眼判定手段は、眼検出手段により検出された眼について開閉眼を判定するものである。覚醒度推定手段は、開閉眼判定手段により判定された開閉眼判定結果に基づいて、被検出者の覚醒度を推定するものである。さらに、眼検出手段は、検出した被検出者の眼が誤検出によるものかを判断し、覚醒度推定手段は、開閉眼判定手段により判定された開閉眼判定結果に加えて、眼検出手段による誤検出判断結果に基づいて、被検出者の覚醒度を推定する。   The arousal level estimation apparatus according to the present invention includes eye detection means, open / closed eye determination means, and arousal level estimation means. The eye detection means inputs image data including the face of the person to be detected, and detects the eye of the person to be detected from this image. The open / close eye determination means determines the open / close eye for the eye detected by the eye detection means. The arousal level estimation means estimates the awakening level of the detected person based on the open / closed eye determination result determined by the open / close eye determination means. Further, the eye detection means determines whether the detected eye of the detected person is due to erroneous detection, and the arousal level estimation means uses the eye detection means in addition to the opening / closing eye determination result determined by the opening / closing eye determination means. Based on the erroneous detection determination result, the awakening level of the detected person is estimated.

本発明によれば、検出された眼について開閉眼を判定し、判定された開閉眼判定結果に基づいて被検出者の覚醒度を推定するため、閉眼が頻繁に出現するときなどに覚醒度の低下を推定することができる。さらに、検出した被検出者の眼が誤検出によるものかを判断し、眼が誤検出によるものかの判断結果に基づいて、被検出者の覚醒度を推定する。このため、例えば、眼鏡のフレームや眉などを眼であると誤って検出した場合には、その誤検出の情報を加味して覚醒度を推定することができる。従って、眼を誤検出してしまった場合において覚醒度の推定精度を向上させることができる。   According to the present invention, the open / closed eye is determined for the detected eye, and the arousal level of the detected person is estimated based on the determined open / closed eye determination result. The decrease can be estimated. Furthermore, it is determined whether the detected eye of the detected person is due to erroneous detection, and the degree of arousal of the detected person is estimated based on the determination result of whether the eye is due to erroneous detection. For this reason, for example, when a frame of eyeglasses or an eyebrow is erroneously detected as an eye, the arousal level can be estimated in consideration of the erroneous detection information. Therefore, when the eye is erroneously detected, the estimation accuracy of the arousal level can be improved.

以下、本発明の好適な実施形態を図面に基づいて説明する。なお、以下の実施形態では、覚醒度推定装置を車両に搭載した場合を例に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the drawings. In the following embodiments, a case where the awakening level estimation device is mounted on a vehicle will be described as an example.

図1は、本発明の実施形態に係るの覚醒度推定システム1のハード構成図である。同図に示すように、本実施形態の覚醒度推定システム1は、被検出者の眼の閉眼頻度から被検出者の覚醒度を推定するものであって、好適には車両運転者の覚醒度を推定するものとして利用される。以下、車両運転者の覚醒度を推定する覚醒度推定システム1を例に説明する。   FIG. 1 is a hardware configuration diagram of an arousal level estimation system 1 according to an embodiment of the present invention. As shown in the figure, the arousal level estimation system 1 of the present embodiment estimates the arousal level of the detected person from the eye-closing frequency of the detected person's eyes, and preferably the arousal level of the vehicle driver. Is used as an estimate. Hereinafter, a wakefulness level estimation system 1 that estimates the wakefulness level of a vehicle driver will be described as an example.

覚醒度推定システム1は、カメラ10と、照明装置20と、覚醒度推定装置30とからなっている。カメラ10は、被検出者である車両運転者の顔を撮影するものであって、運転者の顔のほぼ全体が撮像可能に運転者の正面下方すなわち運転席前の計器類の近傍に設置されている。このカメラ10は、例えばCCDやC−MOSなどの撮像素子を用いた構成となっている。また、カメラ10は、運転者の顔を撮影するとビデオ信号として出力する構成となっている。   The awakening level estimation system 1 includes a camera 10, a lighting device 20, and an awakening level estimation device 30. The camera 10 shoots the face of a vehicle driver who is a person to be detected, and is installed near the instrument in front of the driver, that is, in front of the driver's seat so that almost the entire face of the driver can be captured. ing. The camera 10 has a configuration using an image sensor such as a CCD or C-MOS. The camera 10 is configured to output a video signal when the driver's face is photographed.

照明装置20は、カメラ10の近傍に設けられ、運転者の顔を照らすように光を出射可能となっている。この照明装置20は、運転者が運転中に眩しくならないように、例えば白色光でなく赤外光を出射する構成となっている。   The illumination device 20 is provided in the vicinity of the camera 10 and can emit light so as to illuminate the driver's face. The lighting device 20 is configured to emit, for example, infrared light instead of white light so that the driver does not dazzle during driving.

覚醒度推定装置30は、カメラ10からのビデオ信号を入力すると、入力したビデオ信号を解析し、被検出者の眼の閉眼頻度を判断して覚醒度を推定するものである。また、覚醒度推定装置30は、覚醒度を推定すると、その情報を覚醒度信号として出力する構成となっている。この覚醒度信号は例えば報知装置に接続されている。報知装置は、オーディオ機器などを制御して警告音、音楽及び音声等を出力して覚醒度の低下等を報知する構成となっている。また、報知装置は、LEDや液晶モニタなどの表示により運転者に報知する構成とされていてもよいし、シートベルトやエアコンを制御して運転者に報知する構成とされていてもよい。さらに、報知装置は、シートやハンドルに振動を与えることにより運転者に報知する構成とされていてもよいし、パワーウインドウの開閉制御やアクセル又はブレーキ制御などにより運転者に報知する構成とされていてもよい。   When the video signal from the camera 10 is input, the arousal level estimation device 30 analyzes the input video signal, determines the eye closure frequency of the detected person's eyes, and estimates the arousal level. Further, the awakening level estimation device 30 is configured to output the information as a waking level signal when the awakening level is estimated. This arousal level signal is connected to, for example, a notification device. The notification device is configured to notify a decrease in arousal level or the like by outputting an alarm sound, music, voice, or the like by controlling an audio device or the like. In addition, the notification device may be configured to notify the driver by display such as an LED or a liquid crystal monitor, or may be configured to notify the driver by controlling a seat belt or an air conditioner. Furthermore, the notification device may be configured to notify the driver by applying vibration to the seat or the handle, or configured to notify the driver by power window opening / closing control, accelerator or brake control, or the like. May be.

図2は、図1に示した覚醒度推定装置30の詳細構成図である。同図に示すように、覚醒度推定装置30は、顔画像取得部31、眼検出部(眼検出手段)32、開閉眼判定部(開閉眼判定手段)33、覚醒度判定部(覚醒度判定手段)34、開閉判定結果処理部(遅延出力手段)35、処理状態出力部36、及び覚醒度信号出力部37を備えている。   FIG. 2 is a detailed configuration diagram of the arousal level estimation apparatus 30 shown in FIG. As shown in the figure, the arousal level estimation device 30 includes a face image acquisition unit 31, an eye detection unit (eye detection unit) 32, an open / closed eye determination unit (open / closed eye determination unit) 33, and an arousal level determination unit (wake level determination). Means) 34, an open / close determination result processing unit (delay output unit) 35, a processing state output unit 36, and a wakefulness signal output unit 37.

顔画像取得部31は、カメラ10からのビデオ信号を入力して、ビデオ信号から運転者の顔を含む画像(以下顔画像という)のデータを取得するものである。   The face image acquisition unit 31 receives a video signal from the camera 10 and acquires data of an image including the driver's face (hereinafter referred to as a face image) from the video signal.

眼検出部32は、顔画像取得部31により取得された顔画像のデータを入力し、この顔画像から運転者の眼を検出するものである。ここで、眼検出部32は、眼位置検出部(第1検出手段)32aと、眼位置追跡部(第2検出手段)32bとからなっている。眼位置検出部32aは、顔画像全体から運転者の眼を検出するものである。眼位置追跡部32bは、顔画像の一部領域から運転者の眼を検出するものである。   The eye detection unit 32 receives the face image data acquired by the face image acquisition unit 31 and detects the driver's eyes from the face image. Here, the eye detection unit 32 includes an eye position detection unit (first detection unit) 32a and an eye position tracking unit (second detection unit) 32b. The eye position detection unit 32a detects the driver's eyes from the entire face image. The eye position tracking unit 32b detects the driver's eyes from a partial region of the face image.

より詳しく説明すると、眼位置検出部32aは、運転者の眼の位置が検出できていない場合に顔画像全体から眼の位置を検出するものであり、眼位置追跡部32bは、前回処理サイクルにおいて眼が検出されていた場合に、その眼の位置を含んで一部領域を設定し、その領域内から眼の位置を検出するものである。このため、本装置1は、少なくとも一度は画像全体に対して処理を行うものの、一度眼が検出されると、その後は画像の一部に対して処理を行うこととなり、常に画像全体に処理を行う場合に比して、迅速な処理を行うことができるようになっている。   More specifically, the eye position detection unit 32a detects the eye position from the entire face image when the driver's eye position cannot be detected, and the eye position tracking unit 32b When an eye is detected, a partial area is set including the position of the eye, and the position of the eye is detected from within the area. For this reason, the apparatus 1 performs processing on the entire image at least once, but once the eye is detected, the processing is performed on a part of the image, and the processing is always performed on the entire image. Compared with the case where it carries out, a quick process can be performed now.

開閉眼判定部33は、眼検出部32により検出された眼について開閉眼を判定するものである。この開閉眼判定部33は、眼検出部32により検出された眼の縦幅に基づいて眼の開閉眼を判定するようになっている。ここで、開閉眼判定部33は、開閉眼学習部(閾値設定手段)33aと、開閉眼決定部(開閉眼決定手段)33bとを有している。   The open / close eye determination unit 33 determines the open / close eye for the eye detected by the eye detection unit 32. The open / close eye determination unit 33 determines the open / closed eye of the eye based on the vertical width of the eye detected by the eye detection unit 32. Here, the open / close eye determination unit 33 includes an open / close eye learning unit (threshold setting unit) 33a and an open / close eye determination unit (open / close eye determination unit) 33b.

開閉眼学習部33aは、眼検出部32により検出された眼の縦幅を計測して開閉眼を判断するための閾値を設定するものである。開閉眼決定部33bは、眼検出部32により検出された眼の縦幅が開閉眼学習部33aにより設定された閾値以上の場合に開眼と決定し、
閾値未満の場合に閉眼と決定するものである。
The open / close eye learning unit 33a measures the vertical width of the eye detected by the eye detection unit 32 and sets a threshold value for determining the open / closed eye. The open / close eye determination unit 33b determines that the eye is open when the vertical width of the eye detected by the eye detection unit 32 is equal to or greater than the threshold set by the open / close eye learning unit 33a.
When it is less than the threshold value, it is determined that the eye is closed.

このように、開閉眼判定部33は、眼の縦幅を計測し、計測した眼の縦幅に基づいて開閉眼を決定するための閾値を設定するため、運転者個人の眼の縦幅を学習したうえで、適切な閾値を設定できることとなる。   Thus, the open / close eye determination unit 33 measures the vertical width of the eye and sets the threshold for determining the open / closed eye based on the measured vertical width of the eye. An appropriate threshold value can be set after learning.

覚醒度推定部34は、開閉眼判定部33により判定された開閉眼判定結果に基づいて、運転者の覚醒度を推定するものである。例えば、覚醒度推定部34は、開閉眼判定部33により運転者の閉眼割合が高いと判定された場合、覚醒度の低下を推定することとなる。   The arousal level estimation unit 34 estimates the driver's arousal level based on the open / closed eye determination result determined by the open / closed eye determination unit 33. For example, the arousal level estimation unit 34 estimates a decrease in the arousal level when the open / closed eye determination unit 33 determines that the driver's closed eye ratio is high.

また、上記した眼検出部32は、検出した眼が誤検出によるものか判断する機能を有している。例えば、眼検出部32は、検出した左右の眼の距離が短すぎる場合や、検出した眼の画像上方に眉が存在しない場合などに、検出した眼が誤検出によるものと判断する。さらに、眼検出部32は、検出した眼が誤検出によるものと判断した場合、その旨の情報を覚醒度推定部34に出力する。これにより、本実施形態の覚醒度推定部34は、開閉眼判定部33により判定された開閉眼判定結果に加えて、眼検出部32による誤検出判断結果に基づいて、運転者の覚醒度を推定することとなる。すなわち、本実施形態の覚醒度推定装置30は、誤検出の情報を加味したうえで覚醒度を推定することとなり、推定精度の向上を図ることができるようになっている。   Further, the eye detection unit 32 described above has a function of determining whether the detected eye is due to erroneous detection. For example, when the distance between the detected left and right eyes is too short, or when the eyebrows are not present above the detected eye image, the eye detection unit 32 determines that the detected eye is due to erroneous detection. Further, when it is determined that the detected eye is due to erroneous detection, the eye detection unit 32 outputs information to that effect to the awakening level estimation unit 34. Thereby, the arousal level estimation unit 34 of the present embodiment determines the driver's arousal level based on the erroneous detection determination result by the eye detection unit 32 in addition to the open / closed eye determination result determined by the open / closed eye determination unit 33. Will be estimated. That is, the arousal level estimation device 30 of the present embodiment estimates the arousal level in consideration of erroneous detection information, and can improve the estimation accuracy.

より詳しく説明すると、眼検出部32は、検出した眼が誤検出によるものであると判断するための条件と、その条件が成立した場合に誤検出と判断すべき画像数とを記憶している。ここで、或る画像から眼の誤検出が判断された場合、その画像以前から眼を誤検出している可能性が高い。このため、眼検出部32は、誤検出の条件成立時には誤検出と判断すべき数の画像(誤検出と判断すべき画像数分の画像)に基づく眼の開閉眼判定結果が誤りであるとの情報を、覚醒度推定部34に出力する。これにより、覚醒度推定部34は、一層適切に覚醒度を推定できることとなる。   More specifically, the eye detection unit 32 stores a condition for determining that the detected eye is due to erroneous detection, and the number of images to be determined as erroneous detection when the condition is satisfied. . Here, when it is determined that an eye is erroneously detected from an image, there is a high possibility that the eye has been erroneously detected before that image. For this reason, the eye detection unit 32 determines that the eye open / closed eye determination result based on the number of images that should be determined as erroneous detection (images corresponding to the number of images that should be determined as erroneous detection) is incorrect when the erroneous detection condition is satisfied. Is output to the arousal level estimation unit 34. Thereby, the arousal level estimation unit 34 can estimate the awakening level more appropriately.

ここで、誤検出の例を示す。図3は、誤検出の例を示す説明図であり、(a)は第1の例を示し、(b)は第2の例を示している。図3(a)に示すように、例えば、車両運転者が眼鏡を掛けている場合、本装置30は眼鏡のフレームを眼であると誤検出することがある。さらに、図3(b)に示すように本装置30は運転者の眉を眼であると誤検出することがある。このような場合に誤検出を判断するために、眼検出部32は検出した眼が誤検出によるものであると判断するための条件(図18参照)を記憶している。   Here, an example of erroneous detection will be shown. FIG. 3 is an explanatory diagram illustrating an example of erroneous detection, where (a) illustrates a first example and (b) illustrates a second example. As shown in FIG. 3A, for example, when the vehicle driver is wearing glasses, the device 30 may erroneously detect that the glasses frame is an eye. Further, as shown in FIG. 3B, the device 30 may erroneously detect that the driver's eyebrows are eyes. In order to determine erroneous detection in such a case, the eye detection unit 32 stores a condition (see FIG. 18) for determining that the detected eye is due to erroneous detection.

なお、参考として図4を示す。図4は、開閉眼の誤判定の例を示す説明図であり、(a)は第1の例を示し、(b)は第2の例を示している。図4(a)及び(b)において、運転者の顔の向きが傾いている(運転者が左右に顔を向けている)ときには開眼を閉眼と誤って判定してしまう可能性が高まることを付け加えておく。   FIG. 4 is shown as a reference. FIG. 4 is an explanatory diagram illustrating an example of erroneous determination of the open / closed eyes, where (a) illustrates a first example and (b) illustrates a second example. 4 (a) and 4 (b), when the driver's face is tilted (the driver turns his / her face to the left and right), the possibility of erroneously determining that the eyes are open is increased. I'll add it.

再度、図2を参照する。開閉判定結果処理部35は、開閉眼判定部33により判定された開閉眼判定結果を入力し、所定時間遅延させて覚醒度推定部34に出力するものである。すなわち、開閉眼判定部33により判定された開閉眼判定結果は、開閉判定結果処理部35によって直ちに覚醒度推定部34に入力されなくなり、所定時間経過後でなければ覚醒度推定に用いられないこととなる。上記眼検出部32は、この所定時間の遅延の間に、検出した運転者の眼が誤検出によるものかを判断する構成となっている。すなわち、本実施形態に係る覚醒度推定装置30は、開閉判定結果処理部35による遅延によって、開閉眼判定結果が直ちに覚醒度推定に用いられることを防止し、確実に誤検出か否かを加味した覚醒度推定を行うようにしている。   Reference is again made to FIG. The open / closed determination result processing unit 35 inputs the open / closed eye determination result determined by the open / closed eye determination unit 33, delays it for a predetermined time, and outputs it to the arousal level estimation unit 34. That is, the opening / closing eye determination result determined by the opening / closing eye determination unit 33 is not immediately input to the awakening level estimation unit 34 by the opening / closing determination result processing unit 35, and is not used for the awakening level estimation unless a predetermined time has elapsed. It becomes. The eye detection unit 32 is configured to determine whether the detected driver's eyes are due to erroneous detection during the predetermined time delay. That is, the arousal level estimation apparatus 30 according to the present embodiment prevents the open / closed eye determination result from being immediately used for the awakening level estimation due to the delay by the open / close determination result processing unit 35, and considers whether or not it is erroneously detected. The arousal level is estimated.

処理状態出力部36は、各部31〜35の作動状況等に応じて覚醒度推定装置30の状態を判断し、判断した状態の情報を出力するものである。具体的に処理状態出力部36は、少なくとも「検出中」「学習中」及び「推定中」の3つの状態を判別し、出力するようになっている。ここで、「検出中」とは、顔画像全体から眼の検出を行っている状態をいう。「学習中」とは、開閉眼を決定する閾値を学習している状態をいう。「推定中」とは、運転者の覚醒度を推定している状態をいう。   The processing state output unit 36 determines the state of the arousal level estimation device 30 according to the operating state of each unit 31 to 35 and outputs information on the determined state. Specifically, the processing state output unit 36 determines and outputs at least three states of “being detected”, “learning”, and “being estimated”. Here, “being detected” means a state where eyes are detected from the entire face image. “Learning” means a state in which a threshold value for determining an open / closed eye is learned. “During estimation” means a state in which the driver's arousal level is estimated.

覚醒度信号出力部37は、覚醒度推定部34によって推定された覚醒度の情報から、覚醒度信号を生成して出力するものである。この覚醒度信号出力部37は、上記したように、報知装置などに覚醒度信号を出力することとなる。   The arousal level signal output unit 37 generates and outputs an arousal level signal from the information on the arousal level estimated by the arousal level estimation unit 34. As described above, the awakening level signal output unit 37 outputs the awakening level signal to a notification device or the like.

次に、本実施形態に係る覚醒度推定装置30の動作の概略を説明する。図5は、本実施形態に係る覚醒度推定装置30の動作を示す説明図であり、(a)は状態遷移図であり、(b)は本装置30が「検出中」であるときの各部31〜37の動作の様子を示している。また、(c)は本装置30が「学習中」であるときの各部31〜37の動作の様子を示し、(d)は本装置30が「推定中」であるときの各部31〜37の動作の様子を示している。   Next, an outline of the operation of the arousal level estimation apparatus 30 according to the present embodiment will be described. FIG. 5 is an explanatory diagram showing the operation of the arousal level estimation apparatus 30 according to the present embodiment, where (a) is a state transition diagram, and (b) is each part when the apparatus 30 is “detecting”. The mode of operation | movement of 31-37 is shown. (C) shows the behavior of the units 31 to 37 when the device 30 is “learning”, and (d) shows the operations of the units 31 to 37 when the device 30 is “estimating”. The state of operation is shown.

まず、車両のイグニッションスイッチがオンされると、覚醒度推定装置30が起動して、図5(a)に示す「検出中」の状態Aとなる。この状態Aにおいて覚醒度推定装置30は顔画像全体から車両運転者の眼の検出を行う。そして、覚醒度推定装置30は検出が完了するまでこの状態を繰り返す。このとき、図5(b)に示すように、覚醒度推定装置30のうち顔画像取得部31、眼位置検出部32a及び処理状態出力部36が作動することで、眼の検出が行われることとなる。そして、眼が検出されると、状態Aから他の状態B,Cへ移行することとなる。   First, when the ignition switch of the vehicle is turned on, the arousal level estimation device 30 is activated, and the state A is “detecting” shown in FIG. In this state A, the arousal level estimation device 30 detects the eyes of the vehicle driver from the entire face image. And the awakening degree estimation apparatus 30 repeats this state until detection is completed. At this time, as shown in FIG. 5B, the eye detection is performed by operating the face image acquisition unit 31, the eye position detection unit 32 a, and the processing state output unit 36 of the arousal level estimation device 30. It becomes. And if an eye is detected, it will transfer from the state A to the other states B and C.

「検出中」の状態Aにおいて眼が検出されると、眼の学習が完了していない場合、覚醒度推定装置30は「学習中」の状態Bとなり、眼の学習(すなわち閾値の設定)を行う。そして、覚醒度推定装置30は学習が完了するまでこの状態を繰り返す。このとき、図5(c)に示すように、覚醒度推定装置30のうち顔画像取得部31、眼位置追跡部32b、開閉眼学習部33a及び処理状態出力部36が作動することで、眼の学習が行われることとなる。そして、学習が完了すると、状態Bから「推定中」の状態Cへ移行することとなる。他方、眼の学習中において、眼を完全に見失った場合、覚醒度推定装置30は、再度「検出中」の状態Aに遷移する。   If the eye is detected in the “detecting” state A and the eye learning is not completed, the wakefulness estimation device 30 enters the “learning” state B, and the eye learning (that is, threshold setting) is performed. Do. And the arousal level estimation apparatus 30 repeats this state until learning is completed. At this time, as shown in FIG. 5C, the face image acquisition unit 31, the eye position tracking unit 32b, the open / closed eye learning unit 33a, and the processing state output unit 36 of the arousal level estimation device 30 are activated, Will be learned. When the learning is completed, the state B is shifted to the “estimating” state C. On the other hand, if the eye is completely lost during eye learning, the arousal level estimation device 30 transitions to the “detecting” state A again.

「検出中」の状態Aにおいて眼が検出され眼の学習が完了している場合、又は「学習中」の状態Bにおいて眼の学習が完了した場合、覚醒度推定装置30は図5(a)に示す「推定中」の状態Cとなり、運転者の覚醒度の推定を行う。その後、覚醒度推定装置30は、覚醒度の推定を繰り返し行う。そして、覚醒度信号出力部37は覚醒度信号を報知装置などに出力することとなる。なお、状態Cにおいては、図5(d)に示すように、覚醒度推定装置30のうち顔画像取得部31、眼位置追跡部32b、開閉眼学習部33a、開閉眼決定部33b、覚醒度推定部34、開閉判定結果処理部35、処理状態出力部36、及び覚醒度信号出力部37が作動することとなる。また、覚醒度推定装置30は、覚醒度の推定中において眼を完全に見失った場合、再度「検出中」の状態Aに遷移する。   When the eye is detected in the “detecting” state A and the eye learning is completed, or when the eye learning is completed in the “learning” state B, the wakefulness estimation device 30 is configured as shown in FIG. The state C is in the “estimating” state shown in FIG. 5 and the driver's arousal level is estimated. Thereafter, the awakening level estimation device 30 repeatedly estimates the awakening level. Then, the arousal level signal output unit 37 outputs the arousal level signal to a notification device or the like. In the state C, as shown in FIG. 5D, the face image acquisition unit 31, the eye position tracking unit 32b, the open / closed eye learning unit 33a, the open / closed eye determination unit 33b, and the arousal level in the awakening level estimation device 30. The estimation unit 34, the open / close determination result processing unit 35, the processing state output unit 36, and the arousal level signal output unit 37 are activated. Also, the awakening level estimation device 30 transitions to the “detecting” state A again when the eye is completely lost during the estimation of the awakening level.

次に、本発明の実施形態に係る覚醒度推定方法を説明する。図6は、本実施形態に係る覚醒度推定方法の詳細を示すフローチャートである。まず、覚醒度推定装置30は、カメラ10からビデオ信号を入力する。そして、図6に示すように、眼検出部32は前回処理において眼が検出されていたか否かを判断する(ST1)。ここで、前回処理において眼が検出されていなかった場合(ST1:NO)、眼検出部32の眼位置検出部32aは眼検出処理を実行する(ST2)。   Next, the arousal level estimation method according to the embodiment of the present invention will be described. FIG. 6 is a flowchart showing details of the arousal level estimation method according to the present embodiment. First, the arousal level estimation device 30 receives a video signal from the camera 10. And as shown in FIG. 6, the eye detection part 32 judges whether the eye was detected in the last process (ST1). Here, when the eye has not been detected in the previous process (ST1: NO), the eye position detection unit 32a of the eye detection unit 32 executes the eye detection process (ST2).

図7〜図9は、図6に示した眼検出処理(ST2)の概要を示す説明図であり、図7は眼検出部32が入力する画像データの一例を示す説明図であり、図8は、図7に示す画像縦方向の画素列Ybの濃度値を示すグラフであり、図9は、眼の検出の様子を示す説明図である。   7 to 9 are explanatory views showing an outline of the eye detection process (ST2) shown in FIG. 6, and FIG. 7 is an explanatory view showing an example of image data input by the eye detecting unit 32. FIG. FIG. 9 is a graph showing the density value of the pixel column Yb in the vertical direction of the image shown in FIG. 7, and FIG. 9 is an explanatory diagram showing how the eye is detected.

眼位置検出部32aは、図7に示すような画像を入力すると、画像の縦方向の画素列(縦ライン)に沿って画素の濃度を検出し、前記画素列における濃度の局所的な高まりごとに1個ずつの要素を定めて抽出点とする。そして、眼位置検出部32aは、画像縦方向の画素列の全ラインについて抽出点を定める。   When the image as shown in FIG. 7 is input, the eye position detection unit 32a detects the pixel density along the vertical pixel column (vertical line) of the image, and each local increase in density in the pixel column. Each element is defined as an extraction point. Then, the eye position detection unit 32a determines extraction points for all lines in the pixel column in the vertical direction of the image.

ここで、図8に示すように、画像縦方向の画素列Ybの濃度値は、眼や眼鏡枠や口の部分で局所的に低下している。このため、眼位置検出部32aは、Ybラインについて、眼や眼鏡枠や口部分の画素を抽出点として定めることとなる。   Here, as shown in FIG. 8, the density value of the pixel column Yb in the vertical direction of the image is locally reduced at the eye, the spectacle frame, and the mouth. For this reason, the eye position detection unit 32a determines the pixels of the eye, the spectacle frame, and the mouth portion as extraction points for the Yb line.

その後、眼位置検出部32aは、抽出点を集合させた画素群を得る。これにより、眼、眼鏡枠、及び口付近に画素群が得られる。ここで、眼は、横方向に延びる形状を為している。このため、図9に示す眼の画素群は、形状的に画像横方向に連なるものとなる。よって、眼位置検出部32aは、横方向に延びる画素群を選択することで、眼の画素群を抽出することができる。なお、眼鏡枠なども横方向に延びるものであるため、眼位置検出部32aは、より正確には予め設定される眼の長さや、眼が左右対称であることを利用して、眼を特定してもよい。また、眼位置検出部32aは、テンプレートマッチング処理を併用するようにしても良い。   Thereafter, the eye position detection unit 32a obtains a pixel group in which the extraction points are assembled. Thereby, a pixel group is obtained near the eye, the spectacle frame, and the mouth. Here, the eye has a shape extending in the lateral direction. For this reason, the eye pixel group shown in FIG. 9 is continuous in the horizontal direction of the image in shape. Therefore, the eye position detection unit 32a can extract the eye pixel group by selecting the pixel group extending in the horizontal direction. Note that the eyeglass frame and the like also extend in the horizontal direction, so the eye position detection unit 32a more accurately specifies the eye by using the preset eye length and the left-right symmetry. May be. Further, the eye position detection unit 32a may use a template matching process together.

このように、眼位置検出部32aは、顔画像全体から眼を検出する。図10は、図6に示した眼検出処理(ST2)の詳細を示すフローチャートである。なお、本実施形態において、眼位置検出部32aは、まず片眼の位置を検出し、その後検出した片眼をもとに両眼を検出するようになっている。従って、初期的には片眼の位置検出が実行される。   In this way, the eye position detection unit 32a detects the eyes from the entire face image. FIG. 10 is a flowchart showing details of the eye detection process (ST2) shown in FIG. In the present embodiment, the eye position detection unit 32a first detects the position of one eye, and then detects both eyes based on the detected one eye. Accordingly, the position detection of one eye is initially executed.

図10に示すように、まず、眼位置検出部32aは、片眼候補検出を行うか、両眼確定処理を行うを判断する(ST21)。ここで、片眼候補検出を行うと判断した場合(ST21:片眼候補検出)、眼位置検出部32aは片眼候補検出用の処理エリアを顔画像上に設ける(ST22)。   As shown in FIG. 10, first, the eye position detection unit 32a determines whether to perform one-eye candidate detection or to perform binocular determination processing (ST21). If it is determined that single eye candidate detection is to be performed (ST21: single eye candidate detection), the eye position detection unit 32a provides a single eye candidate detection processing area on the face image (ST22).

図11は、図6に示した眼検出処理(ST2)の詳細を示す説明図であり、(a)は片眼候補検出用の処理エリアを示しており、(b)は検出された連続データ等を示し、(c)は両眼確定用の処理エリアを示している。図11(a)に示すように、眼位置検出部32aは顔画像上に片眼候補検出用の処理エリアを設定する。この処理エリアは、例えば画像の右半分又は左半分に設定される。   FIG. 11 is an explanatory diagram showing details of the eye detection process (ST2) shown in FIG. 6, where (a) shows a processing area for detecting one eye candidate, and (b) shows detected continuous data. (C) shows a processing area for binocular determination. As shown in FIG. 11A, the eye position detection unit 32a sets a processing area for detecting one eye candidate on the face image. This processing area is set, for example, in the right half or the left half of the image.

再度、図10を参照する。処理エリアを設定した後、眼位置検出部32aは処理エリア内から連続データを求める(ST23)。このとき、眼位置検出部32aは、図7〜図9を参照して説明したようにして連続データを求める。なお、図11に示す例において、眼位置検出部32aは、10画素間隔で縦方向の画素列ごとに抽出点を定めている。   Refer to FIG. 10 again. After setting the processing area, the eye position detection unit 32a obtains continuous data from within the processing area (ST23). At this time, the eye position detection unit 32a obtains continuous data as described with reference to FIGS. In the example illustrated in FIG. 11, the eye position detection unit 32a determines extraction points for each pixel column in the vertical direction at intervals of 10 pixels.

その後、眼位置検出部32aは、片眼候補の絞り込みを行う(ST24)。すなわち、眼位置検出部32aは、図11(b)に示すように、複数の連続データから眼である連続データを絞り込む。このとき、眼位置検出部32aは、上瞼については上に凸の形状を元に眼である連続データを絞り込む。また、眼位置検出部32aは、上記したように予め定めた眼の長さや、左右対称性から連続データを絞り込むようにしてもよい。ここで、図11(b)に示す例では、連続データG1,G2のうち上に凸である連続データG1が眼の連続データとして絞り込まれることとなる。   Thereafter, the eye position detection unit 32a narrows down one eye candidates (ST24). That is, as shown in FIG. 11B, the eye position detection unit 32a narrows down the continuous data for the eyes from a plurality of continuous data. At this time, the eye position detection unit 32a narrows down the continuous data of the eyes based on the upwardly convex shape for the upper eyelid. Further, the eye position detection unit 32a may narrow down the continuous data based on a predetermined eye length or left-right symmetry as described above. Here, in the example shown in FIG. 11B, the continuous data G1 that is convex upward among the continuous data G1 and G2 is narrowed down as the continuous data of the eyes.

再度、図10を参照する。片眼候補の絞り込みを行った後、眼位置検出部32aは、次フレームで片眼候補検出を行うか、両眼確定処理を行うかを判断しておく(ST25)。ここで、ステップST23,ST24の処理において、片眼候補の検出に失敗していた場合、眼位置検出部32aは次フレームで片眼候補検出を行うと判断する。一方、片眼候補の検出に成功していた場合、眼位置検出部32aは次フレームで両眼確定処理を行うと判断する。そして、処理は図6のステップST5に移行する。なお、眼位置検出部32aは、片眼候補の検出に成功していたとしても数回に亘り片眼候補の検出に成功するまでは連続して片眼候補検出を行うようにしてもよい。   Refer to FIG. 10 again. After narrowing down one eye candidate, the eye position detection unit 32a determines whether to perform one eye candidate detection or binocular confirmation processing in the next frame (ST25). Here, in the processing of steps ST23 and ST24, if the detection of one eye candidate has failed, the eye position detection unit 32a determines that one eye candidate detection is performed in the next frame. On the other hand, when the one-eye candidate has been successfully detected, the eye position detection unit 32a determines that the binocular determination process is performed in the next frame. And a process transfers to step ST5 of FIG. Note that the eye position detection unit 32a may perform one-eye candidate detection continuously until the one-eye candidate is successfully detected several times even if the one-eye candidate is successfully detected.

ところで、両眼確定処理を行うと判断した場合(ST21:両眼確定処理)、眼位置検出部32aは両眼確定用の処理エリアを顔画像上に設ける(ST22)。このとき、眼位置検出部32aは、図11(c)に示すように、先に検出した片眼の位置をもとに、顔画像上に両眼確定用の処理エリアを設定する。   When it is determined that binocular confirmation processing is to be performed (ST21: binocular confirmation processing), the eye position detection unit 32a provides a binocular confirmation processing area on the face image (ST22). At this time, as shown in FIG. 11C, the eye position detection unit 32a sets a binocular determination processing area on the face image based on the previously detected position of one eye.

次いで、眼位置検出部32aは、眼位置検出部32aは処理エリア内から連続データを求め(ST27)、両目候補の検出を行う(ST28)。このとき、眼位置検出部32aは、ステップST23,ST24と同様にして、連続データを求め且つ両眼候補の検出を行う。なお、ステップST28において、眼位置検出部32aは、パターン認識(テンプレーマッチング)を行い、両眼候補が運転者の両眼であるか否かを判定するようになっている。ここで、パターン認識に用いられるテンプレートは予め複数個登録されており、両眼であるかの判定にあたっては相互相関法が採用される。なお、眼位置検出部32aは、ニューラルネットワークを備え、ニューラルネットワークの学習を経て両眼であるかの判定を行う構成であってもよい。   Next, the eye position detection unit 32a obtains continuous data from the processing area (ST27), and detects both eye candidates (ST28). At this time, the eye position detection unit 32a obtains continuous data and detects binocular candidates as in steps ST23 and ST24. In step ST28, the eye position detection unit 32a performs pattern recognition (template matching) and determines whether or not the binocular candidate is the driver's eyes. Here, a plurality of templates used for pattern recognition are registered in advance, and a cross-correlation method is employed for determining whether the eye is binocular. The eye position detection unit 32a may include a neural network, and may determine whether the eye is a binocular through learning of the neural network.

その後、眼位置検出部32aは、次フレームで片眼候補検出を行うか、両眼確定処理を行うか、眼の追跡(すなわち一部領域からの眼の検出)を行うかを判断しておく(ST29)。ここで、ステップST27,ST28の処理において、両眼確定に失敗し且つ片眼候補の位置まで見失ったり検出した片眼候補がそもそも眼でなかったりした場合などには、眼位置検出部32aは次フレームで片眼候補検出を行うと判断する。また、両眼確定に失敗したが片眼候補の位置を見失うなどなかった場合、眼位置検出部32aは次フレームで両眼確定処理を行うと判断する。また、両眼確定に成功した場合、眼位置検出部32aは次フレームで眼の追跡を行うと判断する。そして、処理は図6のステップST5に移行する。   Thereafter, the eye position detection unit 32a determines whether to perform one-eye candidate detection in the next frame, to perform binocular confirmation processing, or to perform eye tracking (that is, eye detection from a partial area). (ST29). Here, in the processes of steps ST27 and ST28, when the binocular confirmation has failed and the one-eye candidate is lost or the detected one-eye candidate is not an eye in the first place, the eye position detection unit 32a performs the next step. It is determined that one-eye candidate detection is performed in the frame. If the binocular confirmation fails but the position of the one-eye candidate is not lost, the eye position detection unit 32a determines that the binocular confirmation process is performed in the next frame. When the binocular confirmation is successful, the eye position detection unit 32a determines that the eye is to be tracked in the next frame. And a process transfers to step ST5 of FIG.

再度、図6を参照する。図6のステップST1において、前回処理で眼が検出されていなかった場合(ST1:NO)、眼検出部32の眼位置追跡部32bは、顔部位探査領域(一部領域)を設定する(ST3)。このとき、眼位置追跡部32bは、前回検出された眼の位置を含んで、眼の位置の周囲に顔部位探査領域を設定する。図12は、眼位置追跡部32bの動作の概略を示す説明図であり、(a)は顔部位探査領域を示し、(b)は反対側の眼の検出の様子を示している。図12(a)に示すように、眼位置追跡部32bは、前回検出された一方の眼(基準眼)の位置を中心にして長方形状の顔部位探査領域を顔画像上に設定する。この顔部位探査領域は、例えば、眼全体の大きさに余裕分(例えば眼の大きさの0.5倍分)を加えた大きさとされる。   FIG. 6 will be referred to again. In step ST1 of FIG. 6, when an eye has not been detected in the previous process (ST1: NO), the eye position tracking unit 32b of the eye detection unit 32 sets a face part search region (partial region) (ST3). ). At this time, the eye position tracking unit 32b sets a face part search region around the eye position, including the previously detected eye position. 12A and 12B are explanatory diagrams showing an outline of the operation of the eye position tracking unit 32b. FIG. 12A shows a face part search area, and FIG. 12B shows how the opposite eye is detected. As shown in FIG. 12A, the eye position tracking unit 32b sets a rectangular face part search region on the face image with the position of one eye (reference eye) detected last time as the center. The face part search area is, for example, a size obtained by adding a margin (for example, 0.5 times the size of the eye) to the size of the entire eye.

図6を参照する。顔部位探査領域の設定後、眼位置追跡部32bは、眼追跡処理を実行する(ST4)。眼追跡処理では、図12(a)に示す顔部位探査領域から基準眼が検出される。そして、検出された基準眼の位置と、前回処理までに算出された眼間距離とをもとに、図12(b)に示すような他方の眼(反対眼)の顔部位探査領域が設定される。次いで、反対眼の顔部位探査領域から反対眼が検出される。   Please refer to FIG. After setting the face part exploration region, the eye position tracking unit 32b executes eye tracking processing (ST4). In the eye tracking process, the reference eye is detected from the face part search area shown in FIG. Then, based on the detected position of the reference eye and the interocular distance calculated up to the previous processing, the face part search region of the other eye (opposite eye) as shown in FIG. 12B is set. Is done. Next, the opposite eye is detected from the face region search region of the opposite eye.

図13は、図6に示した眼追跡処理(ST4)の詳細を示すフローチャートである。まず、眼位置追跡部32bは、顔部位探査領域から基準眼を検出する(ST31)。基準眼の検出は図7〜図9を参照して説明した場合と同様に行われる。その後、眼位置追跡部32bは、基準眼を検出できたか否かを判断する(ST32)。   FIG. 13 is a flowchart showing details of the eye tracking process (ST4) shown in FIG. First, the eye position tracking unit 32b detects the reference eye from the face part search region (ST31). The detection of the reference eye is performed in the same manner as described with reference to FIGS. Thereafter, the eye position tracking unit 32b determines whether or not the reference eye has been detected (ST32).

基準眼を検出できたと判断した場合(ST32:YES)、処理はステップST37に移行する。一方、基準眼を検出できなかったと判断した場合(ST32:NO)、眼位置追跡部32bは、反対眼を基準眼とし(ST33)、その基準眼を検出する(ST34)。そして、眼位置追跡部32bは、基準眼を検出できたか否かを判断する(ST35)。   If it is determined that the reference eye has been detected (ST32: YES), the process proceeds to step ST37. On the other hand, when it is determined that the reference eye could not be detected (ST32: NO), the eye position tracking unit 32b sets the opposite eye as the reference eye (ST33) and detects the reference eye (ST34). Then, the eye position tracking unit 32b determines whether or not the reference eye has been detected (ST35).

ここで、基準眼を検出できなかったと判断した場合(ST35:NO)、眼位置追跡部32bは、眼の追跡に失敗したと判断し、処理は図6のステップST5に移行することとなる。他方、基準眼を検出できたと判断した場合(ST35:YES)、処理はステップST37に移行する。   If it is determined that the reference eye has not been detected (ST35: NO), the eye position tracking unit 32b determines that eye tracking has failed, and the process proceeds to step ST5 in FIG. On the other hand, if it is determined that the reference eye has been detected (ST35: YES), the process proceeds to step ST37.

ステップST37において、眼位置追跡部32bは反対眼を検出する(ST37)。そして、眼位置追跡部32bは、反対眼を検出できたか否かを判断する(ST38)。反対眼を検出できたと判断した場合(ST38:YES)、検出した眼の座標位置を基準眼及び反対眼として確定させる(ST39)。その後、処理は図6のステップST5に移行する。   In step ST37, the eye position tracking unit 32b detects the opposite eye (ST37). Then, the eye position tracking unit 32b determines whether or not the opposite eye has been detected (ST38). If it is determined that the opposite eye has been detected (ST38: YES), the coordinate position of the detected eye is determined as the reference eye and the opposite eye (ST39). Thereafter, the process proceeds to step ST5 in FIG.

一方、反対眼を検出できなかったと判断した場合(ST38:NO)、眼位置追跡部32bは、検出した基準眼の座標を基準眼の位置として確定させると共に、前回の基準眼から今回の基準眼への移動量分だけ、反対眼が移動したと仮定し、その仮定をもとに得られた位置を反対眼の位置として確定する。その後、処理は図6のステップST5に移行する。   On the other hand, when it is determined that the opposite eye could not be detected (ST38: NO), the eye position tracking unit 32b fixes the detected coordinates of the reference eye as the position of the reference eye, and changes from the previous reference eye to the current reference eye. It is assumed that the opposite eye has moved by the amount of movement to, and the position obtained based on that assumption is determined as the position of the opposite eye. Thereafter, the process proceeds to step ST5 in FIG.

図6のステップST5において、眼検出部32は、眼の検出をできたか否かを判断する(ST5)。眼の検出ができなかった場合(ST5:NO)、眼検出部32は未検出である旨の情報を覚醒度推定部34に出力する(ST6)。そして、処理は終了する。一方、眼の検出ができた場合(ST5:YES)、開閉眼判定部33は開閉眼判定を行う(ST7)。   In step ST5 of FIG. 6, the eye detection unit 32 determines whether or not the eye has been detected (ST5). When the eye cannot be detected (ST5: NO), the eye detection unit 32 outputs information indicating that the eye has not been detected to the arousal level estimation unit 34 (ST6). Then, the process ends. On the other hand, when the eye can be detected (ST5: YES), the open / close eye determination unit 33 performs open / close eye determination (ST7).

図14は、図6に示した開閉眼判定(ST7)の詳細を示すフローチャートである。図14に示すように、開閉眼判定部33は、まず、開閉診断用パラメータを設定する(ST41)。図15は、図6に示した開閉眼判定(ST7)の説明図であり、(a)は図14のステップST41の詳細を示している。図15(a)に示すように、開閉眼判定部33は、開閉診断用パラメータとして閉眼時及び開眼時の眼の上下左右端を設定する。これにより、開閉眼判定部33は、眼の画像から、開眼時及び閉眼時の双方の眼の上端、下端、右端、及び左端位置を認識できるようになる。   FIG. 14 is a flowchart showing details of the open / close eye determination (ST7) shown in FIG. As shown in FIG. 14, the open / close eye determination unit 33 first sets an open / close diagnosis parameter (ST41). FIG. 15 is an explanatory diagram of the open / close eye determination (ST7) shown in FIG. 6, and (a) shows details of step ST41 of FIG. As shown in FIG. 15A, the open / close eye determination unit 33 sets the upper, lower, left, and right ends of the eye when the eye is closed and when the eye is opened as the open / close diagnosis parameter. As a result, the open / closed eye determination unit 33 can recognize the upper end, lower end, right end, and left end positions of both eyes when the eyes are open and when the eyes are closed.

再度、図14を参照する。開閉診断用パラメータの設定後、開閉眼判定部33は、ステップST2又はステップST4において検出した眼の開度を求める(ST42)。図15(b)は図14のステップST42の詳細を示している。同図に示すように、眼の開度とは、眼の縦幅をいう。このため、開閉眼判定部33は、眼の上端及び下端位置を検出し、これら位置の差から眼の縦幅を求める。   Reference is again made to FIG. After setting the opening / closing diagnosis parameters, the opening / closing eye determination unit 33 obtains the opening degree of the eye detected in step ST2 or step ST4 (ST42). FIG. 15B shows details of step ST42 in FIG. As shown in the figure, the opening degree of the eye means the vertical width of the eye. For this reason, the open / close eye determination unit 33 detects the upper and lower positions of the eye and obtains the vertical width of the eye from the difference between these positions.

再度、図14を参照する。開度を求めた後、開閉眼判定部33は、眼が上に凸か、下に凸か、又は水平かを判断する(ST43)。次に、開閉眼判定部33は開閉学習終了か否かを判断する(ST44)。開閉学習終了でないと判断した場合(ST44:NO)、開閉眼学習部33aは、学習を行う(ST45)。このとき、開閉眼学習部33aは、ステップST43において上に凸と判断された眼の開度を学習して、開閉眼を判断するための閾値を求める。   Reference is again made to FIG. After obtaining the opening, the open / close eye determination unit 33 determines whether the eye is convex upward, convex downward, or horizontal (ST43). Next, the open / close eye determination unit 33 determines whether or not the open / close learning is finished (ST44). When it is determined that the opening / closing learning has not ended (ST44: NO), the opening / closing eye learning unit 33a performs learning (ST45). At this time, the open / close eye learning unit 33a learns the opening degree of the eye determined to be convex upward in step ST43, and obtains a threshold value for determining the open / close eye.

図16は、図15に示したステップST45の詳細を示す説明図である。同図に示すように、開閉眼学習部33aは内部にカウンタを備えており、ステップST42において検出された開度の値をカウンタに記録する。そして、カウンタへの記録後、処理は図6のステップST8に移行する。また、カウンタに記録された開度値の個数が一定量に達した場合、開閉眼学習部33aは、カウンタに記録された値のうち連続する3つの値を合計し、この合計値が一定値(図16では例えば「20」)を超える場合には、上に凸の眼から検出された開度であると判断して学習を行う。そして、開閉眼学習部33aは、学習した開度値の平均値を求め、この平均値の約30%の値を、開閉眼を判断するための閾値とする。閾値を求めた後、処理は図6のステップST8に移行する。   FIG. 16 is an explanatory diagram showing details of step ST45 shown in FIG. As shown in the figure, the open / close eye learning unit 33a includes a counter therein, and records the value of the opening detected in step ST42 in the counter. Then, after recording in the counter, the process proceeds to step ST8 in FIG. When the number of opening values recorded in the counter reaches a certain amount, the open / close eye learning unit 33a sums three consecutive values among the values recorded in the counter, and the total value is a constant value. If it exceeds (for example, “20” in FIG. 16), learning is performed by determining that the opening is detected from an upwardly convex eye. Then, the opening / closing eye learning unit 33a obtains an average value of the learned opening values, and sets a value of about 30% of the average value as a threshold for determining the opening / closing eyes. After obtaining the threshold value, the process proceeds to step ST8 in FIG.

ところで、開閉学習終了と判断した場合(ST44:YES)、開閉眼決定部33bは、ステップST42において検出された開度と閾値を比較し、開度が閾値以上の場合に開眼と決定し、開度が閾値未満の場合に閉眼と決定する。図17は、図15に示したステップST45の詳細を示す第2の説明図である。同図に示すように、開度が閾値を下回る場合を閉眼と決定することとなる。そして、開閉眼の決定後、処理は図6のステップST8に移行する。   By the way, when it is determined that the learning of opening / closing has been completed (ST44: YES), the opening / closing eye determination unit 33b compares the opening detected in step ST42 with the threshold, and determines that the opening is open when the opening is equal to or greater than the threshold. When the degree is less than the threshold, it is determined that the eyes are closed. FIG. 17 is a second explanatory diagram showing details of step ST45 shown in FIG. As shown in the figure, the case where the opening degree is lower than the threshold value is determined to be closed. Then, after the opening / closing eye is determined, the process proceeds to step ST8 in FIG.

なお、このステップST7の処理において得られた開閉眼判定結果は、上記したように直ちに覚醒度推定部34に出力されるわけでなく、(後述のステップST12に示すように)所定時間遅延されて覚醒度推定部34に出力されることとなる。   The opening / closing eye determination result obtained in step ST7 is not immediately output to the arousal level estimation unit 34 as described above, but is delayed for a predetermined time (as shown in step ST12 described later). It will be output to the arousal level estimation unit 34.

図6を参照する。ステップST8において、開閉眼判定部33は、学習が完了しているか否かを判断する(ST8)。学習が完了していない場合(ST8:NO)、処理は終了する。一方、学習が終了している場合(ST8:YES)、眼検出部32は誤検出判断を行う(ST9)。このとき、眼検出部32は、上記したように、検出した左右の眼の距離が短すぎる場合や、検出した眼の画像上方に眉が存在しない場合などに、誤検出と判断する。   Please refer to FIG. In step ST8, the open / close eye determination unit 33 determines whether learning has been completed (ST8). If learning has not been completed (ST8: NO), the process ends. On the other hand, if the learning has been completed (ST8: YES), the eye detection unit 32 makes an erroneous detection determination (ST9). At this time, as described above, the eye detection unit 32 determines that the detection is erroneous when the distance between the detected left and right eyes is too short, or when the eyebrows are not present above the detected eye image.

図18は、図6に示したステップST8の詳細を示す説明図である。図18に示すように、眼検出部32は検出した眼が誤検出によるものであると判断する条件2〜8のいずれか1つ以上が成立するときに、誤検出と判断する。そして、眼検出部32は誤検出を判断した場合、その旨の情報を覚醒度推定部34に出力する。また、眼検出部32は、誤検出である画像を画像数の情報をもとに特定し、それら画像から得られた開閉眼判定結果が誤りであるとの情報を覚醒度推定部34に出力する。   FIG. 18 is an explanatory diagram showing details of step ST8 shown in FIG. As illustrated in FIG. 18, the eye detection unit 32 determines that a false detection has occurred when any one or more of the conditions 2 to 8 for determining that the detected eye is due to a false detection are satisfied. When the eye detection unit 32 determines erroneous detection, the eye detection unit 32 outputs information to that effect to the awakening level estimation unit 34. Further, the eye detection unit 32 identifies images that are erroneously detected based on the information on the number of images, and outputs information that the open / closed eye determination result obtained from these images is incorrect to the arousal level estimation unit 34. To do.

さらに、眼検出部32は、ステップST8において眼の未検出についても判断する。具体的には、図18の条件1、条件9〜13の成立時に眼の未検出、すなわち眼の検出自体を行えない状態と判断する。なお、未検出判断はステップST8において実行されてもよいが、上記したステップST2やステップST4において実行されてもよい。   Furthermore, the eye detection unit 32 determines whether or not an eye has not been detected in step ST8. Specifically, when the condition 1 and the conditions 9 to 13 in FIG. 18 are satisfied, it is determined that the eye is not detected, that is, the eye cannot be detected. The undetected determination may be executed in step ST8, but may be executed in the above-described step ST2 or step ST4.

図6を参照する。誤検出判断の後、開閉判定結果処理部35は、置き換えを要するか否かを判断する(ST10)。ここで、置き換えについて説明する。図19は、図6に示した置き換え判断(ST10)の詳細を示す説明図であり、(a)は置き換え要の場合を示し、(b)は置き換え不要の場合を示している。   Please refer to FIG. After the erroneous detection determination, the open / close determination result processing unit 35 determines whether or not replacement is required (ST10). Here, the replacement will be described. FIG. 19 is an explanatory diagram showing details of the replacement determination (ST10) shown in FIG. 6, in which (a) shows a case where replacement is necessary, and (b) shows a case where replacement is not necessary.

具体的に開閉判定結果処理部35は、所定時間の遅延中に入力した時系列の開閉眼判定結果が運転者の眼の不適切な開閉であって予め記憶されるパターンに該当する場合に、運転者の眼の適切な開閉であって予め記憶されるパターンに置き換えることとする。例えば、図19(a)に示すように、時系列の開閉眼判定結果が「閉眼」「開眼」「閉眼」と連続したとする。ここで、一般的に人間の眼の動きとして閉眼中に一瞬だけ開眼となり再び閉眼に戻るという動きは考えにくい。このため、開閉判定結果処理部35は「閉眼」「開眼」「閉眼」のうち「開眼」が誤りであったと判断し、「開眼」との判定結果を「閉眼」に置き換えるべきと判断する。   Specifically, the opening / closing determination result processing unit 35, when the time-series opening / closing eye determination result input during the delay of a predetermined time corresponds to a pattern stored in advance, which is inappropriate opening / closing of the driver's eyes, An appropriate opening and closing of the driver's eyes will be replaced with a previously stored pattern. For example, as illustrated in FIG. 19A, it is assumed that the time-series open / closed eye determination result continues as “closed eyes”, “open eyes”, and “closed eyes”. Here, in general, it is difficult to think of a movement of a human eye that opens for a moment during closing and returns to closing again. For this reason, the open / close determination result processing unit 35 determines that the “open eye” among the “closed eyes”, “open eyes”, and “closed eyes” is incorrect, and determines that the determination result of “open eyes” should be replaced with “closed eyes”.

また、図19(b)に示すように、時系列の開閉眼判定結果が「開眼」「閉眼」「開眼」と連続したとする。ここで、開眼中に一瞬だけ閉眼となることは通常の瞬きの動作が行われたことを意味し、人間の動作としてあり得るものである。このため、開閉判定結果処理部35は誤りがないと判断し、置き換え不要と判断する。   Further, as shown in FIG. 19B, it is assumed that the time-series open / closed eye determination result continues as “open eye”, “closed eye”, and “open eye”. Here, closing the eye for a moment during eye opening means that a normal blinking operation has been performed, and this is a possible human action. For this reason, the open / close determination result processing unit 35 determines that there is no error and determines that replacement is not necessary.

図6を参照する。ステップST10において置き換えが不要と判断された場合(ST10:NO)、開閉判定結果処理部35は置き換えを行うことなく、処理はステップST12に移行する。一方、置き換え要と判断された場合(ST10:YES)、開閉判定結果処理部35は置き換えを行い、その後処理はステップST12に移行する。   Please refer to FIG. If it is determined in step ST10 that replacement is not necessary (ST10: NO), the open / close determination result processing unit 35 does not perform replacement, and the process proceeds to step ST12. On the other hand, when it is determined that the replacement is necessary (ST10: YES), the open / close determination result processing unit 35 performs the replacement, and then the process proceeds to step ST12.

ステップST12において開閉判定結果処理部35は、取得された開閉眼判定結果うち、取得後所定時間経過(遅延)した開閉眼判定結果を覚醒度推定部34に出力する(ST12)。   In step ST12, the opening / closing determination result processing unit 35 outputs the opening / closing eye determination result that has passed (delayed) for a predetermined time after acquisition to the awakening degree estimation unit 34 among the acquired opening / closing eye determination results (ST12).

図20は、図6に示した遅延処理(ST12)の詳細を示す説明図である。図20に示すように、開閉判定結果処理部35は複数の格納領域を備えており、開閉眼判定部33からの開閉眼判定結果を格納領域に随時格納していく。そして、格納後、所定時間経過した開閉眼判定結果を覚醒度推定部34に出力する。   FIG. 20 is an explanatory diagram showing details of the delay processing (ST12) shown in FIG. As illustrated in FIG. 20, the open / close determination result processing unit 35 includes a plurality of storage areas, and stores the open / close eye determination results from the open / close eye determination unit 33 in the storage area as needed. Then, after the storage, the open / closed eye determination result after a predetermined time is output to the arousal level estimation unit 34.

図6を参照する。出力後、覚醒度推定部34は、入力した開閉眼判定結果に基づいて運転者の覚醒度を推定する(ST13)。その後、処理は終了する。なお、上記処理は、車両のイグニッションスイッチがオフされて覚醒度推定装置30が停止するまで繰り返し実行される。   Please refer to FIG. After the output, the arousal level estimation unit 34 estimates the driver's arousal level based on the input opening / closing eye determination result (ST13). Thereafter, the process ends. The above process is repeatedly executed until the ignition switch of the vehicle is turned off and the arousal level estimation device 30 is stopped.

図21は、図6に示した覚醒度推定処理(ST13)の詳細を示す説明図である。覚醒度推定部34は、覚醒度の推定にあたり、閉眼時間比率を求める。具体的に説明すると、覚醒度推定部34は、規定時間t1から、眼が検出できなかった時間t4及び眼が誤検出であった時間t3を除いた時間t2のうち、閉眼t6(=t2−t5)であった時間が占める割合を閉眼時間比率とし、この閉眼時間比率から覚醒度を推定する。このように、覚醒度推定部34は、未検出及び誤検出を除いた時間t2のうち、閉眼であった時間t6が占める割合を閉眼時間比率とするので、未検出及び誤検出により覚醒度が不正確になることを抑制することとなり、正確に覚醒度を推定することができることとなる。   FIG. 21 is an explanatory diagram showing details of the arousal level estimation process (ST13) shown in FIG. The arousal level estimation unit 34 obtains a closed eye time ratio when estimating the arousal level. Specifically, the arousal level estimation unit 34 closes the eye t6 (= t2−) out of the time t2 excluding the time t4 when the eye was not detected and the time t3 when the eye was erroneously detected from the specified time t1. The proportion of the time at t5) is defined as the closed eye time ratio, and the arousal level is estimated from this closed eye time ratio. As described above, the awakening level estimation unit 34 sets the ratio of the time t6 that has been closed to the closed time ratio out of the time t2 excluding undetected and erroneous detection. Inaccuracy is suppressed, and the arousal level can be accurately estimated.

図22は、図6に示した覚醒度推定処理(ST13)の詳細を示す第2の説明図である。覚醒度推定部34は、規定時間t1から、眼が検出できなかった時間t4を除いた時間t2’のうち、閉眼であった時間t6(t2’−t6’+t7+t8)が占める割合を閉眼時間比率とし、この閉眼時間比率から覚醒度を推定してもよい。ここで、誤検出の時間t7+t8を閉眼時間t6に加えると過度に閉眼時間比率が高くなってしまう。一方、誤検出の時間t7+t8を開眼時間t5に加えて新たな開眼時間t5’としても、閉眼時間比率に与える影響は少ない。このため、覚醒度推定部34は、規定時間t1から未検出時間t4を除いた閉眼時間t6、開眼時間t5、及び誤検出時間t7+t8のうち、閉眼であった時間t6が占める割合を閉眼時間比率とすることで、正確に覚醒度を推定することができる。   FIG. 22 is a second explanatory diagram showing details of the arousal level estimation process (ST13) shown in FIG. The awakening level estimation unit 34 determines the ratio of the time t6 (t2′−t6 ′ + t7 + t8) in which the eyes are closed out of the time t2 ′ excluding the time t4 when the eyes cannot be detected from the specified time t1 as the closed eye time ratio. And the degree of arousal may be estimated from the closed eye time ratio. Here, if the erroneous detection time t7 + t8 is added to the eye closing time t6, the eye closing time ratio becomes excessively high. On the other hand, even if the erroneous detection time t7 + t8 is added to the eye opening time t5 and a new eye opening time t5 'is exerted, the effect on the eye closing time ratio is small. For this reason, the arousal level estimation unit 34 determines the ratio of the closed eye time ratio of the closed eye time t6, the open eye time t5, and the false detection time t7 + t8 that excludes the undetected time t4 from the specified time t1 to the closed eye time ratio. By doing so, it is possible to accurately estimate the arousal level.

次に、覚醒度推定部34が複数の覚醒度推定手法を実行可能に構成されている場合を説明する。覚醒度推定部34が複数の覚醒度推定手法に基づいて覚醒度推定手法ごとに覚醒を推定する場合、開閉判定結果処理部35は、覚醒度推定手法ごとに遅延させる所定時間を異ならせる。   Next, the case where the arousal level estimation part 34 is comprised so that a several awakening level estimation method is executable is demonstrated. When the arousal level estimation unit 34 estimates awakening for each arousal level estimation method based on a plurality of arousal level estimation methods, the open / close determination result processing unit 35 varies the predetermined time to be delayed for each awakening level estimation method.

より具体的に説明する。図23は、図6に示した遅延処理(ST12)の詳細を示す第2の説明図であり、複数の覚醒度推定手法を実行するのときの遅延の様子を示している。   This will be described more specifically. FIG. 23 is a second explanatory diagram showing details of the delay process (ST12) shown in FIG. 6, and shows a state of delay when executing a plurality of arousal level estimation methods.

例えば、第1覚醒度推定手法は閉眼時間比率に基づいて覚醒度の低下を推定する方法であり、第2覚醒度推定手法は閉眼時間比率の推移に基づいて覚醒度の低下を推定する方法であるとする。ここで、第2覚醒度推定手法のように閉眼時間比率の推移に基づいて覚醒度の低下を推定する場合、閉眼時間比率の推移の様子を可能な限りリアルタイムでチェックすることが望ましいため、例えば、3秒など或る程度短めの時間に占める閉眼時間比率の推移に基づいて覚醒度の低下を推定することとなる。他方、変化の様子を確認する必要がない第1覚醒度推定手法では、30秒など或る程度長めの時間に占める閉眼時間比率に基づいて覚醒度の低下を推定することとなる。 For example, the first arousal level estimation method is a method for estimating a decrease in arousal level based on a closed eye time ratio, and the second awakening level estimation method is a method for estimating a decrease in arousal level based on a transition of the closed eye time ratio. Suppose there is. Here, when estimating a decrease in the arousal level based on the transition of the closed eye time ratio as in the second arousal level estimation method, it is desirable to check the transition of the closed eye time ratio in real time as much as possible. The decrease in the arousal level is estimated based on the transition of the eye-closing time ratio in a somewhat shorter time such as 3 seconds. On the other hand, in the first arousal level estimation method that does not require confirmation of the state of change, a decrease in the arousal level is estimated based on a closed eye time ratio in a somewhat longer time such as 30 seconds.

この場合において、第1覚醒度推定手法では遅延させる時間は上記に対応させて30秒程度であることが望ましく、第2覚醒度推定手法では遅延させる時間も同様に対応させて3秒程度であることが望ましい。このように、第2覚醒度推定手法の所定時間を第1覚醒度推定手法の所定時間よりも短くすることで、覚醒度推定手法ごとに遅延が短すぎず且つ長期過ぎないようにすることができる。   In this case, in the first arousal level estimation method, the delay time is preferably about 30 seconds corresponding to the above, and in the second arousal level estimation method, the delay time is similarly corresponding to about 3 seconds. It is desirable. Thus, by making the predetermined time of the second arousal level estimation method shorter than the predetermined time of the first arousal level estimation method, the delay for each arousal level estimation method is not too short and not too long. it can.

図24は、本実施形態に係る覚醒度推定装置30による閉眼時間比率の算出結果を示す説明図である。なお、図24に示す例では、運転者に通常の運転をさせた場合、運転者の顔を振った場合、運転者の覚醒度が低下している場合で閉眼時間比率の算出を行った。また、図24に示す例では、閉眼時間比率が閾値よりも大きくなると、運転者の覚醒度が低下していると判断するようになっている。   FIG. 24 is an explanatory diagram illustrating a calculation result of the eye-closing time ratio by the arousal level estimation apparatus 30 according to the present embodiment. In the example shown in FIG. 24, the eye-closing time ratio is calculated when the driver is driving normally, when the driver's face is shaken, or when the driver's arousal level is low. In the example shown in FIG. 24, when the eye-closing time ratio becomes larger than the threshold value, it is determined that the driver's arousal level is reduced.

図24に示すように、従来手法では、誤検出によって通常運転時に閉眼時間比率が閾値を超えてしまう場合がある。ところが、本実施形態では誤検出時の情報が加味されて閉眼時間比率が算出されるため、算出された閉眼時間比率が閾値を超えることなく、正確に覚醒度が推定されることとなる。また、運転者の顔を振った場合、従来手法及び本実施形態の双方について閉眼時間比率は閾値を超えていない。また、本実施形態では、運転者の覚醒度が低下している場合において、閉眼時間比率が低下することなく、従来手法と同様に高く算出される。   As shown in FIG. 24, in the conventional method, the eye-closing time ratio may exceed the threshold during normal operation due to erroneous detection. However, in the present embodiment, since the closed eye time ratio is calculated in consideration of information at the time of erroneous detection, the arousal level is accurately estimated without the calculated closed eye time ratio exceeding the threshold value. Further, when the driver's face is shaken, the eye-closing time ratio does not exceed the threshold for both the conventional method and the present embodiment. Further, in the present embodiment, when the driver's arousal level is reduced, the closed eye ratio is calculated to be high as in the conventional method without reduction.

図25は、本実施形態に係る覚醒度推定装置30による閉眼時間比率の算出結果と警報出力とを示す説明図である。なお、図25に示す例では、単純に運転者に長時間運転を行ってもらい閉眼時間比率の算出を行った。また、警報出力の判断閾値を閉眼時間比率25%に設定した。   FIG. 25 is an explanatory diagram showing the calculation result of the eye-closing time ratio and the warning output by the arousal level estimation apparatus 30 according to the present embodiment. In the example shown in FIG. 25, the eye-closing time ratio is simply calculated by having the driver drive for a long time. Also, the judgment threshold for alarm output was set to 25% of the closed eye time ratio.

従来手法では、誤検出によって閉眼時間比率が高まってしまう。このため、図25に示す時間13分の時点で不要な警報出力を招いている。ところが、本実施形態では、誤検出による閉眼時間比率の上昇を抑制することができるため、時間13分の時点で警報出力されることなく、運転者の覚醒度が低下した時間16分の時点のみで警報が出力されている。   In the conventional method, the eye-closing time ratio increases due to erroneous detection. For this reason, an unnecessary alarm output is invited at the time of 13 minutes shown in FIG. However, in this embodiment, since an increase in the eye-closing time ratio due to erroneous detection can be suppressed, only a time point of 16 minutes when the driver's arousal level is reduced without an alarm being output at the time point of 13 minutes. An alarm is output at.

このようにして、本実施形態に係る覚醒度推定装置30及び方法によれば、検出された眼について開閉眼を判定し、判定された開閉眼判定結果に基づいて運転者の覚醒度を推定するため、閉眼が頻繁に出現するときなどに覚醒度の低下を推定することができる。さらに、検出した被検出者の眼が誤検出によるものかを判断し、眼が誤検出によるものかの判断結果に基づいて、被検出者の覚醒度を判断する。このため、例えば、眼鏡のフレームや眉などを眼であると誤って検出した場合には、その誤検出の情報を加味して覚醒度を推定することができる。従って、眼を誤検出してしまった場合において覚醒度の推定精度を向上させることができる。   Thus, according to the arousal level estimation apparatus 30 and the method according to the present embodiment, the open / closed eye is determined for the detected eye, and the driver's arousal level is estimated based on the determined open / closed eye determination result. Therefore, it is possible to estimate a decrease in arousal level when closed eyes frequently appear. Furthermore, it is determined whether the detected eye of the detected person is due to erroneous detection, and the degree of arousal of the detected person is determined based on the determination result of whether the eye is due to erroneous detection. For this reason, for example, when a frame of eyeglasses or an eyebrow is erroneously detected as an eye, the arousal level can be estimated in consideration of the erroneous detection information. Therefore, when the eye is erroneously detected, the estimation accuracy of the arousal level can be improved.

また、眼位置追跡部32bは、眼位置検出部32aによって検出された眼の位置、又は、前回眼位置追跡部32bが検出した眼の位置のいずれかを含んで顔部位探査領域(一部領域)を設定する。このため、一度眼位置検出部32aによって眼が検出されると、その後眼位置追跡部32bが眼の検出に失敗するまでは、一部領域から被検出者の眼が検出されることとなる。これにより、毎フレームで顔画像全体から眼を検出する必要がなくなり、処理の迅速化を図ることができる。   In addition, the eye position tracking unit 32b includes either the eye position detected by the eye position detection unit 32a or the eye position detected by the previous eye position tracking unit 32b. ) Is set. For this reason, once an eye is detected by the eye position detection unit 32a, the eye of the detection subject is detected from a partial area until the eye position tracking unit 32b fails to detect the eye thereafter. As a result, it is not necessary to detect eyes from the entire face image every frame, and the processing can be speeded up.

また、検出された眼の縦幅を計測して開閉眼を判断するための閾値を設定し、検出された眼の縦幅が設定された閾値以上の場合に開眼と決定し、縦幅が閾値未満の場合に閉眼と決定することとしている。このため、被検出者個人の眼の縦幅を学習したうえで、適切な閾値を設定できることとなり、開閉眼の判定を正確に行うことができる。   Further, a threshold value for determining the open / closed eye is set by measuring the vertical width of the detected eye, and when the detected vertical eye width is equal to or greater than the set threshold value, the eye is determined to be open, and the vertical width is the threshold value. If it is less than that, it is decided to close the eyes. For this reason, it is possible to set an appropriate threshold value after learning the vertical width of the eyes of the individual to be detected, and to accurately determine the open / closed eyes.

また、眼検出部32は、検出した眼が誤検出によるものであると判断する条件と、その条件が成立した場合に誤検出と判断すべき画像数とを記憶し、条件の成立時には誤検出と判断された画像に基づく眼の開閉眼判定結果が誤りであるとの情報を、覚醒度推定部34に出力することとしている。このため、覚醒度推定部34は、誤検出である可能性がある画像から覚醒度を推定しないなど、適切な対応を取ることができる。従って、覚醒度の推定精度を向上させることができる。   Further, the eye detection unit 32 stores a condition for determining that the detected eye is due to erroneous detection, and the number of images to be determined as erroneous detection when the condition is satisfied. The information that the eye open / closed eye determination result based on the image determined to be incorrect is output to the arousal level estimation unit 34. For this reason, the arousal level estimation unit 34 can take appropriate measures such as not estimating the arousal level from an image that may be erroneously detected. Therefore, it is possible to improve the estimation accuracy of the arousal level.

また、判定された開閉眼判定結果を入力し、所定時間遅延させて覚醒度推定部34に出力する開閉判定結果処理部35をさらに備え、眼検出部32は、開閉判定結果処理部35による所定時間の遅延の間に、検出した被検出者の眼が誤検出によるものかを判断することとしている。このため、遅延しないことにより眼検出部32が誤検出と判断したときには覚醒度の推定を終えているという事態が確実に防止される。従って、確実に誤検出か否かを加味して覚醒度を推定することができる。   In addition, it further includes an opening / closing determination result processing unit 35 that inputs the determined opening / closing eye determination result, delays it for a predetermined time, and outputs it to the arousal level estimation unit 34, and the eye detection unit 32 performs a predetermined operation by the opening / closing determination result processing unit 35. During the time delay, it is determined whether the detected eye of the detected person is due to erroneous detection. For this reason, the situation that the estimation of the arousal level is finished when the eye detection unit 32 determines that the detection is false is prevented without delay. Therefore, it is possible to estimate the arousal level by taking into account whether or not a false detection has occurred.

また、所定時間の遅延中に入力した時系列の開閉眼判定結果が、被検出者の眼の不適切な開閉であって予め記憶されるパターンに該当する場合、被検出者の眼の適切な開閉であって予め記憶されるパターンに置き換えることとしている。このため、例えば閉眼継続中にスパイクノイズによって1フレームだけ開眼が発生した場合などには、1フレームの閉眼を開眼に置き換えることが可能となり、スパイクノイズによる覚醒度の推定精度低下を抑制することができる。   In addition, when the time-series opening / closing eye determination result input during the delay of a predetermined time corresponds to a pattern stored in advance that is an inappropriate opening / closing of the eye of the detected person, the appropriate eye of the detected person's eye The pattern is opened and closed and replaced with a previously stored pattern. For this reason, for example, when an eye is opened for only one frame due to spike noise while the eyes are closed, it is possible to replace the eye for one frame with the eye opening, and to suppress a decrease in the estimation accuracy of the arousal level due to the spike noise. it can.

また、規定時間t1から、眼が検出できなかった時間t4及び眼が誤検出であった時間t3を除いた時間t2のうち、閉眼であった時間t6が占める割合を閉眼時間比率とし、この閉眼時間比率から覚醒度を推定する。このため、未検出時間t4及び誤検出時間t3を除いた閉眼時間t6及び開眼時間t5のうち、閉眼であった時間t6が占める割合を閉眼時間比率とするので、誤検出及び未検出が除かれることとなり、正確に覚醒度を推定することができる。   Further, of the time t2 excluding the time t4 when the eye could not be detected and the time t3 when the eye was erroneously detected from the specified time t1, the ratio occupied by the time t6 that was closed is defined as the closed eye ratio. Estimate arousal level from time ratio. For this reason, of the closed eye time t6 and the open eye time t5 excluding the undetected time t4 and the erroneous detection time t3, the ratio occupied by the closed eye time t6 is set as the closed eye time ratio, so that erroneous detection and undetected are excluded. Therefore, the arousal level can be estimated accurately.

または、規定時間t1から、眼が検出できなかった時間t4を除いた時間のうち、閉眼であった時間t6が占める割合を閉眼時間比率とし、この閉眼時間比率から覚醒度を推定する。ここで、誤検出の時間t4を閉眼時間t6に加えると過度に閉眼時間比率が高くなってしまう。一方、誤検出の時間t4を開眼時間t5に加えても、閉眼時間比率に与える影響は少ない。このため、未検出時間t4を除いた閉眼時間t6、開眼時間t5、及び誤検出時間t7+t8のうち、閉眼であった時間t5が占める割合を閉眼時間比率とすることで、正確に覚醒度を推定することができる。   Alternatively, of the time excluding the time t4 when the eye could not be detected from the specified time t1, the ratio occupied by the time t6 when the eyes were closed is defined as the closed eye time ratio, and the arousal level is estimated from the closed eye time ratio. Here, if the erroneous detection time t4 is added to the eye closing time t6, the eye closing time ratio becomes excessively high. On the other hand, even if the erroneous detection time t4 is added to the eye opening time t5, the influence on the eye closing time ratio is small. For this reason, the awakening degree is accurately estimated by setting the ratio of the closed eye time t5 to the closed eye time t6, the open eye time t5 excluding the undetected time t4, and the erroneous detection time t7 + t8 as the closed eye ratio. can do.

また、複数の覚醒度推定手法のそれぞれに応じて、遅延させる所定時間を異ならせることとしているので、覚醒度推定手法に応じた時間だけ遅延されることとなり、遅延が短すぎず且つ長期過ぎないようにすることができる。   In addition, since the predetermined delay time is made different according to each of the plurality of arousal level estimation methods, the delay time is not too short and not too long. Can be.

特に、閉眼時間比率に基づいて覚醒度の低下を推定する第1覚醒度推定手法と、閉眼時間比率の推移に基づいて覚醒度の低下を推定する第2覚醒度推定手法とについて、第2覚醒度推定手法の所定時間は第1覚醒度推定手法の所定時間よりも短くされる。例えば、第1覚醒度推定手法は閉眼時間比率に基づいて覚醒度の低下を推定する。すなわち、第1覚醒度推定手法は、30秒など或る程度長めの時間に占める閉眼時間比率に基づいて覚醒度の低下を推定する方法であるとする。また、第2覚醒度推定手法は、3秒など或る程度短めの時間に占める閉眼時間比率の推移に基づいて覚醒度の低下を推定する方法であるとする。   In particular, the second arousal level estimation method for estimating a decrease in arousal level based on the closed eye time ratio and the second awakening level estimation method for estimating a decrease in arousal level based on the transition of the closed eye ratio The predetermined time of the degree estimation method is shorter than the predetermined time of the first arousal level estimation method. For example, the first arousal level estimation method estimates a decrease in the arousal level based on the closed eye time ratio. That is, it is assumed that the first arousal level estimation method is a method for estimating a decrease in the arousal level based on a closed eye time ratio that occupies a somewhat longer time such as 30 seconds. In addition, the second arousal level estimation method is a method for estimating a decrease in arousal level based on a transition of the closed eye time ratio in a somewhat shorter time such as 3 seconds.

この場合、第1覚醒度推定手法では遅延させる時間は30秒程度であることが望ましく、第2覚醒度推定手法では遅延させる時間は3秒程度であることが望ましい。このように、第2覚醒度推定手法の所定時間を第1覚醒度推定手法の所定時間よりも短くすることで、覚醒度推定手法ごとに遅延が短すぎず且つ長期過ぎないようにすることができる。   In this case, in the first arousal level estimation method, the delay time is preferably about 30 seconds, and in the second arousal level estimation method, the delay time is preferably about 3 seconds. Thus, by making the predetermined time of the second arousal level estimation method shorter than the predetermined time of the first arousal level estimation method, the delay for each arousal level estimation method is not too short and not too long. it can.

以上、実施形態に基づき本発明を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で、変更を加えてもよい。例えば、上記実施形態では、車両運転者を被検出者とする例を説明したが、これに限らず、他の乗り物の運転者を被検出者として撮像するようにしてもよい。また、覚醒度推定装置30は、被撮像者の眼を追跡して被撮像者の視線移動を記録するテスト装置の類であってもよい。   As described above, the present invention has been described based on the embodiment, but the present invention is not limited to the above embodiment, and may be modified without departing from the gist of the present invention. For example, in the above-described embodiment, the example in which the vehicle driver is the detected person has been described. However, the present invention is not limited to this, and the driver of another vehicle may be imaged as the detected person. Further, the arousal level estimation device 30 may be a type of test device that tracks the eye of the subject and records the eye movement of the subject.

本発明の実施形態に係るの覚醒度推定システムのハード構成図である。It is a hardware block diagram of the arousal level estimation system which concerns on embodiment of this invention. 図1に示した覚醒度推定装置の詳細構成図である。It is a detailed block diagram of the arousal level estimation apparatus shown in FIG. 誤検出の例を示す説明図であり、(a)は第1の例を示し、(b)は第2の例を示している。It is explanatory drawing which shows the example of a misdetection, (a) shows the 1st example and (b) has shown the 2nd example. 開閉眼の誤判定の例を示す説明図であり、(a)は第1の例を示し、(b)は第2の例を示している。It is explanatory drawing which shows the example of the misjudgment of an opening-and-closing eye, (a) shows the 1st example, (b) has shown the 2nd example. 本実施形態に係る覚醒度推定装置の動作を示す説明図であり、(a)は状態遷移図であり、(b)は本装置が「検出中」であるときの各部の動作の様子を示し、(c)は本装置が「学習中」であるときの各部の動作の様子を示し、(d)は本装置が「推定中」であるときの各部の動作の様子を示している。It is explanatory drawing which shows operation | movement of the arousal level estimation apparatus which concerns on this embodiment, (a) is a state transition diagram, (b) shows the mode of operation | movement of each part when this apparatus is "under detection". (C) shows the operation of each part when the apparatus is “learning”, and (d) shows the operation of each part when the apparatus is “estimating”. 本実施形態に係る覚醒度推定方法の詳細を示すフローチャートである。It is a flowchart which shows the detail of the arousal level estimation method which concerns on this embodiment. 図6に示した眼検出処理(ST2)の概要を示す説明図であり、眼検出部が入力する画像データの一例を示す説明図である。It is explanatory drawing which shows the outline | summary of the eye detection process (ST2) shown in FIG. 6, and is explanatory drawing which shows an example of the image data which an eye detection part inputs. 図6に示した眼検出処理(ST2)の概要を示す説明図であり、図7に示す画像縦方向の画素列Ybの濃度値を示すグラフである。FIG. 8 is an explanatory diagram showing an outline of the eye detection process (ST2) shown in FIG. 6, and is a graph showing the density value of the pixel column Yb in the image vertical direction shown in FIG. 図6に示した眼検出処理(ST2)の概要を示す説明図であり、眼の検出の様子を示す説明図である。It is explanatory drawing which shows the outline | summary of the eye detection process (ST2) shown in FIG. 6, and is explanatory drawing which shows the mode of an eye detection. 図6に示した眼検出処理(ST2)の詳細を示すフローチャートである。It is a flowchart which shows the detail of the eye detection process (ST2) shown in FIG. 図6に示した眼検出処理(ST2)の詳細を示す説明図であり、(a)は片眼候補検出用の処理エリアを示しており、(b)は検出された連続データ等を示し、(c)は両眼確定用の処理エリアを示している。It is explanatory drawing which shows the detail of the eye detection process (ST2) shown in FIG. 6, (a) has shown the process area for one eye candidate detection, (b) has shown the detected continuous data, (C) shows a processing area for binocular determination. 眼位置追跡部の動作の概略を示す説明図であり、(a)は顔部位探査領域を示し、(b)は反対側の眼の検出の様子を示している。It is explanatory drawing which shows the outline | summary of operation | movement of an eye position tracking part, (a) shows a face part search area | region, (b) has shown the mode of detection of the eye of the other side. 図6に示した眼追跡処理(ST4)の詳細を示すフローチャートである。It is a flowchart which shows the detail of the eye tracking process (ST4) shown in FIG. 図6に示した開閉眼判定(ST7)の詳細を示すフローチャートである。It is a flowchart which shows the detail of opening-and-closing eye determination (ST7) shown in FIG. 図6に示した開閉眼判定(ST7)の説明図であり、(a)は図14のステップST41の詳細を示し、(b)は図14のステップST42の詳細を示している。It is explanatory drawing of the opening-and-closing eye determination (ST7) shown in FIG. 6, (a) shows the detail of step ST41 of FIG. 14, (b) has shown the detail of step ST42 of FIG. 図15に示したステップST45の詳細を示す説明図である。It is explanatory drawing which shows the detail of step ST45 shown in FIG. 図15に示したステップST45の詳細を示す第2の説明図である。FIG. 16 is a second explanatory diagram showing details of step ST45 shown in FIG. 15. 図6に示したステップST8の詳細を示す説明図である。It is explanatory drawing which shows the detail of step ST8 shown in FIG. 図6に示した置き換え判断(ST10)の詳細を示す説明図であり、(a)は置き換え要の場合を示し、(b)は置き換え不要の場合を示している。FIG. 7 is an explanatory diagram showing details of the replacement determination (ST10) shown in FIG. 6, in which (a) shows a case where replacement is necessary, and (b) shows a case where replacement is unnecessary. 図6に示した遅延処理(ST12)の詳細を示す説明図である。It is explanatory drawing which shows the detail of the delay process (ST12) shown in FIG. 図6に示した覚醒度推定処理(ST13)の詳細を示す説明図である。It is explanatory drawing which shows the detail of the arousal level estimation process (ST13) shown in FIG. 図6に示した覚醒度推定処理(ST13)の詳細を示す第2の説明図である。FIG. 7 is a second explanatory diagram showing details of the arousal level estimation process (ST13) shown in FIG. 図6に示した遅延処理(ST12)の詳細を示す第2の説明図であり、複数の覚醒度推定手法を実行するのときの遅延の様子を示している。FIG. 7 is a second explanatory diagram showing details of the delay process (ST12) shown in FIG. 6 and shows a state of delay when executing a plurality of arousal level estimation methods. 本実施形態に係る覚醒度推定装置による閉眼時間比率の算出結果を示す説明図である。It is explanatory drawing which shows the calculation result of the eye-closing time ratio by the arousal level estimation apparatus which concerns on this embodiment. 本実施形態に係る覚醒度推定装置による閉眼時間比率の算出結果と警報出力とを示す説明図である。It is explanatory drawing which shows the calculation result and warning output of the eye-closing time ratio by the arousal level estimation apparatus which concerns on this embodiment.

符号の説明Explanation of symbols

1…覚醒度推定システム
10…カメラ
20…照明装置
30…覚醒度推定装置
31…顔画像取得部
32…眼検出部(眼検出手段)
32a…眼位置検出部(第1検出手段)
32b…眼位置追跡部(第2検出手段)
33…開閉眼判定部(開閉眼判定手段)
33a…開閉眼学習部(閾値設定手段)
33b…開閉眼決定部(開閉眼決定手段)
34…覚醒度推定部(覚醒度判定手段)
35…開閉判定結果処理部(遅延出力手段)
36…処理状態出力部
37…覚醒度信号出力部
DESCRIPTION OF SYMBOLS 1 ... Arousal degree estimation system 10 ... Camera 20 ... Illuminating device 30 ... Arousal degree estimation apparatus 31 ... Face image acquisition part 32 ... Eye detection part (eye detection means)
32a ... Eye position detection unit (first detection means)
32b ... Eye position tracking unit (second detection means)
33 ... Open / close eye determination unit (open / close eye determination means)
33a ... Opening / closing eye learning unit (threshold setting means)
33b ... Opening / closing eye determining unit (opening / closing eye determining means)
34. Arousal level estimation unit (wake level determination means)
35 ... Opening / closing determination result processing section (delay output means)
36 ... Processing state output unit 37 ... Arousal level signal output unit

Claims (10)

被検出者の顔を含む画像データを入力し、この画像から被検出者の眼を検出する眼検出手段と、
前記眼検出手段により検出された眼について開閉眼を判定する開閉眼判定手段と、
前記開閉眼判定手段により判定された開閉眼判定結果に基づいて、被検出者の覚醒度を推定する覚醒度推定手段と、を備え、
前記眼検出手段は、検出した被検出者の眼が誤検出によるものかを判断し、
前記覚醒度推定手段は、前記開閉眼判定手段により判定された開閉眼判定結果に加えて、前記眼検出手段による誤検出判断結果に基づいて、被検出者の覚醒度を推定する
ことを特徴とする覚醒度推定装置。
Eye detection means for inputting image data including the face of the person to be detected and detecting the eye of the person to be detected from this image;
Open / close eye determination means for determining open / close eyes for the eyes detected by the eye detection means;
Wakefulness estimation means for estimating the wakefulness level of the detected person based on the open / closed eye determination result determined by the open / closed eye determination means,
The eye detection means determines whether the detected eye of the detected person is due to erroneous detection,
The wakefulness estimation means estimates the wakefulness of the person to be detected based on the erroneous detection determination result by the eye detection means in addition to the open / closed eye determination result determined by the open / close eye determination means. Awakening level estimation device.
前記眼検出手段は、
被検出者の顔を含む画像全体から被検出者の眼を検出する第1検出手段と、
被検出者の顔を含む画像の一部領域から被検出者の眼を検出する第2検出手段と、を有し、
前記第2検出手段は、前記第1検出手段によって検出された眼の位置、又は、前回前記第2検出手段が検出した眼の位置のいずれかを含んで一部領域を設定する
ことを特徴とする請求項1に記載の覚醒度推定装置。
The eye detection means includes
First detection means for detecting the eyes of the detected person from the entire image including the face of the detected person;
Second detection means for detecting the eye of the detected person from a partial region of the image including the face of the detected person,
The second detection means sets a partial region including either the eye position detected by the first detection means or the eye position previously detected by the second detection means. The arousal level estimation apparatus according to claim 1.
前記開閉眼判定手段は、
前記眼検出手段により検出された眼の縦幅を計測して開閉眼を判断するための閾値を設定する閾値設定手段と、
前記眼検出手段により検出された眼の縦幅が前記閾値設定手段により設定された閾値以上の場合に開眼と決定し、前記眼検出手段により検出された眼の縦幅が前記閾値未満の場合に閉眼と決定する開閉眼決定手段と、
を有することを特徴とする請求項1又は請求項2のいずれかに記載の覚醒度推定装置。
The opening / closing eye determination means includes
Threshold setting means for setting a threshold for determining the open / closed eye by measuring the vertical width of the eye detected by the eye detecting means;
When the eye width detected by the eye detection means is greater than or equal to the threshold value set by the threshold setting means, it is determined that the eye is open, and when the eye width detected by the eye detection means is less than the threshold value Open / closed eye determining means for determining closed eyes;
The awakening level estimation apparatus according to claim 1, wherein the awakening level estimation apparatus is provided.
前記眼検出手段は、検出した眼が誤検出によるものであると判断する条件と、その条件が成立した場合に誤検出と判断すべき画像数とを記憶し、前記条件の成立時には誤検出と判断すべき数の画像に基づく眼の開閉眼判定結果が誤りであるとの情報を、前記覚醒度推定手段に出力することを特徴とする請求項1〜請求項3のいずれか1項に記載の覚醒度推定装置。   The eye detection means stores a condition for determining that the detected eye is due to erroneous detection, and the number of images to be determined as erroneous detection when the condition is satisfied. The information that the eye open / closed eye determination result based on the number of images to be determined is incorrect is output to the arousal level estimation unit. Wakefulness estimation device. 前記開閉眼判定手段により判定された開閉眼判定結果を入力し、所定時間遅延させて前記覚醒度推定手段に出力する遅延出力手段をさらに備え、
前記眼検出手段は、前記遅延出力手段による所定時間の遅延の間に、検出した被検出者の眼が誤検出によるものかを判断する
ことを特徴とする請求項1〜請求項4のいずれか1項に記載の覚醒度推定装置。
A delay output unit that inputs the open / closed eye determination result determined by the open / closed eye determination unit, delays it for a predetermined time, and outputs it to the arousal level estimation unit;
The eye detection unit determines whether the detected eye of the detected person is due to a false detection during a predetermined time delay by the delay output unit. The arousal level estimation apparatus according to item 1.
前記遅延出力手段は、所定時間の遅延中に入力した時系列の開閉眼判定結果が、被検出者の眼の不適切な開閉であって予め記憶されるパターンに該当する場合、被検出者の眼の適切な開閉であって予め記憶されるパターンに置き換えることを特徴とする請求項5に記載の覚醒度推定装置。   The delay output means, when a time-series opening / closing eye determination result inputted during a delay of a predetermined time corresponds to a pattern stored in advance that is an inappropriate opening / closing of the eye of the detected person, 6. The arousal level estimation apparatus according to claim 5, wherein the eye opening level is appropriately opened and closed and the pattern is stored in advance. 前記覚醒度推定手段は、複数の覚醒度推定手法に基づいて、覚醒度推定手法ごとに覚醒度を推定し、
前記遅延出力手段は、覚醒度推定手法ごとに遅延させる所定時間を異ならせる
ことを特徴とする請求項5又は請求項6のいずれかに記載の覚醒度推定装置。
The arousal level estimation means estimates the arousal level for each arousal level estimation method based on a plurality of arousal level estimation methods,
The wakefulness estimation apparatus according to claim 5, wherein the delay output unit changes a predetermined delay time for each wakefulness estimation method.
前記眼検出手段は、眼が検出できなかった場合、その旨の情報を前記覚醒度推定手段に出力し、
前記覚醒度推定手段は、規定時間から、眼が検出できなかった時間及び眼が誤検出であった時間を除いた時間のうち、閉眼であった時間が占める割合を閉眼時間比率とし、この閉眼時間比率から覚醒度を推定し、又は、規定時間から、眼が検出できなかった時間を除いた時間のうち、閉眼であった時間が占める割合を閉眼時間比率とし、この閉眼時間比率から覚醒度を推定する
ことを特徴とする請求項7に記載の覚醒度推定装置。
If the eye is not detected, the eye detection means outputs information to that effect to the arousal level estimation means,
The arousal level estimation means sets the ratio of the time when the eyes were closed out of the time excluding the time when the eyes could not be detected and the time when the eyes were erroneously detected from the specified time as the closed eye ratio. Estimate the degree of arousal from the time ratio, or out of the time excluding the time when the eye could not be detected from the specified time, the ratio of the time when the eyes were closed was taken as the closed eye ratio, and the degree of arousal was calculated from this closed eye ratio The wakefulness estimation device according to claim 7, wherein
前記覚醒度推定手段は、閉眼時間比率に基づいて覚醒度の低下を推定する第1覚醒度推定手法と、閉眼時間比率の推移に基づいて覚醒度の低下を推定する第2覚醒度推定手法とを有し、
前記遅延出力手段は、第2覚醒度推定手法の所定時間を第1覚醒度推定手法の所定時間よりも短くする
ことを特徴とする請求項8に記載の覚醒度推定装置。
The wakefulness level estimation means includes a first wakefulness level estimation method for estimating a decrease in wakefulness level based on a closed eye time ratio, a second wakefulness level estimation method for estimating a decrease in wakefulness level based on a transition of the closed eye time ratio, and Have
The wakefulness estimation device according to claim 8, wherein the delay output means makes the predetermined time of the second wakefulness estimation method shorter than the predetermined time of the first wakefulness estimation method.
被検出者の顔を含む画像データを入力し、この画像から被検出者の眼を検出する眼検出ステップと、
前記眼検出ステップにおいて検出された眼について開閉眼を判定する開閉眼判定ステップと、
前記眼検出ステップにおいて検出された眼が誤検出によるものかを判断する誤検出判断ステップと、
前記開閉眼判定ステップにおいて判定された開閉眼判定結果と、前記眼検出ステップにおける誤検出判断結果とに基づいて、被検出者の覚醒度を推定する覚醒度推定ステップと、
を有することを特徴とする覚醒度推定方法。
An eye detection step of inputting image data including the face of the detected person and detecting the detected person's eyes from this image;
Open / close eye determination step for determining open / close eyes for the eyes detected in the eye detection step;
A false detection determination step of determining whether the eye detected in the eye detection step is due to a false detection;
An arousal level estimation step for estimating the arousal level of the detected person based on the open / closed eye determination result determined in the open / closed eye determination step and the erroneous detection determination result in the eye detection step;
A wakefulness estimation method characterized by comprising:
JP2005213463A 2005-07-22 2005-07-22 Awakening degree estimation apparatus and method Expired - Fee Related JP4412253B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005213463A JP4412253B2 (en) 2005-07-22 2005-07-22 Awakening degree estimation apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005213463A JP4412253B2 (en) 2005-07-22 2005-07-22 Awakening degree estimation apparatus and method

Publications (2)

Publication Number Publication Date
JP2007034436A true JP2007034436A (en) 2007-02-08
JP4412253B2 JP4412253B2 (en) 2010-02-10

Family

ID=37793664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005213463A Expired - Fee Related JP4412253B2 (en) 2005-07-22 2005-07-22 Awakening degree estimation apparatus and method

Country Status (1)

Country Link
JP (1) JP4412253B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013744A (en) * 2009-06-30 2011-01-20 Nissan Motor Co Ltd Device and method for determining yawn
JP2014063281A (en) * 2012-09-20 2014-04-10 Fujifilm Corp Eye opening/closing determination method and device, program, and monitoring video system
JP2014071519A (en) * 2012-09-27 2014-04-21 Aisin Seiki Co Ltd State determination device, driving support system, and state determination method and program
JP2020009360A (en) * 2018-07-12 2020-01-16 トヨタ自動車株式会社 Crew member status recognition device
CN111626240A (en) * 2020-05-29 2020-09-04 歌尔科技有限公司 Face image recognition method, device and equipment and readable storage medium
US11200417B2 (en) 2018-02-13 2021-12-14 Mitsubishi Electric Corporation Determination apparatus and method to enhance accuracy in determining the presence of an erroneously detected eyelid

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013744A (en) * 2009-06-30 2011-01-20 Nissan Motor Co Ltd Device and method for determining yawn
JP2014063281A (en) * 2012-09-20 2014-04-10 Fujifilm Corp Eye opening/closing determination method and device, program, and monitoring video system
JP2014071519A (en) * 2012-09-27 2014-04-21 Aisin Seiki Co Ltd State determination device, driving support system, and state determination method and program
US11200417B2 (en) 2018-02-13 2021-12-14 Mitsubishi Electric Corporation Determination apparatus and method to enhance accuracy in determining the presence of an erroneously detected eyelid
JP2020009360A (en) * 2018-07-12 2020-01-16 トヨタ自動車株式会社 Crew member status recognition device
CN111626240A (en) * 2020-05-29 2020-09-04 歌尔科技有限公司 Face image recognition method, device and equipment and readable storage medium
CN111626240B (en) * 2020-05-29 2023-04-07 歌尔科技有限公司 Face image recognition method, device and equipment and readable storage medium

Also Published As

Publication number Publication date
JP4412253B2 (en) 2010-02-10

Similar Documents

Publication Publication Date Title
CN106687037B (en) For detecting the equipment instantaneously slept, method and computer program
JP4826506B2 (en) Gaze estimation device
KR101386823B1 (en) 2 level drowsy driving prevention apparatus through motion, face, eye,and mouth recognition
Mohanty et al. Design of real-time drowsiness detection system using dlib
JP4412253B2 (en) Awakening degree estimation apparatus and method
JP5177011B2 (en) Eye opening degree identification device
JP5359266B2 (en) Face recognition device, face recognition method, and face recognition program
JP5737400B2 (en) Red eye detector
JP6187817B2 (en) Face detection apparatus, method and program
US20200169678A1 (en) Driver&#39;s eye position detecting device and method, imaging device having image sensor with rolling shutter driving system, and illumination control method thereof
JP2008146356A (en) Visual line direction predicting device and visual line direction predicting method
US10552694B2 (en) Drowsiness estimating apparatus
JP5139470B2 (en) Sleepiness level estimation device and sleepiness level estimation method
JP4788319B2 (en) Opening and closing eye determination device and method
JP2006109980A (en) Vigilance determining device
US11161470B2 (en) Occupant observation device
JP2011125620A (en) Biological state detector
US11077814B2 (en) Occupant eye(s) observation device
JP2019068933A (en) Estimation device and estimation method
WO2021112048A1 (en) Driving analysis device, and driving analysis method
Wang et al. Vowel recognition from continuous articulatory movements for speaker-dependent applications
JP2010009234A (en) Eye image processing device
JP4692006B2 (en) Image processing apparatus and image processing method
JP7325687B2 (en) Sleepiness estimation device and sleepiness estimation system
JP6698966B2 (en) False detection determination device and false detection determination method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090623

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091027

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091109

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131127

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees