JP2000142164A - Eye condition sensing device and driving-asleep alarm device - Google Patents

Eye condition sensing device and driving-asleep alarm device

Info

Publication number
JP2000142164A
JP2000142164A JP10312340A JP31234098A JP2000142164A JP 2000142164 A JP2000142164 A JP 2000142164A JP 10312340 A JP10312340 A JP 10312340A JP 31234098 A JP31234098 A JP 31234098A JP 2000142164 A JP2000142164 A JP 2000142164A
Authority
JP
Japan
Prior art keywords
eye
continuous data
state
tracking
detection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10312340A
Other languages
Japanese (ja)
Other versions
JP3531503B2 (en
Inventor
Masayuki Kaneda
雅之 金田
Hideo Obara
英郎 小原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP31234098A priority Critical patent/JP3531503B2/en
Publication of JP2000142164A publication Critical patent/JP2000142164A/en
Application granted granted Critical
Publication of JP3531503B2 publication Critical patent/JP3531503B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/80Technologies aiming to reduce greenhouse gasses emissions common to all road transportation technologies
    • Y02T10/84Data processing systems or methods, management, administration

Landscapes

  • Emergency Alarm Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an eye condition sensing device and a driving-asleep alarm device capable of perform sensing quickly and accurately. SOLUTION: An eye condition sensing device is equipped with eye position specifying means CL2, CL3, CL4, CL5 to specify the eye position on the basis of the continuous data of extraction points extracted from the image data of a face as input and eye opening sensing means CL6 and CL7 to sense the eye opening from the density varying condition of the continuous data, wherein the arrangement further includes a reference position deciding means CL8 to decide a reference position for the eye predictable as the eye existing based upon the continuous data, an eye tracing condition judging means CL9 to trace the continuous data of the eye in the specified region and judge whether the tracing condition is normal on the basis of the condition of the continuous data, and a restoring means CL10 to restore the specified region to the reference position when the means CL9 judges that the eye tracing goes in abnormality.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ミラー、シートを
自動制御するためや、ドライバの眼の開閉状態から居眠
り状態を検出するために必要な眼の位置の特定などに用
いる眼の状態検出装置、及び居眠りを警報可能な居眠り
警報装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an eye condition detecting apparatus used for automatically controlling a mirror and a seat, and for specifying a position of an eye necessary for detecting a dozing state from an open / closed state of a driver's eyes. And a drowsiness alarm device capable of alarming a drowsiness.

【0002】[0002]

【従来の技術】従来の画像処理による居眠り運転警報装
置としては、例えば特開平10ー143669号に記載
されたようなものがある。これは、濃淡画像を対象とし
て眼の位置を検出し、眼の開度値による開閉眼判定を行
いながら眼を追跡する構成としている。また、従来装置
は、眼の追跡ミスを眼の開度値の出力状態により認識
し、自動的に眼の位置検出処理に戻る構成となってい
る。
2. Description of the Related Art As a conventional drowsy driving warning device using image processing, there is, for example, one described in Japanese Patent Application Laid-Open No. Hei 10-143669. In this configuration, the position of the eye is detected for the grayscale image, and the eye is tracked while performing the open / closed eye determination based on the eye opening value. Further, the conventional apparatus is configured to recognize an eye tracking error based on the output state of the eye opening value and automatically return to the eye position detection processing.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
装置では、眼の追跡に失敗し、再度眼の位置検出を行う
際、初期状態に戻して眼の位置検出が行われるため、眼
を捉えるまでに再度長い処理時間がかかるという問題が
あった。また、最初の眼の位置検出に成功し、眼の追跡
を行いながら安定的に開閉眼判定を続けている状態があ
っても、再度の初期状態による眼の位置検出処理により
検出ミスのリスクが伴うという問題点がある。
However, in the conventional apparatus, when the eye tracking fails and the eye position is detected again, the eye position is returned to the initial state and the eye position is detected. Has a problem that it takes a long processing time again. In addition, even if there is a state in which the initial eye position detection is successful and the eye open / closed eye determination is stably continued while tracking the eye, the risk of detection error is reduced by the eye position detection process in the initial state again. There is a problem that it accompanies.

【0004】本発明は、より迅速に、且つ精度良く検出
を行うことの出きる眼の状態検出装置及び居眠り運転警
報装置の提供を課題とする。
[0004] It is an object of the present invention to provide an eye condition detecting device and a drowsy driving alarm device which can detect the condition more quickly and accurately.

【0005】[0005]

【課題を解決するための手段】請求項1の発明は、顔画
像を入力する顔画像入力手段と、該顔画像入力手段より
入力された顔の画像データの縦方向の画素列における濃
度の局所的な高まり毎に画素を定めて抽出点とし、該抽
出点と隣接する画素列の抽出点が近接して顔の横方向へ
延びる連続データに基づき眼の位置を特定する眼の位置
特定手段と、該特定された眼の位置を含む所定領域を設
定する所定領域設定手段と、該所定領域設定手段で設定
された所定領域内で前記連続データに基づき眼の位置を
特定し、該連続データの濃度変化状態から眼の開度を検
出する眼の開度検出手段とを備えた眼の状態検出装置に
おいて、前記連続データに基いて眼が存在すると予測で
きる眼の基準領域を決定し、記憶する第1の眼の基準領
域決定手段と、前記所定領域内における眼の連続データ
を追跡し、該連続データの状態に基ずいて追跡状態が正
常か否かを判定する眼の追跡状態判定手段と、該眼の追
跡状態判定手段により眼の追跡異常と判定されたとき、
前記基準領域に前記所定領域を復帰する第1の復帰手段
とを設けたことを特徴とする。
According to a first aspect of the present invention, there is provided a face image input means for inputting a face image, and a local density of density in a vertical pixel row of face image data input from the face image input means. An eye point specifying means for specifying a pixel for each image height and an extraction point, and specifying an eye position based on continuous data in which the extraction point of the pixel row adjacent to the extraction point approaches and extends in the lateral direction of the face; A predetermined area setting means for setting a predetermined area including the specified eye position; and specifying an eye position based on the continuous data within a predetermined area set by the predetermined area setting means, An eye condition detection apparatus comprising: an eye position detection means for detecting an eye position from a density change state, wherein an eye reference region in which an eye is predicted to be present is determined and stored based on the continuous data. A first eye reference region determining means; An eye tracking state determining unit that tracks continuous eye data in a predetermined area and determines whether the tracking state is normal based on the state of the continuous data; When it is determined to be abnormal,
A first return means for returning the predetermined area to the reference area is provided.

【0006】請求項2の発明は、顔画像を入力する顔画
像入力手段と、該顔画像入力手段より入力された顔の画
像データの縦方向の画素列における濃度の局所的な高ま
り毎に画素を定めて抽出点とし、該抽出点と隣接する画
素列の抽出点が近接して顔の横方向へ延びる連続データ
に基づき眼の位置を特定する眼の位置特定手段と、該特
定された眼の位置を含む所定領域を設定する所定領域設
定手段と、該所定領域設定手段で設定された所定領域内
で前記連続データに基づき眼の位置を特定し、該連続デ
ータの濃度変化状態から眼の開度を検出する眼の開度検
出手段とを備えた眼の状態検出装置において、前記連続
データに基いて眼が存在すると予測できる眼の基準領域
を決定し、記憶する第1の眼の基準領域決定手段と、前
記所定領域内における眼の連続データを追跡し、該連続
データの状態に基ずいて追跡状態が正常か否かを判定す
る眼の追跡状態判定手段と、該眼の追跡状態判定手段に
より眼の追跡異常と判定されたとき、前記基準領域に基
づき左右両眼の連続データを検出し得る左右領域を設定
する左右領域設定手段と、前記左右領域内に連続データ
が出現しているか否かを判定する連続データの出現状態
判定手段と、前記左右領域内に連続データが出現してい
ると判定されたときは該連続データに基いて前記眼の開
度検出手段に前記検出を再度行なわせる再検出手段とを
設けたことを特徴とする。
According to a second aspect of the present invention, there is provided a face image input means for inputting a face image, and a pixel for each local increase in density in a vertical pixel row of the face image data input from the face image input means. Eye position specifying means for specifying an eye position based on continuous data in which the extraction point of a pixel row adjacent to the extraction point is close to and extending in the lateral direction of the face; and A predetermined area setting means for setting a predetermined area including the position of the eye, and specifying the position of the eye based on the continuous data within the predetermined area set by the predetermined area setting means, from the density change state of the continuous data An eye condition detecting apparatus comprising: an eye opening detecting means for detecting an opening, wherein an eye reference region in which an eye is predicted to be present is determined based on the continuous data, and a first eye reference is stored. Area determining means; An eye tracking state determining unit that tracks continuous data of the eye and determines whether or not the tracking state is normal based on the state of the continuous data; and determines that the eye tracking is abnormal by the eye tracking state determining unit. When performed, left and right region setting means for setting a left and right region capable of detecting continuous data of the left and right eyes based on the reference region, and continuous data of determining whether continuous data appears in the left and right regions Appearance state determination means, and re-detection means for causing the eye opening degree detection means to perform the detection again based on the continuous data when it is determined that continuous data appears in the left and right regions are provided. It is characterized by having.

【0007】請求項3の発明は、顔画像を入力する顔画
像入力手段と、該顔画像入力手段より入力された顔の画
像データの縦方向の画素列における濃度の局所的な高ま
り毎に画素を定めて抽出点とし、該抽出点と隣接する画
素列の抽出点が近接して顔の横方向へ延びる連続データ
に基づき眼の位置を特定する眼の位置特定手段と、該特
定された眼の位置を含む所定領域を設定する所定領域設
定手段と、該所定領域設定手段で設定された所定領域内
で前記連続データに基づき眼の位置を特定し、該連続デ
ータの濃度変化状態から眼の開度を検出する眼の開度検
出手段とを備えた眼の状態検出装置において、前記所定
領域内における眼の連続データを追跡し、該連続データ
の状態に基ずいて追跡状態が正常か否かを判定する眼の
追跡状態判定手段と、該眼の追跡状態判定手段により眼
の追跡異常と判定されたとき、前記基準領域に基づき左
右両眼の連続データを検出し得る左右領域を設定する左
右領域設定手段と、前記左右領域内に連続データが出現
しているか否かを判定する連続データの出現状態判定手
段と、前記連続データが出現していると判定されたとき
は該連続データに基いて前記眼の位置特定手段に前記検
出を再度行わせる再特定手段と、前記再特定手段により
特定された眼の位置情報を基に眼が存在すると予測でき
る眼の基準領域を決定し、記憶する第2の眼の基準領域
決定手段と、前記眼の追跡状態判定手段により眼の追跡
異常と判定されたとき、前記基準領域に前記所定領域を
復帰する第2の復帰手段とを設けたことを特徴とする。
According to a third aspect of the present invention, there is provided a face image input means for inputting a face image, and a pixel for each local increase in density in a vertical pixel row of face image data input from the face image input means. Eye position specifying means for specifying an eye position based on continuous data in which the extraction point of a pixel row adjacent to the extraction point is close to and extending in the lateral direction of the face; and A predetermined area setting means for setting a predetermined area including the position of the eye, and specifying the position of the eye based on the continuous data within the predetermined area set by the predetermined area setting means, from the density change state of the continuous data An eye condition detection apparatus comprising: an eye position detecting means for detecting an opening degree; tracking eye continuous data in the predetermined area; and determining whether a tracking state is normal based on a state of the continuous data. Eye tracking state determination means A left and right region setting unit that sets a left and right region in which continuous data of the left and right eyes can be detected based on the reference region when the eye tracking state determination unit determines that the eye tracking is abnormal; A continuous data appearance state determining means for determining whether or not continuous data has appeared; and, when it is determined that the continuous data has appeared, the eye position specifying means based on the continuous data to perform the detection. A second eye reference area determining means for determining an eye reference area that can be predicted to have an eye based on the eye position information specified by the re-identifying means, and storing the same. A second return means for returning the predetermined area to the reference area when the eye tracking state determination means determines that the eye tracking is abnormal.

【0008】請求項4の発明は、請求項1,2,3記載
の眼の状態検出装置であって、前記第1又は第2の基準
領域決定手段は、眼の位置の検出処理を繰り返して眼の
基準領域を学習することを特徴とする。
According to a fourth aspect of the present invention, there is provided the eye condition detecting apparatus according to the first, second, or third aspect, wherein the first or second reference region determining means repeats the eye position detecting process. It is characterized by learning a reference region of the eye.

【0009】請求項5の発明は、請求項1,2,3記載
の眼の状態検出装置であって、前記第1又は第2の基準
領域決定手段は、眼の開度値の時系列の変化状態を判定
して眼の基準領域を学習することを特徴とする。
According to a fifth aspect of the present invention, there is provided the eye condition detecting apparatus according to the first, second, or third aspect, wherein the first or second reference area determining means determines a time series of eye opening values. It is characterized in that a change state is determined and a reference region of the eye is learned.

【0010】請求項6の発明は、請求項1,2,3記載
の眼の状態検出装置であって、前記第1又は第2の基準
領域決定手段は、複数回の眼の位置の検出処理により安
定的な眼の位置の出力がなされたときに眼の基準領域を
決定することを特徴とする。
According to a sixth aspect of the present invention, there is provided the eye state detecting apparatus according to the first, second, or third aspect, wherein the first or second reference area determining means performs a plurality of eye position detecting processes. When a more stable eye position is output, the reference region of the eye is determined.

【0011】請求項7の発明は、請求項2記載の眼の状
態検出装置であって、前記再検出手段は、前記左右領域
内に横方向に所定間隔で安定して検出できる2個の連続
データがあるときに再検出を行うことを特徴とする。
According to a seventh aspect of the present invention, in the eye condition detecting apparatus according to the second aspect, the re-detecting means is capable of stably detecting the two consecutive areas in the left and right regions at predetermined intervals in the horizontal direction. Redetection is performed when data is present.

【0012】請求項8の発明は、請求項3記載の眼の状
態検出装置であって、前記再特定手段は、前記左右領域
内に横方向に所定間隔で安定して検出できる2個の連続
データがあるときに再検出を行うことを特徴とする。
According to an eighth aspect of the present invention, there is provided the eye condition detecting apparatus according to the third aspect, wherein the re-identifying means is capable of stably detecting the two consecutive areas in the left and right regions at predetermined intervals in the horizontal direction. Redetection is performed when data is present.

【0013】請求項9の発明は、請求項2、3、7、8
記載の眼の状態検出装置であって、前記左右領域内の連
続データが安定して検出できないとき、前記判定を所定
時間延長する判定延長手段を設けたことを特徴とする。
The ninth aspect of the present invention is the second aspect of the present invention.
The eye condition detecting device according to the above, further comprising a determination extending means for extending the determination by a predetermined time when continuous data in the left and right regions cannot be detected stably.

【0014】請求項10の発明は、請求項2、3、7、
8記載の眼の状態検出装置であって、前記左右領域内の
連続データが検出できないとき、前記判定を所定時間延
長する判定延長手段を設けたことを特徴とする。
According to a tenth aspect of the present invention, there is provided the second aspect of the present invention.
8. The eye state detection device according to 8, wherein a determination extending means for extending the determination by a predetermined time when continuous data in the left and right regions cannot be detected is provided.

【0015】請求項11の発明は、請求項2、3、7、
8記載の眼の状態検出装置であって、前記左右領域内の
連続データが安定して検出できないとき及び、前記左右
領域内の連続データが検出できないとき、前記判定を所
定時間延長する判定延長手段を設け、該判定延長手段は
連続データが安定して検出できないときよりも検出でき
ないときの延長時間を長く設定することを特徴とする。
The invention of claim 11 is the invention of claims 2, 3, 7,
8. The eye state detecting device according to claim 8, wherein when the continuous data in the left and right regions cannot be stably detected and when the continuous data in the left and right regions cannot be detected, the determination extending unit extends the determination for a predetermined time. And the determination extension means sets a longer extension time when continuous data cannot be detected than when it cannot be detected stably.

【0016】請求項12の発明は、請求項1〜11記載
の眼の状態検出装置であって、前記追跡状態判定手段
は、前記所定領域内の連続データが移動し、その位置に
所定時間滞留したとき眼の追跡異常と判定することを特
徴とする。
According to a twelfth aspect of the present invention, in the eye condition detecting apparatus according to any one of the first to eleventh aspects, the tracking state determining means moves the continuous data in the predetermined area and stays at the position for a predetermined time. It is characterized in that when it is determined that the eye tracking is abnormal.

【0017】請求項13の発明は、請求項1〜11記載
の眼の状態検出装置であって、前記追跡状態判定手段
は、前記所定領域内の連続データが所定時間検出できな
いとき眼の追跡異常と判定することを特徴とする。
According to a thirteenth aspect of the present invention, in the eye state detecting apparatus according to any one of the first to eleventh aspects, the tracking state determining means is configured to detect an eye tracking abnormality when continuous data in the predetermined area cannot be detected for a predetermined time. Is determined.

【0018】請求項14の発明は、請求項1〜11記載
の眼の状態検出装置であって、前記追跡状態判定手段
は、前記眼の開度値が所定範囲を超えて定常的に検出さ
れるとき眼の追跡異常と判定することを特徴とする。
According to a fourteenth aspect of the present invention, in the eye state detecting device according to any one of the first to eleventh aspects, the tracking state determining means detects that the eye opening value exceeds a predetermined range and is constantly detected. When the eye tracking abnormality is determined.

【0019】請求項15の発明は、請求項1〜14記載
の眼の状態検出装置であって、前記眼の開度検出手段に
より出力される眼の開度状態を判定し、その開閉状態の
変化から覚醒度を判定する覚醒度判定手段と、該覚醒度
判定手段により覚醒度が低下していると判定されたとき
警報を発する警報手段とを設けたことを特徴とする。
According to a fifteenth aspect of the present invention, there is provided the eye state detecting apparatus according to any one of the first to fourteenth aspects, wherein the eye opening state output by the eye opening detecting means is determined, and the open / closed state of the eye is determined. An arousal level determining means for determining the arousal level from the change, and an alarm means for issuing an alarm when the arousal level is determined to be low by the arousal level determining means are provided.

【0020】[0020]

【発明の効果】請求項1の発明では、第1の眼の基準領
域決定手段により眼の位置を特定する連続データに基い
て眼が存在すると予測できる眼の基準領域を決定し、眼
の追跡状態判定手段により眼の追跡異常と判定されたと
きは、復帰手段により、眼の開度を検出する所定領域を
前記基準領域に復帰させることができる。このため、再
度検出を行うときに、初期状態から所定領域の設定まで
の処理を省くことができ、迅速な処理を行わせることが
できる。また、省略した処理の部分での検出ミスのリス
クがなくなり、より精度の良い検出を行うことができ
る。
According to the first aspect of the present invention, the first eye reference area determining means determines an eye reference area in which an eye can be predicted based on continuous data specifying an eye position, and tracks the eye. When the state determination unit determines that the eye tracking is abnormal, the return unit can return the predetermined region for detecting the eye opening to the reference region. Therefore, when the detection is performed again, the processing from the initial state to the setting of the predetermined area can be omitted, and the processing can be performed quickly. In addition, there is no risk of a detection error in the omitted processing, and more accurate detection can be performed.

【0021】請求項2の発明では、第1の眼の基準領域
決定手段により眼の位置を特定する連続データに基いて
眼が存在すると予測できる眼の基準領域を決定し、眼の
追跡状態判定手段により眼の追跡異常と判定されたとき
は、前記基準領域に基づき左右両眼の連続データを検出
し得る左右領域を左右領域設定手段により設定し、出現
状態判定手段により前記左右領域内に連続データが出現
していると判定されたときは該連続データに基いて前記
眼の開度検出手段に前記検出を再度行なわせることがで
きる。このため、再度検出を行うときに、初期状態から
所定領域の設定までの処理を省くことができ、迅速な処
理を行わせることができる。また、省略した処理の部分
での検出ミスのリスクがなくなり、より精度の良い検出
を行うことができる。更に、連続データの左右対称条件
などを用いることができ、より精度良い検出を行わせる
ことができる。
According to the second aspect of the present invention, the first eye reference area determining means determines an eye reference area in which the eye can be predicted based on the continuous data specifying the eye position, and determines the tracking state of the eye. When it is determined by the means that the eye tracking is abnormal, the left and right areas in which continuous data of the left and right eyes can be detected based on the reference area are set by the left and right area setting means, and the appearance state determining means continuously sets the left and right areas in the left and right areas. When it is determined that data has appeared, the eye opening degree detecting means can perform the detection again based on the continuous data. Therefore, when the detection is performed again, the processing from the initial state to the setting of the predetermined area can be omitted, and the processing can be performed quickly. In addition, there is no risk of a detection error in the omitted processing, and more accurate detection can be performed. Furthermore, the left-right symmetry condition of continuous data can be used, and more accurate detection can be performed.

【0022】請求項3の発明では、眼の追跡状態判定手
段により眼の追跡異常と判定されたとき、初期検出の眼
の位置連続データに基づき左右両眼の連続データを検出
し得る左右領域を左右領域設定手段により設定し、前記
左右領域内に連続データが出現していると判定されたと
きは該連続データに基いて再特定手段が前記眼の位置特
定手段に前記検出を再度行わせ、前記再特定手段により
特定された眼の位置情報を基に眼が存在すると予測でき
る眼の基準領域を第2の眼の基準領域決定手段により決
定し、前記眼の追跡状態判定手段により眼の追跡異常と
判定されたときは、第2の復帰手段により、眼の開度を
検出する所定領域を前記基準領域に復帰させることがで
きる。このため、再検出した連続データが眼か否かの判
定を行うための情報として開度値に相当する値の他に、
連続データの左右対称条件等を用いることが可能である
ため、眼の基準領域の検出精度を高めることができる。
また、眼の再検出を行う領域を左右領域に限定している
ため、基準位置の検出時間を短縮することができ、迅速
な処理を行うことができる。
According to the third aspect of the present invention, when the eye tracking state determination means determines that the eye tracking is abnormal, the left and right regions in which the continuous data of the left and right eyes can be detected based on the eye position continuous data of the initial detection. Set by the left and right area setting means, when it is determined that continuous data has appeared in the left and right areas, the re-specification means based on the continuous data the eye position identification means to perform the detection again, A second eye reference region determining unit determines an eye reference region that can predict that an eye is present based on the eye position information specified by the re-identifying unit, and the eye tracking state determining unit determines the eye tracking state. When it is determined that the eye is abnormal, the predetermined area for detecting the degree of eye opening can be returned to the reference area by the second return means. For this reason, in addition to the value corresponding to the opening value as information for determining whether the re-detected continuous data is an eye,
Since it is possible to use a left-right symmetry condition or the like of continuous data, it is possible to improve the detection accuracy of the reference region of the eye.
Further, since the region in which the eye is re-detected is limited to the left and right regions, the detection time of the reference position can be shortened, and quick processing can be performed.

【0023】請求項4の発明では、請求項1又は2記載
の発明の効果に加え、眼の位置の検出処理を繰り返して
眼の基準領域を学習することができ、より精度良い処理
を行うことができる。
According to the fourth aspect of the present invention, in addition to the effects of the first or second aspect of the present invention, the reference position of the eye can be learned by repeating the eye position detection processing, and more accurate processing can be performed. Can be.

【0024】請求項5の発明では、請求項1又は2記載
の発明の効果に加え、眼の開度値の時系列の変化状態を
判定して眼の基準領域を学習することができ、より精度
良い処理を行わせることができる。
According to the fifth aspect of the present invention, in addition to the effects of the first or second aspect, it is possible to learn the reference region of the eye by judging a time-series change state of the eye opening value. Accurate processing can be performed.

【0025】請求項6の発明では、請求項1又は2記載
の発明の効果に加え、複数回の眼の位置の検出処理によ
り安定的な眼の位置の出力がなされたときに眼の基準領
域を決定することができ、より精度良い処理を行わせる
ことができる。
According to the sixth aspect of the present invention, in addition to the effects of the first or second aspect, when the eye position is output stably by a plurality of eye position detection processes, the reference region of the eye is output. Can be determined, and more accurate processing can be performed.

【0026】請求項7の発明では、請求項2記載の発明
の効果に加え、左右領域内に横方向に所定間隔で安定し
て検出できる2個の連続データがあるときに再検出を行
うことができ、連続データの左右対称条件などを用いる
ことでより精度良い処理を行うことができる。
According to a seventh aspect of the present invention, in addition to the effect of the second aspect, re-detection is performed when there are two continuous data which can be stably detected at predetermined intervals in the horizontal direction in the left and right regions. Thus, more accurate processing can be performed by using the left-right symmetry condition of continuous data.

【0027】請求項8の発明では、請求項3記載の発明
の効果に加え、左右領域内に横方向に所定間隔で安定し
て検出できる2個の連続データがあるときに再検出を行
うことができ、連続データの左右対称条件などを用いる
ことでより精度良い処理を行うことができる。
According to an eighth aspect of the present invention, in addition to the effect of the third aspect, re-detection is performed when there are two continuous data which can be stably detected at predetermined intervals in the horizontal direction in the left and right regions. Thus, more accurate processing can be performed by using the left-right symmetry condition of continuous data.

【0028】請求項9の発明では、請求項2、3、7、
8記載の発明の効果に加え、左右領域内の連続データが
安定して検出できないとき、出現状態判定手段の判定を
所定時間延長することができ、連続データをより正確に
捉えることで、より精度良い処理を行わせることができ
る。
According to the ninth aspect of the present invention, there is provided the second aspect of the present invention.
In addition to the effects of the invention described in 8, when the continuous data in the left and right regions cannot be detected stably, the determination by the appearance state determination means can be extended for a predetermined time, and the continuous data can be captured more accurately, thereby achieving more accurate Good processing can be performed.

【0029】請求項10の発明では、請求項2、3、
7、8記載の発明の効果に加え、左右領域内の連続デー
タが検出できないとき、出現状態判定手段の判定を所定
時間延長することができ、連続データをより正確に捉え
ることで、より精度良い処理を行わせることができる。
According to the tenth aspect, in the second aspect,
In addition to the effects of the inventions described in 7 and 8, when the continuous data in the left and right regions cannot be detected, the determination by the appearance state determination means can be extended for a predetermined time, and the continuous data can be more accurately captured, so that more accurate data can be obtained. Processing can be performed.

【0030】請求項11の発明では、請求項2、3、
7、8記載の発明の効果に加え、左右領域内の連続デー
タが安定しないとき及び、左右領域内の連続データが存
在しないとき、出現状態判定手段の判定を所定時間延長
することができ、連続データをより正確に捉えること
で、より精度良い処理を行わせることができる。しか
も、判定延長手段は連続データが安定しないときよりも
存在しないときの延長時間を長く設定するので、連続デ
ータが存在しないときでも、延長時間後に連続データを
より正確に捉えることで、より精度良い処理を行わせる
ことができる。
According to the eleventh aspect, in the second aspect,
In addition to the effects of the inventions described in 7 and 8, when the continuous data in the left and right areas is not stable and when there is no continuous data in the left and right areas, the determination by the appearance state determination means can be extended for a predetermined time. By capturing data more accurately, more accurate processing can be performed. Moreover, the determination extension means sets the extension time when the continuous data does not exist longer than when the continuous data is not stable, so that even when the continuous data does not exist, the continuous data is more accurately captured after the extension time, so that the accuracy is improved. Processing can be performed.

【0031】請求項12の発明では、請求項1〜11記
載の発明の効果に加え、所定領域内の連続データが移動
し、その位置に所定時間滞留したとき眼の追跡異常と判
定することができ、顔の早い動きなどがあって眼の回り
のノイズである眼鏡などの連続データが追跡されそうに
なってもこれを的確にキャンセルし、精度の高い再検出
を行わせることができる。
According to the twelfth aspect of the invention, in addition to the effects of the first to eleventh aspects, when continuous data in a predetermined area moves and stays at the position for a predetermined time, it is determined that the eye tracking is abnormal. Thus, even if continuous data such as eyeglasses, which are noises around the eyes due to a fast movement of the face, is likely to be tracked, the data can be accurately canceled and redetected with high accuracy.

【0032】請求項13の発明では、請求項1〜11記
載の発明の効果に加え、所定領域内の連続データが所定
時間検出できないとき眼の追跡異常と判定することがで
き、光環境の変化などがあっても精度の高い再検出を行
わせることができる。
According to the thirteenth aspect, in addition to the effects of the first to eleventh aspects, when continuous data in a predetermined area cannot be detected for a predetermined time, it can be determined that there is an eye tracking abnormality, and a change in the light environment. Even if there is, for example, highly accurate re-detection can be performed.

【0033】請求項14の発明では、請求項1〜11記
載の発明の効果に加え、眼の開度値が所定範囲を超えて
定常的に検出されるとき眼の追跡異常と判定することが
でき、顔を大きく横に動かす等したときでも精度の高い
再検出を行わせることができる。
In the fourteenth aspect, in addition to the effects of the first to eleventh aspects, when the eye opening value exceeds the predetermined range and is constantly detected, it is determined that the eye tracking is abnormal. This makes it possible to perform highly accurate re-detection even when the face is largely moved sideways.

【0034】請求項15の発明では、請求項1〜14記
載の発明の効果に加え、覚醒度が低下していると判定さ
れたとき正確に警報を発することができる。
According to the fifteenth aspect, in addition to the effects of the first to fourteenth aspects, it is possible to accurately issue an alarm when it is determined that the arousal level is decreasing.

【0035】[0035]

【発明の実施の形態】本装置は、自動車の他に鉄道車
両、船舶、プラントのオペレータ等の居眠り運転警報と
して用いることができるが、本実施例では自動車に適用
した場合で説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present apparatus can be used as a drowsy driving alarm for operators of railway vehicles, ships, plants and the like in addition to automobiles, but this embodiment will be described as applied to automobiles.

【0036】図1は、本発明の一実施形態を適用した眼
の状態検出装置及び居眠り運転警報装置の機能ブロック
図にかかり、該装置は、画像入力手段CL1と、画素列の
濃度検出手段CL2と、ポイント抽出手段CL3と、連続デー
タの抽出手段CL4と、眼の位置検出手段CL5と、ポイント
抽出手段CL6と、眼の開度検出手段CL7と、第1の眼の基
準領域決定手段CL8と、眼の追跡状態判定手段CL9と、第
1の復帰手段CL10と、覚醒度判定手段CL11と、警報手段
CL12とを備えている。
FIG. 1 is a functional block diagram of an eye condition detecting device and a drowsy driving alarm device to which one embodiment of the present invention is applied. The device includes an image input means CL1 and a pixel row density detecting means CL2. Point extracting means CL3, continuous data extracting means CL4, eye position detecting means CL5, point extracting means CL6, eye opening detecting means CL7, first eye reference area determining means CL8, Eye tracking state determination means CL9, first return means CL10, arousal level determination means CL11, alarm means
With CL12.

【0037】前記画像入力手段CL1は、顔画像を入力す
る。前記画素列の濃度検出手段CL2は、前記入力した顔
の画像データの縦方向の画素列における濃度の局所的な
高まりを検出する。前記ポイント抽出手段CL3は、前記
画素列における濃度の高まりとその変化状態によりポイ
ントを検出する。前記連続データの抽出手段CL4は隣接
する画素列の画素列方向に近接したポイントを連続して
顔の横方向への連続データを抽出する。前記眼の位置検
出手段CL5は、前記連続データに基づき眼の位置を検出
する。これら、画素列の濃度検出手段CL2と、ポイント
抽出手段CL3と、連続データの抽出手段CL4と、眼の位置
検出手段CL5とで本願発明の眼の位置特定手段を構成し
ている。
The image input means CL1 inputs a face image. The pixel line density detecting means CL2 detects a local increase in the density of the input face image data in the vertical pixel line. The point extracting means CL3 detects points based on the increase in the density in the pixel row and its change state. The continuous data extracting means CL4 extracts continuous data in the horizontal direction of the face by continuously connecting points adjacent to each other in the pixel column direction. The eye position detecting means CL5 detects an eye position based on the continuous data. These pixel row density detecting means CL2, point extracting means CL3, continuous data extracting means CL4, and eye position detecting means CL5 constitute an eye position specifying means of the present invention.

【0038】前記ポイント抽出手段CL6は、特定された
眼の位置を含む所定領域を設定して該所定領域内で縦方
向の画素列の濃度の高まり毎に画素を定めて抽出点と
し、隣接する抽出点を連続して顔の横方向に延びる連続
データに基づき眼の位置を特定する。なお、ポイント抽
出手段CL6で検出する連続データは、前記ポイント抽出
手段CL3で検出する連続データよりも微細であり、正確
な検出を行うようになっているが、後者を前者と同等の
荒さで検出することにより、処理を早める構成にするこ
ともできる。前記眼の開度検出手段CL7は、所定領域内
の連続データの濃度変化状態から眼の開度を検出する。
これら、ポイント抽出手段CL6と、眼の開度検出手段CL7
とで本願発明の所定領域設定手段及び眼の開度検出手段
を構成している。
The point extracting means CL6 sets a predetermined area including the specified eye position, determines a pixel for each increase in the density of the pixel row in the vertical direction in the predetermined area, sets the pixel as an extraction point, and sets an adjacent point. The position of the eye is specified based on continuous data extending in the horizontal direction of the face continuously at the extraction points. Note that the continuous data detected by the point extracting means CL6 is finer than the continuous data detected by the point extracting means CL3, and performs accurate detection.However, the latter is detected with the same roughness as the former. By doing so, it is possible to adopt a configuration in which the processing is accelerated. The eye opening detecting means CL7 detects the eye opening from the density change state of the continuous data in the predetermined area.
These point extracting means CL6 and eye opening detecting means CL7
These constitute the predetermined area setting means and the eye opening degree detecting means of the present invention.

【0039】前記眼の基準領域決定手段CL8は、前記連
続データに基ずいて眼が存在すると予測できる眼の基準
領域としての基準位置を決定する。
The eye reference region determining means CL8 determines a reference position as an eye reference region in which an eye can be predicted based on the continuous data.

【0040】前記眼の追跡状態判定手段CL9は、前記所
定領域内における眼の連続データを追跡し、該連続デー
タの状態に基ずいて追跡状態が正常か否かを判定する。
The eye tracking state determination means CL9 tracks continuous data of the eye within the predetermined area, and determines whether the tracking state is normal based on the state of the continuous data.

【0041】前記第1の復帰手段CL10は、前記眼の追跡
状態判定手段により眼の追跡異常と判定されたとき、前
記基準位置に前記所定領域を復帰する。
The first return means CL10 returns the predetermined area to the reference position when the eye tracking state determining means determines that the eye tracking is abnormal.

【0042】前記覚醒度判定手段CL11は、前記眼の開度
判定手段により出力される眼の開度状態を判定し、その
開閉状態の変化から覚醒度を判定する。
The arousal level determining means CL11 determines the state of the eye opening output from the eye opening determining means, and determines the arousal level from the change in the open / closed state.

【0043】前記警報手段CL12は、覚醒度判定手段によ
り覚醒度が低下していると判定されたときブザーなどの
警報を発する。
The alarm means CL12 issues an alarm such as a buzzer when the alertness determining means determines that the alertness is lowered.

【0044】図2は、本発明の一実施形態にかかる構成
ブロック図である。
FIG. 2 is a configuration block diagram according to an embodiment of the present invention.

【0045】同図のように、自動車のインストルメント
に設置され、運転者の顔部分を正面から撮影する画像入
力手段CL1としてのTVカメラ21が備えられ、TV
カメラ21の入力画像は本実施形態では、横(X)方向
512画素、縦(Y)方向480画素からなる。
As shown in the figure, a TV camera 21 is provided as an image input means CL1 which is installed in an instrument of a car and takes a picture of a driver's face from the front.
In the present embodiment, the input image of the camera 21 is composed of 512 pixels in the horizontal (X) direction and 480 pixels in the vertical (Y) direction.

【0046】前記TVカメラ21で撮影された入力画像
は、A−D変換器22を介して、デジタル量の入力画像
データとして画像メモリ23に格納される。画像メモリ
23の出力は、画像データ演算回路24に入力される。
The input image captured by the TV camera 21 is stored in the image memory 23 via the A / D converter 22 as digital image input image data. The output of the image memory 23 is input to the image data operation circuit 24.

【0047】画像データ演算回路24は、前記入力画像
データに基ずいて顔の縦方向の画素列の濃度を検出し、
画素列における濃度の高まりとその変化状態によりポイ
ントを抽出し(抽出点)、隣接する画素列の画素列方向
に近接したポイントを連続して顔の横方向への連続デー
タを抽出する。即ちこの画像データ演算回路24は、前
記画素列の濃度検出手段CL2、前記ポイント抽出手段
CL3、及び前記連続データの抽出手段CL4を構成し
ている。画像データ演算回路24の出力は、眼の位置検
出回路25に入力される。
The image data arithmetic circuit 24 detects the density of the vertical pixel row of the face based on the input image data,
Points are extracted (extracted points) based on the increase in the density in the pixel row and its change state, and points adjacent to the adjacent pixel row in the pixel row direction are continuously extracted in the horizontal direction of the face. That is, the image data calculation circuit 24 constitutes the density detection means CL2 of the pixel row, the point extraction means CL3, and the continuous data extraction means CL4. The output of the image data calculation circuit 24 is input to the eye position detection circuit 25.

【0048】眼の位置検出回路25は、前記連続データ
から眼の選択を行うことで眼の位置を検出する。即ちこ
の眼の位置検出回路25は、前記眼の位置検出手段CL
5を構成している。眼の位置検出回路25の出力は、開
閉眼検出回路26に入力される。
The eye position detecting circuit 25 detects an eye position by selecting an eye from the continuous data. That is, the eye position detecting circuit 25 is provided with the eye position detecting means CL.
5. The output of the eye position detection circuit 25 is input to the open / closed eye detection circuit 26.

【0049】開閉眼検出回路26は、眼を含む所定領域
(眼の追跡領域)を設定し、該所定領域内で縦方向への
濃度の高まりとその変化状態からポイントを抽出し(抽
出点)、隣接する画素列の画素列方向に近接したポイン
トを連続して顔の横方向への連続データを抽出し、前記
ポイントにより特定された範囲の連続データの濃度変化
状態から眼の開度を検出する。即ちこの開閉眼検出回路
26は、前記眼の開度検出手段CL7を構成している。
開閉眼検出回路26の出力は、バックアップ回路27に
入力される。
The open / closed eye detection circuit 26 sets a predetermined area including the eyes (eye tracking area), and extracts points in the predetermined area from the increase in density in the vertical direction and its change state (extraction point). Extracting continuous data in the horizontal direction of the face by continuously connecting points adjacent to each other in the pixel column direction of the adjacent pixel column, and detecting the opening degree of the eye from the density change state of the continuous data in the range specified by the point I do. That is, the open / closed eye detection circuit 26 constitutes the eye opening degree detection means CL7.
The output of the open / closed eye detection circuit 26 is input to the backup circuit 27.

【0050】バックアップ回路27は、前記連続データ
に基ずいて眼が存在すると予測できる眼の基準位置を決
定し、前記所定領域内における眼の連続データを追跡
し、該連続データの状態に基ずいて眼の追跡状態が正常
か否かを判定し、眼の追跡異常と判断され眼の追跡失敗
が確認された時に眼の追跡領域を事前に学習した眼の基
準位置に前記所定領域を復帰させる。即ちこのバックア
ップ回路27は、前記第1の眼の基準領域決定手段CL
8と、前記眼の追跡状態判定手段CL9と、前記第1の
復帰手段CL10とを構成している。バックアップ回路
27の出力は、覚醒度判定回路28に入力される。
The backup circuit 27 determines a reference position of the eye that can be predicted to have an eye based on the continuous data, tracks the continuous data of the eye within the predetermined area, and based on the state of the continuous data. Determining whether or not the eye tracking state is normal, and returning the predetermined area to the reference position of the eye in which the eye tracking area has been learned in advance when the eye tracking abnormality is determined and the eye tracking failure is confirmed. . That is, the backup circuit 27 is provided with the first eye reference area determining means CL.
8, the eye tracking state determination means CL9, and the first return means CL10. The output of the backup circuit 27 is input to the arousal level determination circuit 28.

【0051】覚醒度判定回路28は、前記開閉眼検出回
路26より送出される開閉眼の検出結果から覚醒度を判
定する。即ちこの覚醒度判定回路28は、前記覚醒度判
定手段CL11を構成している。覚醒度判定回路28の
出力は、警報装置29に入力される。警報装置29は、
覚醒度が低下したと判定された場合に運転者に注意を促
す警報を発する。即ちこの警報装置29は、前記警報手
段CL12を構成している。
The arousal level determination circuit 28 determines the arousal level based on the detection result of the open / closed eye sent from the open / closed eye detection circuit 26. That is, the arousal level determination circuit 28 constitutes the arousal level determination means CL11. The output of the arousal level determination circuit 28 is input to the alarm device 29. The alarm device 29
When it is determined that the arousal level has decreased, an alarm is issued to call attention to the driver. That is, the alarm device 29 constitutes the alarm means CL12.

【0052】次に、上記構成における動作全体の流れ
を、図3と図4のフローチャートに基づいて説明する。
まず、ステップ301において、TVカメラ21によっ
て顔部分が撮影され、ステップ302で1フレーム分の
入力画像がA−D変換器でデジタル信号に変換されたう
え画像メモリに格納される。
Next, the flow of the entire operation in the above configuration will be described with reference to the flowcharts of FIGS.
First, in step 301, a face portion is photographed by the TV camera 21, and in step 302, an input image for one frame is converted into a digital signal by an AD converter and stored in an image memory.

【0053】次に、ステップ303において、眼の追跡
領域が設定されているかどうかをチェックする。眼の追
跡領域とは、画像全体の中で眼を含む所定領域として設
定された領域を示しこの領域内に出現する連続データの
位置を検出することによって眼の詳細位置を認識し、そ
の特定された位置の濃度データを読み出すことにより眼
の開度検出を行っている。また、この所定領域内に出現
する連続データの詳細位置を基に次の取り込み画像での
処理領域を設定することによって眼の位置変化に対応で
きるようにしている。
Next, in step 303, it is checked whether or not an eye tracking area has been set. The eye tracking area refers to an area set as a predetermined area including the eyes in the entire image, recognizes the detailed position of the eye by detecting the position of continuous data appearing in this area, and identifies the eye. The opening degree of the eye is detected by reading out the density data at the shifted position. Further, by setting a processing area in the next captured image based on the detailed position of the continuous data appearing in the predetermined area, it is possible to cope with a change in eye position.

【0054】眼の追跡領域が設定されていない場合は、
ステップ304およびステップ305において、眼の追
跡領域となる横方向(X方向)の幅と縦方向の(Y方
向)の幅を設定する。なお、眼の位置検出の詳細は図5
のフローチャートと、図6〜図11に示す説明図により
後述する。
If the eye tracking area has not been set,
In steps 304 and 305, a width in the horizontal direction (X direction) and a width in the vertical direction (Y direction) to be the tracking areas of the eyes are set. The details of eye position detection are shown in FIG.
This will be described later with reference to the flowchart of FIG.

【0055】ステップ303で眼の追跡領域が設定され
ていると判断された場合、ステップ306で眼の開度と
詳細な位置検出が行われる。この処理の詳細は図12の
フローチャートと、図13〜図15に示す説明図により
後述する。
If it is determined in step 303 that the eye tracking area has been set, then in step 306 the eye opening and detailed position detection are performed. Details of this processing will be described later with reference to the flowchart of FIG. 12 and the explanatory diagrams shown in FIGS.

【0056】その後、ステップ307において、眼の開
度値が正常か否かを判断し、正常である場合は、図4の
ステップ401に移行する。ステップ401では眼の基
準位置が学習されているか否かを判断する。初期状態で
のこのステップの判断は、当然学習されていないとされ
るため、ステップ403に移行し眼の基準位置の学習を
開始する。眼の基準位置の学習方法は、眼の開度値の出
力状態が通常眼の大きさと考えられる範囲の変化を続け
ていることと、そのデータが滞留する位置が存在するこ
とを条件に眼の基準位置をメモリする。この場合、デー
タが滞留するとは、眼の基準位置に、安全確認などによ
る眼の動きとして考えるには長すぎる時間(例えば3
秒)以上止まっていることを言う。
Thereafter, in step 307, it is determined whether or not the eye opening value is normal, and if it is normal, the process proceeds to step 401 in FIG. In step 401, it is determined whether or not the reference position of the eye has been learned. Since the judgment in this step in the initial state is naturally not learned, the flow shifts to step 403 to start learning the reference position of the eye. The method of learning the reference position of the eye is based on the condition that the output state of the eye opening value continues to change in the range considered to be the size of the normal eye and that there is a position where the data stays. Store the reference position. In this case, data stays at a reference position of the eye for too long time (for example, 3
S) for more than a second.

【0057】ステップ403で眼の基準位置を学習しな
がらステップ404で眼の開度値に基づく開閉眼の判定
を行い、ステップ405で眼の追跡領域の更新を行い、
更にステップ406で閉眼出力の出現パターンによる覚
醒度の判定を行う。ステップ406で閉眼と判定される
結果が連続して認識され長い閉眼が発生していると判断
される場合は、運転者に注意を促す警報を発する。
At step 403, while learning the reference position of the eye, at step 404 an open / closed eye is determined based on the eye opening value, and at step 405, the tracking area of the eye is updated.
Further, in step 406, the arousal level is determined based on the appearance pattern of the closed-eye output. If it is determined in step 406 that the eyes are continuously closed and it is determined that long eyes are closed, an alarm is issued to alert the driver.

【0058】ステップ406で覚醒度の判定後は、ステ
ップ301に戻り次の画像入力を行い同様の処理を続け
る。この処理の流れの中で、眼の開度値が通常の眼の大
きさの範囲から外れ極端に大きくなったり(眉毛の濃い
人など)、小さくなった(口の線など)場合において
は、ステップ307で眼の開度値が異常であると認識
し、ステップ308に移行する。ステップ308では、
眼の開度値の異常状態が一時的なものか、定常的なもの
かを複数回の処理で確認し、定常的なものであると判定
された場合は、ステップ309で眼の追跡領域をクリア
する。
After the determination of the arousal level in step 406, the process returns to step 301 to input the next image, and the same processing is continued. In this processing flow, if the eye opening value is out of the normal eye size range and becomes extremely large (such as a person with dark eyebrows) or small (such as the line of the mouth) In step 307, it is recognized that the eye opening value is abnormal, and the process proceeds to step 308. In step 308,
It is confirmed by a plurality of processes whether the abnormal state of the eye opening value is temporary or stationary, and if it is determined that the state is abnormal, the tracking area of the eye is determined in step 309. clear.

【0059】その後、ステップ301〜ステップ303
へと同様の処理を繰り返すが、ステップ303の判定で
は、定常的な眼の開度値異常の発生により眼の追跡領域
がクリアされているため、このフローを流れる場合にお
いては、画像全体からの眼の位置検出を再度行うことに
なる。
Thereafter, Step 301 to Step 303
The same processing as described above is repeated, but in the determination of step 303, since the tracking area of the eye has been cleared due to the occurrence of a steady eye opening value abnormality, when this flow is performed, The eye position detection will be performed again.

【0060】ステップ403で眼の基準位置の学習後、
ステップ401からステップ402に流れるフローとな
った場合において、ステップ402で眼の追跡に失敗し
たと判定される時は、ステップ407に移行し、眼の基
準位置への追跡領域を復帰させてステップ301に戻り
次の画像入力を行い同様の処理を続ける。
After learning the reference position of the eye in step 403,
If it is determined in step 402 that the eye tracking has failed in the flow from step 401 to step 402, the process proceeds to step 407, and the tracking area to the reference position of the eye is returned to step 301. Then, the next image is input and the same processing is continued.

【0061】つまり、運転者の顔の速い動きや、光環境
の悪化、眼鏡を掛けている場合の眼の回りのノイズの影
響で眼の追跡ミスをした場合、ステップ402でその移
動量とその位置への滞留時間で追跡ミスを認識し、運転
者が車両前方を見て運転をしている時に最も眼が存在す
る確立が高い眼の基準位置に眼の追跡領域を戻すことに
よって、精度の高い眼の再検出を一瞬で行うことができ
る。この処理による作動状態の詳細は図17〜図19に
示す説明図により後述する。また、具体的な眼の追跡方
法の詳細については図16の説明図より後述する。
That is, if the eye tracking error is made due to the rapid movement of the driver's face, the deterioration of the light environment, or the noise around the eyes when wearing glasses, the movement amount and the Recognition of the tracking error based on the dwell time at the position and returning the eye tracking area to the reference position of the eye where the eye is most likely to be present when the driver is looking ahead of the vehicle and driving, thereby improving accuracy. High eye re-detection can be performed in an instant. Details of the operation state by this processing will be described later with reference to the explanatory diagrams shown in FIGS. Details of a specific eye tracking method will be described later with reference to the explanatory diagram of FIG.

【0062】次に眼の位置検出の詳細を説明する。Next, details of the eye position detection will be described.

【0063】眼の位置検出処理の流れを、図5のフロー
チャートに基づいて説明する。まず、ステップ501で
は図6に示すようにY軸方向にライン上のデータに対し
てポイント抽出の処理を行い、1ライン終了後に、一つ
隣のラインの処理に移し、所定方向の全ラインでのポイ
ント抽出が終了したか否かを判断する。
The flow of the eye position detection process will be described with reference to the flowchart of FIG. First, in step 501, point extraction processing is performed on data on a line in the Y-axis direction, as shown in FIG. It is determined whether or not the point extraction has been completed.

【0064】ステップ501で全ラインにおいてポイン
ト抽出が行われていないと判断された場合は、ステップ
502に移行する。このステップ502では、所定方向
の1ラインの濃度値の相加平均演算を行う。この処理
は、画像データ撮影時の濃度値の変化の小さなばらつき
を無くすることを目的としており、濃度値の大局的な変
化を捉えるためである。図7(a)は、図6のXaのラ
インデータの相加平均演算の処理結果を示す。
If it is determined in step 501 that point extraction has not been performed on all lines, the process proceeds to step 502. In this step 502, arithmetic mean calculation of density values of one line in a predetermined direction is performed. This processing is intended to eliminate small variations in the change in density value at the time of capturing image data, and to capture a global change in density value. FIG. 7A shows a processing result of the arithmetic averaging operation of the line data of Xa in FIG.

【0065】図5のステップ503では、ステップ50
2の演算結果である相加平均値における微分演算を行
う。この処理結果を図7(b)に示す。図5のステップ
504では、ステップ503の演算結果である微分値に
よるポイント抽出を行う。そのポイントの抽出方法は、
微分値が負から正に変化するポイント(p1〜p5)、
図7(a)でいうと、グラフが下向きに凸になるポイン
トを抽出する。次にそのポイントに達するまでの濃度値
の変化(q1〜q5)が所定値以下であるか否か、即ち
図7(b)のグレーの部分に入るか否かを判定し、所定
値以下の濃度値の変化を持つポイントを対象としてY座
標値(A1〜A3)を抽出する。この処理が1ライン終
了後、ステップ505で、次のラインの処理に切り換え
ていく。
In step 503 of FIG.
The differential operation is performed on the arithmetic average value that is the operation result of Step 2. FIG. 7B shows the processing result. In step 504 of FIG. 5, point extraction is performed using the differential value that is the result of the calculation in step 503. The method of extracting that point is
Points where the differential value changes from negative to positive (p1 to p5),
In FIG. 7A, a point where the graph becomes convex downward is extracted. Next, it is determined whether or not the change in the density value (q1 to q5) until the point is reached is equal to or less than a predetermined value, that is, whether or not the density value falls within a gray portion in FIG. The Y coordinate values (A1 to A3) are extracted for points having a change in density value. After this process is completed for one line, the process is switched to the process for the next line in step 505.

【0066】この処理を繰り返す中で、例えば図6に示
すXbのようなラインの場合、図8(a)、(b)から
も分かるように抽出ポイントがない場合もある。
During the repetition of this processing, for example, in the case of a line like Xb shown in FIG. 6, there is a case where there is no extraction point as can be seen from FIGS. 8 (a) and 8 (b).

【0067】ステップ501で全ラインのポイント抽出
が終了したと判断されると、図9に示すようなポイント
が抽出される。つまり図9のXcライン上では、A1,
A2,の二つのポイントが抽出されており、Xdライン
上では、A1,A2,A3,A4の四つのポイントが抽
出されていることになる。
If it is determined in step 501 that point extraction for all lines has been completed, points as shown in FIG. 9 are extracted. That is, on the Xc line in FIG.
Two points of A2 are extracted, and four points of A1, A2, A3, and A4 are extracted on the Xd line.

【0068】その後、図5のステップ506へ移行し、
隣合う各ラインの抽出ポイント(A1,A2,A3…)
のY座標値を比較し、Y座標値が所定値以内の場合、連
続データとして、連続データのグループ番号、連続
開始ライン番号、連続データ数をメモリする。この具
体的な処理内容を図10を用いて説明する。
Thereafter, the process proceeds to step 506 in FIG.
Extraction points of adjacent lines (A1, A2, A3 ...)
Are compared, and if the Y coordinate value is within a predetermined value, the continuous data group number, continuous start line number, and continuous data number are stored as continuous data. This specific processing will be described with reference to FIG.

【0069】ライン1には、Y座標値が192と229
の二つの抽出ポイントがある。ライン1のY座標値が1
92のポイントは左隣りのラインが存在しないので、こ
の段階での連続データはないため、連続データのグル
ープ番号は“1”となる。また、Y座標値229のポイ
ントも同様の理由でこの段階での連続データは存在しな
いため、連続データのグループ番号は、その次の
“2”とする。次に、右隣りのライン2には、Y座標値
が191と224の二つの抽出ポイントがある。ライン
2のY座標値191のポイントは、左隣りのライン1の
Y座標値192と10以内のポイントであるため、連続
データのグループ番号を“1”とする。この時、連続
データ数は2となる。ライン2のY座標値224のポイ
ントにおいても同様の判定を行うと連続データのグル
ープ番号は“2”、連続データ数は2となる。
Line 1 has Y coordinate values of 192 and 229
There are two extraction points. Y coordinate value of line 1 is 1
At point 92, there is no line adjacent to the left, and there is no continuous data at this stage, so the group number of the continuous data is "1". In addition, since there is no continuous data at this stage at the point of the Y coordinate value 229 for the same reason, the group number of the continuous data is set to the next “2”. Next, in line 2 on the right side, there are two extraction points whose Y coordinate values are 191 and 224. Since the point of the Y coordinate value 191 of the line 2 is a point within 10 with the Y coordinate value 192 of the line 1 on the left, the group number of the continuous data is set to “1”. At this time, the number of continuous data is two. When the same determination is performed at the point of the Y coordinate value 224 of the line 2, the group number of the continuous data is “2” and the number of continuous data is 2.

【0070】また、図5のステップ506での連続開
始ライン番号は、連続データ数が1と判断されるポイ
ントを有するライン番号のことをいう。
The continuous start line number in step 506 in FIG. 5 refers to a line number having a point where the number of continuous data is determined to be one.

【0071】次に図10においてライン3のY座標値3
60ポイントでは、左隣りのライン2に360と10以
内になるポイントが存在しないので、連続データのグ
ループ番号は、“3”となり、連続データ数は1とな
る。
Next, in FIG.
At 60 points, there are no points within 360 and 10 in line 2 on the left, so the group number of continuous data is “3” and the number of continuous data is 1.

【0072】図5のステップ506では、このようにし
て各ラインのポイントの連続性の判断を全ラインにおい
て終了するまで行い、ステップ507へ移行する。
At step 506 in FIG. 5, the continuity of the points on each line is determined until the processing is completed for all the lines, and the process proceeds to step 507.

【0073】ステップ507では、同じ連続データグル
ープ番号を持つポイントのY座標値の平均値を連続ポ
イントの平均値にメモリする。この値は、そのグループ
の代表Y座標値として用いることができる。また、連続
開始ラインとその連続データ数から連続終了ラインを求
め、連続開始ラインと連続終了ラインの平均値をメモリ
する。この値は、そのグループの代表X座標値として用
いることができる。
In step 507, the average value of the Y coordinate values of the points having the same continuous data group number is stored in the average value of the continuous points. This value can be used as a representative Y coordinate value of the group. Further, a continuous end line is obtained from the continuous start line and the number of continuous data, and an average value of the continuous start line and the continuous end line is stored. This value can be used as the representative X coordinate value of the group.

【0074】このようにして得られた、各連続グループ
データを、ステップ508で、各連続グループの長さ,
(X,Y)座標値により判定することにより、眼の位置
が特定できる。
At step 508, the length of each continuous group,
By determining based on (X, Y) coordinate values, the position of the eye can be specified.

【0075】ここで図11を用いて具体的な眼の位置検
出方法について説明する。
Here, a specific eye position detecting method will be described with reference to FIG.

【0076】まず始めに眼の特徴量を考えると、横に長
く、上に凸型の弓形形状であると定義付けることがで
き、この定義付けに基づいて連続データの絞り込みを行
うと、眼は横に長いという条件から、ポイント連続数が
5ポイント以上続き、また、弓形形状であるという条件
から、連続開始ポイントと連続終了ポイントのY座標値
の差は、小さい連続データに絞り込むことができる。こ
の判定に基づき連続データの絞り込みを行うと、図11
(a)に示すようなグループG1〜G6が抽出される。
First, considering the characteristic amount of the eye, it can be defined that the shape is long and laterally convex and upwardly convex. When the continuous data is narrowed down based on this definition, the eye becomes horizontal. , The difference between the Y coordinate values of the continuous start point and the continuous end point can be narrowed down to small continuous data, based on the condition that the number of continuous points continues for 5 or more points, and the condition of an arc shape. When narrowing down the continuous data based on this determination, FIG.
Groups G1 to G6 as shown in FIG.

【0077】次に前述した各グループのX,Yの代表座
標値の位置を考えると、図11(b)に示すように、X
座標方向での接近度合いより、ZONE:L,ZON
E:C,ZONE:Rに分類できる。これは、左眼と左
眉でX座標方向に大きく離れることはなく、また右眼と
右眉でX座標方向に大きく離れることはないからであ
る。また鼻下の影により連続データとなったものや、口
の連続データは中央部付近に位置する。
Next, considering the positions of the representative coordinate values of X and Y of each group described above, as shown in FIG.
From the degree of approach in the coordinate direction, ZONE: L, ZON
It can be classified into E: C and ZONE: R. This is because the left eye and the left eyebrow do not greatly separate in the X coordinate direction, and the right eye and the right eyebrow do not greatly separate in the X coordinate direction. Further, continuous data due to the shadow under the nose and continuous data of the mouth are located near the center.

【0078】このようにX座標方向の接近度合いで、更
にデータを分類し、データを絞り込んで行くことで眼の
位置検出を容易に行うことができる。ZONE:Lに含
まれる連続データとしては、左眼と左眉であり、ZON
E:Rに含まれる連続データは右眼と右眉であると判定
すると、眼の位置はG3,G4であり、その座標値も特
定できる。このように眼の位置検出は両眼を対象として
行うことができるが、居眠り検出を目的とした場合、片
方の眼だけを閉じて眠る運転者はいないと思われること
から、これ以降説明する開閉眼検出については、片方の
眼(左眼)に限定している。この運転者の片方の眼(左
眼)に限定した理由には、単に演算処理時間を節約する
ためだけでなく、右ハンドル車の場合、左眼よりもサイ
ドウィンドに近く直射光が当りやすい右眼は、光の強さ
により眼の形状が捉えにくくなる可能性が大きいため、
直射光の当たる確率が右眼よりも小さい左眼に限定した
ほうが開閉眼検出精度が向上する。従って、左ハンドル
車の場合は、右眼に限定すると良い。
As described above, the data is further classified according to the degree of approach in the X coordinate direction, and the position of the eye can be easily detected by narrowing down the data. The continuous data included in ZONE: L includes the left eye and the left eyebrow.
E: If it is determined that the continuous data included in R is the right eye and the right eyebrow, the positions of the eyes are G3 and G4, and the coordinate values thereof can be specified. In this way, eye position detection can be performed for both eyes, but for the purpose of dozing detection, it is assumed that no driver will sleep with only one eye closed. Eye detection is limited to one eye (left eye). The reason for limiting to one eye (left eye) of the driver is not only to save the calculation processing time, but also in the case of a right-hand drive vehicle, the right-handed vehicle is closer to the side window than the left eye and is likely to receive direct light. Eyes are more likely to be difficult to catch the shape of the eye due to the intensity of light,
Opening / closing eye detection accuracy is improved by limiting the probability of direct light to the left eye to be smaller than the right eye. Therefore, in the case of a left-hand drive vehicle, it is better to limit the vehicle to the right eye.

【0079】次に図3のステップS306の眼の開度検
出の詳細を説明する。
Next, the details of the eye opening detection in step S306 in FIG. 3 will be described.

【0080】眼の開度値を検出する方法としては、図1
4に示すように肌の白い部分から眼の黒い部分への濃度
変化が最大となる所のQ点と、眼の黒い部分から肌の白
い部分への濃度変化が最大となる所のR点の間隔を求め
るものと、これから図12のフローチャートを用いて説
明する二値化閾値を設定して眼の黒い部分の縦幅を求め
るものがある。
FIG. 1 shows a method for detecting the eye opening value.
As shown in FIG. 4, the point Q where the density change from the white part of the skin to the black part of the eye is maximum, and the point R where the density change from the black part of the eye to the white part of the skin is maximum There is a method of calculating the interval, and a method of setting a binarization threshold, which will be described with reference to a flowchart of FIG.

【0081】それでは、これより二値化閾値を設定して
の眼の開度検出処理の詳細について説明する。
Now, the details of the eye opening detection processing by setting the binarization threshold will be described.

【0082】まず始めに開度検出を行う二値化画像へ変
換するための二値化閾値設定方法の流れを、図12のフ
ローチャートに基づいて説明する。まず、ステップ12
01では図13(a)に示すようにY軸方向にライン上
のデータに対してポイント抽出の処理を行い1ライン終
了後に、一つ隣りのラインの処理に移行し、所定方向の
全ラインでのポイント抽出が終了したか否かを判断す
る。ステップ1201で全ラインにおいてポイント抽出
が行われていないと判断された場合は、ステップ120
2に移行する。
First, the flow of a binarization threshold value setting method for converting into a binarized image for which the opening is detected will be described with reference to the flowchart of FIG. First, step 12
In FIG. 13A, point extraction processing is performed on the data on the line in the Y-axis direction as shown in FIG. 13A, and after one line is completed, the processing shifts to the processing of the next adjacent line. It is determined whether or not the point extraction has been completed. If it is determined in step 1201 that point extraction has not been performed on all lines, step 120
Move to 2.

【0083】このステップ1202では、所定方向の1
ラインの濃度値の相加平均演算を行う。この処理は、画
像データ撮影時の濃度値の変化の小さなばらつきを無く
すことを目的としており、濃度値の大局的な変化を捉え
るためである。図13(b)に、図13(a)のXaの
ラインデータの相加平均演算の処理結果を示す。
In this step 1202, 1 in the predetermined direction
The arithmetic operation of the density value of the line is performed. This processing is intended to eliminate small variations in the change in density value at the time of capturing image data, and to capture a global change in density value. FIG. 13B shows the processing result of the arithmetic averaging operation of the line data of Xa in FIG.

【0084】図12のステップ1203では、ステップ
1202の演算結果である相加平均値における微分演算
を行う。この処理結果を図13(c)に示す。図12の
ステップ1204では、ステップ1203の演算結果で
ある微分値によるポイント抽出を行う。そのポイントの
抽出方法は、微分値が負から正に変化するポイントP,
図13(b)でいうと、グラフが左向きに凸になるポイ
ントを抽出する。次のそのポイントの前後の濃度値の変
化が所定値以下、以上であるか否か、図13(c)のグ
レー部分に入るか否かを判定し、上記条件を満足する濃
度値の変化を持つポイントPを抽出する。
In step 1203 of FIG. 12, a differential operation is performed on the arithmetic mean value which is the operation result of step 1202. This processing result is shown in FIG. In step 1204 of FIG. 12, point extraction is performed using the differential value that is the result of the operation in step 1203. The method of extracting the points is the point P, at which the differential value changes from negative to positive,
Referring to FIG. 13B, a point at which the graph becomes convex to the left is extracted. It is determined whether or not the change in density value before and after the next point is equal to or less than a predetermined value and whether or not the change is within a gray portion in FIG. The point P having is extracted.

【0085】図12のステップ1205で、図13
(a)に示すようにXa列に抽出ポイントPが存在する
と判定された場合は、図12のステップ1206へ移行
し、P点の前後の微分値の最大、最小値であるQ点とR
点のY座標の濃度値をNal(微分値が最大となるY座
標の濃度値)とNah(微分値が最大となるY座標の濃
度値)をメモリしてステップ1207へ移行する。
In step 1205 of FIG. 12, FIG.
If it is determined that the extraction point P exists in the Xa column as shown in (a), the process proceeds to step 1206 in FIG. 12, where the Q and R, which are the maximum and minimum differential values before and after the point P, are set.
The density value of the Y coordinate of the point is stored as Nal (the density value of the Y coordinate at which the differential value is maximum) and Nah (the density value of the Y coordinate at which the differential value is maximum), and the process proceeds to step 1207.

【0086】ステップ1207では、次のラインへの処
理に切り換えてステップ1201で全ラインの処理の終
了が確認されるまで同一の処理を繰り返す。つまり図1
4(a)に示すようにXa列後のXb列では、Xb列の
抽出ポイントP点の前後の微分値の最大、最小値である
Q点とR点のY座標の濃度値をNblとNbhとしてメ
モリして行く。各ラインでメモリされる抽出ポイントの
前の濃度変化の最小微分値、N_1は濃度値が明るい部
分から暗い部分へ最も大きく変化する箇所であり、この
濃度値より暗くなる部分、つまり抽出ポイントP点に向
かっては眼にあたる部分の濃度値であるといえる。ま
た、各ラインでメモリされる抽出ポイントの後の濃度変
化の最大微分値、N_hは濃度値が暗い部分から明るい
部分へ最も大きく変化する箇所であり、抽出ポイントP
点からこの濃度値まで明るくなる部分が眼にあたる濃度
値であるといえる。よって、N_1,N_hの値は、二
値化処理で眼の部分を黒画素(0)に、眼の回りの肌の
部分を白画素(1)に確実に変換する閾値の設定情報と
して用いることができる。
At step 1207, the process is switched to the process for the next line, and the same process is repeated until the end of the process for all lines is confirmed at step 1201. That is, FIG.
As shown in FIG. 4A, in the Xb column after the Xa column, the density values of the Y coordinate of the Q point and the R point which are the maximum and minimum values of the differential value before and after the extraction point P in the Xb column are represented by Nbl and Nbh. Go to memory as. The minimum differential value N_1 of the density change before the extraction point stored in each line is a portion where the density value changes most from a bright portion to a dark portion, and a portion darker than this density value, that is, the extraction point P Can be said to be the density value of the part corresponding to the eye. The maximum differential value N_h of the density change after the extraction point stored in each line is a portion where the density value changes most from a dark portion to a bright portion, and the extraction point P
It can be said that a portion that becomes brighter from the point to this density value is a density value corresponding to the eyes. Therefore, the values of N_1 and N_h are used as threshold setting information for reliably converting the eye part into a black pixel (0) and the skin part around the eye into a white pixel (1) in the binarization processing. Can be.

【0087】図12のステップ1201で全ラインの処
理の終了が確認された場合、ステップ1208へ移行
し、各ラインの抽出ポイントの濃度値(N_1,N_
h)の情報から二値化閾値を設定する。二値化閾値の設
定は、下記に示すような方法が考えられる。
If it is confirmed in step 1201 in FIG. 12 that the processing of all the lines has been completed, the process proceeds to step 1208, where the density values (N_1, N_
A binarization threshold is set from the information in h). The following method can be considered for setting the binarization threshold.

【0088】各ラインの最小微分値の濃度N_1の最
小値を更新してその値を基準に設定する。
The minimum value of the density N_1 of the minimum differential value of each line is updated and set based on the updated value.

【0089】各ラインの最大微分値の濃度N_hの最
大値を更新してその値を基準に設定する。
The maximum value of the density N_h of the maximum differential value of each line is updated and set based on the updated value.

【0090】各ラインの最小微分値の濃度N_1の平
均値を基準に設定する。
The average value of the density N_1 of the minimum differential value of each line is set as a reference.

【0091】各ラインの最大微分値の濃度N_hの平
均値を基準に設定する。
The average value of the density N_h of the maximum differential value of each line is set as a reference.

【0092】各ラインの全N_1,N_hの平均値を
基準に設定する。
The average value of all N_1 and N_h of each line is set as a reference.

【0093】眼の連続データと抽出される各ラインの
P点の最も明るい濃度値を基準にして微分値のレベルを
用いて階調アップ量を補正して設定する。(微分値のレ
ベルが大きい場合はP点の最も明るい濃度値にプラスす
る階調を大きく設定し、微分値にレベルが小さい場合は
P点の最も明るい濃度値にプラスする階調を小さく設定
する。)次に図15を用いて眼の開度の検出方法を説明
する。
Based on the continuous data of the eyes and the brightest density value at point P of each line to be extracted, the gradation up amount is corrected and set using the level of the differential value. (If the level of the differential value is large, the tone added to the brightest density value at point P is set large, and if the level of the differential value is small, the tone added to the brightest density value at point P is set small. Next, a method for detecting the degree of eye opening will be described with reference to FIG.

【0094】前述した方法で求めた二値化閾値を用いて
連続データが出現した範囲で更に領域を限定させて二値
化処理を行う。その二値化画像は、検出対象者が正常時
と居眠り状態時で、それぞれ図15に示すようになる。
この時、黒画素に変換される眼の部分の縦方向への最大
連続数をカウントすると、正常時(開眼)ではその値が
大きくなり、居眠り時(閉眼)でのその値が小さくな
る。このようにして眼の開度検出を行う。
Using the binarization threshold value obtained by the above-described method, binarization processing is performed by further limiting the area within the range where continuous data has appeared. The binarized image is as shown in FIG. 15 when the detection target person is normal and when he or she is dozing.
At this time, when the maximum number of consecutive vertical portions of the eye portion converted to black pixels is counted, the value increases in a normal state (opened eyes) and decreases in a dozing state (closed eyes). In this way, the eye opening is detected.

【0095】次に図4のステップ404における開閉眼
を判定する方法の詳細を示す。
Next, the details of the method for judging the open / closed eye in step 404 in FIG. 4 will be described.

【0096】運転者が特定された場合、眼の開度の出力
値は開眼状態から閉眼状態の間で変化する。よって、開
眼・閉眼の判定を行なう基準値、つまり開閉眼を判定す
るスレッシュホールドは、その範囲内にあることにな
る。ここでそのスレッシュホールドをどう設定するのが
妥当なのかを検討した結果、居眠り状態の人は熟睡状態
ではないため完全に眼の閉じない運転者も見られること
から、開眼・閉眼の中央値をスレッシュホールドとする
ことが望ましいと思われる。
When the driver is specified, the output value of the degree of eye opening changes between the open state and the closed state. Therefore, the reference value for determining whether the eye is open or closed, that is, the threshold for determining whether the eye is open or closed, is within the range. As a result of examining how it is appropriate to set the threshold here, since some people who are dozing are not in a deep sleep state, some drivers can not completely close their eyes, so the median value of opening and closing the eyes is It would be desirable to have a threshold.

【0097】次に図4のフローチャートのステップ40
5における眼の追跡方法の詳細を図16を用いて説明す
る。この処理の初期状態、つまり第1フレームでは、当
然、眼の追跡領域は設定されていないため、図3のステ
ップ304,305で眼の追跡領域が判定される。この
時、眼の中心座標と眼の追跡領域の中心座標は図16
(a)に示すように一致している。
Next, step 40 in the flowchart of FIG.
Details of the eye tracking method in 5 will be described with reference to FIG. In the initial state of this processing, that is, in the first frame, since the eye tracking area is not set, the eye tracking area is determined in steps 304 and 305 in FIG. At this time, the center coordinates of the eye and the center coordinates of the tracking area of the eye are shown in FIG.
They match as shown in FIG.

【0098】一連の処理の終了後、第2フレームの処理
に移り、図3のステップ303へ進むと、ここでは既に
眼の追跡領域が設定されているため、ステップ306に
移り、眼の開度と位置検出を行なう。この時、検出され
る眼の位置は、図16(b)に示すようになる。図16
(b)の眼の追跡領域は第1フレームで設定された位置
にあるのに対し、現在の眼の位置は2フレーム目に取り
込まれた画像データであるため、顔の動き等により眼の
中心点は眼の追跡領域に対しズレている。しかし、眼の
追跡領域内に眼がある限り眼の開度と眼の詳細な位置検
出は行なうことができる。
After a series of processing is completed, the processing shifts to the processing of the second frame, and proceeds to step 303 in FIG. 3. Since the tracking area of the eye has already been set here, the processing shifts to step 306 to open the eye. And position detection. At this time, the detected positions of the eyes are as shown in FIG. FIG.
The eye tracking area in (b) is located at the position set in the first frame, whereas the current eye position is image data captured in the second frame. The points are shifted with respect to the tracking area of the eye. However, as long as the eye is within the eye tracking area, the eye opening and the detailed position detection of the eye can be performed.

【0099】その後、眼が正しく検出できている場合に
おいては、図3のステップ307から図4のステップ4
01〜ステップ405へと移行して行く。ステップ40
5では、図16(b)の中心座標を基準に眼の追跡領域
を更新することにより次フレームでの画像の取り込み領
域とする。よって、極端に速い眼の移動でない限り、そ
の動きに応じて眼の追跡領域を追従させることができ
る。図16(c)、(d)は第3フレーム、第4フレー
ムで取り込まれる顔画像データでの眼の位置と眼の追跡
領域の位置関係を示したものである。
Thereafter, if the eye has been correctly detected, the process proceeds from step 307 in FIG. 3 to step 4 in FIG.
01 to step 405. Step 40
In 5, the eye tracking area is updated based on the center coordinates in FIG. Therefore, as long as the movement of the eye is not extremely fast, the tracking area of the eye can be made to follow the movement. FIGS. 16C and 16D show the positional relationship between the eye position and the eye tracking area in the face image data captured in the third and fourth frames.

【0100】次に、眼の追跡ミスを犯す例と、その時の
バックアップ方法について図17〜図19を用いて説明
する。眼の基準位置の学習後において、図4のステップ
402の眼の追跡状況の判定では、事前に学習された眼
の基準位置から眼の追跡領域が所定以上離れた位置に移
動し、且つその位置に所定時間以上滞留した時に眼の追
跡ミスをしたと判定してステップ407に移行し、眼の
基準位置へ眼の追跡領域を復帰させる。
Next, an example of making an eye tracking error and a backup method at that time will be described with reference to FIGS. After the learning of the reference position of the eye, in the determination of the tracking state of the eye in step 402 in FIG. 4, the tracking area of the eye moves to a position separated from the reference position of the eye learned in advance by a predetermined amount or more, and the position It is determined that an eye tracking error has occurred when the eye has stayed for more than a predetermined time, and the process proceeds to step 407 to return the eye tracking area to the reference position of the eye.

【0101】この現象を具体的な例で説明すると、図1
7に示すような眼鏡を掛けている運転者においては、眼
の回りに眼の候補データと成りうるノイズが存在し、顔
のちょっとした上下動により図18のに示すような位
置に眼の追跡領域が来てしまう場合がある。この時、本
来の検出対象である眼に相当する連続データ1が追跡領
域外に外れ、ノイズである眼鏡のフレームに相当する連
続データ2が同領域内に入り、連続データ2を選択せざ
るを得ない状況となることがある。図18のの領域で
誤った連続データを検出してしまった場合、その連続デ
ータを対象として追跡が行われてしまうので眼の追跡領
域は,と移動してしまうことになる。このような場
合において、図4のステップ402とステップ407の
処理が行われることによって、図19に示すように自動
的に眼の追跡領域を復帰させることができる。
This phenomenon will be described with a specific example.
In the driver wearing glasses as shown in FIG. 7, there is noise that can be candidate data of eyes around the eyes, and slight vertical movement of the face causes the eye tracking area to move to a position as shown in FIG. May come. At this time, the continuous data 1 corresponding to the eye to be originally detected falls outside the tracking area, and the continuous data 2 corresponding to the frame of the eyeglasses as noise enters the same area, and the continuous data 2 has to be selected. It may not be possible. If erroneous continuous data is detected in the area shown in FIG. 18, the tracking is performed on the continuous data, and the eye tracking area moves accordingly. In such a case, by performing the processing of step 402 and step 407 in FIG. 4, the eye tracking area can be automatically returned as shown in FIG.

【0102】従って、再度検出を行うときは、眼の追跡
領域の検出までの処理を省略することができ、迅速な処
理を行わせることができる。また、再度の初期状態によ
る眼の位置検出による検出ミスのリスクがなく、精度の
高い処理を行わせることができる。
Therefore, when the detection is performed again, the processing up to the detection of the eye tracking area can be omitted, and the processing can be performed quickly. Further, there is no risk of a detection error due to eye position detection in the initial state again, and highly accurate processing can be performed.

【0103】上記実施形態では、眼の連続データが常に
存在し、その移動が確認され、その位置に滞留する検出
ミスに対するバックアップ方法であることを説明した
が、図3のステップ307、ステップ308において眼
の開度値異常が定常的に発生した場合においては、再
度、初期状態からの眼の位置検出を必要とする。このよ
うな状態が発生する場合を説明すると、図20(a)に
示すように運転者の顔の右半分に強い太陽光が当たり、
影の部分となった左眼のコントラストが極端になくなっ
て連続データとして確認できなくなった場合や、同
(b)に示すように運転者が顔を速く、大きく動かし、
その状態を長く続け、眼の追跡領域が動きに追従でき
ず、その位置に留まってしまった場合は、眼の開度値が
異常である状態が定常的に発生する。
In the above-described embodiment, a description has been given of a backup method for a detection error in which continuous data of the eye always exists, the movement of which is confirmed, and stays at the position, but in steps 307 and 308 of FIG. When the abnormality of the eye opening value occurs constantly, it is necessary to detect the position of the eye from the initial state again. Explaining the case where such a state occurs, as shown in FIG. 20A, strong sunlight hits the right half of the driver's face,
When the contrast of the left eye, which has become a shadow part, is extremely low and cannot be confirmed as continuous data, or the driver moves his face quickly and greatly as shown in FIG.
If this state is continued for a long time and the tracking area of the eye cannot follow the movement and stays at that position, a state where the eye opening value is abnormal occurs constantly.

【0104】そこで、この課題を解決する実施形態を、
図21の機能ブロック図と、図22〜図24のフローチ
ャートと、図25〜図34の説明図を用いて説明する。
An embodiment for solving this problem will be described below.
This will be described with reference to the functional block diagram of FIG. 21, the flowcharts of FIGS. 22 to 24, and the explanatory diagrams of FIGS. 25 to 34.

【0105】本実施形態では、図21に示すように、画
像入力手段CL2101、濃度検出手段CL2102、
ポイント抽出手段CL2103、連続データの抽出手段
CL2104、眼の位置検出手段CL2105、第1の
眼の基準領域決定手段CL2106、ポイント抽出手段
CL2107、眼の開度検出手段CL2108、眼の開
度値状況の判定手段CL2109、領域設定手段CL2
110、出現状態判定手段CL2111、再検出手段C
L2112、眼の追跡状態判定手段CL2113、第1
の復帰手段CL2114、覚醒度判定手段CL211
5、警報手段CL2116を備えている。
In this embodiment, as shown in FIG. 21, image input means CL2101, density detection means CL2102,
Point extraction means CL2103, continuous data extraction means CL2104, eye position detection means CL2105, first eye reference area determination means CL2106, point extraction means CL2107, eye opening detection means CL2108, eye opening value status Determination means CL2109, area setting means CL2
110, appearance state determination means CL2111, re-detection means C
L2112, eye tracking state determination means CL2113, first
Return means CL2114, arousal level determination means CL211
5. An alarm means CL2116 is provided.

【0106】前記画像入力手段CL2101は、顔画像
を入力する。前記濃度検出手段CL2102は、画像入
力手段CL1201から入力された顔画像の縦方向の画
素列の濃度を検出する。前記ポイント抽出手段CL21
03は、前記画素列における濃度の高まりと、その変化
状態によりポイントを抽出する。前記連続データの抽出
手段CL2104は、隣接する画素列の画素列方向に近
接したポイントを連続して顔の横方向への連続データを
抽出する。前記眼の位置検出手段CL2105と連続デ
ータの中から眼を選択する。
The image input means CL2101 inputs a face image. The density detecting means CL2102 detects the density of a vertical pixel row of the face image input from the image input means CL1201. The point extracting means CL21
In step 03, points are extracted based on the increase in density in the pixel row and the change state. The continuous data extracting means CL2104 extracts continuous data in the horizontal direction of the face by continuously connecting points adjacent to each other in the pixel column direction. An eye is selected from the eye position detecting means CL2105 and continuous data.

【0107】前記眼の基準領域決定手段CL2106
は、前記眼の位置検出手段CL2105による複数回の
検出処理により眼の基準領域としての基準位置を決定す
る。前記ポイント抽出手段CL2107は、眼を含む所
定領域(眼の追跡領域)内で縦方向への濃度の高まり
と、その変化状態よりポイントを抽出する。前記眼の開
度検出手段CL2108は、抽出ポイントの隣接する画
素列の画素列方向に近接したものを連続して顔の横方向
に伸びる連続データを抽出することにより眼の詳細な位
置を検出して濃度値を読み出す範囲を特定し、その範囲
内での濃度変化状態から眼の開度を検出する。前記眼の
開度値状況の判定手段CL2109は、定常的な眼の開
度値異常状態を検出する。
The eye reference region determining means CL2106
Determines a reference position as an eye reference region by a plurality of detection processes by the eye position detection means CL2105. The point extracting means CL2107 extracts points from the density increase in the vertical direction in a predetermined area including the eyes (eye tracking area) and the change state thereof. The eye opening detecting means CL2108 detects the detailed position of the eye by extracting continuous data extending in the horizontal direction of the face by continuously extracting those adjacent to the extraction point in the pixel column direction. Then, the range from which the density value is read is specified, and the degree of eye opening is detected from the density change state within the range. The eye opening value status determining means CL2109 detects a steady state of the eye opening value abnormality.

【0108】前記領域設定手段CL2110は、眼の開
度値状況判定手段CL2109により、眼の開度値異常
状態を検出した時に、眼の基準位置に基づき左右対称デ
ータの検出を目的とした左右領域を設定する。前記連続
データの出現状態判定手段CL2111は、左右対称デ
ータを検出する左右領域内における連続データの出現状
態を判定する。
The area setting means CL2110 detects left and right symmetrical data for the purpose of detecting left-right symmetric data based on the reference position of the eye when the eye opening value state determining means CL2109 detects an abnormal state of the eye opening value. Set. The continuous data appearance state determination unit CL2111 determines the appearance state of the continuous data in the left and right regions for detecting left-right symmetric data.

【0109】前記再検出手段CL2112は、連続デー
タの出現状態判定結果に基づいて眼の開度検出手段CL
2108による再検出を行う。前記眼の追跡状態判定手
段CL2113は、眼を含む所定領域(眼の追跡領域)
内における眼に相当する連続データの出現位置に基づき
該データを追跡し、その追跡状態を判定する。前記第1
の復帰手段CL2114は、眼の追跡状態判定手段CL
2113が眼の追跡異常と判定した時に眼の基準位置に
眼を含む所定領域(眼の追跡領域)を復帰させる。
The re-detection means CL 2112 is based on the appearance state determination result of the continuous data,
Redetection by 2108 is performed. The eye tracking state determination means CL2113 is a predetermined area including the eye (eye tracking area).
The data is tracked based on the appearance position of the continuous data corresponding to the eye in the inside, and the tracking state is determined. The first
The return means CL2114 of the eye tracking state determination means CL
When 2113 determines that the eye tracking is abnormal, a predetermined area including the eye (eye tracking area) is returned to the reference position of the eye.

【0110】前記覚醒度判定手段CL2115は、前記
眼の開度検出手段CL2108より出力される開度値よ
り眼の開閉状態を判定し、その開閉状態の変化から覚醒
度を判定する。前記警報手段CL2116は、前記覚醒
度判定手段CL2115により覚醒度が低下していると
判定された時に警報を発する。
The wakefulness determination means CL2115 determines the open / closed state of the eye from the openness value output from the eye openness detection means CL2108, and determines the wakefulness from the change in the open / closed state. The alarm means CL2116 issues an alarm when the alertness determination means CL2115 determines that the alertness is decreasing.

【0111】次に、上記構成における動作の流れを、図
22〜図24のフローチャートと、図24〜図34の説
明図とを用いて詳細について説明する。尚、これから説
明する各ステップでの処理内容は、前述の実施形態と異
なる箇所を中心に行う。
Next, the flow of operation in the above configuration will be described in detail with reference to the flowcharts of FIGS. 22 to 24 and the explanatory diagrams of FIGS. 24 to 34. It should be noted that the processing content in each step to be described below is mainly performed on portions different from the above-described embodiment.

【0112】図22のステップ2203では、左右対称
の連続データを検出対象とした左右領域が設定されてい
るか否かを確認する。この領域は、図25に示すように
眼の基準位置に基づいて設定し、その大きさは、両眼の
連続データが完全に含まれる領域とする。
In step 2203 of FIG. 22, it is confirmed whether or not the left and right regions are set for detecting symmetric continuous data. This region is set based on the reference position of the eye as shown in FIG. 25, and its size is a region that completely includes continuous data of both eyes.

【0113】次に、ステップ2204において、眼の追
跡領域が設定されているかどうかをチェックする。眼の
追跡領域が設定されていない場合は、ステップ2205
に移行し、前述の実施例と同様の方法で眼の位置検出を
行う。その後、ステップ2206で眼の基準位置の学習
を行い、その学習が完了したか否かをステップ2207
で確認する。
Next, in step 2204, it is checked whether or not an eye tracking area has been set. If the eye tracking area is not set, step 2205
Then, the position of the eye is detected in the same manner as in the above-described embodiment. Thereafter, in step 2206, learning of the reference position of the eye is performed, and whether or not the learning is completed is determined in step 2207.
Confirm with.

【0114】眼の基準位置の学習方法の一例を説明する
と、複数回の画像全体からの眼の位置検出結果におい
て、同等位置に所定回数の眼の位置検出が成された時に
眼の基準位置を確定させる方法が考えれる。よって、眼
の基準値が学習中である時は、ステップ2207からス
テップ2201に戻り複数回の眼の位置検出を繰り返す
ことになる。
An example of a method of learning the reference position of the eye will be described. In the result of detecting the position of the eye from a plurality of images as a whole, the reference position of the eye is determined when the position of the eye is detected at the same position a predetermined number of times. There is a method to determine the value. Therefore, when the eye reference value is being learned, the process returns from step 2207 to step 2201 to repeat the eye position detection a plurality of times.

【0115】ステップ2207で眼の基準位置が学習さ
れたことが確認された場合は、ステップ2208に移行
し眼の追跡領域となる横方向(X方向)幅と縦方向の
(Y方向)の幅を設定する。
If it is confirmed in step 2207 that the reference position of the eye has been learned, the flow shifts to step 2208 where the width in the horizontal direction (X direction) and the width in the vertical direction (Y direction) as the eye tracking area. Set.

【0116】その後、ステップ2210において、眼の
開度値が正常か否かを判断し、正常である場合は、図2
3のステップ2301に移行する。ステップ2301移
行の処理においては、前述の実施例と同様の処理内容で
あるため、ここでの説明は省略する。
Thereafter, in step 2210, it is determined whether or not the eye opening value is normal.
The process proceeds to step 2301 of FIG. Since the process of step 2301 is the same as that of the above-described embodiment, the description thereof is omitted.

【0117】次に図20の例で示した原因などにより、
眼の開度値異常が発生した場合の処理内容について説明
する。
Next, due to the cause shown in the example of FIG.
The processing content when an eye opening value abnormality occurs will be described.

【0118】この状態は、図22のステップ2210で
眼の開度値が異常であると認識されステップ2211へ
と移行する。ステップ2211では、左右対称の連続デ
ータを検出対象とする左右領域を設定する。設定方法と
領域の大きさについては、ステップ2203の処理内容
で説明している。
In this state, it is recognized in step 2210 in FIG. 22 that the eye opening value is abnormal, and the flow shifts to step 2211. In step 2211, left and right regions are set to detect symmetric continuous data. The setting method and the size of the area are described in the processing content of step 2203.

【0119】その後、ステップ2201に戻り、左右対
称データを検出対象として画像入力を行い、ステップ2
203から図24のステップ2401に移行する。ステ
ップ2401では、図26に示すように左右対称データ
の検出領域内での連続データの検出を行いステップ24
02に移行する。ステップ2402では、連続データの
出現判定の待ち時間を越えたか否かを判定しているが、
このフローに初めて入ってきた場合においては、当然待
ち時間が設定させていないため、ステップ2403へと
移行する。
Thereafter, the flow returns to step 2201 to input an image with the left-right symmetric data as a detection target.
The process proceeds from step 203 to step 2401 in FIG. In step 2401, continuous data is detected within the detection region of left-right symmetric data as shown in FIG.
Move to 02. In step 2402, it is determined whether or not the waiting time for appearance determination of continuous data has been exceeded.
When the flow enters this flow for the first time, the process goes to step 2403 because the waiting time is not set.

【0120】図22のステップ2210での眼の開度値
が異常であると判定された状態が一時的な現象である場
合は、左右対称データをの検出する左右領域内での連続
データの検出を行う段階では、図25と図26に示すよ
うに両眼の連続データが安定して検出できる。よって、
ステップ2403で2個以上の安定した出現が確認で
き、ステップ2408に移行する。
If the state in which the eye opening value is determined to be abnormal in step 2210 in FIG. 22 is a temporary phenomenon, detection of continuous data in the left and right regions for detecting left / right symmetric data is performed. Is performed, continuous data of both eyes can be detected stably as shown in FIGS. Therefore,
In step 2403, two or more stable appearances can be confirmed, and the flow shifts to step 2408.

【0121】ステップ2403の判定で、安定して出現
する連続データの箇所を2個以上としている理由は、左
右対称データの検出領域の設定のズレや運転者の顔の動
きにより眼の連続データの他に眉の連続データも含まれ
る場合があるからである。ステップ2408では、右ハ
ンドル車である場合は、比較的光環境条件が良い運転者
の左眼の連続データを基準に眼の追跡領域を設定するこ
とで眼の位置の再検出を行う。その後、ステップ240
9で左右対称データをの検出する左右領域をクリアする
ことによって、開閉眼判定、覚醒度判定のフローに戻
る。
In the determination in step 2403, the reason why there are two or more continuous data portions that appear stably is that the detection region of the left-right symmetric data is misaligned or the driver's face movement causes the continuous data of the eyes. This is because continuous data of eyebrows may also be included. In step 2408, if the vehicle is a right-hand drive vehicle, the eye position is detected again by setting the tracking area of the eye based on the continuous data of the left eye of the driver having relatively good light environment conditions. Then, step 240
By clearing the left and right regions for detecting the left-right symmetric data in 9, the flow returns to the flow of the open / closed eye determination and the arousal level determination.

【0122】次に、光環境が悪い状態や運転者が側方を
見ている時間が比較的長い時間(例えば1〜2分)に渡
り続いた場合について説明する。
Next, a case where the light environment is bad or a case where the driver is looking sideways for a relatively long time (for example, 1 to 2 minutes) will be described.

【0123】上記の原因で、図22のステップ2210
で眼の開度値異常となっている場合は、図24のステッ
プ2403で左右対称データの検出領域内において、安
定して2つ以上の連続データの出現が確認できないた
め、ステップ2404に移行する。ステップ2404で
もステップ2402と同様にこのフローに初めて入って
きた場合においても連続データの出現判定待ち時間は設
定されていないため、ステップ2405に移行する。ス
テップ2405では、連続データの出現個所が0個〜2
個の範囲で絶えず変化しているか否かを確認している。
この判定内容を光環境が悪化した場合を図27〜図32
を用いて説明する。また、運転者の顔の向きが定まらず
きょろきょろとしており、車両前方以外を見ている時間
が長い場合については、図33と図34を用いて説明す
る。
For the above reasons, step 2210 in FIG.
In the case where the eye opening value is abnormal in step 2403, the appearance of two or more continuous data cannot be confirmed stably in the left-right symmetric data detection area in step 2403 in FIG. . In step 2404, similarly to step 2402, even when the flow enters this flow for the first time, since the continuous data appearance determination waiting time is not set, the flow shifts to step 2405. In step 2405, the occurrence of continuous data is 0 to 2
It is checked whether it is constantly changing in the range of the individual.
27 to 32 show the case where the light environment is deteriorated.
This will be described with reference to FIG. The case where the driver's face direction is not fixed and the driver is looking around other than the front of the vehicle for a long time will be described with reference to FIGS. 33 and 34.

【0124】自動車を想定した場合の光環境の悪化は、
車両が走行中である時は、絶えず変化しており、図27
に示すように運転者の左眼の部分が少し影にはなるが連
続データとして認識できる程度である場合や、図29に
示すように運転者の左眼の部分の影が濃くなり連続デー
タとして認識できなくなる場合や、図31に示すように
右眼への直射光が更に強くなり右眼も連続データとして
認識できなくなる場合が繰り返される。よって、連続デ
ータの出現状態は、図28,図30,図32に示すよう
に連続データの出現数は絶えず変化する。尚、連続デー
タの出現個数の上限は、眉の連続データを含む場合や、
眼鏡を掛けている運転者を想定すると、当然2個以上と
なることもある。
The deterioration of the light environment when an automobile is assumed is as follows.
When the vehicle is running, it is constantly changing, and FIG.
As shown in FIG. 29, the left eye portion of the driver is slightly shadowed but can be recognized as continuous data, or as shown in FIG. 29, the shadow of the driver's left eye portion is darkened as continuous data. The case where recognition is not possible or the case where direct light to the right eye is further increased and the right eye cannot be recognized as continuous data as shown in FIG. 31 are repeated. Therefore, in the appearance state of the continuous data, the number of appearances of the continuous data constantly changes as shown in FIG. 28, FIG. 30, and FIG. It should be noted that the upper limit of the number of appearances of continuous data includes the case where continuous data of eyebrows is included,
Assuming a driver wearing spectacles, the number may naturally be two or more.

【0125】つぎに運転者が前方以外を見ている時間が
長い場合の状況について説明する。図33に示すように
運転者が横を向いている場合、図34のように左右対称
の連続データの検出領域内には、1個の連続データしか
出現しないことになる。よって、運転手が右を見たり、
左を見たりきょろきょろしている場合においても連続デ
ータの出現数は絶えず変化する。このような状況におい
て眼の再検出を行うことは、眼を誤って検出する恐れが
あるため、ステップ2410に移行し、連続データ出現
判定待ち時間t1を設定することで判定を所定時間延長
し、光環境の改善を待ったり、運転者の顔の位置が落ち
着くのを待っての眼の再検出ができるようにする。
Next, a situation in which the driver is looking at a place other than the front for a long time will be described. When the driver is facing sideways as shown in FIG. 33, only one piece of continuous data appears in the symmetrical continuous data detection region as shown in FIG. So the driver looks right,
The number of occurrences of continuous data constantly changes even when looking to the left or dozing around. Performing re-detection of an eye in such a situation may cause an erroneous detection of the eye. Therefore, the process proceeds to step 2410, and the determination is extended by a predetermined time by setting a continuous data appearance determination waiting time t1, The eye can be re-detected while waiting for the improvement of the light environment or the position of the driver's face calms down.

【0126】図24のステップ2403で安定した2個
以上の連続データの出現が認識されず、また、ステップ
2405で連続データの出現箇所が絶えず変化している
ことも認識されない場合は、ステップ2406に移行
し、所定回数処理しても連続データが全く出現しないか
を確認する。
If it is not recognized in step 2403 in FIG. 24 that the appearance of two or more continuous data is stable, and if it is not recognized in step 2405 that the appearance of the continuous data is constantly changing, the flow advances to step 2406. The process proceeds to check whether continuous data does not appear at all even after the predetermined number of processes.

【0127】ステップ2406に該当する場面として
は、運転者の顔の動きが大きくカメラに運転者の顔が写
らなくなってしまった場合がある。その例をあげると、
運転者がグローブボックスの中で何かを探している時な
どに当たる。このような状況下と考えられる場合は、ス
テップ2411に移行し、連続データ出現判定待ち時間
t2を設定し、判定を所定時間延長する。この待ち時間
t2は運転者の交替に要する時間を目安に設定する。要
するに連続データの出現が全くなくなる場合は、顔が大
きく動く場合の他に、運転者が交替する場合もあり、運
転者が交替したと思われる場合においては、初期状態か
らの眼の位置検出を必要とするからである。ステップ2
410での待ち時間t1については、光環境が悪い状態
や運転者がきょろきょろしている状態は、比較的長い時
間続く場合もあると考えられることより、最低でも1〜
2分以上で設定することが好ましいと思われる。
As a scene corresponding to step 2406, there is a case where the face of the driver is so moved that the driver's face is not captured in the camera. To give an example,
For example, when the driver is looking for something in the glove box. If it is considered that such a situation is present, the process proceeds to step 2411, where a continuous data appearance determination waiting time t2 is set, and the determination is extended by a predetermined time. The waiting time t2 is set based on the time required for driver replacement. In short, when the appearance of continuous data completely disappears, in addition to the case where the face moves greatly, the driver may be replaced.If the driver seems to have been replaced, the eye position detection from the initial state should be performed. It is necessary. Step 2
Regarding the waiting time t1 at 410, at least 1 to 1 is considered because the lighting environment is poor or the driver is sulking, which may last for a relatively long time.
It seems that setting in 2 minutes or more is preferable.

【0128】ステップ2401またはステップ2411
で連続データの出現待ち時間の設定後は、ステップ24
04での判断により、再度待ち時間設定が成されること
なく待ち時間内でステップ2403を通ることにより安
定した2個以上の連続データの出現があるか否かを判断
する。この待ち時間内に安定した2個以上の連続データ
の出現がない場合は、ステップ2402からステップ2
407に移行し、眼の追跡流域、左右対称データの検出
領域、判定待ち時間をクリアし初期状態からの眼の位置
検出に戻す。
Step 2401 or Step 2411
After setting the continuous data appearance waiting time,
Based on the determination in step 04, it is determined whether or not there is stable appearance of two or more continuous data by passing through step 2403 within the waiting time without setting the waiting time again. If no stable two or more continuous data appear within this waiting time, the process proceeds from step 2402 to step 2.
The flow shifts to 407, where the tracking area of the eye, the detection area of the left-right symmetric data, and the waiting time for determination are cleared, and the process returns to the eye position detection from the initial state.

【0129】つぎに、さらに他の実施形態について図3
5と図36のフローチャートを用いて説明する。
Next, still another embodiment will be described with reference to FIG.
5 and the flowchart of FIG.

【0130】前述の実施形態では、複数回の眼の開度値
の出力状態や、眼の位置検出によって眼の基準位置を学
習していた。しかし、前者の方法では眼の開度の出力値
自体にノイズが含まれていた場合、眼でない連続データ
を眼と誤認識して基準位置を設定したり、また、瞬きが
極端に少ない運転者であった場合は、正しく眼の連続デ
ータを捉えていても、その位置を眼の基準位置としてな
かなか学習できないことがある。また、後者の方法では
眼の基準位置を学習するためには、初期状態からの眼の
位置検出を繰り返す必要があるため、最初に眼の基準位
置を学習するまでに時間がかかるという問題点がある。
In the above-described embodiment, the reference position of the eye is learned by detecting the output state of the eye opening value a plurality of times and the position of the eye. However, in the former method, if the output value of the eye opening contains noise, the continuous data that is not the eye is erroneously recognized as the eye and the reference position is set. In this case, even if the continuous eye data is correctly captured, the position may not be easily learned as the reference position of the eye. Further, in the latter method, it is necessary to repeat the eye position detection from the initial state in order to learn the reference position of the eye, so that it takes time to learn the reference position of the eye for the first time. is there.

【0131】そこで、本実施形態では、眼の追跡、開度
値状況の判定により、その異常が認められた時に、その
処理において検出された眼の位置を基準に左右対称デー
タを検出する左右領域を設定し、該領域に出現する連続
データの出現状態から眼の位置の再検出を行う。この際
検出された眼の位置データを基に眼の基準位置を学習す
る。
Therefore, in the present embodiment, when the abnormality is recognized by tracking the eyes and determining the opening degree status, the left and right regions for detecting left-right symmetric data based on the position of the eyes detected in the processing. Is set, and the eye position is detected again from the appearance state of the continuous data appearing in the area. At this time, the reference position of the eye is learned based on the detected position data of the eye.

【0132】この方法によれば、再検出した連続データ
が眼か否かの判定を行うための情報として開度値に相当
する値の他に、連続データの左右対称条件、眼を開けて
いる場合に認識できる連続データの上に凸形状となる特
徴などを用いることが可能であるため、眼の基準位置の
学習精度を高めることができる。また、眼の再検出を行
う領域を左右対称データの検出領域に限定しているた
め、学習時間を短縮することもできる。
According to this method, in addition to the value corresponding to the opening value as information for determining whether or not the re-detected continuous data is an eye, the left-right symmetry condition of the continuous data and the eyes are opened. Since it is possible to use a feature having a convex shape on the continuous data that can be recognized in such a case, the learning accuracy of the reference position of the eye can be improved. Further, since the region in which the eye is re-detected is limited to the detection region of the left-right symmetric data, the learning time can be reduced.

【0133】次に、図35,図36のフローチャートを
用いて処理内容の詳細について説明する。尚、これから
説明する各ステップでの処理内容は、前述の実施形態と
異なる箇所を中心に行う。
Next, the details of the processing will be described with reference to the flowcharts of FIGS. 35 and 36. It should be noted that the processing content in each step to be described below is mainly performed on portions different from the above-described embodiment.

【0134】図35のステップ3508では、眼の追
跡、開度値の両面での異常状態を認識する。尚、眼の基
準位置が学習されるまでの眼の追跡状況の判定は、眼の
位置検出が成された位置を基に行う。ステップ3508
で異常が確認されない場合はステップ3512に移行
し、前述の実施形態と同様に閉眼の出力パターンからの
覚醒度の判定を繰り返すフローを回る。
In step 3508 shown in FIG. 35, an abnormal state is recognized on both sides of the eye tracking and the opening value. The determination of the tracking state of the eye until the reference position of the eye is learned is performed based on the position where the eye position is detected. Step 3508
If no abnormality is confirmed in step 3512, the flow shifts to step 3512 to repeat the flow of repeating the determination of the arousal level from the output pattern of the closed eyes, as in the above-described embodiment.

【0135】ステップ3508で眼の追跡、開度値状況
に異常が確認された場合はステップ3509に移行す
る。ステップ3509では眼の基準位置が学習されてい
るか否かの判定を行う。処理開始直後においては、当
然、眼の基準位置は学習されていないため、ステップ3
510に移行する。ステップ3510では左右対称デー
タを検出する左右領域を設定する。この左右対称データ
を検出対象とした領域は、ステップ3505で検出した
眼の位置を基準にして行う。その後、ステップ3510
に戻り、前述の実施形態同様に左右対称データをの検出
する左右領域内に出現する連続データの出現状態を判定
するフローに入る。
If abnormalities are found in the eye tracking and the opening degree status in step 3508, the flow shifts to step 3509. In step 3509, it is determined whether or not the reference position of the eye has been learned. Immediately after the start of the process, the reference position of the eye has not been learned.
The process moves to 510. In step 3510, left and right regions for detecting left-right symmetric data are set. The region where the left-right symmetric data is to be detected is determined based on the position of the eye detected in step 3505. Then, Step 3510
Returning to the flow, the flow enters the flow of determining the appearance state of continuous data appearing in the left and right regions for detecting left-right symmetric data as in the above-described embodiment.

【0136】図36のステップ3603では、左右対称
データの検出領域内に連続データが安定して2個以上出
現しているか否かの判定を行い、その出現が確認された
場合は、ステップ3608に移行し、出現した連続デー
タを基準にした眼の位置の再検出を行い、ステップ36
09で眼の基準位置の学習を行う。その後のステップ3
610では、眼の基準位置の学習がOKかどうかの判定
を行う。このOK判定には、再検出された眼の位置のば
らつきが少ないか、その連続データを対象とした開度値
が眼に相当する大きさで変化しているかなどの条件も含
まれている。
In step 3603 of FIG. 36, it is determined whether or not two or more continuous data appear stably in the detection area of the left-right symmetric data. If the appearance is confirmed, the flow proceeds to step 3608. Then, the position of the eye is re-detected based on the continuous data that has been shifted and appeared, and step 36 is performed.
At 09, learning of the reference position of the eye is performed. Subsequent step 3
At 610, it is determined whether learning of the reference position of the eye is OK. The OK determination also includes conditions such as a small variation in the re-detected eye position, and whether the opening degree value for the continuous data changes at a size corresponding to the eye.

【0137】ステップ3610で前記条件を満たした場
合は、ステップ3611で左右対称データを検出する左
右領域をクリアすることにより、覚醒度判定を行うフロ
ーに戻す。
If the above condition is satisfied in step 3610, the process returns to the flow for determining the arousal level by clearing the left and right regions for detecting left-right symmetric data in step 3611.

【0138】尚、復帰後の覚醒度判定のフローにおいて
図35のステップ3508で再び、眼の追跡、開度値異
常が確認された場合においては、ステップ3509で眼
の基準位置が学習されていると判定しステップ3515
に移行する。ステップ3515では、眼の追跡、開度値
異常の状況が定常的なものであるか否かを判定してい
る。ステップ3515で定常的な異常でないと判定され
た場合は、ステップ3511に移行し、前述の実施例と
同様に眼の基準位置へ追跡領域を復帰させ短時間でのバ
ックアップが可能とする。
In the flow of the awakening degree determination after the return, if the eye tracking and the opening value abnormality are confirmed again in step 3508 in FIG. 35, the reference position of the eye is learned in step 3509. Step 3515
Move to In step 3515, it is determined whether or not the eye tracking and the abnormal state of the opening degree are steady. If it is determined in step 3515 that the abnormality is not a stationary abnormality, the process proceeds to step 3511, where the tracking area is returned to the reference position of the eye and backup can be performed in a short time as in the above-described embodiment.

【0139】ステップ3515で定常的な異常であると
判定された場合は、ステップ3516に移行し、眼の追
跡領域と眼の基準位置をクリアして、初期状態での眼の
位置検出ができるようにしてステップ3501に戻す。
この処理は覚醒度判定のフローが回っている際に、運転
者が交替した場合を想定して用意しているものである。
If it is determined in step 3515 that the abnormality is a steady abnormality, the flow shifts to step 3516 to clear the eye tracking area and the reference position of the eye so that the eye position can be detected in the initial state. And return to step 3501.
This process is prepared on the assumption that the driver is replaced while the flow of the arousal level determination is running.

【0140】図36のステップ3603で、左右対称デ
ータの検出領域内に連続データが安定して2個以上出現
が確認されない場合は、ステップ3604に以降の処理
に移り、前述の実施例と同様に連続データの出現判定の
待ち時間を設定し、その待ち時間の範囲で、安定して出
現する2個以上の連続データの出現の確認を続ける。
In the step 3603 in FIG. 36, if two or more continuous data are not confirmed to appear stably in the detection area of the left-right symmetric data, the process proceeds to step 3604, and the same as in the above-described embodiment. The waiting time for the appearance determination of the continuous data is set, and the confirmation of the appearance of two or more continuous data appearing stably is continued within the waiting time.

【0141】ステップ3602で待ち時間を越えた場合
はステップ3607に移行し眼の追跡領域と左右対称デ
ータを検出する左右領域、判定待ち時間をクリアするこ
とにして、初期状態での眼の位置検出ができるようにし
てステップ3501に戻す。
If the waiting time is exceeded in step 3602, the flow shifts to step 3607 to clear the eye tracking area, the left and right areas for detecting left-right symmetric data, and the judgment waiting time, thereby detecting the eye position in the initial state. And the process returns to step 3501.

【0142】尚、このフローを流れることは、最初に図
35のステップ3505で検出した眼の位置が誤ってい
る場合と、左右対称データを検出する左右領域で眼の基
準位置の学習中に運転者が交替した場合などがある。
It should be noted that this flow is performed when the eye position initially detected at step 3505 in FIG. 35 is incorrect, and when the eye is in the left and right regions for detecting left-right symmetrical data while learning the reference position of the eye. May be replaced.

【0143】以上の説明で明らかなように、本発明は眼
の追跡状態や開度値状況をモニターすることによって異
常処理を認識し、異常があった場合に事前に学習した眼
の基準位置に眼の追跡領域を戻すことにより、顔の速い
動きや一時的な光環境の悪化などによる眼の追跡ミスが
あっても必要最小限の時間で精度の高い眼の再検出がで
きる。よって、全体の処理時間に占める開閉眼判定の処
理時間比率がアップするので居眠り検出の精度を向上さ
せることができる。
As is clear from the above description, the present invention recognizes abnormal processing by monitoring the tracking state of the eye and the state of the opening value, and when there is an abnormality, moves to the reference position of the eye learned in advance. By returning the eye tracking area, accurate eye re-detection can be performed in a minimum necessary time even if there is an eye tracking error due to fast face movement or temporary deterioration of the light environment. Therefore, the processing time ratio of the open / closed eye determination in the entire processing time increases, so that the accuracy of dozing detection can be improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態の機能ブロック図である。FIG. 1 is a functional block diagram of an embodiment of the present invention.

【図2】本発明の一実施形態の構成を示すブロック図で
ある。
FIG. 2 is a block diagram showing a configuration of one embodiment of the present invention.

【図3】一実施形態の全体動作を示すフローチャートで
ある。
FIG. 3 is a flowchart illustrating an overall operation of the embodiment.

【図4】一実施形態の全体動作を示すフローチャートで
ある。
FIG. 4 is a flowchart showing an overall operation of the embodiment.

【図5】眼の位置検出の動作を示すフローチャートであ
る。
FIG. 5 is a flowchart illustrating an operation of detecting an eye position.

【図6】眼の位置検出に関する説明図である。FIG. 6 is an explanatory diagram related to eye position detection.

【図7】眼の位置検出に関する説明図である。FIG. 7 is an explanatory diagram relating to eye position detection.

【図8】眼の位置検出に関する説明図である。FIG. 8 is an explanatory diagram related to eye position detection.

【図9】眼の位置検出に関する説明図である。FIG. 9 is an explanatory diagram related to eye position detection.

【図10】眼の位置検出に関する説明のための図表であ
る。
FIG. 10 is a table for explaining eye position detection.

【図11】眼の位置検出に関する説明図である。FIG. 11 is an explanatory diagram related to eye position detection.

【図12】眼の開度値を求める二値化閾値の算出方法を
示すフローチャートである。
FIG. 12 is a flowchart illustrating a method of calculating a binarization threshold for obtaining an eye opening value.

【図13】二値化閾値を求める方法に関する説明図であ
る。
FIG. 13 is an explanatory diagram relating to a method of obtaining a binarization threshold.

【図14】二値化閾値を求める方法に関する説明図であ
る。
FIG. 14 is an explanatory diagram relating to a method of obtaining a binarization threshold.

【図15】眼の開度値の出力方法に関する説明図であ
る。
FIG. 15 is a diagram illustrating a method of outputting an eye opening value.

【図16】眼の追跡方法に関する説明図である。FIG. 16 is an explanatory diagram relating to an eye tracking method.

【図17】眼の追跡領域の復帰方法に関する説明図であ
る。
FIG. 17 is an explanatory diagram relating to a method of restoring an eye tracking area.

【図18】眼の追跡領域の復帰方法に関する説明図。FIG. 18 is an explanatory diagram relating to a method of restoring an eye tracking area.

【図19】眼の追跡領域の復帰方法に関する説明図であ
る。
FIG. 19 is an explanatory diagram related to a method of returning an eye tracking area.

【図20】一実施形態の問題点に関する説明図である。FIG. 20 is an explanatory diagram relating to a problem of one embodiment.

【図21】他の実施形態の構成を示す機能ブロック図で
ある。
FIG. 21 is a functional block diagram showing a configuration of another embodiment.

【図22】他の実施形態の全体動作を示すフローチャー
トである。
FIG. 22 is a flowchart showing an overall operation of another embodiment.

【図23】他の実施形態の全体動作を示すフローチャー
トである。
FIG. 23 is a flowchart showing the overall operation of another embodiment.

【図24】他の実施形態の全体動作を示すフローチャー
トである。
FIG. 24 is a flowchart showing the overall operation of another embodiment.

【図25】左右対称データの検出領域内での連続データ
の出現状態の判定方法に関する説明図である。
FIG. 25 is an explanatory diagram relating to a method for determining the appearance state of continuous data in a detection region of left-right symmetric data.

【図26】左右対称データの検出領域内での連続データ
の出現状態の判定方法に関する説明図である。
FIG. 26 is an explanatory diagram relating to a method of determining the appearance state of continuous data in a detection region of left-right symmetric data.

【図27】左右対称データの検出領域内での連続データ
の出現状態の判定方法に関する説明図である。
FIG. 27 is an explanatory diagram relating to a method of determining the appearance state of continuous data in a detection region of left-right symmetric data.

【図28】左右対称データの検出領域内での連続データ
の出現状態の判定方法に関する説明図である。
FIG. 28 is an explanatory diagram relating to a method of determining the appearance state of continuous data in a detection region of left-right symmetric data.

【図29】左右対称データの検出領域内での連続データ
の出現状態の判定方法に関する説明図である。
FIG. 29 is an explanatory diagram regarding a method of determining the appearance state of continuous data in a detection region of left-right symmetric data.

【図30】左右対称データの検出領域内での連続データ
の出現状態の判定方法に関する説明図である。
FIG. 30 is an explanatory diagram relating to a method of determining the appearance state of continuous data in a detection region of left-right symmetric data.

【図31】左右対称データの検出領域内での連続データ
の出現状態の判定方法に関する説明図である。
FIG. 31 is an explanatory diagram relating to a method of determining the appearance state of continuous data in a detection region of left-right symmetric data.

【図32】左右対称データの検出領域内での連続データ
の出現状態の判定方法に関する説明図である。
FIG. 32 is an explanatory diagram relating to a method for determining the appearance state of continuous data in a detection region of left-right symmetric data.

【図33】左右対称データの検出領域内での連続データ
の出現状態の判定方法に関する説明図である。
FIG. 33 is an explanatory diagram relating to a method for determining the appearance state of continuous data in a detection region of left-right symmetric data.

【図34】左右対称データの検出領域内での連続データ
の出現状態の判定方法に関する説明図である。
FIG. 34 is an explanatory diagram relating to a method of determining the appearance state of continuous data in a detection region of left-right symmetric data.

【図35】更に他の実施形態の全体動作を示すフローチ
ャートである。
FIG. 35 is a flowchart showing the overall operation of still another embodiment.

【図36】同実施形態の全体動作を示すフローチャート
である。
FIG. 36 is a flowchart showing the overall operation of the embodiment.

【符号の説明】[Explanation of symbols]

CL1 画像入力手段 CL2 顔の縦方向の画素列の濃度検出手段 CL3 ポイント抽出手段 CL4 連続データの抽出手段 CL5 眼の位置検出手段 CL6 眼の追跡領域内でのポイント抽出手段 CL7 眼の開度検出手段 CL8 眼の基準位置決定手段 CL9 眼の追跡状態判定手段 CL10 眼の追跡領域の復帰手段 CL11 覚醒度判定手段 CL12 警報手段 21 TVカメラ 22 A−D変換器 23 画像メモリ 24 画像データ演算回路 25 眼の位置検出回路 26 開閉眼検出回路 27 バックアップ回路 28 覚醒度判定回路 29 警報装置 CL1 Image input means CL2 Face pixel density detection means CL3 Point extraction means CL4 Continuous data extraction means CL5 Eye position detection means CL6 Point extraction means in eye tracking area CL7 Eye opening detection means CL8 Eye reference position determining means CL9 Eye tracking state determining means CL10 Eye tracking area returning means CL11 Awakening degree determining means CL12 Alarm means 21 TV camera 22 A / D converter 23 Image memory 24 Image data arithmetic circuit 25 Eye Position detection circuit 26 Open / closed eye detection circuit 27 Backup circuit 28 Arousal level determination circuit 29 Alarm device

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 3D037 FA05 FB09 5B057 AA16 DA07 DA15 DB02 DC22 5C086 AA23 BA20 BA22 BA23 CA28 CB36 DA01 DA08 DA33 FA02 5H180 AA01 CC04 LL20  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 3D037 FA05 FB09 5B057 AA16 DA07 DA15 DB02 DC22 5C086 AA23 BA20 BA22 BA23 CA28 CB36 DA01 DA08 DA33 FA02 5H180 AA01 CC04 LL20

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 顔画像を入力する顔画像入力手段と、該
顔画像入力手段より入力された顔の画像データの縦方向
の画素列における濃度の局所的な高まり毎に画素を定め
て抽出点とし、該抽出点と隣接する画素列の抽出点が近
接して顔の横方向へ延びる連続データに基づき眼の位置
を特定する眼の位置特定手段と、 該特定された眼の位置を含む所定領域を設定する所定領
域設定手段と、該所定領域設定手段で設定された所定領
域内で前記連続データに基づき眼の位置を特定し、該連
続データの濃度変化状態から眼の開度を検出する眼の開
度検出手段とを備えた眼の状態検出装置において、 前記連続データに基いて眼が存在すると予測できる眼の
基準領域を決定し、記憶する第1の眼の基準領域決定手
段と、 前記所定領域内における眼の連続データを追跡し、該連
続データの状態に基ずいて追跡状態が正常か否かを判定
する眼の追跡状態判定手段と、 該眼の追跡状態判定手段により眼の追跡異常と判定され
たとき、前記基準領域に前記所定領域を復帰する第1の
復帰手段とを設けたことを特徴とする眼の状態検出装
置。
1. A face image input means for inputting a face image, and a pixel is determined for each local increase in density in a vertical pixel row of the face image data input from the face image input means. Eye position specifying means for specifying an eye position based on continuous data in which the extraction point of the pixel row adjacent to the extraction point is close to and extending in the lateral direction of the face; and a predetermined position including the specified eye position A predetermined area setting means for setting an area, an eye position is specified based on the continuous data in the predetermined area set by the predetermined area setting means, and an eye opening is detected from a density change state of the continuous data. An eye state detection device including an eye opening degree detection unit, wherein a first eye reference region determination unit that determines and stores an eye reference region in which an eye can be predicted based on the continuous data, Continuous data of the eyes within the predetermined area The eye tracking state determining means for determining whether the tracking state is normal based on the state of the continuous data, and determining that the eye tracking state is abnormal by the eye tracking state determining means. An eye condition detection apparatus, comprising: a first return unit that returns the predetermined area to the reference area.
【請求項2】 顔画像を入力する顔画像入力手段と、該
顔画像入力手段より入力された顔の画像データの縦方向
の画素列における濃度の局所的な高まり毎に画素を定め
て抽出点とし、該抽出点と隣接する画素列の抽出点が近
接して顔の横方向へ延びる連続データに基づき眼の位置
を特定する眼の位置特定手段と、 該特定された眼の位置を含む所定領域を設定する所定領
域設定手段と、該所定領域設定手段で設定された所定領
域内で前記連続データに基づき眼の位置を特定し、該連
続データの濃度変化状態から眼の開度を検出する眼の開
度検出手段とを備えた眼の状態検出装置において、 前記連続データに基いて眼が存在すると予測できる眼の
基準領域を決定し、記憶する第1の眼の基準領域決定手
段と、 前記所定領域内における眼の連続データを追跡し、該連
続データの状態に基ずいて追跡状態が正常か否かを判定
する眼の追跡状態判定手段と、 該眼の追跡状態判定手段により眼の追跡異常と判定され
たとき、前記基準領域に基づき左右両眼の連続データを
検出し得る左右領域を設定する左右領域設定手段と、 前記左右領域内に連続データが出現しているか否かを判
定する連続データの出現状態判定手段と、 前記左右領域内に連続データが出現していると判定され
たときは該連続データに基いて前記眼の開度検出手段に
前記検出を再度行なわせる再検出手段とを設けたことを
特徴とする眼の状態検出装置。
2. A face image input means for inputting a face image, and a pixel is determined for each local increase in density in a vertical pixel row of the face image data input from the face image input means. Eye position specifying means for specifying an eye position based on continuous data in which the extraction point of the pixel row adjacent to the extraction point is close to and extending in the lateral direction of the face; and a predetermined position including the specified eye position A predetermined area setting means for setting an area, an eye position is specified based on the continuous data in the predetermined area set by the predetermined area setting means, and an eye opening is detected from a density change state of the continuous data. An eye state detection device including an eye opening degree detection unit, wherein a first eye reference region determination unit that determines and stores an eye reference region in which an eye can be predicted based on the continuous data, Continuous data of the eyes within the predetermined area The eye tracking state determining means for determining whether the tracking state is normal based on the state of the continuous data, and determining that the eye tracking state is abnormal by the eye tracking state determining means. Left and right region setting means for setting left and right regions in which continuous data of both right and left eyes can be detected based on the reference region; and continuous data appearance state determining means for determining whether or not continuous data appears in the left and right regions. And re-detecting means for causing the eye opening detecting means to perform the detection again based on the continuous data when it is determined that continuous data appears in the left and right regions. Eye condition detecting device.
【請求項3】 顔画像を入力する顔画像入力手段と、該
顔画像入力手段より入力された顔の画像データの縦方向
の画素列における濃度の局所的な高まり毎に画素を定め
て抽出点とし、該抽出点と隣接する画素列の抽出点が近
接して顔の横方向へ延びる連続データに基づき眼の位置
を特定する眼の位置特定手段と、 該特定された眼の位置を含む所定領域を設定する所定領
域設定手段と、該所定領域設定手段で設定された所定領
域内で前記連続データに基づき眼の位置を特定し、該連
続データの濃度変化状態から眼の開度を検出する眼の開
度検出手段とを備えた眼の状態検出装置において、 前記所定領域内における眼の連続データを追跡し、該連
続データの状態に基ずいて追跡状態が正常か否かを判定
する眼の追跡状態判定手段と、 該眼の追跡状態判定手段により眼の追跡異常と判定され
たとき、前記基準領域に基づき左右両眼の連続データを
検出し得る左右領域を設定する左右領域設定手段と、 前記左右領域内に連続データが出現しているか否かを判
定する連続データの出現状態判定手段と、 前記連続データが出現していると判定されたときは該連
続データに基いて前記眼の位置特定手段に前記検出を再
度行わせる再特定手段と、 前記再特定手段により特定された眼の位置情報を基に眼
が存在すると予測できる眼の基準領域を決定し、記憶す
る第2の眼の基準領域決定手段と、 前記眼の追跡状態判定手段により眼の追跡異常と判定さ
れたとき、前記基準領域に前記所定領域を復帰する第2
の復帰手段とを設けたことを特徴とする眼の状態検出装
置。
3. A face image input unit for inputting a face image, and a pixel is determined for each local increase in density in a vertical pixel row of the face image data input from the face image input unit. Eye position specifying means for specifying an eye position based on continuous data in which the extraction point of the pixel row adjacent to the extraction point is close to and extending in the lateral direction of the face; and a predetermined position including the specified eye position A predetermined area setting means for setting an area, an eye position is specified based on the continuous data in the predetermined area set by the predetermined area setting means, and an eye opening is detected from a density change state of the continuous data. An eye state detection device comprising: an eye opening degree detection unit; an eye state tracking apparatus that tracks continuous eye data in the predetermined area and determines whether the tracking state is normal based on the state of the continuous data. Tracking state determining means, and the tracking state of the eye When it is determined that the eye tracking is abnormal by the state determination means, left and right area setting means for setting left and right areas capable of detecting continuous data of the left and right eyes based on the reference area, and continuous data appears in the left and right areas. A continuous data appearance state determining unit for determining whether or not the continuous data has appeared, and causing the eye position specifying unit to perform the detection again based on the continuous data when it is determined that the continuous data has appeared. Specifying means, a second eye reference area determining means for determining and storing an eye reference area that can be predicted to have an eye based on the eye position information specified by the re-identifying means, and tracking the eye A second step of returning the predetermined area to the reference area when the state determination means determines that the eye tracking is abnormal;
An eye condition detecting device provided with a return means.
【請求項4】 請求項1,2,3記載の眼の状態検出装
置であって、 前記第1又は第2の基準領域決定手段は、眼の位置の検
出処理を繰り返して眼の基準領域を学習することを特徴
とする眼の状態検出装置。
4. The eye state detecting device according to claim 1, wherein the first or second reference region determining means repeats an eye position detection process to determine an eye reference region. An eye state detection device characterized by learning.
【請求項5】 請求項1,2,3記載の眼の状態検出装
置であって、 前記第1又は第2の基準領域決定手段は、眼の開度値の
時系列の変化状態を判定して眼の基準領域を学習するこ
とを特徴とする眼の状態検出装置。
5. The eye state detection device according to claim 1, wherein the first or second reference area determination unit determines a time-series change state of the eye opening value. An eye state detecting device for learning a reference region of an eye by using the method.
【請求項6】 請求項1,2,3記載の眼の状態検出装
置であって、 前記第1又は第2の基準領域決定手段は、複数回の眼の
位置の検出処理により安定的な眼の位置の出力がなされ
たときに眼の基準領域を決定することを特徴とする眼の
状態検出装置。
6. The eye state detection device according to claim 1, wherein the first or second reference region determination unit performs a stable eye detection process by performing eye position detection processing a plurality of times. An eye reference area determined when the position of the eye is output.
【請求項7】 請求項2記載の眼の状態検出装置であっ
て、 前記再検出手段は、前記左右領域内に横方向に所定間隔
で安定して検出できる2個の連続データがあるときに再
検出を行うことを特徴とする眼の状態検出装置。
7. The eye condition detection device according to claim 2, wherein the re-detection unit includes two continuous data that can be stably detected at predetermined intervals in the horizontal direction in the left and right regions. An eye condition detection device for performing re-detection.
【請求項8】 請求項3記載の眼の状態検出装置であっ
て、 前記再特定手段は、前記左右領域内に横方向に所定間隔
で安定して検出できる2個の連続データがあるときに再
検出を行うことを特徴とする眼の状態検出装置。
8. The eye condition detecting apparatus according to claim 3, wherein the re-identifying unit is configured to detect when two continuous data which can be stably detected at predetermined intervals in the horizontal direction in the left and right regions. An eye condition detection device for performing re-detection.
【請求項9】 請求項2、3、7、8記載の眼の状態検
出装置であって、 前記左右領域内の連続データが安定して検出できないと
き、前記判定を所定時間延長する判定延長手段を設けた
ことを特徴とする眼の状態検出装置。
9. The eye state detection device according to claim 2, wherein the determination unit extends the determination for a predetermined time when continuous data in the left and right regions cannot be detected stably. An eye condition detection device comprising:
【請求項10】 請求項2、3、7、8記載の眼の状態
検出装置であって、 前記左右領域内の連続データが検出できないとき、前記
判定を所定時間延長する判定延長手段を設けたことを特
徴とする眼の状態検出装置。
10. The eye state detection device according to claim 2, further comprising: a determination extension unit that extends the determination by a predetermined time when continuous data in the left and right regions cannot be detected. An eye condition detection device, characterized in that:
【請求項11】 請求項2、3、7、8記載の眼の状態
検出装置であって、 前記左右領域内の連続データが安定して検出できないと
き及び、前記左右領域内の連続データが検出できないと
き、前記判定を所定時間延長する判定延長手段を設け、 該判定延長手段は連続データが安定して検出できないと
きよりも検出できないときの延長時間を長く設定するこ
とを特徴とする眼の状態検出装置。
11. The eye condition detecting device according to claim 2, wherein the continuous data in the left and right regions cannot be detected stably and the continuous data in the left and right regions is detected. A determination extending means for extending the determination for a predetermined time when the determination is not possible, wherein the determination extending means sets a longer extended time when the continuous data cannot be detected stably than when the continuous data cannot be detected stably. Detection device.
【請求項12】 請求項1〜11記載の眼の状態検出装
置であって、 前記追跡状態判定手段は、前記所定領域内の連続データ
が移動し、その位置に所定時間滞留したとき眼の追跡異
常と判定することを特徴とする眼の状態検出装置。
12. The eye state detection device according to claim 1, wherein the tracking state determination unit tracks the eye when continuous data in the predetermined area moves and stays at the position for a predetermined time. An eye condition detection device characterized by determining that the condition is abnormal.
【請求項13】 請求項1〜11記載の眼の状態検出装
置であって、 前記追跡状態判定手段は、前記所定領域内の連続データ
が所定時間検出できないとき眼の追跡異常と判定するこ
とを特徴とする眼の状態検出装置。
13. The eye state detection device according to claim 1, wherein the tracking state determination unit determines that an eye tracking abnormality is detected when continuous data in the predetermined area cannot be detected for a predetermined time. Characteristic eye condition detection device.
【請求項14】 請求項1〜11記載の眼の状態検出装
置であって、 前記追跡状態判定手段は、前記眼の開度値が所定範囲を
超えて定常的に検出されるとき眼の追跡異常と判定する
ことを特徴とする眼の状態検出装置。
14. The eye state detection device according to claim 1, wherein the tracking state determination unit tracks the eye when the opening value of the eye exceeds a predetermined range and is constantly detected. An eye condition detection device characterized by determining that the condition is abnormal.
【請求項15】 請求項1〜14記載の眼の状態検出装
置であって、 前記眼の開度検出手段により出力される眼の開度状態を
判定し、その開閉状態の変化から覚醒度を判定する覚醒
度判定手段と、 該覚醒度判定手段により覚醒度が低下していると判定さ
れたとき警報を発する警報手段とを設けたことを特徴と
する居眠り運転警報装置。
15. The eye state detection device according to claim 1, wherein the eye opening state output by the eye opening detecting means is determined, and the degree of arousal is determined from a change in the opening / closing state. A drowsy driving alarm device, comprising: an arousal level determining means for determining; and an alarm means for issuing an alarm when the arousal level determining means determines that the arousal level is decreasing.
JP31234098A 1998-11-02 1998-11-02 Eye condition detection device and drowsy driving alarm device Expired - Fee Related JP3531503B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31234098A JP3531503B2 (en) 1998-11-02 1998-11-02 Eye condition detection device and drowsy driving alarm device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31234098A JP3531503B2 (en) 1998-11-02 1998-11-02 Eye condition detection device and drowsy driving alarm device

Publications (2)

Publication Number Publication Date
JP2000142164A true JP2000142164A (en) 2000-05-23
JP3531503B2 JP3531503B2 (en) 2004-05-31

Family

ID=18028071

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31234098A Expired - Fee Related JP3531503B2 (en) 1998-11-02 1998-11-02 Eye condition detection device and drowsy driving alarm device

Country Status (1)

Country Link
JP (1) JP3531503B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005018656A (en) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd Driver state detector
JP2005013626A (en) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd Awakefullness detector
JP2006251926A (en) * 2005-03-08 2006-09-21 Nissan Motor Co Ltd Direct light detecting device
JP2013003647A (en) * 2011-06-13 2013-01-07 Sony Corp Information processing apparatus and program
JP2015118287A (en) * 2013-12-18 2015-06-25 株式会社デンソー Face image capturing device and driver state determination device
JP2020184138A (en) * 2019-05-07 2020-11-12 マツダ株式会社 Driver abnormal posture detection device
JP2021043665A (en) * 2019-09-10 2021-03-18 矢崎総業株式会社 Image processing device, image processing method, and image processing program
JP2021111006A (en) * 2020-01-07 2021-08-02 トヨタ自動車株式会社 Vehicle monitoring device
WO2024048185A1 (en) * 2022-08-31 2024-03-07 日本電気株式会社 Occupant authentication device, occupant authentication method, and computer-readable medium

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005018656A (en) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd Driver state detector
JP2005013626A (en) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd Awakefullness detector
JP2006251926A (en) * 2005-03-08 2006-09-21 Nissan Motor Co Ltd Direct light detecting device
JP4687150B2 (en) * 2005-03-08 2011-05-25 日産自動車株式会社 Direct light detector
JP2013003647A (en) * 2011-06-13 2013-01-07 Sony Corp Information processing apparatus and program
JP2015118287A (en) * 2013-12-18 2015-06-25 株式会社デンソー Face image capturing device and driver state determination device
JP2020184138A (en) * 2019-05-07 2020-11-12 マツダ株式会社 Driver abnormal posture detection device
JP7320188B2 (en) 2019-05-07 2023-08-03 マツダ株式会社 Driver Abnormal Posture Detector
JP2021043665A (en) * 2019-09-10 2021-03-18 矢崎総業株式会社 Image processing device, image processing method, and image processing program
JP7348005B2 (en) 2019-09-10 2023-09-20 矢崎総業株式会社 Image processing device, image processing method, and image processing program
JP2021111006A (en) * 2020-01-07 2021-08-02 トヨタ自動車株式会社 Vehicle monitoring device
JP7524542B2 (en) 2020-01-07 2024-07-30 トヨタ自動車株式会社 Vehicle monitoring device
WO2024048185A1 (en) * 2022-08-31 2024-03-07 日本電気株式会社 Occupant authentication device, occupant authentication method, and computer-readable medium

Also Published As

Publication number Publication date
JP3531503B2 (en) 2004-05-31

Similar Documents

Publication Publication Date Title
US7331671B2 (en) Eye tracking method based on correlation and detected eye movement
JP5359266B2 (en) Face recognition device, face recognition method, and face recognition program
US7689008B2 (en) System and method for detecting an eye
US7362885B2 (en) Object tracking and eye state identification method
US7620216B2 (en) Method of tracking a human eye in a video image
CN108309311A (en) A kind of real-time doze of train driver sleeps detection device and detection algorithm
KR101653278B1 (en) Face tracking system using colar-based face detection method
US7650034B2 (en) Method of locating a human eye in a video image
CN111553214B (en) Method and system for detecting smoking behavior of driver
JP4770218B2 (en) Visual behavior determination device
JP2000198369A (en) Eye state detecting device and doze-driving alarm device
JP3063504B2 (en) Image data feature detection device
JP3531503B2 (en) Eye condition detection device and drowsy driving alarm device
JP3312562B2 (en) Dozing state detection device
JP2009125518A (en) Driver's blink detection method, driver's awakening degree determination method, and device
JP3444115B2 (en) Dozing state detection device
JP3858570B2 (en) Armpit state detection device
JP2000301962A (en) Eye condition detecting device and alarm device for sleep during driving
Jimenez-Pinto et al. Driver alert state and fatigue detection by salient points analysis
JPH1044824A (en) Driver's-eye open/closed state determination device for vehicle
JP2000199703A (en) Device for detecting state of eyes and device for warning on dozing at wheel
JP2000067225A (en) Eye position detector
JP4692006B2 (en) Image processing apparatus and image processing method
JP4103495B2 (en) Facial feature detection device
Huang et al. An optimized eye locating and tracking system for driver fatigue monitoring

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040223

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090312

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100312

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100312

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110312

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110312

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees