JPH10275212A - Dozing state detector - Google Patents

Dozing state detector

Info

Publication number
JPH10275212A
JPH10275212A JP9078721A JP7872197A JPH10275212A JP H10275212 A JPH10275212 A JP H10275212A JP 9078721 A JP9078721 A JP 9078721A JP 7872197 A JP7872197 A JP 7872197A JP H10275212 A JPH10275212 A JP H10275212A
Authority
JP
Japan
Prior art keywords
eye
point
density
value
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9078721A
Other languages
Japanese (ja)
Other versions
JP3577882B2 (en
Inventor
Masayuki Kaneda
雅之 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP07872197A priority Critical patent/JP3577882B2/en
Publication of JPH10275212A publication Critical patent/JPH10275212A/en
Application granted granted Critical
Publication of JP3577882B2 publication Critical patent/JP3577882B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To obtain a device always stably detecting a dozing state by changing the extracting condition of a point extracting means according to a density value on a pixel string in the vertical direction of a face and setting the point extracting condition to each pixel string to any optical environmental situation. SOLUTION: Both of and eye position detecting means and an eye opening/ closing detecting means detect the density of pixels along the pixel string in the vertical direction of the face, change the extracting condition of the point extracting means according to the density value on the pixel string and set the point extracting condition to each pixel string. At this device a density detecting means CL2 detects the density of the pixel string in the vertical direction of an inputted face image. A point extracting condition changing means CL3 changes the extracting condition of a point extracting means CL4 by a density value at the pixel value. The means CL4 extracts a point by the rising of density at the pixel string and its changing state. The the awakening degree is judged by the change of an eye opening/closing state.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は居眠り状態検出装
置、より具体的には、車両の運転者、船舶の操船者、プ
ラント等のオペレータ等の居眠り状態を検出する居眠り
状態検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a dozing state detecting apparatus, and more particularly, to a dozing state detecting apparatus for detecting a dozing state of a vehicle driver, a boat operator, an operator of a plant or the like.

【0002】[0002]

【従来の技術】従来の運転者等の居眠り状態検出装置と
しては、特願平5−346094号公報に記載されてい
るようなものがある。この居眠り状態検出装置は、運転
者の前方に設置したカメラで撮影した濃淡画像データの
二値化処理を行い、二値化画像において濃度投影、ラベ
リング処理等を行うことで眼の位置を検出し、開閉眼の
状態変化より居眠り状態が検出できる構成となっている
ものである。
2. Description of the Related Art As a conventional device for detecting a dozing state of a driver or the like, there is an apparatus described in Japanese Patent Application No. 5-346094. This dozing state detection device detects the position of the eye by performing binarization processing of grayscale image data taken by a camera installed in front of the driver and performing density projection, labeling processing, etc. on the binarized image. In addition, a dozing state can be detected from a change in the state of the open / closed eyes.

【0003】また、濃淡画像を対象とした居眠り状態検
出装置としては、特願平8−207782号公報に記載
されたようなものが、本願出願人より提案されている。
この居眠り状態検出装置は、顔の縦方向の画素列に沿っ
て画素の濃度を検出し、前記画素列における濃度の局所
的な高まりごとに1個づつの画素を定めて抽出点とし、
隣接する画素列の画素列方向に近接した抽出点を連結し
て顔の横方向に伸びる曲線群から眼の位置を検出し、そ
の後、眼を含む所定領域内で眼の位置検出と同様の処理
を行うことにより、眼の開閉状態を判定し、その開閉状
態の変化より居眠り状態が検出できる構成となっている
ものである。
[0003] As a dozing state detection apparatus for a grayscale image, an apparatus described in Japanese Patent Application No. 8-2077782 has been proposed by the present applicant.
This dozing state detection device detects the density of pixels along a pixel row in the vertical direction of the face, determines one pixel for each local increase in density in the pixel row, and sets it as an extraction point.
Extraction points adjacent to each other in the pixel column direction of adjacent pixel columns are connected to detect the position of the eye from a group of curves extending in the horizontal direction of the face, and then the same processing as in the detection of the position of the eye in a predetermined area including the eye Is performed, the open / closed state of the eyes is determined, and the dozing state can be detected from a change in the open / closed state.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、このよ
うな従来の居眠り状態検出装置にあっては、図20に示
すように、光の当り方がアンバランスな場合、濃淡画像
上でのコントラストが弱くなるため、正確に二値化閾値
を設定することが困難になり、眼の位置、開閉眼検出精
度が低下するという問題点があった。
However, in such a conventional dozing state detecting device, as shown in FIG. 20, when the light hits unbalanced, the contrast on the grayscale image is weak. Therefore, it is difficult to accurately set the binarization threshold, and there has been a problem that the eye position and the open / closed eye detection accuracy are reduced.

【0005】また、濃淡画像を対象とした居眠り状態検
出装置でも、極端にコントラストが弱くなった画像で
は、固定したポイント抽出条件により、眼を確実に抽出
ポイントの連続データとして認識することができないた
め、やはり眼の位置、開閉眼検出精度が低下するという
問題点があった。
Further, even in a dozing state detection apparatus for a grayscale image, in an image in which the contrast is extremely weak, the eyes cannot be reliably recognized as continuous data of the extracted points due to the fixed point extraction conditions. However, there is also a problem that the eye position and the open / closed eye detection accuracy are reduced.

【0006】本発明は、このような従来の問題点に着目
してなされたもので、あらゆる光環境状態に対応するこ
とができ、居眠り状態検出が常に安定して行えるように
した居眠り状態検出装置を提供することを目的とする。
The present invention has been made in view of such a conventional problem, and can cope with various light environment conditions, and can always detect a dozing state stably at all times. The purpose is to provide.

【0007】[0007]

【課題を解決するための手段】本発明は上述の課題を解
決するために、図1に示すように、顔画像を入力する画
像入力手段CL1と、該画像入力手段CL1から入力さ
れた顔画像の縦方向の画素列の濃度を検出する画素列の
濃度検出手段CL2と、前記画素列における濃度値によ
る以下のポイント抽出手段CL4の抽出条件を変更する
ポイント抽出条件変更手段CL3と、前記画素列におけ
る濃度の高まりとその変化状態によりポイントを抽出す
るポイント抽出手段CL4と、隣接する画素列の画素列
方向に近接したポイントを連続して顔の横方向への曲線
群を抽出する曲線群の抽出手段CL5と、曲線群の中か
ら眼を選択する眼の位置検出手段CL6と、眼を含む所
定領域内で縦方向への濃度値による以下のポイント抽出
手段CL8の抽出条件を変更するポイント抽出条件変更
手段CL7と、眼を含む所定領域内で縦方向への濃度の
高まりとその変化状態よりポイントを抽出するポイント
抽出手段CL8と、前記ポイントの顔の横方向へのポイ
ントの連続性を判定するポイントの連続性判定手段CL
9と、前記連続データ内から眼の開度値を求める眼の開
度検出手段CL10と、眼の開閉状態の変化から覚醒度
を判定する覚醒度判定手段CL11と、覚醒度が低下し
ていると判定された場合に警報を与える警報手段CL1
2とを備えるものとする。
According to the present invention, an image input means CL1 for inputting a face image and a face image input from the image input means CL1 are provided as shown in FIG. A pixel row density detecting means CL2 for detecting the density of the vertical pixel row, a point extracting condition changing means CL3 for changing an extraction condition of the following point extracting means CL4 based on a density value in the pixel row, Point extraction means CL4 for extracting points based on the increase in density and the change state thereof, and extraction of a curve group for successively extracting a curve group in the horizontal direction of the face from points adjacent to each other in the pixel column direction. Means CL5, eye position detecting means CL6 for selecting an eye from a group of curves, and extraction of the following point extracting means CL8 based on a density value in a vertical direction within a predetermined area including the eyes. A point extraction condition changing unit CL7 for changing a matter; a point extraction unit CL8 for extracting a point from a density increase in a vertical direction in a predetermined area including an eye and a change state thereof; Point continuity judgment means CL for judging point continuity
9, an eye opening detecting means CL10 for obtaining an eye opening value from within the continuous data, an arousal degree determining means CL11 for determining an arousal degree from a change in the open / closed state of the eye, and an awakening degree is decreasing. Alarm means CL1 for giving an alarm when it is determined that
2 is provided.

【0008】本発明によれば、眼の位置検出、開閉眼検
出の両手段において、顔の縦方向の画素列に沿って画素
の濃度を検出し、前記画素列上の濃度値により、ポイン
ト抽出手段の抽出条件を変更し、各画素列ごとにポイン
ト抽出条件を設定する構成とすることによって、眼を抽
出ポイントの連続データとして常に安定して捕らえるこ
とができるため、あらゆる光環境状態に対応することが
でき、居眠り状態の検出精度を向上させることができ
る。
According to the present invention, in both means of eye position detection and open / closed eye detection, the density of pixels is detected along the vertical pixel row of the face, and point extraction is performed based on the density value on the pixel row. By changing the extraction condition of the means and setting the point extraction condition for each pixel column, the eye can always be stably captured as continuous data of the extraction point, so that it corresponds to any light environment state This can improve the detection accuracy of the dozing state.

【0009】[0009]

【発明の実施の形態】以下、本発明による居眠り状態検
出装置の実施の形態を添付図面を参照して詳細に説明す
る。なお、ここでは、車両運転者の場合が、太陽の高さ
や車両の向きにより、その光環境状態の変化が大きいと
考えられることから、本実施の形態では車両に適用した
場合で説明する。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing an embodiment of a doze detection apparatus according to the present invention. Here, in the case of a vehicle driver, the change in the light environment state is considered to be large depending on the height of the sun and the direction of the vehicle. Therefore, in the present embodiment, a case where the present invention is applied to a vehicle will be described.

【0010】図1は、本発明による居眠り状態検出装置
の構成を示すブロック図であり、図2は、一実施の形態
を示すブロック図である。まず、図1および図2を用い
て、構成を説明する。インストに設置され、運転者の顔
部分を正面から撮影する画像入力手段CL1としてのT
Vカメラ21があり、TVカメラ21の入力画像は、本
実施の形態では、横(X)方向512画素、縦(Y)方
向480画素からなる。TVカメラ21で撮影された入
力画像は、A−D変換器22を介して、デジタル量の入
力画像データとして画像メモリ23に格納される。画像
メモリ23には、これに格納された入力画像データに基
づいて顔の縦方向の画素列の濃度を検出する画素列の濃
度検出手段CL2と、前記画素列の濃度値によるポイン
ト抽出条件変更手段CL3と、前記画素列における濃度
の高まりとその変化状態によりポイントを抽出するポイ
ント抽出手段CL4と、隣接する画素列方向に近接した
ポイントを連結して顔の横方向への曲線群を抽出する曲
線群の抽出手段CL5からなる画像データ演算回路24
と、曲線群から眼の選択を行うことで眼の位置を検出す
る眼の位置検出手段CL6の眼の位置検出回路25と、
眼を含む所定領域内で縦方向への濃度値によるポイント
抽出条件変更手段CL7と、眼を含む所定領域内で縦方
向への濃度の高まりとその変化状態からポイントを抽出
するポイント抽出手段CL8と、顔の横方向へのポイン
トの連続性を判定する連続性判定手段CL9と、連続デ
ータ内から眼の開度値を検出する眼の開度検出手段CL
10からなる開閉眼検出回路26が接続されている。こ
の開閉眼検出回路より送出される開閉眼の検出結果から
覚醒度を判定する覚醒度判定手段CL11の覚醒度判定
回路27があり、覚醒度が低下したと判定された場合に
居眠り状態を解消させる警報を警報手段CL12の警報
装置28より発生する。
FIG. 1 is a block diagram showing a configuration of a dozing state detection device according to the present invention, and FIG. 2 is a block diagram showing one embodiment. First, the configuration will be described with reference to FIGS. T as image input means CL1 installed on the instrument and for photographing the driver's face from the front
There is a V-camera 21, and an input image of the TV camera 21 is composed of 512 pixels in the horizontal (X) direction and 480 pixels in the vertical (Y) direction in the present embodiment. An input image captured by the TV camera 21 is stored in the image memory 23 as digital input image data via the AD converter 22. The image memory 23 includes a pixel line density detecting unit CL2 for detecting the density of the vertical pixel line of the face based on the input image data stored therein, and a point extraction condition changing unit based on the pixel line density value. CL3, a point extracting means CL4 for extracting points based on the density increase in the pixel row and its change state, and a curve for connecting points adjacent in the direction of adjacent pixel rows to extract a group of curves in the horizontal direction of the face Image data operation circuit 24 including group extraction means CL5
And an eye position detection circuit 25 of an eye position detection means CL6 for detecting an eye position by selecting an eye from the curve group;
Point extraction condition changing means CL7 based on the density value in the vertical direction in the predetermined area including the eye, and point extraction means CL8 for extracting points from the increase in the density in the vertical direction and the change state in the predetermined area including the eye. Continuity determining means CL9 for determining the continuity of points in the horizontal direction of the face, and eye opening detecting means CL for detecting an eye opening value from the continuous data
An open / closed eye detection circuit 26 comprising 10 is connected. There is a wakefulness determination circuit 27 of the wakefulness determination means CL11 that determines the wakefulness from the detection result of the open / closed eye sent from the open / closed eye detection circuit, and eliminates the dozing state when it is determined that the wakefulness has decreased. An alarm is generated from the alarm device 28 of the alarm means CL12.

【0011】次に、上記構成における動作の流れを、図
3のフローチャートに基づいて説明する。まず、ステッ
プS301において、TVカメラ21によって顔部分が
撮影され、ステップS302で、1フレーム分の入力画
像がA−D変換器22でデジタル信号に変換されたう
え、画像メモリ23に格納される。
Next, the flow of operation in the above configuration will be described with reference to the flowchart of FIG. First, in step S301, the face portion is photographed by the TV camera 21, and in step S302, the input image for one frame is converted into a digital signal by the A / D converter 22 and stored in the image memory 23.

【0012】次に、ステップS303において、眼の存
在領域が設定されているかどうかがチェックされる。眼
の存在領域とは、眼を含む所定領域を示し、眼の開度検
出の処理を行う領域である。また、この所定領域は、眼
の追跡領域としても用いられる。眼の存在領域が設定さ
れていない場合は、ステップS304およびS305に
おいて、眼が存在する領域の横方向(X方向)の幅と縦
方向(Y方向)の幅を設定する。眼の位置検出の詳細
は、図4のフローチャートと、図5〜図13に示す説明
図により後述する。ステップS303で、眼の存在領域
が設定されていると判断された場合、ステップS306
で眼の開度の検出が行われる。この処理の詳細は、図1
4のフローチャートと、図15〜図17に示す説明図に
より後述する。
Next, in step S303, it is checked whether or not an eye existence area has been set. The eye existence area indicates a predetermined area including the eye, and is an area in which the processing of detecting the opening of the eye is performed. This predetermined area is also used as an eye tracking area. When the eye existence region is not set, the width in the horizontal direction (X direction) and the width in the vertical direction (Y direction) of the region where the eye exists are set in steps S304 and S305. The details of the eye position detection will be described later with reference to the flowchart of FIG. 4 and the explanatory diagrams shown in FIGS. If it is determined in step S303 that the eye existence area has been set, step S306 is performed.
Is used to detect the degree of eye opening. Details of this processing are shown in FIG.
4 and the explanatory diagrams shown in FIGS. 15 to 17.

【0013】この後、ステップS307において、前ス
テップS306で検出された眼の開度値より眼が正しく
追跡されているか否かを確認する。眼が正しく追跡され
ていると判定された場合は、ステップS308に移り、
眼の開度値により開眼か閉眼かの判定を行う。その後、
ステップS309に移行し、眼の追跡、つまり眼の存在
領域の変更を行う。
Thereafter, in step S307, it is checked whether or not the eye is correctly tracked based on the eye opening value detected in the previous step S306. If it is determined that the eye is correctly tracked, the process proceeds to step S308,
It is determined whether the eye is open or closed based on the eye opening value. afterwards,
The process proceeds to step S309 to track the eyes, that is, to change the region where the eyes are present.

【0014】この後、ステップS310において、前ス
テップS309で検出された開閉眼パターンから運転者
の覚醒度の判定が行われる。覚醒度の判定の詳細は、図
19に示す説明図により後述する。
Thereafter, in step S310, the degree of arousal of the driver is determined from the open / closed eye pattern detected in the previous step S309. Details of the determination of the arousal level will be described later with reference to an explanatory diagram shown in FIG.

【0015】また、ステップS307で眼が正しく追跡
されていないと判定された場合は、ステップS311に
移り、眼の開度値と眼の存在領域をクリアし、ステップ
S301に戻り、次のフレームの処理に移る。この眼の
追跡の詳細は、図18に示す説明図により後述する。
If it is determined in step S307 that the eye is not correctly tracked, the flow shifts to step S311 to clear the eye opening value and the eye existence area, and returns to step S301 to return to the next frame. Move on to processing. The details of the eye tracking will be described later with reference to an explanatory diagram shown in FIG.

【0016】次に、眼の位置検出の詳細を説明する。眼
の位置検出処理の流れを、図4のフローチャートに基づ
いて説明する。まず、ステップS401では、図5に示
すように、Y軸方向に480のライン上のデータに対し
てポイント抽出の処理を行い、1ライン終了後に、一つ
隣のラインの処理に移して行き、所定方向の全ラインで
のポイント抽出が終了したか否かを判断する。
Next, details of the eye position detection will be described. The flow of the eye position detection process will be described with reference to the flowchart of FIG. First, in step S401, as shown in FIG. 5, point extraction processing is performed on data on 480 lines in the Y-axis direction, and after one line is completed, processing is shifted to the processing of the next adjacent line. It is determined whether or not point extraction has been completed for all lines in a predetermined direction.

【0017】ステップS401で全ラインにおいてポイ
ント抽出が行われていないと判断された場合は、ステッ
プS402に移行する。このステップS402では、所
定方向の1ラインの濃度値の相加平均演算を行う。この
処理は、画像データ撮影時の濃度値の変化の小さなばら
つきを無くすことを目的としており、濃度値の大局的な
変化を捉えるためである。図6(a)に、図5のXaの
ラインデータの相加平均演算の処理結果を示す。
If it is determined in step S401 that point extraction has not been performed on all lines, the process proceeds to step S402. In this step S402, an arithmetic average of the density values of one line in a predetermined direction is performed. This processing is intended to eliminate small variations in the change in density value at the time of capturing image data, and to capture a global change in density value. FIG. 6A shows a processing result of the arithmetic averaging operation of the line data of Xa in FIG.

【0018】図4のステップS403では、ステップS
402の演算結果である相加平均値における微分演算を
行う。この処理結果を図6(b)に示す。
In step S403 of FIG.
A differential operation is performed on the arithmetic average value that is the operation result of 402. FIG. 6B shows the processing result.

【0019】図4のステップS404では、図6(a)
のNmaxで示す所定方向の1ラインの最も明るい濃度
値をメモリし、その値により各ラインのポイント抽出条
件である微分値の判定基準値を変更し、設定する。
In step S404 in FIG. 4, FIG.
, The brightest density value of one line in the predetermined direction indicated by Nmax is stored, and the reference value for the differential value, which is the point extraction condition of each line, is changed and set according to the value.

【0020】図4のステップS405では、ステップS
403の演算結果である微分値によりポイント抽出を行
う。そのポイントの抽出方法は、図6(b)に示す微分
値が負から正に変化するポイント(p1〜p10)、図
6(a)でいうと、グラフが下向きに凸になるポイント
を抽出する。次に、そのポイントに達するまでの濃度値
の変化の最大箇所である最小微分値が、図6(b)に示
す判定基準値以下であるか否かを判定し、判定基準値以
下の濃度変化を持つポイント(q3,q4)を対象とし
て、Y座標値(a3,a4)を抽出する。
In step S405 of FIG.
Point extraction is performed based on the differential value that is the calculation result of 403. The method of extracting the points is to extract the points (p1 to p10) where the differential value changes from negative to positive as shown in FIG. 6B, and extract the points where the graph becomes convex downward in FIG. 6A. . Next, it is determined whether or not the minimum differential value, which is the maximum point of the change in the density value up to the point, is equal to or less than the determination reference value shown in FIG. Then, the Y coordinate values (a3, a4) are extracted for the point (q3, q4) having.

【0021】次に、図7、図8を用いて、車両右側から
の直射光により光の当り方がアンバランスになる場合に
ついて説明する。図7に示すように、車両右側からの直
射光により顔の左半分が影になり、コントラストが弱く
なった場合、顔の影の部分にある図7のXbのラインで
は、図8(b)のp3で示す眼にあたる部分のポイント
は、図6(b)と同じ微分値の判定基準値にすると抽出
できず、眼を抽出ポイントの連続データとして認識する
こともできない。このような場合、図4のステップS4
04の処理における図8(a)のNmaxで示す該当す
るラインの最も明るい濃度値により、そのライン上のコ
ントラストが強いか、弱いかを判定することができるた
め、Nmaxが小さい場合、コントラストが弱いと判定
し、図8(b)に示すように微分判定基準値を変更する
ことができる。よって、影にある眼や眉のポイントを、
図8(a)のa2,a3として抽出できる。
Next, with reference to FIGS. 7 and 8, a description will be given of a case in which direct light from the right side of the vehicle causes imbalance in light hitting. As shown in FIG. 7, when the left half of the face becomes a shadow due to the direct light from the right side of the vehicle and the contrast becomes weak, the Xb line in FIG. The point corresponding to the eye indicated by p3 cannot be extracted if the same criterion value of the differential value as in FIG. 6B is used, and the eye cannot be recognized as continuous data of the extracted points. In such a case, step S4 in FIG.
It is possible to determine whether the contrast on the line is strong or weak based on the brightest density value of the corresponding line indicated by Nmax in FIG. 8A in the process of 04. Therefore, when Nmax is small, the contrast is weak. And the differential determination reference value can be changed as shown in FIG. Therefore, the points of the eyes and eyebrows in the shadow,
It can be extracted as a2 and a3 in FIG.

【0022】次に、図9、図10を用いて、車両前側か
らの直接光により光の当たり方がアンバランスになる場
合について説明する。図9に示すように、車両前側から
の直射光により顔の上半分が影になり、コントラストが
弱くなった場合、図9のXcのラインでは、図10
(b)のp3で示す眼にあたる部分のポイントは、図6
(b)と同じ微分値の判定基準値にすると抽出できず、
眼を抽出ポイントの連続データとして認識することもで
きない。また、このように上下方向に濃度値のアンバラ
ンスがある場合は、図4のステップS404の処理にお
ける図10(a)のNmaxで示す該当するラインの最
も明るい濃度値により、そのライン上の眼のある部分の
コントラストが強いか、弱いかを判定することができな
い。このように前側からの直接光により光の当り方のア
ンバランスがある場合は、眼に相当する抽出ポイントの
連続データが検出されないことをフィードバック情報と
して用いて、図10(b)に示すように、微分値の判定
基準値を変更することができる。よって、影にある眼や
眉のポイントを、図10(a)のa2,a3として抽出
できる。
Next, a case in which direct light from the front side of the vehicle causes imbalance in light hitting will be described with reference to FIGS. 9 and 10. FIG. As shown in FIG. 9, when the upper half of the face is shadowed by the direct light from the front side of the vehicle and the contrast is weakened, the line Xc in FIG.
The point of the part corresponding to the eye indicated by p3 in FIG.
If the same differential reference value as (b) is used, it cannot be extracted,
The eyes cannot be recognized as continuous data of the extraction points. When the density values are unbalanced in the vertical direction as described above, the lightest density value of the corresponding line indicated by Nmax in FIG. 10A in the process of step S404 in FIG. It cannot be determined whether the contrast of a certain part is strong or weak. As described above, when there is an imbalance in how the light hits due to the direct light from the front side, as shown in FIG. 10B, the fact that continuous data of the extraction point corresponding to the eye is not detected is used as feedback information. , The reference value of the differential value can be changed. Therefore, points of the eyes and eyebrows in the shadow can be extracted as a2 and a3 in FIG.

【0023】また、図9のように、顔の上半分が影にな
り、その壁の部分に眼がある場合は、運転者がサンバイ
ザを用いていることが多く、よってサンバイザの使用信
号により、微分値の判定基準値を変更することもでき
る。
As shown in FIG. 9, when the upper half of the face is shadowed and the wall has an eye, the driver often uses a sun visor. The criterion value for the differential value can also be changed.

【0024】その他、眼のコントラストが弱くなる場合
として、運転者が眼鏡を着用している場合がある。よっ
て、眼鏡の着用の有無の入力信号により、微分値の判定
基準値を変更することもできる。
As another case where the contrast of the eyes becomes weak, there is a case where the driver wears glasses. Therefore, the reference value for the differential value can be changed according to the input signal indicating whether or not the spectacles are worn.

【0025】1ライン終了後、図4のステップS406
で、次のラインの処理に切り換えていく。
After completion of one line, step S406 in FIG.
Then, the processing is switched to the processing of the next line.

【0026】図4のステップS401で、全ラインのポ
イント抽出が終了したと判断されると、図11に示すよ
うなポイントが抽出される。つまり、図11のX1ライ
ン上では、A1,A2の二つのポイントが抽出されてお
り、X2ライン上では、A1,A2,A3,A4の四つ
のポイントが抽出されていることになる。
If it is determined in step S401 in FIG. 4 that point extraction for all lines has been completed, points as shown in FIG. 11 are extracted. That is, two points A1 and A2 are extracted on the X1 line in FIG. 11, and four points A1, A2, A3 and A4 are extracted on the X2 line.

【0027】その後、ステップS407へ移行し、隣合
う各ラインの抽出ポイント(A1,A2,A3,…)の
Y座標値を比較し、Y座標値が所定値以内の場合、連続
データとして、連続データのグループ番号、連続開
始ライン番号、連続データ数をメモリする。この具体
的な処理内容を、図12を用いて説明する。
Thereafter, the flow shifts to step S407, where the Y coordinate values of the extraction points (A1, A2, A3,...) Of the adjacent lines are compared. It stores the data group number, continuous start line number, and continuous data number. The specific processing content will be described with reference to FIG.

【0028】ライン1には、Y座標値が192と229
の二つの抽出ポイントがある。ライン1のY座標値が1
92のポイントは、左隣りのラインが存在しないので、
この段階での連続データはないため、連続データのグ
ループ番号は“1”となる。また、Y座標値が229の
ポイントも、同様の理由で、この段階での連続データは
存在しないため、連続データのグループ番号は、その
次の“2”とする。
Line 1 has Y coordinate values of 192 and 229
There are two extraction points. Y coordinate value of line 1 is 1
Point 92 is because there is no line on the left
Since there is no continuous data at this stage, the group number of the continuous data is “1”. For the same reason, there is no continuous data at this stage for the point having the Y coordinate value of 229. Therefore, the group number of the continuous data is set to the next “2”.

【0029】次に、右隣りのライン2には、Y座標値が
191と224の二つの抽出ポイントがある。ライン2
のY座標値191のポイントは、左隣のライン1のY座
標値192と10以内のポイントであるため、連続デ
ータのグループ番号を“1”とする。この時、連続デ
ータ数は2となる。ライン2のY座標値224のポイン
トにおいても、同様の判定を行うと、連続データのグ
ループ番号は“2”、連続データ数は2となる。
Next, in line 2 on the right side, there are two extraction points whose Y coordinate values are 191 and 224. Line 2
Is a point within 10 of the Y coordinate value 192 of the line 1 on the left, so that the group number of the continuous data is “1”. At this time, the number of continuous data is two. When the same determination is made at the point of the Y coordinate value 224 of the line 2, the group number of the continuous data is “2” and the number of continuous data is 2.

【0030】次のライン3のY座標値360のポイント
では、左隣のライン2に360と10以内になるポイン
トが存在しないので、連続データのグループ番号は
“3”となり、連続データ数は1となる。
At the point of the Y coordinate value 360 of the next line 3, there is no point within 360 and 10 in the line 2 on the left, so the group number of continuous data is "3" and the number of continuous data is 1 Becomes

【0031】また、ステップS407での連続開始ラ
イン番号は、連続データ数が1と判断されるポイント
を有するライン番号のことをいう。
The continuous start line number in step S407 refers to a line number having a point where the number of continuous data is determined to be one.

【0032】ステップS407では、このようにして各
ラインのポイントの連続性の判断を全ラインにおいて終
了するまで行い、ステップS408へ移行する。
In step S407, the continuity of the points on each line is determined until the processing is completed for all the lines, and the process proceeds to step S408.

【0033】ステップS408では、同じ連続データの
グループ番号を持つポイントのY座標値の平均値を、
連続ポイントの平均値にメモリする。この値は、そのグ
ループの代表Y座標値として用いることができる。ま
た、連続開始ラインとその連続データ数から連続終了ラ
インを求め、連続開始ラインと連続終了ラインの平均値
をメモリする。この値は、そのグループの代表X座標値
として用いることができる。
In step S408, the average value of the Y coordinate values of points having the same continuous data group number is calculated as
Stores the average value of consecutive points. This value can be used as a representative Y coordinate value of the group. Further, a continuous end line is obtained from the continuous start line and the number of continuous data, and an average value of the continuous start line and the continuous end line is stored. This value can be used as the representative X coordinate value of the group.

【0034】このようにして得られた各連続グループデ
ータを、ステップS409で、各連続グループの長さ、
(X,Y)座標値により判定することにより、眼の位置
が特定できる。
In step S409, each continuous group data obtained in this way is used to calculate the length of each continuous group,
By determining based on (X, Y) coordinate values, the position of the eye can be specified.

【0035】ここで、図13を用いて、具体的な眼の位
置検出方法について説明する。まず初めに眼の特徴量を
考えると、横に長く、上に凸型の弓形形状であると定義
付けることができ、この定義付けに基づいて連続データ
の絞り込みを行うと、眼は横に長いという条件から、ポ
イント連続数が5ポイント以上続き、また、弓形形状で
あるという条件から、連続開始ポイントと連続終了ポイ
ントのY座標値の差は、小さい連続データに絞り込むこ
とができる。この判定に基づき、連続データの絞り込み
を行うと、図13(a)に示すようなグループG1〜G
6が抽出される。
Here, a specific method of detecting the position of the eye will be described with reference to FIG. First, considering the features of the eye, it can be defined as having a horizontally long and upwardly convex bow shape, and if narrowing down continuous data based on this definition, the eye is said to be long horizontally. Based on the condition, the number of continuous points continues for 5 points or more, and the condition of the bow shape allows the difference between the Y coordinate values of the continuous start point and the continuous end point to be narrowed down to small continuous data. When narrowing down the continuous data based on this determination, the groups G1 to G as shown in FIG.
6 is extracted.

【0036】次に、前述した各グループのX,Yの代表
座標値の位置を考えると、図13(b)に示すように、
X座標方向での接近度合いより、ZONE:L,ZON
E:C,ZONE:Rに分類できる。これは、左眼と左
眉でX座標方向に大きく離れることはなく、また右眼と
右眉でX座標方向に大きく離れることはないからであ
る。また、鼻下の影により連続データとなったものや、
口の連続データは中央部付近に位置する。
Next, considering the positions of the representative coordinate values of X and Y of each group described above, as shown in FIG.
From the degree of approach in the X coordinate direction, ZONE: L, ZON
It can be classified into E: C and ZONE: R. This is because the left eye and the left eyebrow do not greatly separate in the X coordinate direction, and the right eye and the right eyebrow do not greatly separate in the X coordinate direction. Also, continuous data due to the shadow under the nose,
Mouth continuous data is located near the center.

【0037】このように、X座標方向の接近度合いで更
にデータを分類し、データを絞り込んでいくことで、眼
の位置検出を容易に行うことができる。ZONE:Lに
含まれるデータとしては、左眼と左眉であり、ZON
E:Rに含まれる連続データは右眼と右眉であると判定
すると、眼の位置はG3,G4であり、その座標値も特
定できる。
As described above, by further classifying the data according to the degree of approach in the X coordinate direction and narrowing down the data, the position of the eye can be easily detected. The data included in ZONE: L includes the left eye and the left eyebrow.
E: If it is determined that the continuous data included in R is the right eye and the right eyebrow, the positions of the eyes are G3 and G4, and the coordinate values thereof can be specified.

【0038】次に、眼の開度検出の詳細を説明する。眼
の開度検出処理の流れを、図14のフローチャートに基
づいて説明する。まず、ステップS501では、図15
(a)に示すように、Y軸方向にライン上のデータに対
してポイント抽出の処理を行い、1ライン終了後に、一
つ隣のラインの処理に移していき、所定方向の全ライン
でのポイント抽出が終了したか否かを判断する。
Next, the details of the eye opening detection will be described. The flow of the eye opening detection process will be described with reference to the flowchart of FIG. First, in step S501, FIG.
As shown in (a), point extraction processing is performed on data on a line in the Y-axis direction, and after the completion of one line, processing is shifted to the next adjacent line, and processing is performed on all lines in a predetermined direction. It is determined whether the point extraction has been completed.

【0039】ステップS501で、全ラインにおいてポ
イント抽出が行われていないと判断された場合は、ステ
ップS502に移行する。このステップS502では、
所定方向の1ラインの濃度値の相加平均演算を行う。こ
の処理は、画像データ撮影時の濃度値の変化の小さなば
らつきを無くすことを目的としており、濃度値の大局的
な変化を捉えるためである。図15(b)に、図15
(a)のXのラインデータの相加平均演算の処理結果を
示す。
If it is determined in step S501 that point extraction has not been performed on all lines, the process proceeds to step S502. In this step S502,
Arithmetic averaging of the density values of one line in a predetermined direction is performed. This processing is intended to eliminate small variations in the change in density value at the time of capturing image data, and to capture a global change in density value. FIG.
9A shows the processing result of the arithmetic averaging operation of the line data of X in FIG.

【0040】図14のステップS503では、ステップ
S502の演算結果である相加平均値における微分演算
を行う。この処理結果を、図15(c)に示す。
In step S503 in FIG. 14, a differential operation is performed on the arithmetic mean value that is the operation result of step S502. The result of this processing is shown in FIG.

【0041】図14のステップS504では、眼の位置
検出の場合と同様に、縦方向1ラインの最も明るい濃度
値により、ステップS505のポイント抽出条件を変更
する。
In step S504 in FIG. 14, the point extraction condition in step S505 is changed based on the brightest density value of one vertical line, as in the case of detecting the position of the eye.

【0042】図14のステップS505では、ステップ
S503の演算結果である微分値によるポイント抽出を
行う。そのポイントの抽出方法は、微分値が負から正に
変化するポイントp、図15(b)でいうと、グラフが
左向きに凸になるポイントを抽出する。次に、図14
(c)に示すように、そのポイントの前後の濃度値の変
化が判定基準値以下、以上であるか否かを判定し、上記
条件を満足する濃度値の変化を持つポイントpを抽出す
る。
In step S505 in FIG. 14, point extraction is performed using the differential value that is the result of the operation in step S503. The point is extracted by extracting a point p at which the differential value changes from negative to positive, that is, a point at which the graph becomes convex to the left in FIG. 15B. Next, FIG.
As shown in (c), it is determined whether or not the change in the density value before and after the point is equal to or less than the determination reference value, and a point p having a change in the density value that satisfies the above condition is extracted.

【0043】次に、図16を用いて、眼が影にあり、コ
ントラストが弱い場合について説明する。開閉眼の検出
においても、眼の位置検出と同様に、眼が影にある場合
は、図14のステップS504で、縦方向1ラインの最
も明るい濃度値、図16(b)のNmaxを求めること
により、眼のコントラストが弱い状態にあることが判定
でき、微分値の判定基準値を、図16(c)に示すよう
に変更することができる。よって、コントラストが弱い
悪い光環境下にあっても、確実に眼を連続データとて認
識することができる。また、開閉眼検出の場合、対象と
する領域が小さいため、眼の存在領域全体の平均濃度な
どによっても、眼のおかれている光環境状態を判定する
ことができる。
Next, a case where the eye is in shadow and the contrast is weak will be described with reference to FIG. In the detection of the open / closed eye, similarly to the detection of the position of the eye, when the eye is in the shadow, the brightest density value of one line in the vertical direction and Nmax in FIG. 16B are obtained in step S504 of FIG. Accordingly, it can be determined that the contrast of the eye is in a weak state, and the determination reference value of the differential value can be changed as shown in FIG. Therefore, even in a poor light environment where the contrast is weak, the eyes can be reliably recognized as continuous data. In addition, in the case of the open / closed eye detection, since the target area is small, it is possible to determine the light environment state in which the eye is placed also based on the average density of the entire area where the eye is present.

【0044】開閉眼検出においても、眼の位置検出と同
様に、サンバイザの使用の有無、眼鏡の着用の有無によ
り、微分値の判定基準値を切り換えることは、当然、有
効である。
In the detection of the open / closed eyes, it is naturally effective to switch the reference value for the differential value depending on whether or not the sun visor is used and whether or not the spectacles are worn, similarly to the detection of the eye position.

【0045】図14のステップS506で、抽出ポイン
トpが存在すると判定された場合は、ステップS507
へ移行し、p点の前後の微分値の正負の最大値であるq
点とr点のY座標方向の間隔Hを求める。ステップS5
07では、また縦方向のラインにおいて、抽出ポイント
が連続して存在する場合に、その間隔を比較し、最大値
Hを更新する。
If it is determined in step S506 in FIG. 14 that the extraction point p exists, the process proceeds to step S507.
To q, which is the maximum positive / negative value of the differential value before and after the p point.
An interval H between the point and the r point in the Y coordinate direction is obtained. Step S5
In step 07, when the extraction points are continuously present in the vertical line, the intervals are compared and the maximum value H is updated.

【0046】ステップS508では、抽出ポイントの連
続数のカウントアップを行う。ステップS509では、
抽出ポイントの連続数が所定値を越えたか否かを判定
し、所定値を越えるまで次のラインの処理を続ける。こ
のとき、抽出ポイントの連続性が途切れて、ステップS
506で、抽出ポイントが無いと判定された場合は、ス
テップS512へ移行し、ステップS512で、更新中
のq,r間隔の最大値とカウンターをクリアし、次のラ
インの処理を行う。
In step S508, the number of consecutive extraction points is counted up. In step S509,
It is determined whether or not the number of consecutive extraction points exceeds a predetermined value, and the processing of the next line is continued until the number exceeds the predetermined value. At this time, the continuity of the extraction points is interrupted, and step S
If it is determined in step 506 that there is no extraction point, the process proceeds to step S512. In step S512, the maximum value of the q and r intervals and the counter being updated are cleared, and the processing of the next line is performed.

【0047】ステップS509で、抽出ポイントの連続
数が所定値を越えた場合は、ステップS510へ移行
し、q,rの間隔の最大値をメモリする。ステップS5
10では、連続データ内での最大値のメモリの更新と、
所定値を越える他の連続データ間での更新も行う。
In step S509, if the number of consecutive extraction points exceeds a predetermined value, the flow shifts to step S510 to store the maximum value of the interval between q and r. Step S5
At 10, the memory of the maximum value in the continuous data is updated,
Updating between other continuous data exceeding a predetermined value is also performed.

【0048】図17のD区間は、ステップS505の条
件を満たす抽出ポイントがなく、L区間は、抽出ポイン
トがある箇所を示す。
In section D of FIG. 17, there is no extraction point that satisfies the condition of step S505, and in section L, there is an extraction point.

【0049】このようにして、全てのラインの処理が終
了したとき、ステップS513へ移行し、q,r間隔の
最大値を眼の開度値として出力する。
When the processing for all the lines is completed in this way, the flow shifts to step S513, and the maximum value of the q and r intervals is output as the eye opening value.

【0050】次に、図3のフローチャートのステップS
307,S309,S311における眼の追跡、追跡ミ
スしたときの復帰方法の詳細を示す。ステップS306
で得られた眼の開度値は、図17に示すように、Hma
xが開眼と判断される大きな値の場合は、そのポイント
のX座標、Hmaxの中央値をY座標とし、またHma
xが閉眼と判断される小さな値の場合は、データ連続数
の中央値をX座標、Hmaxの中央値をY座標として基
準とし、眼の存在領域を設定する。このフローチャート
に基づくシステムをスタートさせた直後、つまり第1フ
レームでは、当然、眼の存在領域は設定されていないた
め、ステップS304,S305で、眼の存在領域が設
定される。このとき、眼の中心座標と眼の存在領域の中
心座標は、図18(a)に示すように一致している。
Next, step S in the flowchart of FIG.
The details of an eye tracking in 307, S309, and S311 and a recovery method when a tracking error occurs are shown. Step S306
As shown in FIG. 17, the eye opening value obtained in
If x is a large value determined to be an eye open, the X coordinate of the point, the median of Hmax is defined as the Y coordinate, and Hma
When x is a small value determined to be an eye closed, an eye existence area is set using the median of the number of continuous data as an X coordinate and the median of Hmax as a Y coordinate. Immediately after the start of the system based on this flowchart, that is, in the first frame, since the eye existence area is not set, the eye existence area is set in steps S304 and S305. At this time, the center coordinates of the eye and the center coordinates of the region where the eye exists are coincident as shown in FIG.

【0051】一連の処理の終了後、第2フレームの処理
に移り、ステップS303へ進むと、ここでは既に眼の
存在領域が設定されているため、ステップS306に移
り、眼の開度検出を行い、ステップS307に移る。こ
のとき、眼が正しく捉えられている場合は、図18
(b)に示すようになる。図18(b)の眼の存在領域
は、第1フレームで設定された位置にあるのに対し、眼
の位置は、2フレーム目に取り込まれた画像データの眼
の位置であるため、顔の動き等により、眼の中心点は眼
の存在領域に対しズレてくる。しかし、眼の存在領域に
眼が接しない限り、これまで説明してきた眼の開度検出
を行うことができる。
After a series of processes is completed, the process proceeds to the process of the second frame, and proceeds to step S303. Since the present region of the eye is already set here, the process proceeds to step S306 to detect the opening degree of the eye. The process moves to step S307. At this time, if the eyes are correctly captured,
The result is as shown in FIG. Since the eye existence region in FIG. 18B is at the position set in the first frame, the eye position is the eye position of the image data captured in the second frame. Due to movement or the like, the center point of the eye is shifted with respect to the region where the eye exists. However, as long as the eye does not touch the region where the eye exists, the eye opening degree detection described above can be performed.

【0052】このようにして捉えられた図18(b)の
眼の中心座標に、ステップS309で眼の存在領域の基
準点を変更することにより、運転者の顔の動きにも対応
させることができる。
By changing the reference point of the eye existence area in step S309 to the center coordinates of the eye in FIG. 18B thus captured, it is possible to correspond to the movement of the driver's face. it can.

【0053】図18(c),(d)は、第3フレーム、
第4フレームで取り込まれる顔画像データでの眼の位置
と眼のウィンドウの位置関係を示したものである。
FIGS. 18C and 18D show the third frame,
FIG. 9 shows a positional relationship between an eye position and an eye window in face image data captured in the fourth frame.

【0054】ステップS307,S309,S311に
よる眼の追跡ロジックを有することで、ステップS30
4,S305での顔全体からの眼の位置検出を省略でき
るため、眼の開度検出の高速化が図ることができる。
The presence of the eye tracking logic in steps S307, S309, and S311 allows step S30.
4, since the position detection of the eyes from the entire face in S305 can be omitted, the speed of the eye opening detection can be increased.

【0055】また、ステップS307で眼の追跡が正し
くできているか否かの判定は、眼の開度値によって行
う。要するに、撮影者が特定されてしまえば、眼の開度
値は開眼時〜閉眼時の範囲で変化するだけであることか
ら、この範囲外の値が出力されたときは、眼の追跡ミス
があったと判定し、ステップS311で眼の開度の出力
値と眼の存在領域をクリアすることにより、ステップS
303で、再び顔全体からの処理に入るようにする。
In step S307, the determination as to whether or not the eye is correctly tracked is made based on the eye opening value. In short, once the photographer has been identified, the eye opening value only changes in the range from when the eye is open to when the eye is closed, so if a value outside this range is output, eye tracking mistakes will occur. The output value of the eye opening and the area where the eye is present are cleared in step S311 to determine that
At 303, the process is again started from the whole face.

【0056】次に、ステップS308における開閉眼を
判定する方法の詳細を示す。前にも説明したが、撮影者
が特定された場合、眼の開度の出力値は開眼状態から閉
眼状態の間で変化する。よって、開眼・閉眼の判定を行
う基準値、つまり開閉眼を判定するスレッシュホールド
は、その範囲内にあることになる。ここで、そのスレッ
シュホールドをどう設定するのが妥当なのかを検討した
結果、居眠り状態の人は、熟睡状態ではないため、完全
に眼の閉じない運転者も見られることより、開眼・閉眼
の中央値をスレッシュホールドとすることが望ましいと
思われる。
Next, the details of the method for determining the open / closed eye in step S308 will be described. As described above, when the photographer is specified, the output value of the degree of eye opening changes between the open state and the closed state. Therefore, the reference value for determining whether the eyes are open or closed, that is, the threshold for determining whether the eyes are open or closed, is within the range. Here, as a result of examining how it is appropriate to set the threshold, a person who is dozing is not in a deep sleep state. It may be desirable to have the median as the threshold.

【0057】最後に、図19を用いて、ステップS31
0における覚醒度の判定方法の詳細を示す。図3のステ
ップS308で出力される開閉眼パターンにおいて、図
19に示すように、覚醒度判定区間(例えば1分程度)
に出力される閉眼積算値により、覚醒度を判定すること
ができる。
Finally, referring to FIG.
The details of the method for determining the arousal level at 0 will be described. In the open / closed eye pattern output in step S308 of FIG. 3, as shown in FIG. 19, the arousal level determination section (for example, about 1 minute)
The awakening degree can be determined based on the eye-closed integrated value output to.

【0058】このようにして得られた覚醒度により、居
眠り状態を検出することが可能となり、的確に警報装置
を作動させ、居眠り状態を解消させ、未然に居眠り事故
等を防ぐことができる。
The arousal level obtained in this manner makes it possible to detect a dozing state, and to properly activate an alarm device to eliminate a dozing state and prevent a dozing accident or the like.

【0059】[0059]

【発明の効果】以上、詳細に説明したように、本発明に
よれば、眼の位置検出、開閉眼検出の両手段において、
顔の縦方向の画素列に沿って画素の濃度を検出し、前記
画素列上の濃度値により、ポイント抽出手段の抽出条件
を変更し、各画素列ごとにポイント抽出条件を設定する
構成とすることによって、眼を抽出ポイントの連続デー
タとして常に安定して捕えることができるため、前記連
続した抽出点のデータより、眼の位置、眼の開度検出を
正確に行え、あらゆる光環境状態に対応することがで
き、居眠り状態の検出精度を向上させることができる。
As described in detail above, according to the present invention, in both means for detecting the position of the eye and detecting the open / closed eye,
The density of pixels is detected along the vertical pixel row of the face, the extraction condition of the point extracting means is changed according to the density value on the pixel row, and the point extraction condition is set for each pixel row. By doing so, the eyes can always be stably captured as continuous data of the extraction points, so that the position of the eyes and the degree of opening of the eyes can be accurately detected from the data of the continuous extraction points, and can be used in any light environment. And the detection accuracy of the dozing state can be improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明による居眠り状態検出装置の構成を示す
ブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a dozing state detection device according to the present invention.

【図2】実施の形態の構成を示すブロック図である。FIG. 2 is a block diagram showing a configuration of an embodiment.

【図3】実施の形態の全体動作を示すフローチャートで
ある。
FIG. 3 is a flowchart showing an overall operation of the embodiment.

【図4】眼の位置検出の動作を示すフローチャートであ
る。
FIG. 4 is a flowchart illustrating an operation of detecting an eye position.

【図5】眼の位置検出に関する説明図である。FIG. 5 is an explanatory diagram related to eye position detection.

【図6】眼の位置検出に関する説明図である。FIG. 6 is an explanatory diagram related to eye position detection.

【図7】眼の位置検出に関する説明図である。FIG. 7 is an explanatory diagram relating to eye position detection.

【図8】眼の位置検出に関する説明図である。FIG. 8 is an explanatory diagram related to eye position detection.

【図9】眼の位置検出に関する説明図である。FIG. 9 is an explanatory diagram related to eye position detection.

【図10】眼の位置検出に関する説明図である。FIG. 10 is an explanatory diagram relating to eye position detection.

【図11】眼の位置検出に関する説明図である。FIG. 11 is an explanatory diagram related to eye position detection.

【図12】眼の位置検出に関する説明図である。FIG. 12 is an explanatory diagram related to eye position detection.

【図13】眼の位置検出に関する説明図である。FIG. 13 is an explanatory diagram related to eye position detection.

【図14】眼の開度検出の動作を示すフローチャートで
ある。
FIG. 14 is a flowchart illustrating an operation of detecting an eye opening.

【図15】眼の開度値の出力方法に関する説明図であ
る。
FIG. 15 is a diagram illustrating a method of outputting an eye opening value.

【図16】眼の開度値の出力方法に関する説明図であ
る。
FIG. 16 is an explanatory diagram related to a method of outputting an eye opening value.

【図17】眼の開度値の出力方法に関する説明図であ
る。
FIG. 17 is an explanatory diagram regarding a method of outputting an eye opening value.

【図18】眼の追跡方法に関する説明図である。FIG. 18 is an explanatory diagram regarding an eye tracking method.

【図19】覚醒度の判定方法に関する説明図である。FIG. 19 is an explanatory diagram related to a method for determining a degree of arousal.

【図20】従来技術に関する説明図である。FIG. 20 is an explanatory diagram relating to a conventional technique.

【符号の説明】 21 TVカメラ 22 A−D変換器 23 画像メモリ 24 画像データ演算開路 25 眼の位置検出回路 26 開閉眼検出回路 27 覚醒度判定回路 28 警報装置[Description of Signs] 21 TV camera 22 A / D converter 23 Image memory 24 Image data calculation open circuit 25 Eye position detection circuit 26 Open / closed eye detection circuit 27 Arousal level determination circuit 28 Alarm device

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 顔の画像データを処理して居眠り状態を
検出する居眠り状態検出装置において、 顔の縦方向の画素列に沿って画素の濃度を検出し、前記
画素列上の濃度値の片方向のピークの前の濃度変化の最
小微分値が所定値を越えることを条件に、濃度値の片方
向のピークの画素を特定して抽出点とするポイント抽出
手段と、 前記画素列上の濃度情報より、前記ポイント抽出手段の
ポイント抽出条件である所定値のレベルを変えるポイン
ト抽出条件変更手段と、 隣接する画素列の画素列方向に近接した前記抽出点を連
続して顔の横方向に伸びる曲線群を抽出することによ
り、眼の位置を検出する眼の位置検出手段と、 眼を含む所定領域内で縦方向の画素列に沿って画素の濃
度を検出し、前記画素列上の濃度値の片方向のピークの
前後の濃度変化の最小及び最大微分値が所定値を越える
ことを条件に、濃度値の片方向のピークの画素を特定し
て抽出点とするポイント抽出手段と、 前記画素列上の濃度情報より、前記ポイント抽出手段の
ポイント抽出条件である所定値のレベルを変えるポイン
ト抽出条件変更手段と、 各列ごとの前記抽出点の有無による顔の横方向への連続
性を判定し、前記連続した抽出点のデータより眼の開度
を検出する眼の開度検出手段と、 前記眼の開度値より眼の開閉状態を判定し、その開閉状
態の変化から覚醒度を判定することを特徴とする居眠り
状態検出装置。
1. A dozing state detection apparatus for processing a face image data to detect a dozing state, wherein a density of pixels is detected along a pixel row in a vertical direction of the face, and a density value on the pixel row is detected. A point extracting means for specifying a pixel of a one-way peak of the density value as an extraction point, provided that the minimum differential value of the density change before the peak in the direction exceeds a predetermined value; A point extraction condition changing means for changing a level of a predetermined value, which is a point extraction condition of the point extraction means, from the information; and the extraction points adjacent to each other in the pixel column direction of an adjacent pixel column are continuously extended in the lateral direction of the face. An eye position detecting means for detecting the position of the eye by extracting a curve group; detecting a density of pixels along a vertical pixel row in a predetermined area including the eye; and a density value on the pixel row. Density before and after the one-way peak A point extracting means for specifying a pixel having a unidirectional peak of the density value as an extraction point on condition that the minimum and maximum differential values of the change exceed a predetermined value; and A point extraction condition changing means for changing a level of a predetermined value, which is a point extraction condition of the extraction means; and determining the continuity of the face in the horizontal direction based on the presence or absence of the extraction points for each column, and obtaining data of the continuous extraction points. An eye opening detecting means for detecting the degree of opening of the eye, and determining the open / closed state of the eye from the openness value of the eye, and determining the arousal level from a change in the open / closed state. apparatus.
【請求項2】 請求項1に記載の居眠り状態検出装置に
おいて、 前記ポイント抽出条件変更手段が、前記画素列上の最も
明るい濃度値により、前記ポイント抽出手段のポイント
抽出条件である所定値のレベルを変えることを特徴とす
る居眠り状態検出装置。
2. The dozing state detection device according to claim 1, wherein the point extraction condition changing unit determines a level of a predetermined value which is a point extraction condition of the point extraction unit based on a brightest density value on the pixel row. A dozing state detection device characterized by changing
【請求項3】 請求項1に記載の居眠り状態検出装置に
おいて、 前記ポイント抽出条件変更手段が、所定領域の平均濃度
値により、前記ポイント抽出手段のポイント抽出条件で
ある所定値のレベルを変えることを特徴とする居眠り状
態検出装置。
3. The dozing state detection device according to claim 1, wherein the point extraction condition changing means changes a level of a predetermined value, which is a point extraction condition of the point extraction means, according to an average density value of a predetermined area. A dozing state detection device characterized by the above-mentioned.
【請求項4】 顔の画像データを処理して居眠り状態を
検出する居眠り状態検出装置において、 顔の縦方向の画素列に沿って画素の濃度を検出し、前記
画素列上の濃度値の片方向のピークの前の濃度変化の最
小微分値が所定値を越えることを条件に、濃度値の片方
向のピークの画素を特定して抽出点とするポイント抽出
手段と、 隣接する画素列の画素列方向に近接した前記抽出点を連
続して顔の横方向に伸びる曲線群を抽出することによ
り、眼の位置を検出する眼の位置検出手段と、 眼を含む所定領域内で縦方向の画素列に沿って画素の濃
度を検出し、前記画素列上の濃度値の片方向のピークの
前後の濃度変化の最小及び最大微分値が所定値を越える
ことを条件に、濃度値の片方向のピークの画素を特定し
て抽出点とするポイント抽出手段と、 サンバイザの使用の有無により、前記両ポイント抽出手
段のポイント抽出条件である所定値のレベルを変えるポ
イント抽出条件変更手段と、 各列ごとの前記抽出点の有無による顔の横方向への連続
性を判定し、前記連続した抽出点のデータより眼の開度
を検出する眼の開度検出手段と、 前記眼の開度値より眼の開閉状態を判定し、その開閉状
態の変化から覚醒度を判定することを特徴とする居眠り
状態検出装置。
4. A dozing state detection device for processing a face image data to detect a dozing state, wherein a density of pixels is detected along a pixel row in a vertical direction of the face, and one of density values on the pixel row is detected. A point extracting means for identifying a pixel of a one-way peak of the density value as an extraction point on condition that the minimum differential value of the density change before the peak in the direction exceeds a predetermined value; and a pixel of an adjacent pixel row. An eye position detecting means for detecting the position of the eye by continuously extracting the extraction points adjacent in the column direction and extracting a curve group extending in the horizontal direction of the face; and a vertical pixel in a predetermined area including the eye. The density of the pixels is detected along the column, and on the condition that the minimum and maximum differential values of the density change before and after the one-way peak of the density value on the pixel row exceed a predetermined value, A point extracting means for specifying a peak pixel to be an extraction point; A point extraction condition changing means for changing a level of a predetermined value, which is a point extraction condition of the both point extraction means, depending on whether a sun visor is used or not; Eye opening degree detecting means for detecting the degree of opening of the eye from the data of the continuous extraction points, and determining the open / closed state of the eye from the value of the degree of eye opening, the degree of arousal from the change of the open / closed state A dozing state detection device, characterized in that:
【請求項5】 顔の画像データを処理して居眠り状態を
検出する居眠り状態検出装置において、 顔の縦方向の画素列に沿って画素の濃度を検出し、前記
画素列上の濃度値の片方向のピークの前の濃度変化の最
小微分値が所定値を越えることを条件に、濃度値の片方
向のピークの画素を特定して抽出点とするポイント抽出
手段と、 運転者の眼鏡の着用の有無により、前記ポイント抽出手
段のポイント抽出条件である所定値のレベルを変えるポ
イント抽出条件変更手段と、 隣接する画素列の画素列方向に近接した前記抽出点を連
続して顔の横方向に伸びる曲線群を抽出することによ
り、眼の位置を検出する眼の位置検出手段と、 眼を含む所定領域内で縦方向の画素列に沿って画素の濃
度を検出し、前記画素列上の濃度値の片方向のピークの
前後の濃度変化の最小及び最大微分値が所定値を越える
ことを条件に、濃度値の片方向のピークの画素を特定し
て抽出点とするポイント抽出手段と、 運転者の眼鏡の着用の有無により、前記ポイント抽出手
段のポイント抽出条件である所定値のレベルを変えるポ
イント抽出条件変更手段と、 各列ごとの前記抽出点の有無による顔の横方向への連続
性を判定し、前記連続した抽出点のデータより眼の開度
を検出する眼の開度検出手段と、 前記眼の開度値より眼の開閉状態を判定し、その開閉状
態の変化から覚醒度を判定することを特徴とする居眠り
状態検出装置。
5. A dozing state detection device for processing a face image data to detect a dozing state, wherein a density of pixels is detected along a pixel row in a vertical direction of the face, and one of density values on the pixel row is detected. A point extracting means for identifying a pixel of a unidirectional peak of the density value as an extraction point on condition that the minimum differential value of the density change before the peak in the direction exceeds a predetermined value; Point extraction condition changing means for changing the level of a predetermined value, which is a point extraction condition of the point extraction means, depending on the presence / absence of the point extraction means; An eye position detecting means for detecting the position of the eye by extracting a group of extending curves; detecting a density of pixels along a vertical pixel row in a predetermined area including the eye; Before and after the unidirectional peak of the value On the condition that the minimum and maximum differential values of the density change exceed a predetermined value, a point extracting means for specifying a pixel of a unidirectional peak of the density value as an extraction point, and whether or not the driver wears glasses. A point extraction condition changing means for changing a level of a predetermined value which is a point extraction condition of the point extraction means; and determining the continuity of the face in the horizontal direction depending on the presence or absence of the extraction point for each column, Eye opening detecting means for detecting the degree of opening of the eye from the data of the eye, and determining the open / closed state of the eye from the value of the degree of opening of the eye, and determining the degree of awakening from the change in the open / closed state State detection device.
【請求項6】 顔の画像データを処理して居眠り状態を
検出する居眠り状態検出装置において、 顔の縦方向の画素列に沿って画素の濃度を検出し、前記
画素列上の濃度値の片方向のピークの前の濃度変化の最
小微分値が所定値を越えることを条件に、濃度値の片方
向のピークの画素を特定して抽出点とするポイント抽出
手段と、 隣接する画素列の画素列方向に近接した前記抽出点を連
続して顔の横方向に伸びる曲線群を抽出することによ
り、眼の位置を検出する眼の位置検出手段と、 前記眼の位置検出手段により、眼に相当する曲線群デー
タがないと判定された場合に、前記ポイント抽出手段の
ポイント抽出条件である所定値のレベルを変えるポイン
ト抽出条件変更手段と、 眼を含む所定領域内で縦方向の画素列に沿って画素の濃
度を検出し、前記画素列上の濃度値の片方向のピークの
前後の濃度変化の最小及び最大微分値が所定値を越える
ことを条件に、濃度値の片方向のピークの画素を特定し
て抽出点とするポイント抽出手段と、 各列ごとの前記抽出点の有無による顔の横方向への連続
性を判定し、前記連続した抽出点のデータより眼の開度
を検出する眼の開度検出手段と、 前記眼の開度検出手段により、眼に相当する連続データ
がないと判定された場合に、前記ポイント抽出手段のポ
イント抽出条件である所定値のレベルを変えるポイント
抽出条件変更手段と、 前記眼の開度値より眼の開閉状態を判定し、その開閉状
態の変化から覚醒度を判定することを特徴とする居眠り
状態検出装置。
6. A dozing state detection apparatus for processing a face image data to detect a dozing state, wherein a density of pixels is detected along a pixel row in a vertical direction of the face, and one of density values on the pixel row is detected. A point extracting means for identifying a pixel of a one-way peak of the density value as an extraction point on condition that the minimum differential value of the density change before the peak in the direction exceeds a predetermined value; and a pixel of an adjacent pixel row. Eye position detecting means for detecting the position of the eye by continuously extracting the extraction points close to the column direction and extracting a curve group extending in the lateral direction of the face, equivalent to the eye by the eye position detecting means A point extraction condition changing means for changing a level of a predetermined value, which is a point extraction condition of the point extraction means, when it is determined that there is no curve group data to be executed; To detect pixel density On the condition that the minimum and maximum differential values of the density change before and after the one-way peak of the density value on the pixel row exceed a predetermined value, the pixel of the one-way peak of the density value is specified and the extraction point is specified. Eye extraction means for determining the continuity of the face in the horizontal direction based on the presence or absence of the extraction point for each column, and detecting the opening degree of the eye from the data of the continuous extraction points; A point extraction condition changing unit that changes a level of a predetermined value, which is a point extraction condition of the point extraction unit, when the eye opening degree detection unit determines that there is no continuous data corresponding to the eye; A dozing state detection device, wherein an open / closed state of an eye is determined from an opening degree value of the eye, and an awakening degree is determined from a change in the open / closed state.
JP07872197A 1997-03-31 1997-03-31 Dozing state detection device Expired - Fee Related JP3577882B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP07872197A JP3577882B2 (en) 1997-03-31 1997-03-31 Dozing state detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP07872197A JP3577882B2 (en) 1997-03-31 1997-03-31 Dozing state detection device

Publications (2)

Publication Number Publication Date
JPH10275212A true JPH10275212A (en) 1998-10-13
JP3577882B2 JP3577882B2 (en) 2004-10-20

Family

ID=13669755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP07872197A Expired - Fee Related JP3577882B2 (en) 1997-03-31 1997-03-31 Dozing state detection device

Country Status (1)

Country Link
JP (1) JP3577882B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7894637B2 (en) 2004-05-21 2011-02-22 Asahi Kasei Corporation Device, program, and method for classifying behavior content of an object person

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07208927A (en) * 1994-01-18 1995-08-11 Nissan Motor Co Ltd Detector of position of vehicle driver's eye balls
JPH07296299A (en) * 1994-04-20 1995-11-10 Nissan Motor Co Ltd Image processor and warning device against doze at the wheel using the same
JPH0883344A (en) * 1994-09-14 1996-03-26 Mitsubishi Electric Corp Picture processor and personal state judging device
JPH08300978A (en) * 1995-05-10 1996-11-19 Mitsubishi Electric Corp Face image processor
JPH0921611A (en) * 1995-07-06 1997-01-21 Mitsubishi Electric Corp Face image pick-up apparatus
JPH1040361A (en) * 1996-07-18 1998-02-13 Nissan Motor Co Ltd Dozing state detecting device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07208927A (en) * 1994-01-18 1995-08-11 Nissan Motor Co Ltd Detector of position of vehicle driver's eye balls
JPH07296299A (en) * 1994-04-20 1995-11-10 Nissan Motor Co Ltd Image processor and warning device against doze at the wheel using the same
JPH0883344A (en) * 1994-09-14 1996-03-26 Mitsubishi Electric Corp Picture processor and personal state judging device
JPH08300978A (en) * 1995-05-10 1996-11-19 Mitsubishi Electric Corp Face image processor
JPH0921611A (en) * 1995-07-06 1997-01-21 Mitsubishi Electric Corp Face image pick-up apparatus
JPH1040361A (en) * 1996-07-18 1998-02-13 Nissan Motor Co Ltd Dozing state detecting device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7894637B2 (en) 2004-05-21 2011-02-22 Asahi Kasei Corporation Device, program, and method for classifying behavior content of an object person

Also Published As

Publication number Publication date
JP3577882B2 (en) 2004-10-20

Similar Documents

Publication Publication Date Title
JP3764086B2 (en) Vehicle information providing device
JP4104867B2 (en) Night vision system
JPH0944685A (en) Face image processor
JP3063504B2 (en) Image data feature detection device
JP4989249B2 (en) Eye detection device, dozing detection device, and method of eye detection device
CN107909012A (en) A kind of real-time vehicle tracking detection method and device based on disparity map
CN111967396A (en) Processing method, device and equipment for obstacle detection and storage medium
JP2000198369A (en) Eye state detecting device and doze-driving alarm device
JP3312562B2 (en) Dozing state detection device
JP4788319B2 (en) Opening and closing eye determination device and method
JP3444115B2 (en) Dozing state detection device
JP4696571B2 (en) Eye position detection device
JP3858570B2 (en) Armpit state detection device
JPH1044824A (en) Driver's-eye open/closed state determination device for vehicle
JP3531503B2 (en) Eye condition detection device and drowsy driving alarm device
JP2000067225A (en) Eye position detector
JPH10275212A (en) Dozing state detector
JP2000301962A (en) Eye condition detecting device and alarm device for sleep during driving
JP3465566B2 (en) Eye position detection device
JP2000199703A (en) Device for detecting state of eyes and device for warning on dozing at wheel
CN103909881B (en) Environment information detecting system and environment information method for detecting
JP3582324B2 (en) Eye position detector
JP2010009234A (en) Eye image processing device
JP2008276787A (en) Vehicle periphery monitoring device
JPH09128548A (en) Vehicle detecting method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040316

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040511

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20040511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040705

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080723

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080723

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090723

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090723

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100723

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees