JP2932551B2 - Iris position detecting device and driver state detecting device - Google Patents

Iris position detecting device and driver state detecting device

Info

Publication number
JP2932551B2
JP2932551B2 JP1338671A JP33867189A JP2932551B2 JP 2932551 B2 JP2932551 B2 JP 2932551B2 JP 1338671 A JP1338671 A JP 1338671A JP 33867189 A JP33867189 A JP 33867189A JP 2932551 B2 JP2932551 B2 JP 2932551B2
Authority
JP
Japan
Prior art keywords
area
iris
detected
window
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1338671A
Other languages
Japanese (ja)
Other versions
JPH03202045A (en
Inventor
裕史 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP1338671A priority Critical patent/JP2932551B2/en
Publication of JPH03202045A publication Critical patent/JPH03202045A/en
Application granted granted Critical
Publication of JP2932551B2 publication Critical patent/JP2932551B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) この発明は、運転者等の目の虹彩位置を検出する虹彩
位置検出装置及び運転者の目の虹彩状態を検出して居眠
り等を検出する運転者の状態検出装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention] (Industrial application field) The present invention relates to an iris position detecting device for detecting an iris position of an eye of a driver or the like, and an iris state of a driver's eye by detecting the iris state. The present invention relates to a driver's state detection device that detects a drowsiness or the like.

(従来の技術) 従来の運転者の状態検出装置、例えば居眠り検出装置
としては特開昭60-158303号公報等に記載されたものが
ある。この種の居眠り検出装置は赤外ストロボを用いて
運転者の顔面に赤外光を照射し、その反射光を二次元撮
像素子で画像として検出した後、該画像を2値化し、こ
れによる明暗領域の画像パターンから目の位置の動きを
検出して運転者が居眠りしているか否かを判定するもの
である。
(Prior Art) A conventional driver state detecting device, for example, a dozing detection device is disclosed in Japanese Patent Application Laid-Open No. 60-158303. This type of drowsiness detector irradiates the driver's face with infrared light using an infrared strobe, detects the reflected light as an image with a two-dimensional image sensor, binarizes the image, and uses this to make the image brighter or darker. The movement of the eye position is detected from the image pattern of the area to determine whether or not the driver is dozing.

(発明が解決しようとする課題) しかしながら、このような居眠り検出装置では、2値
化された顔面画像の明暗領域の形状から目の位置を認識
するものであるため目のおおよその位置か認識できるに
すぎず、目が開いているのか閉じているかまでは判別で
きない。従って顔の姿勢を崩さないまま居眠りをしてい
た場合には運転者の居眠り検出ができないという問題が
あった。
(Problems to be Solved by the Invention) However, in such a dozing detection device, since the position of the eye is recognized from the shape of the light and dark area of the binarized face image, the approximate position of the eye can be recognized. It cannot be determined whether the eyes are open or closed. Therefore, there is a problem that if the driver falls asleep without disturbing the posture of the face, the driver cannot fall asleep.

そこでこの発明は、虹彩部を検出する領域の暗領域部
分の面積を統計的手法で処理し、運転者の虹彩中心位置
を検出してより正確な判定を行うことができるようにし
た運転者の状態検出装置の提供を目的とする。
In view of the above, the present invention provides a method for a driver who can process the area of a dark region portion of an area for detecting an iris portion by a statistical method, detect the center position of the iris of the driver, and make a more accurate determination. It is intended to provide a state detection device.

[発明の構成] (課題を解決するための手段) 上記課題を解決するために、この発明は、目を含む顔
画像を入力する画像入力手段CL1と、この画像入力手段
から送出される入力画像を2値化する2値化手段CL2
と、この2値化手段による2値化画像において虹彩部を
検出する領域を設定する領域設定手段CL3と、この領域
設定手段CL3で設定した領域内において少なくとも暗領
域の面積を検出すると共に検出した面積の大きさに応じ
て候補点に統計的処理により重みづけを行い虹彩中心位
置を検出する虹彩中心検出手段CL4とを備える構成とし
た。
[Structure of the Invention] (Means for Solving the Problems) In order to solve the above problems, the present invention provides an image input means CL1 for inputting a face image including eyes, and an input image transmitted from the image input means. Binarizing means CL2 for binarizing
Area setting means CL3 for setting an area for detecting an iris portion in the binarized image by the binarization means; and detecting and detecting at least the area of a dark area in the area set by the area setting means CL3. An iris center detecting means CL4 for weighting the candidate points by statistical processing according to the size of the area and detecting the iris center position is provided.

又、前記虹彩中心検出手段CL4による検出結果から運
転者の状態を判定する判定手段CL5とを備える構成とし
た。
Further, a determination means CL5 for determining the state of the driver from the detection result by the iris center detection means CL4 is provided.

(作用) 上記構成によれば、2値化画像から虹彩部を検出する
領域を設定し、その領域内において少なくとも暗領域の
面積を検出し、検出した面積の大きさに応じて候補点に
統計的処理による重みづけを行い、虹彩中心位置を検出
することができる。従って、判定手段CL5により運転者
の状態を判定する場合に虹彩中心位置の特定でより正確
な判定を行うことができる。
(Operation) According to the above configuration, an area for detecting an iris portion is set from the binarized image, at least an area of a dark area is detected in the area, and statistical information is assigned to a candidate point according to the detected area. Iris center position can be detected by performing weighting based on objective processing. Therefore, when the state of the driver is determined by the determining means CL5, more accurate determination can be performed by specifying the iris center position.

(実施例) 以下、この発明の実施例を図面に基づいて説明する。Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

第2図はこの発明の一実施例に係る車両運転者の状態
検出装置の構成図、第3図は第2図の構成図に基づくフ
ローチャートを示すものである。
FIG. 2 is a block diagram of a vehicle driver state detecting apparatus according to one embodiment of the present invention, and FIG. 3 is a flowchart based on the block diagram of FIG.

第2図に示すように、この状態検出装置は、インスト
ルメントパネル(図示せず)内の運転者に対する正面方
向に、運転者の顔部分を照射する赤外ストロボ1と、こ
の赤外ストロボ1の赤外光で照射される顔部分を撮影す
る画像入力手段CL1としてのTVカメラ3と、前記赤外ス
トロボ1の発光とTVカメラ3の画像入力とのタイミング
を合せるタイミング指令回路5とを備えている。そし
て、赤外ストロボ1にタイミング指令回路5からストロ
ボ発光指令が出力されると赤外ストロボ1が発光して運
転者の顔部分を照射し、これと同時にTVカメラ3に対し
画像入力指令が出力され、これにより赤外光で照射され
た顔部分を撮像するようになっている。
As shown in FIG. 2, this state detection device includes an infrared strobe 1 for irradiating a driver's face portion in a direction in front of the driver in an instrument panel (not shown), and the infrared strobe 1 A TV camera 3 as image input means CL1 for photographing a face portion irradiated with infrared light of the above, and a timing command circuit 5 for synchronizing the emission of the infrared strobe 1 with the image input of the TV camera 3. ing. Then, when a strobe light emission command is output from the timing command circuit 5 to the infrared strobe 1, the infrared strobe 1 emits light to irradiate the driver's face, and at the same time, an image input command is output to the TV camera 3. Thus, a face portion irradiated with infrared light is imaged.

TVカメラ3の入力画像は、第6図に示すように、横方
向520画素、縦方向500画素からなり、縦方向に顔部分が
ほぼいっぱいになるように画角が調整されている。
As shown in FIG. 6, the input image of the TV camera 3 is composed of 520 pixels in the horizontal direction and 500 pixels in the vertical direction, and the angle of view is adjusted so that the face portion becomes almost full in the vertical direction.

TVカメラ3には、撮影した入力画像をデジタル量に変
換するA/D変換器7を介して画像メモリ9が接続されて
いる。この画像メモリ9はTVカメラ3の入力画像データ
を格納するものである。
An image memory 9 is connected to the TV camera 3 via an A / D converter 7 for converting a photographed input image into a digital amount. The image memory 9 stores input image data of the TV camera 3.

画像メモリ9には、該画像メモリ9に格納された入力
画像データに基づいて眼球の存在位置領域を規定する眼
球存在位置規定回路11が接続され、さらに、眼球存在位
置規定回路11で規定された領域内にある画像メモリ9の
画像データを処理して眼の虹彩部分を検出する虹彩検出
回路13が接続されている。
The image memory 9 is connected to an eyeball position determining circuit 11 that defines the position of the eyeball based on the input image data stored in the image memory 9. An iris detection circuit 13 for processing image data of the image memory 9 in the area to detect an iris portion of the eye is connected.

また、虹彩検出回路13には、該虹彩検出回路13での虹
彩の検出結果から運転者の居眠りやわき見等の有無を判
定する居眠りわき見判定回路15が接続され、さらに、居
眠りわき見判定回路15で運転者の居眠りわき見が判定さ
れたときの指令により警報を発する警報出力回路17が接
続されている。
In addition, the iris detection circuit 13 is connected to a drowsiness determination circuit 15 that determines the presence or absence of a driver's drowsiness or aside from the detection result of the iris in the iris detection circuit 13. An alarm output circuit 17 that issues an alarm according to a command when it is determined that the driver falls asleep is determined.

前記眼球存在位置規定回路11は、入力画像をあるしき
い値で2値化する2値化手段CL2と、2値化画像におい
て虹彩部分を検出する領域を設定する領域設定手段CL3
とを構成するものである。
The eyeball presence position defining circuit 11 includes a binarizing unit CL2 for binarizing the input image with a certain threshold value, and an area setting unit CL3 for setting an area for detecting an iris portion in the binarized image.
And

また、虹彩検出回路13は虹彩中心検出手段CL4を構成
し、居眠りわきみ判定回路15は判定手段CL5を構成する
ものである。
Further, the iris detection circuit 13 constitutes the iris center detection means CL4, and the drowsiness determination circuit 15 constitutes the determination means CL5.

つぎに、第3図、第4図のフローチャートに基づいて
作用を説明する。なお、第4図のフローチャートがこの
発明実施例の主体を成すものであるが、前提として、第
3図のフローチャートの初めから説明する。
Next, the operation will be described with reference to the flowcharts of FIGS. Although the flowchart of FIG. 4 forms the subject of the embodiment of the present invention, the description will be made from the beginning of the flowchart of FIG. 3 as a premise.

まず、ステップS1で赤外ストロボ1の発光と同期して
TVカメラ3によって撮影された運転者の顔部分の画像を
A/D変換回路7でデジタル信号に変換して画像メモリ9
に格納する。つぎに、ステップS2で画像メモリ9に格納
された入力画像データを眼球存在位置規定回路11に取り
込み、あるしきい値で2値化する。これは、顔部分の明
暗をはっきりさせるためであり、2値化しきい値は眼球
部を抽出できるレベルに設定されている。
First, in step S1, in synchronization with the emission of the infrared strobe light 1,
The image of the driver's face taken by the TV camera 3
A / D conversion circuit 7 converts the signal into a digital signal and converts it into an image memory 9
To be stored. Next, in step S2, the input image data stored in the image memory 9 is fetched into the eyeball position determining circuit 11, and is binarized by a certain threshold value. This is for clarifying the brightness of the face portion, and the binarization threshold is set to a level at which the eyeball portion can be extracted.

すなわち、ビデオ信号を256階調(0〜255)のデジタ
ルデータに変換し、白い部分を“255"、黒い部分を“0"
とし、あるスレッシュホールドレベルで2値化して2値
化画像J(x,y)を得たものである。
That is, the video signal is converted into digital data of 256 gradations (0 to 255), and the white part is “255” and the black part is “0”.
And binarized at a certain threshold level to obtain a binarized image J (x, y).

つぎに、ステップS3において、左右それぞれの眼球の
存在領域(ウインドウ、第7図の点線で示す四角部分)
の横方向(X方向)の幅を決定する。ウインドウが検出
されると、ウインドウのX方向の幅内で眼の候補点を検
出し(ステップS4)、次いで額を検出したか否かを判別
して(ステップS5)、第10図(a),(b)に示すパタ
ーンのどれかを決定する(ステップS6,S7)。ステップS
8では両眼とウインドウが設定されたか否かが判別さ
れ、次いで虹彩中心検出が行なわれる(ステップS9)。
そして虹彩中心が検出されると虹彩中心から乗員の居眠
りわき見判定が行なわれる(ステップS10)。
Next, in step S3, the left and right eyeball existence regions (windows, square portions shown by dotted lines in FIG. 7)
Is determined in the horizontal direction (X direction). When a window is detected, candidate points of the eye are detected within the width of the window in the X direction (step S4), and it is determined whether or not a forehead is detected (step S5). , (B) (steps S6 and S7). Step S
At 8, it is determined whether or not both eyes and a window have been set, and then iris center detection is performed (step S9).
When the center of the iris is detected, the occupant is determined to look aside from the center of the iris (step S10).

次に、前記ステップS3の処理の詳細フローチャート
(SETWIN処理)を第5図に示す。
Next, FIG. 5 shows a detailed flowchart (SETWIN process) of the process of step S3.

この処理は、顔の左右の髪の毛や顔の輪郭線等より顔
の幅を認識し、この顔の幅から眼球の存在領域のX方向
の幅を決定するものである。
In this process, the width of the face is recognized based on the left and right hair of the face, the contour of the face, and the like, and the width in the X direction of the region where the eyeball exists is determined from the width of the face.

まず、初めに、白いドットのカウンタA、黒いドット
のカウンタB、顔濃淡の黒い部分である眉や眼を検出す
るカウンタC、眼鏡のフレーム判断手段CL7で利用する
カウンタDをクリアする。
First, a counter A for white dots, a counter B for black dots, a counter C for detecting eyebrows and eyes, which are black portions of the shading of the face, and a counter D used by the frame determination means CL7 for glasses are cleared.

つぎに、ステップS301で入力画像をX方向にラスター
走査し(第10図において左から右へ走査するが、実際の
顔に対しては右から左へ走査していることになる。但
し、説明上第10図の左側を顔の左側と称する。)、黒ド
ットか否かを判別する。そして、走査が頭の端に至る等
して最初の黒ドットを検出したらステップS303へ移行
し、白ドットのカウンタAの値が0を越えているか否か
が判別される。乗員の背影が2値化によって白であるこ
とを前提にすると、初めての黒ドットが検出される前に
は白ドットがカウントされているから、ステップS304で
黒ドットのカウンタBをクリアする。
Next, in step S301, the input image is raster-scanned in the X direction (scanning is performed from left to right in FIG. 10, but the actual face is scanned from right to left. However, description will be given). The left side in FIG. 10 is referred to as the left side of the face.), And it is determined whether or not it is a black dot. When the first black dot is detected, for example, when the scanning reaches the end of the head, the process proceeds to step S303, and it is determined whether the value of the counter A for white dots exceeds 0. Assuming that the occupant's back shadow is white by binarization, the white dots are counted before the first black dot is detected, so the black dot counter B is cleared in step S304.

ステップS305で黒ドットの個数をカウントし、黒ドッ
トが5回連続してカウントされたか否かが判別される
(ステップS306)。黒ドットのカウントが1個目であれ
ばステップS308へ移行し、この時点では左側のX座標は
検出されていないためS309と移行し、そしてステップS3
10へ移行し、X方向はすべて走査されたか否かが判断さ
れるが(X511)、まだすべては走査していないので
ステップS301へ移行し、X方向の走査値が加算される。
そして黒色ドットを検出し続けていればステップS302,S
303,S305と移行し、再びステップS306の判断が行なわれ
る。ここで、黒ドットBの個数が5回連続しているとき
は、顔の右側部分の髪の毛のX方向におけるほぼ中央部
であると判定し、そのときのY座標MEYを記憶する(ス
テップS307)。
In step S305, the number of black dots is counted, and it is determined whether black dots have been counted five times in a row (step S306). If the count of the black dot is the first one, the process proceeds to step S308. At this point, since the left X coordinate has not been detected, the process proceeds to step S309, and then the process proceeds to step S3.
The process proceeds to step 10, where it is determined whether or not all scanning has been performed in the X direction (X511). However, since all have not been scanned yet, the process proceeds to step S301, where the scanning value in the X direction is added.
If the black dot is continuously detected, steps S302, S
The process proceeds to 303 and S305, and the determination in step S306 is performed again. Here, when the number of black dots B is five times in a row, it is determined that the right side of the face is substantially at the center in the X direction of the hair, and the Y coordinate MEY at that time is stored (step S307). .

つぎに、ステップS308で眼球の存在領域の左側X座標
を検出したか否かが判別される。このときは、まだ左側
X座標は検出されていないから、ステップS309で白ドッ
トのカウンタAをクリアしてステップS310へ移行する。
Next, in step S308, it is determined whether or not the left X coordinate of the eyeball existing area has been detected. At this time, since the left X coordinate has not been detected yet, the counter A of the white dot is cleared in step S309, and the process proceeds to step S310.

ステップS310では再びX方向をすべて走査したか否か
が判別される。このときはX方向のすべては走査されて
いないのでステップS301へ戻り、走査が例えば顔の白い
部分に至っていればステップS302を経てステップS311へ
移行し、白ドットの個数をカウントする。そして、ステ
ップS312で、最初の白ドットは黒ドットが10回以上連続
してカウントされた後であるか否かが判別される。
In step S310, it is determined whether or not scanning has been performed in the X direction again. At this time, since all of the scanning in the X direction has not been performed, the process returns to step S301. If the scanning has reached, for example, a white portion of the face, the process proceeds to step S311 via step S302, and the number of white dots is counted. Then, in step S312, it is determined whether or not the first white dot is after the black dot has been counted continuously 10 times or more.

この判別はY方向が額の位置で左側部分の髪の毛を全
部カウントしたか否かを判別するものである。
This determination is for determining whether or not all the hair on the left side has been counted at the position of the forehead in the Y direction.

ここで黒ドットが10回以上カウントされた後で、額の
幅に相当する白ドットが190以上検出されたときは、ス
テップS313からステップS314へ移行し、最初の白ドット
か否かが判別される。ここで、最初の白ドットであれ
ば、ウインドウの左側X座標の候補点X1としてX=X1を
メモリに記憶する(ステップS315)、(第7図)。
Here, after the black dot has been counted 10 times or more, if 190 or more white dots corresponding to the width of the forehead are detected, the process proceeds from step S313 to step S314, and it is determined whether or not it is the first white dot. You. Here, if it is the first white dot, X = X1 is stored in the memory as a candidate point X1 of the left X coordinate of the window (step S315) (FIG. 7).

このとき、ステップS321で、眉や眼の黒ドットのカウ
ンタCが0を越えているか否かが判別される。ここで、
Y方向が額の位置であれば白色ドットが続くはずである
から黒ドットはカウントされずステップS310へ移行し、
X方向はすべて走査されたか否かが判別される。このと
きは未だX方向はすべて走査されていないのでステップ
S301へ戻り、前記と同様な処理が繰返し実行される。
At this time, in step S321, it is determined whether or not the counter C of the black dots of the eyebrows and eyes exceeds 0. here,
If the Y direction is the position of the forehead, the white dot should continue, so the black dot is not counted and the process proceeds to step S310.
It is determined whether or not scanning has been performed in all X directions. At this time, since all X directions have not been scanned yet,
Returning to S301, the same processing as described above is repeatedly executed.

また、ステップS321で黒ドットCがカウントされてい
るときには、前記候補点X1を検出したY座標が額ではな
く、例えばそれよりも下の眉等の位置におけるものであ
るからステップS322で黒ドットをクリアし、ウインドウ
のX方向左側の候補点X1をキャンセルする(ステップS3
23)。
When the black dot C is counted in step S321, the Y coordinate at which the candidate point X1 is detected is not a forehead, but, for example, a position at a lower eyebrow position or the like. Clear and cancel the candidate point X1 on the left side of the window in the X direction (step S3
twenty three).

候補点X1が検出できなかったY座標でX方向が全てス
キャンされればカウンタA,B,Cがクリアされ、Y座標が
下方へ1つずらされる(ステップS310,S328,S329)。そ
して、上記のX1の検索が同様にして行なわれ、Y方向が
全てスキャンされれば(ステップS330)、X1が検出でき
ないものとし(ステップS336)、処理は終了する。X1が
検出できないときは乗員がわき見をしたり、下を向いて
いるような状態を意味する。
If all the X directions are scanned at the Y coordinate at which the candidate point X1 could not be detected, the counters A, B, and C are cleared, and the Y coordinate is shifted downward by one (steps S310, S328, and S329). Then, the above search for X1 is performed in the same manner, and if all the Y directions are scanned (step S330), it is determined that X1 cannot be detected (step S336), and the process ends. If X1 cannot be detected, it means that the occupant is looking aside or facing down.

ところで、乗員が眼鏡を装着している場合には、眼鏡
フレームの下部においてもX方向に黒ドットが10回以上
連続することがある。そして、眼鏡フレームの下部にお
ける黒ドットの連続であれば黒ドットが10回以上連続し
た後、白ドットが190以上連続することはない。そこ
で、眼鏡フレームの左側の右端(X2)をウインドウの候
補点として検出した後、白ドットが190回以上連続しな
い場合には、ステップS313からステップS316へ移行して
(X2−5、Y軸MEY)の点(眼鏡の片側下フレームX方
向略中央)からY方向上方のドットを検索し、黒色ドッ
トの個数をカウントする(ステップS317)。そして、ス
テップS318でドットを20回以上カウントしたか否かが判
別され、20回以上カウントしておれば、黒ドットが10回
以上カウントされたか否かが判別される(ステップS31
9)。これは、第9図(b)のように眼鏡をかけていれ
ばフレームのP1位置から20ドット以上のところに眼があ
り、そこで眼を検出して黒ドットが10回以上続き、眼鏡
なしの場合は眼と眉とをフレームと見たてて同図(a)
のようにP2位置から上方へ20ドット以上カウントする
と、そこから黒ドットが10回以上続くことはなく区別で
きるからである。ここで黒ドットが10回以上あるとき
は、前記X座標の候補点X2を基にフレームの大きさを考
慮してX1をウインドウの左側のX座標として確定する
(ステップS320)。黒ドットが10回以上ないときには、
X座標を確定せずにステップS310からステップS301へ戻
り、前記と同様の処理を繰返す。
By the way, when the occupant wears spectacles, black dots may continue 10 times or more in the X direction even in the lower part of the spectacle frame. If black dots are continuous at the lower portion of the spectacle frame, white dots will not be continuous 190 or more after black dots have been continuous 10 times or more. Then, after detecting the right end (X2) on the left side of the spectacle frame as a candidate point of the window, if white dots do not continue 190 times or more, the process proceeds from step S313 to step S316 (X2-5, Y-axis MEY). ), The upper dot in the Y direction is searched from the point (approximately the center in the X direction of the lower frame on one side of the glasses) and the number of black dots is counted (step S317). Then, it is determined in step S318 whether or not the dot has been counted 20 times or more. If the dot has been counted 20 times or more, it is determined whether or not the black dot has been counted 10 times or more (step S31).
9). This has the eyes from P 1 position of the frame if wearing glasses as FIG. 9 (b) at the 20 dots or more, where continued black dots than 10 times to detect the eye, without glasses In the case of (a), the eyes and eyebrows are viewed as frames, and FIG.
When counted 20 dots or more from the P 2 position upwardly as is because black dots from which can without distinction be followed over 10 times. If the number of black dots is 10 or more, X1 is determined as the X coordinate on the left side of the window in consideration of the frame size based on the X coordinate candidate point X2 (step S320). If there are no more than 10 black dots,
The process returns from step S310 to step S301 without determining the X coordinate, and repeats the same processing as described above.

ウインドウの左側のX座標X1が第8図、第9図(b)
のように確定され、X方向への走査によって再び右の頭
髪の黒ドット、あるいは眼鏡フレームの右側の黒ドット
を検出すると、ステップS324でその個数をカウントし、
黒ドットが5回連続してカウントされたか否かが判別さ
れる(ステップS325)。ここで、黒ドットが5回連続し
てカウントされると、第8図のようにウインドウの右側
X座標XX2としてX=XX2をメモリに記憶する。なお、ス
テップS316〜S320によってX1が記憶されているときは眼
鏡の右側フレームの左端がXX1として記憶され、このXX1
に基づきXX2を記憶する。
The X coordinate X1 on the left side of the window is shown in FIGS. 8 and 9 (b).
When a black dot on the right hair or a black dot on the right side of the eyeglass frame is detected again by scanning in the X direction, the number is counted in step S324,
It is determined whether or not black dots have been counted five times in a row (step S325). Here, when the black dot is counted five times in a row, X = XX2 is stored in the memory as the X coordinate XX2 on the right side of the window as shown in FIG. When X1 is stored in steps S316 to S320, the left end of the right frame of the glasses is stored as XX1, and this XX1
XX2 is stored based on.

ステップS325で、黒ドットが5回連続してカウントさ
れないときは、乗員が横を向いていたり、顔が斜めにな
っているようなときであり、ステップS327で白ドットを
クリアし、ステップS310へ移行する。このとき、音声等
で乗員に姿勢を正すように警告することもできる。
If the black dots are not counted five times in a row in step S325, it means that the occupant is facing sideways or the face is oblique, and the white dots are cleared in step S327 and the process proceeds to step S310. Transition. At this time, an occupant can be warned to correct his / her posture by voice or the like.

このようにして、ウインドウの左側X座標X1と同右側
X座標XX2(又はXX1)が検出されると、ステップS331へ
移行して、前記ウインドウの左右のX座標X1,XX2(又は
XX1)を検出した縦方向のY座標をHABAYとして記憶し、
ステップS332で、ウインドウを左右の眼に分割するため
のX座標を求める(第8図参照)。この分割は、例えば
眼鏡をかけていない場合を例とすれば次式によって行わ
れる。すなわち、 X軸センタ=XC =X1+{(XX2−X1)/2} 左眼ウインドウの左側X座標=X1 左眼ウインドウの右側X座標=X2 =XC−25 右眼ウインドウの左側X座標=XX1 =XC+25 右眼ウインドウの右側X座標=XX2 つぎに、ステップS333およびステップS335において、
左、右ウインドウのそれぞれのY座標を求めるWINSUBへ
移行する(ステップS334)。
In this way, when the left X coordinate X1 and the right X coordinate XX2 (or XX1) of the window are detected, the process proceeds to step S331, where the left and right X coordinates X1, XX2 (or
XX1) is stored in the vertical direction as HABAY,
In step S332, an X coordinate for dividing the window into left and right eyes is obtained (see FIG. 8). This division is performed by the following equation, for example, in a case where no glasses are worn. That is, X-axis center = XC = X1 + {(XX2-X1) / 2} left X coordinate of left eye window = X1 right X coordinate of left eye window = X2 = XC-25 left X coordinate of right eye window = XX1 = XC + 25 Right X coordinate of right eye window = XX2 Next, in steps S333 and S335,
The process proceeds to WINSUB for obtaining the Y coordinate of each of the left and right windows (step S334).

上記のように、左右ウインドウのX座標X1,X2,XX1,XX
2が検出されると、第3図のフローチャートのステップS
4へ移行して、ウインドウのX方向の幅内で眼の候補点
を検出し、額を検出したか否かを判別して(ステップS
5)、第10図(a),(b)に示すパターン1乃至10の
どれかを決定する(ステップS6およぴS7)。
As described above, the X coordinates X1, X2, XX1, XX of the left and right windows
2 is detected, step S in the flowchart of FIG.
Then, the process proceeds to step S4, where the eye candidate point is detected within the width of the window in the X direction, and it is determined whether the forehead is detected (step S).
5) Determine one of the patterns 1 to 10 shown in FIGS. 10A and 10B (steps S6 and S7).

第6図は上記ステップS4乃至ステップS7の詳細フロー
チャート(WINSUB処理)を示すものである。
FIG. 6 shows a detailed flowchart (WINSUB processing) of steps S4 to S7.

この処理は、ウインドウのY方向の座標を決定するも
ので、左右それぞれの眼において行われる。
This process is for determining the coordinates of the window in the Y direction, and is performed for each of the left and right eyes.

まず、ステップS401乃至ステップS403で、例えば左側
ウインドウの1列分、すなわち、左側X座標X1から右側
X座標X2までを走査し黒ドットの個数Eをカウントす
る。つぎに、カウントされた黒ドットの個数Eが最大個
数Emax(前回までの処理で最大個数をいう。)以上か否
かが判別され(ステップS404)、今回の処理のカウント
値が最大個数Emax以上の場合は、その個数Eを最大個数
Emaxとして記憶する(ステップS405)。その後カウンタ
Eはクリアされ(ステップS421)、Y方向へ300ドット
まで走査したか、すなわち、頬に至るまで走査したか否
かが判別され(ステップS422)、Y方向へ300ドットま
で走査されていなければ、Emax保管の上記ステップが繰
返され、第10図(b)のパターン7のような場合は眉と
眼との双方のEmaxが保管される。
First, in steps S401 to S403, for example, one row of the left window, that is, from the left X coordinate X1 to the right X coordinate X2 is scanned, and the number E of black dots is counted. Next, it is determined whether or not the counted number E of black dots is equal to or larger than the maximum number Emax (the maximum number in the previous processing) (step S404), and the count value of the current processing is equal to or larger than the maximum number Emax. In the case of, the number E is the maximum number
It is stored as Emax (step S405). Thereafter, the counter E is cleared (step S421), and it is determined whether the scanning has been performed up to 300 dots in the Y direction, that is, whether the scanning has been performed up to the cheek (step S422). For example, the above steps of Emax storage are repeated, and in the case of the pattern 7 in FIG. 10 (b), Emax of both eyebrows and eyes is stored.

なお、ステップS422での300ドットは固定値である
が、これ以下のドット数でもよく、又、頭部先端位置の
検出により適数を自動的に決めることもできる。
Although 300 dots is a fixed value in step S422, the number of dots may be smaller than this, or an appropriate number may be automatically determined by detecting the position of the head end.

ステップS404で、黒ドットの個数Eが最大個数Emax未
満の場合には、ステップS406へ移行し、黒ドットの個数
Eが最大個数Emaxに対して80%以上減ったか、すなわ
ち、80%以上が白ドットかを判定し、80%以上が白ドッ
トの場合は、額、眉と眼の間、頬のいづれかを検出した
と判定してステップS406からS407へ移行し、そのときの
Y座標ZRを記憶する。
If the number E of black dots is less than the maximum number Emax in step S404, the process proceeds to step S406, and the number E of black dots is reduced by 80% or more with respect to the maximum number Emax, that is, 80% or more is white. It is determined whether it is a dot, and if 80% or more is a white dot, it is determined that any of the forehead, the space between the eyebrows and the eyes, or the cheek has been detected, and the process proceeds from step S406 to S407, where the Y coordinate ZR at that time is stored. I do.

そして、ステップS408で、候補点が1個か否かが判別
され、ここで候補点が1個であれば額を5回検出したか
否かが判別される(ステップS409)。この判断がYESで
あれば、Y方向の走査が頭部から額に至ったことを示す
ものであるため、候補点フラグをOFFし(ステップS41
0)、ステップS421へ移行して黒ドットのカウント数E
をクリアする。従って、頭部を候補点として検出するこ
とがなくなる。
Then, in step S408, it is determined whether or not there is one candidate point. If there is one candidate point, it is determined whether or not the amount has been detected five times (step S409). If this determination is YES, it indicates that scanning in the Y direction has reached from the head to the forehead, so the candidate point flag is turned off (step S41).
0), the process proceeds to step S421 to count the number of black dots E
Clear Therefore, the head is not detected as a candidate point.

Y方向の走査が眉と眼との間であり候補点が眉の1個
であるときはステップS408からS409へ至りステップS409
の判断がNOとなってステップS421へ移行する。Y方向の
走査が頬であり、既に候補点が複数となっていれば、候
補点フラグはONのままとなる(ステップS408)。このよ
うに、ステップS406〜S410により候補点を検出したか否
か、検出したのは額、眉と眼との間、頬のいずれの走査
におけるものなのかを区別することができる。
When the scanning in the Y direction is between the eyebrows and the eye and the candidate point is one of the eyebrows, the process proceeds from step S408 to S409 and proceeds to step S409.
Is NO, and the flow shifts to step S421. If the scan in the Y direction is cheek and there are already a plurality of candidate points, the candidate point flag remains ON (step S408). As described above, it is possible to distinguish whether or not the candidate point has been detected in steps S406 to S410, and whether the detected point is in the scanning of the forehead, between the eyebrows and the eyes, or in the cheek.

ステップS406で、白ドットが80%以下であるときは、
Y座標ZRを保管したか否かが判別され(ステップS41
1)、Y座標ZRを保管していれば、黒ドットの個数Eが1
0個以上増えたかが判別される(ステップS412)。ステ
ップS411でZRが保管されていなければY座標は例えば頭
部にあるため、ステップS421、S422からS401へリターン
する。
In step S406, when the white dot is 80% or less,
It is determined whether the Y coordinate ZR has been stored (step S41).
1) If the Y coordinate ZR is stored, the number E of black dots is 1
It is determined whether the number has increased by 0 or more (step S412). If the ZR is not stored in step S411, the Y coordinate is, for example, at the head, and the process returns from steps S421 and S422 to S401.

ZRを保管しステップS412で黒ドットの個数Eが10個以
上増えている場合は、眉、眼、眼鏡フレームなど眼球領
域の可能性のある黒ドットの多い部分であると判定す
る。そして、ステップS413で、候補点フラグはONか否か
が判別され、ONの場合は候補点の数は1個か否かが判別
される(ステップS414)。ここで、候補点が1個であれ
ば、ステップS416で候補点に代表される黒色領域の大き
さのパラメータFを増加する。このパラメータFが非常
に大きい場合は、眼と眉とが影などで1つの部分と認識
されており、候補点が実質的には2個あると判断される
(第10図(a)のパターン4参照)。
If ZR is stored and the number E of black dots has increased by 10 or more in step S412, it is determined that the portion is a portion with many black dots, such as eyebrows, eyes, and eyeglass frames, which may have an eyeball area. Then, in step S413, it is determined whether or not the candidate point flag is ON. If it is ON, it is determined whether or not the number of candidate points is one (step S414). Here, if there is one candidate point, the parameter F of the size of the black area represented by the candidate point is increased in step S416. If this parameter F is very large, the eyes and eyebrows are recognized as one part due to a shadow or the like, and it is determined that there are substantially two candidate points (see the pattern in FIG. 10 (a)). 4).

ステップS413において、候補点フラグがOFFのときに
は、候補点フラグをONにし(ステップS417)、ステップ
S418で候補点の検出回数をカウントアップし、候補点検
出カウント回数が2回以上か否かが判別される(ステッ
プS419)。ここで、候補点検出カウント数が2回以上で
ない場合は、ステップS420で、その時のY軸の座標をウ
インドウを設定する基準座標YYSとして記憶する。
If the candidate point flag is OFF in step S413, the candidate point flag is turned ON (step S417).
In S418, the number of times of candidate point detection is counted up, and it is determined whether or not the number of times of candidate point detection count is two or more (step S419). If the number of candidate point detection counts is not two or more, the coordinates of the Y axis at that time are stored as the reference coordinates YYS for setting the window in step S420.

このようにしてステップS416およびステップS420の処
理がなされると、つぎに、ステップS421へ移行して黒ド
ットのカウンタEをクリアし、ステップS422へ移行す
る。
After the processes of steps S416 and S420 are performed in this manner, the process proceeds to step S421 to clear the black dot counter E, and then proceeds to step S422.

ステップS422において、Y軸を0〜300ドットまで走
査したか否かが判別され、Y座標を300ドットまで走査
が終ると、ステップS423へ移行し、先にSETWIN処理で記
憶したHABAYの位置が220以下であるか否かが判別され
る。HABAYの位置が220以下であれば、額を検出している
と判定し(ステップS424)、ステップS425で候補点検出
カウント回数が2回以上か、又は、パラメータFが70以
上か否かが判別される。
In step S422, it is determined whether or not the Y axis has been scanned from 0 to 300 dots. When scanning of the Y coordinate has been completed to 300 dots, the process proceeds to step S423, where the position of the HABAY previously stored in the SETWIN process is set to 220. It is determined whether or not: If the position of the HABAY is 220 or less, it is determined that the forehead has been detected (step S424), and it is determined in step S425 whether the number of candidate point detection counts is 2 or more or the parameter F is 70 or more. Is done.

候補点検出カウント回数が2回以上、又はパラメータ
Fが70以上の場合は、第10図で示すパターン4,7,8,10の
いずれかであるから第10図の表で示す設定手段Aによっ
てウインドウ上のY座標をYYS+30、ウインドウ下のY
座標をYYS+80に設定する(ステップS426)。
If the number of candidate point detection counts is two or more, or if the parameter F is 70 or more, the pattern is one of the patterns 4, 7, 8, and 10 shown in FIG. 10, and the setting means A shown in the table of FIG. The Y coordinate on the window is YYS + 30, the Y on the window is
The coordinates are set to YYS + 80 (step S426).

ステップS425で、候補点検出カウント回数が2回以下
又はパラメータFが70以下の場合には、ステップS427で
候補点検出カウント回数が1回か否かが判別され、候補
点検出カウント回数が1回の場合はパターン3であり、
設定手段Bによってウインドウ上のY座標をYYS−20、
ウインドウ下のY座標をYYS+30に設定する(ステップS
428)。
In step S425, if the number of candidate point detection counts is 2 or less or the parameter F is 70 or less, it is determined in step S427 whether or not the number of candidate point detection counts is 1 and the number of candidate point detection counts is 1 Is pattern 3 and
The setting means B sets the Y coordinate on the window to YYS-20,
Set the Y coordinate at the bottom of the window to YYS + 30 (Step S
428).

ステップS427で候補点検出カウント回数が無い場合に
は、検出不能であり(ステップS429)、EXITする(ステ
ップS430)。この場合は、運転者が下を向いている場合
等と判断される。従って、所定の警告等をしてもよい。
If there is no candidate point detection count in step S427, detection is impossible (step S429), and EXIT is performed (step S430). In this case, it is determined that the driver is facing down. Therefore, a predetermined warning or the like may be given.

つぎに、ステップS423において、HABAYの位置が220以
下でない場合には、額を検出していないと判定して(ス
テップS423)、ステップS432で候補点検出カウント回数
が2回以上か否かが判別される。
Next, if the position of the HABAY is not 220 or less in step S423, it is determined that the forehead has not been detected (step S423), and it is determined in step S432 whether or not the number of candidate point detection counts is two or more. Is done.

候補点検出カウント回数が2回以上の場合はパターン
9であり、設定手段Cによってウインドウ上のY座標を
YYS−20、ウインドウ下のY座標をYYS+30に設定する
(ステップS428)。
If the number of candidate point detection counts is two or more, the pattern 9 is determined.
YYS-20 and the Y coordinate under the window are set to YYS + 30 (step S428).

ステップS432で、候補点検出カウント回数が2回以下
の場合には、ステップS433で候補点検出カウント回数が
1回か否かが判別され、候補点検出カウント回数が1回
の場合は、その候補点が眼鏡のフレームか否かが判別さ
れる(ステップS434)。ここで、パターン6のように候
補点が眼鏡フレームの場合は、ステップS435へ移行す
る。ステップS435では、標準座標YYSから上方へドット
を検索し、黒ドットを検出した位置YYS2を記憶する。そ
して、設定手段Dによってウインドウ上のY座標をYYS2
−35、ウインドウ下のY座標をYYS2+15に設定する(ス
テップS436)。
If the number of candidate point detection counts is two or less in step S432, it is determined in step S433 whether the number of candidate point detection counts is one. If the number of candidate point detection counts is one, the candidate is detected. It is determined whether the point is a frame of glasses (step S434). Here, if the candidate point is a spectacle frame as in pattern 6, the process proceeds to step S435. In step S435, a dot is searched upward from the standard coordinates YYS, and the position YYS2 at which the black dot is detected is stored. The setting means D sets the Y coordinate on the window to YYS2.
−35, the Y coordinate under the window is set to YYS2 + 15 (step S436).

ステップS434で、眼鏡フレームではないと判別された
場合にはパターン5であり、設定手段Eによってウイン
ドウ上のY座標をYYS−20、ウインドウ下のY座標をYYS
+30に設定する(ステップS428)。
If it is determined in step S434 that the frame is not an eyeglass frame, the pattern is pattern 5, and the setting means E sets the Y coordinate on the window to YYS-20 and sets the Y coordinate under the window to YYS-20.
It is set to +30 (step S428).

ステップS433で、候補点検出カウント回数がない場合
にはパターン1であり、ステップS437へ移行し、候補点
が眼か、眼鏡フレームかを判別し、いづれでもない場合
はステップS438で標準座標YYSをステップS407で記憶し
たZR座標とし、設定手段Fによってウインドウ上のY座
標をYYS−20、ウインドウ下のY座標をYYS+30に設定す
る(ステップS428)。
In step S433, if there is no candidate point detection count, it is pattern 1 and the process proceeds to step S437. In step S437, it is determined whether the candidate point is an eye or an eyeglass frame. Using the ZR coordinates stored in step S407, the setting means F sets the Y coordinate on the window to YYS-20 and the Y coordinate under the window to YYS + 30 (step S428).

ステップS437で、候補点が眼鏡フレームの場合にはパ
ターン2であり、ステップS439へ移行する。ステップS4
39では、ZR座標から上方へドットを検索し、黒ドットを
検出した位置YYS2を記憶する。そして、設定手段Gによ
ってウインドウ上のY座標をYYS2−35、ウインドウ下の
Y座標をYYS+15に設定する(ステップS436)。
If the candidate point is a spectacle frame in step S437, it is pattern 2 and the process moves to step S439. Step S4
At 39, a dot is searched upward from the ZR coordinates, and the position YYS2 at which the black dot is detected is stored. Then, the setting means G sets the Y coordinate on the window to YYS2-35 and the Y coordinate under the window to YYS + 15 (step S436).

つぎに、上記設定手段D,E,FおよびGを判別するため
に行われるステップS434およびステップS437の候補点が
眼か眼銃フレームであるかの判別の処理フローチャート
を第12図に示す。
Next, FIG. 12 shows a processing flowchart for determining whether the candidate point is an eye or an eye gun frame in steps S434 and S437, which is performed to determine the setting means D, E, F, and G.

この処理は、額を検出できず、候補点が1個以下の場
合に実行される。
This processing is executed when the amount cannot be detected and the number of candidate points is one or less.

まず、ステップS100乃至ステップS300において、候補
点の黒ドットから白ドットへ変った点aから15ドット上
の点から上方へ黒ドットとなる点を検索し、ステップS4
00で黒ドットになるまでのカウントbが20回以上か否か
が判別される。ここで、カウントbが20回以下の場合は
第13図に示すようになっているため、候補点は眼である
と判定し(ステップS500)、また、カウントbが20回以
上の場合には、第14図に示すようになっていると判別
し、この候補点は眼鏡フレームであると判定する(ステ
ップS600)。
First, in steps S100 to S300, a point that becomes a black dot upward from a point 15 dots above the point a where the candidate point changed from a black dot to a white dot is searched for, and a step S4
At 00, it is determined whether or not the count b until the dot becomes a black dot is 20 times or more. Here, when the count b is 20 or less, as shown in FIG. 13, the candidate point is determined to be an eye (step S500), and when the count b is 20 or more, , The candidate point is determined to be a spectacle frame (step S600).

そして、候補点が眼鏡フレームである場合における基
準座標YYS2は、候補点が1個か無いかによって次式で算
出される。すなわち、候補点が1個の場合には YYS2=YYS−15−b また、候補点がない場合には YYS2=ZR−15−b となる。
Then, the reference coordinates YYS2 when the candidate point is an eyeglass frame is calculated by the following equation depending on whether there is one candidate point or not. That is, when there is one candidate point, YYS2 = YYS-15-b, and when there is no candidate point, YYS2 = ZR-15-b.

以上の処理を左右両眼において行うことによりそれぞ
れの眼のウインドウが設定される。
The window for each eye is set by performing the above processing for both the left and right eyes.

第10図、第11図に戻って整理すると、パターン1で
は、額および眉と眼の間が無いので、黒ドットの切れ目
であるa点(=ZR)から設定手段Fによってウインドウ
を設定する。
Returning to FIG. 10 and FIG. 11, when the pattern 1 is used, since there is no space between the forehead and the eyebrow and the eye, a window is set by the setting means F from the point a (= ZR) which is a black dot break.

パターン2は、パターン1と同様であるが、眼鏡を着
用しているためa点(=ZR)から15+bドット上方を基
準座標YYS2とし、設定手段Gによってウインドウを設定
する。
The pattern 2 is the same as the pattern 1, except that the spectacles are worn, so that 15 + b dots above the point a (= ZR) are set as the reference coordinates YYS2, and the setting means G sets the window.

パターン3は、眉が薄いため候補点はa点(=YYS)
だけとなり、設定手段Bによってウインドウが設定され
る。
In pattern 3, since the eyebrows are thin, the candidate point is point a (= YYS)
Only, and the window is set by the setting means B.

パターン4は、陰で眼と眉と眼鏡フレームの黒い部分
が一つに検出される場合で、眼鏡内が黒くなっているた
め候補点はa点(=YYS)だけであるが、パラメータF
の値bから設定手段Aによってウインドウが設定され
る。
Pattern 4 is a case in which a black portion of the eye, eyebrow, and eyeglass frame is detected as one shadow. Since the inside of the eyeglasses is black, the candidate point is only point a (= YYS).
The window is set by the setting means A from the value b.

パターン5は、額の露出が無く眉と眼の間だけ検出す
るので、候補点はa点(=YYS)の1点となり設定手段
Eによりウインドウが設定される。
Since the pattern 5 has no forehead exposure and is detected only between the eyebrows and the eyes, the candidate point is one point a (= YYS), and the setting means E sets a window.

パターン6は、額が隠れている上、陰で眼と眉の黒い
部分が一つに検出される場合で、眉と眼の間を検出でき
ず、眼の下の白い部分を検出するため、候補点はa点と
なるが、眼鏡を着用しているのでYYS2を基準座標として
設定手段Dによりウインドウが設定される。
Pattern 6 is a case where the forehead is hidden and the black part of the eyes and eyebrows is detected as one in the shade, and it is not possible to detect between the eyebrows and the eyes, and to detect the white part under the eyes, The candidate point is point a, but since the user wears glasses, a window is set by the setting means D using YYS2 as reference coordinates.

パターン7は、普通の形で候補点はa点(=YYS)と
b点の2点となり、a点を基準にして設定手段Aによっ
てウインドウが設定される。
In the pattern 7, the candidate points are two points of the point a (= YYS) and the point b in an ordinary form, and the setting means A sets the window based on the point a.

バターン8は、陰で眼と眉の黒い部分が一つに検出さ
れる場合で、額は検出されるが眉と眼の間が眼鏡フレー
ムにより検出できないため、候補点はa点とb点の2点
となり、設定手段Aによってウインドウが設定される。
Pattern 8 is a case in which the black part of the eye and eyebrow is detected as one shadow, and the forehead is detected but the space between the eyebrow and eye cannot be detected by the spectacle frame. There are two points, and a window is set by the setting means A.

パターン9は、額が隠れており眉と眼の間と眼と眼鏡
フレームの下部の間を検出して候補点はa点とb点とな
り設定手段Cによってウインドウが設定される。
In the pattern 9, the forehead is hidden and the space between the eyebrow and the eye and the space between the eye and the lower part of the spectacle frame are detected, and the candidate points become the points a and b, and the setting unit C sets a window.

パターン10は、額、眉と眼の間および眼と眼鏡フレー
ムの下部の間を検出し、候補点がa点、b点およびc点
の3点となり、設定手段Aによってウインドウが設定さ
れる。
The pattern 10 detects the forehead, the space between the eyebrows and the eyes, and the space between the eyes and the lower part of the spectacle frame. The candidate points are three points a, b and c, and the setting means A sets a window.

そして、第3図のステップS8で、両眼ともウインドウ
が設定されたか否かが判別され、両眼ともウインドウが
設定されると、ステップS9へ移行する。なお、片眼のみ
の処理にすることも可能である。
Then, in step S8 of FIG. 3, it is determined whether a window has been set for both eyes. When a window has been set for both eyes, the process proceeds to step S9. In addition, it is also possible to perform processing for only one eye.

ステップS9では、2値化した画像J(x,y)から上記
で設定されたウインドウ内に対する虹彩中心を検出する
処理が行われる。このときの眼の虹彩は、一般に暗い円
形領域として観測されるから、この円形領域を検出して
その領域面積を認識すれば、運転者の居眠りの有無が判
断できる。
In step S9, a process of detecting an iris center in the window set above from the binarized image J (x, y) is performed. Since the iris of the eye at this time is generally observed as a dark circular region, the presence or absence of the driver can be determined by detecting this circular region and recognizing the region area.

なお、この実施例では顔幅を検出して領域の設定を行
なうから、例えば顔面像において背影が黒(夜間、ある
いはヘッドレストの色)であっても確実に検出すること
ができる。
In this embodiment, since the area is set by detecting the face width, even if the back shadow in the face image is black (nighttime or the color of the headrest), it can be reliably detected.

ステップS9の処理の詳細はこの発明実施例の中心をな
す第4図のフローチャートに基づいて説明する。
The details of the processing in step S9 will be described with reference to the flowchart of FIG. 4 which is the main part of the embodiment of the present invention.

まず、ステップS800でウインドウ内において虹彩候補
点の検出を行う。
First, in step S800, iris candidate points are detected in the window.

この検出を先に説明する。 This detection will be described first.

第15図は、虹彩候補点の検出原理を示す説明図であ
る。
FIG. 15 is an explanatory diagram showing the principle of detecting iris candidate points.

今、ウインドウ内の任意の点(x,y)を中心とする半
径Rの円を設定するとともに、点(x,y)を中心として
放射状に4つの矩形を設定する。この矩形は、円の内外
方にそれぞれP画素だけ延在するように設定される。そ
して、円より外方の矩形白抜き部の明度値の総和と、円
より内方の矩形ハッチング部の明度値の総和との差δを
求める。
Now, a circle having a radius R centered on an arbitrary point (x, y) in the window is set, and four rectangles are set radially around the point (x, y). The rectangle is set so as to extend by P pixels inside and outside the circle. Then, a difference δ between the sum of the brightness values of the rectangular white portions outside the circle and the sum of the brightness values of the rectangular hatching portions inside the circle is determined.

これを上記任意の点(x,y)においてRmin〜Rmaxまで
行い、差δの所定値をΔとして求める。つぎに、点(x
+1,y)を中心として同様な演算を行い、所定値Δを記憶
する。このような演算をウインドウ内の全画素点を中心
として行い虹彩候補点としての所定値Δを出力する。
This is performed from Rmin to Rmax at the above-mentioned arbitrary point (x, y), and a predetermined value of the difference δ is obtained as Δ. Next, the point (x
+1 , y) is performed and a predetermined value Δ is stored. Such a calculation is performed centering on all pixel points in the window, and a predetermined value Δ as an iris candidate point is output.

これは、ウインドウ内に虹彩が存在するとき、虹彩は
他の領域に比べて輝度が低い円形図形として検出され、
虹彩の中心に求められる上記差δが最大値をとるという
原理に基づいている。
This means that when an iris is present in the window, the iris is detected as a circular figure with lower brightness than other areas,
It is based on the principle that the difference δ found at the center of the iris takes the maximum value.

第16図は以上の処理のフローチャートを示すものであ
る。
FIG. 16 shows a flowchart of the above processing.

まず、ステップS901で、ウインドウ内を走査するカウ
ンターx,yを1にリセットする。なお、ここで設定され
たウインドウの大きさは、x方向Mドット、y方向Nド
ットとする。つぎに、ステップS902で、虹彩検出の中心
座標の点J(x,y)が黒いか否かが判別され、黒い場合
はステップS903へ移行し、検出半径RをRminとする。つ
づいて、ステップS904およびS905において、Δおよびp
をリセットする。
First, in step S901, counters x and y for scanning the window are reset to 1. The size of the window set here is M dots in the x direction and N dots in the y direction. Next, in step S902, it is determined whether the point J (x, y) of the center coordinates of iris detection is black. If black, the process proceeds to step S903, where the detection radius R is set to Rmin. Subsequently, in steps S904 and S905, Δ and p
Reset.

つぎに、ステップS906乃至S908で、具体的に白い部分
に囲まれた黒い円形領域として検出する。すなわち、ス
テップS906において、式の前半の4項J(x+R+p,
y),J(x,y−R−p),J(x−R−p,y),J(x,y+R+
p)はそれぞれ中心座標(x,y)から半径R+p離れた
右、下、左、上の位置の明度を表わし、式の後半の4項
J(x+R−p−1,y),J(x,y−R+p+1),J(x−
R+p+1,y),J(x,y+R−p−1)はそれぞれ中心座
標(x,y)から半径R−(p+1)離れた右、下、左、
上の位置の明度を表わしている。
Next, in steps S906 to S908, it is specifically detected as a black circular area surrounded by white parts. That is, in step S906, the first four terms J (x + R + p,
y), J (x, y−R−p), J (x−R−p, y), J (x, y + R +)
p) represents the brightness at the right, bottom, left, and top positions, respectively, at a radius R + p away from the center coordinates (x, y), and the last four terms J (x + R−p−1, y), J (x , y−R + p + 1), J (x−
R + p + 1, y) and J (x, y + R-p-1) are the right, bottom, left, and left R- (p + 1) away from the center coordinates (x, y), respectively.
The brightness of the upper position is shown.

そしてステップS907でpを1ずつ増加させp−1まで
変化させてステップS906乃至ステップS908を繰返し実行
し、半径Rminにおける第15図の矩形白抜き部の明度値総
和(ステップS906の式の前半4項の和)と矩形ハッチン
グ部の明度値総和(ステップS906の式の後半4項の和)
の差δが所定値Δとして求められる(ステップS910)。
つぎに、ステップS911で、半径Rmin+1として再度ステ
ップS904へ移行し、ステップS906乃至ステップS908を繰
返し実行することにより半径Rmin+1としたときの矩形
領域の明度差δを求める。
Then, in step S907, p is incremented by 1 and changed to p−1, and steps S906 to S908 are repeatedly executed, and the brightness value sum of the rectangular hollow portion in FIG. 15 at the radius Rmin (the first half of the equation of step S906: 4) Term sum) and the sum of the brightness values of the rectangular hatched portion (sum of the last four terms of the expression in step S906)
Is obtained as a predetermined value Δ (step S910).
Next, in step S911, the process proceeds to step S904 again with the radius Rmin + 1, and by repeatedly executing steps S906 to S908, the lightness difference δ of the rectangular region when the radius is Rmin + 1 is obtained.

この明度差δが第1回目の半径Rminについて演算され
たΔよりも大きければ、その明度差δを所定値Δとす
る。このような操作を半径Rmaxまで繰返して行い、任意
の点(x,y)についての所定明度差Δが求まる(ステッ
プS912)。
If the brightness difference δ is larger than Δ calculated for the first radius Rmin, the brightness difference δ is set to a predetermined value Δ. Such an operation is repeatedly performed up to the radius Rmax, and a predetermined brightness difference Δ for an arbitrary point (x, y) is obtained (step S912).

これは、検出する虹彩の半径は、個人あるいはカメラ
と乗員の距離によって異るため、検出半径にあるゾーン
(Rmin〜Rmax)を設けるためである。
This is because the radius of the iris to be detected varies depending on the distance between the individual or the camera and the occupant, and therefore, a zone (Rmin to Rmax) at the detection radius is provided.

以下、この処理を、xを1〜Mまで、yを1〜Nまで
ウインドウ全体に亘って行う。このような処理によって
求まるΔは、虹彩候補点について演算された明度差であ
る。
Hereinafter, this processing is performed over the entire window from x to 1 to M and y to 1 to N. Δ obtained by such processing is the brightness difference calculated for the iris candidate points.

以上の処理により第4図のステップS800の処理が終わ
り、候補点群の領域が幾つか得られるので次にラベリン
グ処理を行う(ステップS801)。この結果例えば第18図
のように暗領域である虹彩候補点に〜までの番号付
けがなされ、それぞれの中心点(Xi,Yi)が各領域の代
表座標点として記憶される。次にステップS802により検
出領域の上下左右5%ゾーン(第18図の0.05×lwと0.05
×lh)に代表点座標がある候補点を除外する。そして残
りの候補点の面積Siが所定値SSより大きいものだけを候
補点として残す。これは面積の所定値SSより小さい候補
点であれば明らかに虹彩ではないと判断できるからであ
る(ステップS803乃至ステップS807)。そして最後にス
テップS808で下式により候補点の加重平均により虹彩中
心位置を決定する。
With the above processing, the processing of step S800 in FIG. 4 is completed, and several regions of the candidate point group are obtained. Next, labeling processing is performed (step S801). As a result, for example, as shown in FIG. 18, the iris candidate points which are dark areas are numbered from to, and the respective center points (Xi, Yi) are stored as representative coordinate points of each area. Next, in step S802, the upper, lower, left and right 5% zones of the detection area (0.05 × lw and 0.05 in FIG. 18)
Xlh) excludes candidate points having representative point coordinates. Then, only the candidate points whose area Si is larger than the predetermined value SS are left as candidate points. This is because it can be clearly determined that the candidate point is not an iris if the candidate point is smaller than the predetermined area value SS (steps S803 to S807). Finally, in step S808, the iris center position is determined by the weighted average of the candidate points by the following equation.

なおステップS808では加重平均を用いて虹彩中心位置
を決定したが、他に算術平均等を利用してもよい。また
一般的に虹彩は候補点の中で最大面積の暗領域となる場
合が多いのでステップS803乃至ステップS808の代りに候
補点中で最大面積の候補点の代表点を虹彩中心位置とす
ることも可能であり処理の高速化が必要なる場合等は有
効である。要は、設定した領域内で少なくとも暗領域の
面積を検出し、検出した面積の大きさに応じて候補点に
統計的処理による重みづけを行い、虹彩中心位置を検出
するのである。
In step S808, the iris center position is determined using the weighted average. Alternatively, an arithmetic average or the like may be used. In general, the iris is often a dark area having the largest area among the candidate points. Therefore, instead of steps S803 to S808, the representative point of the candidate point having the largest area among the candidate points may be set as the iris center position. This is possible, and is effective when the processing speed needs to be increased. The point is that at least the area of the dark area is detected in the set area, the candidate points are weighted by statistical processing according to the size of the detected area, and the iris center position is detected.

このようにして虹彩中心放置が求められた後最後に第
2図の居眠り、わき見判定回路15において乗員の居眠
り、わき見等の状態を判定する。即ち第3図のステップ
S10に移行して判定が行われる。即ち最終出力としての
虹彩候補点の所定値Δは開眼時と閉眼時とで比較すると
大きく異なるため、これを所定のしきい値処理すること
によって開眼か閉眼かを判別することができる。すなわ
ち、ステップS9で算出されたウインドウ内での明度差Δ
をしきい値処理し、明度差Δ≧Th(しきい値)の時は開
眼、明度差Δ≦Thの時は閉眼であると判断する。
Finally, after the iris center leaving is obtained in this way, the state of the occupant, such as falling asleep or looking aside, is determined by the drowsiness aside determination circuit 15 in FIG. That is, the steps in FIG.
The process proceeds to S10 and a determination is made. That is, since the predetermined value Δ of the iris candidate point as the final output is greatly different between when the eye is opened and when the eye is closed, it is possible to determine whether the eye is open or closed by subjecting this to a predetermined threshold value processing. That is, the brightness difference Δ in the window calculated in step S9
Is thresholded, and it is determined that the eyes are open when the brightness difference Δ ≧ Th (threshold), and the eyes are closed when the brightness difference Δ ≦ Th.

まばたきをした場合にも上記の虹彩検出処理で開眼と
判断されることがあるから、1回の虹彩検出処理で運転
者が居眠りをしていると判断すると誤警報の可能性が高
いため、同一の虹彩検出処理を複数回繰返し実行し、あ
る所定回数以上連続して閉眼が認識されたときに居眠り
していると判定する。
Even when blinking, the eye may be determined to be open in the above iris detection processing. Therefore, if it is determined that the driver is dozing in one iris detection processing, there is a high possibility of a false alarm. The iris detection process is repeatedly performed a plurality of times, and it is determined that the user is dozing when the eyes are continuously recognized for a predetermined number of times or more.

例えば、第18図に示すように、黒点で示す時間間隔ご
とに画像が入力され、そして虹彩検出処理の結果、閉眼
と判断される回数が3回連続したときは運転者が居眠り
していると判定し、第2図に示すように居眠り判定信号
を出力する。警報出力回路17が居眠り判定信号を受ける
と、警報を発して運転者に注意を促す。
For example, as shown in FIG. 18, when an image is input at each time interval indicated by a black dot, and as a result of the iris detection processing, the number of times that the eye is determined to be closed for three consecutive times, it is determined that the driver is dozing off It makes a determination and outputs a dozing determination signal as shown in FIG. When the alarm output circuit 17 receives the dozing determination signal, it issues an alarm to alert the driver.

また、片目のみが閉眼と判断した場合は、実際には閉
眼でなく、わき見をしているために原画面から片目が外
れているものと考えられる。従って居眠り判断の場合と
同様に3回連続して片目が閉眼していると判断されたと
きには、わき見と判定する。
When it is determined that only one eye is closed, it is considered that one eye is not actually closed and one eye is off the original screen due to looking aside. Therefore, when it is determined that one eye is closed three consecutive times, as in the case of the drowsiness determination, it is determined that the eyes are aside.

なお、第5図のWINSUBのサブルーチンにおいて、検出
不能エラーとしてEXITする場合があるが、この場合も例
えば3回連続してEXITになるときは、運転者が下を向い
たために頭のみが画像入力した結果と考えられるので、
このような場合は居眠りしていると判定して警報を発す
ることもできる。
In the WINSUB subroutine shown in FIG. 5, EXIT may occur as an undetectable error. In this case, for example, when EXIT is performed three times in a row, only the head is imaged because the driver has turned down. Is considered to be the result of
In such a case, it is possible to determine that the user is dozing and issue an alarm.

(発明の効果) 以上より明らかなように、請求項1の発明の構成によ
れば、虹彩部を検出する領域内において少なくとも暗領
域の面積を検出することができ、検出した暗領域の面積
の大きさに応じて候補点に統計的処理による重みづけを
行い虹彩中心位置を特定するから虹彩中心位置を正確に
検出することができる。
(Effects of the Invention) As is clear from the above, according to the configuration of the first aspect of the present invention, at least the area of the dark region can be detected in the region where the iris portion is detected, and the area of the detected dark region is reduced. Since the candidate points are weighted by statistical processing according to the size and the iris center position is specified, the iris center position can be accurately detected.

請求項2の発明では、運転者の目が開いているか閉じ
ているか、運転者が正面を向いているか等を正確に判断
することが可能となった。
According to the invention of claim 2, it is possible to accurately determine whether the driver's eyes are open or closed, whether the driver is facing the front, and the like.

【図面の簡単な説明】[Brief description of the drawings]

第1図はこの発明の構成図、第2図はこの発明の一実施
例に係る構成図、第3図、第4図は第2図の構成図に基
づくフローチャート、第5図はSETWIN処理のフローチャ
ート、第6図はWINSUB処理のフローチャート、第7図乃
至第11図はこの実施例の処理に関する説明図、第12図は
眼鏡フレームの判断処理のフローチャート、第13図、第
14図はその処理に関する説明図、第15図は虹彩検出処理
の原理説明図、第16図は虹彩検出処理のフローチャー
ト、第17図は居眠り判断のための説明図、第18図はこの
発明実施例の特徴的な処理の説明図である。 CL1……画像入力手段 CL2……2値化手段 CL3……領域設定手段 CL4……虹彩中心検出手段 CL5……判定手段
FIG. 1 is a block diagram of the present invention, FIG. 2 is a block diagram according to an embodiment of the present invention, FIGS. 3 and 4 are flowcharts based on the block diagram of FIG. 2, and FIG. Flowchart, FIG. 6 is a flowchart of the WINSUB process, FIGS. 7 to 11 are explanatory diagrams relating to the process of this embodiment, FIG. 12 is a flowchart of the eyeglass frame determination process, FIG.
FIG. 14 is an explanatory diagram relating to the processing, FIG. 15 is an explanatory diagram of the principle of the iris detection process, FIG. 16 is a flowchart of the iris detection process, FIG. 17 is an explanatory diagram for determining dozing, and FIG. It is explanatory drawing of the characteristic process of an example. CL1 image input means CL2 binarization means CL3 area setting means CL4 iris center detection means CL5 determination means

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】運転者の両目を含む顔画像を入力する画像
入力手段と、この画像入力手段から送出される入力画像
を2値化する2値化手段と、この2値化手段による2値
化画像において虹彩部を検出する領域を設定する領域設
定手段と、この領域設定手段で設定した領域内において
少なくとも暗領域の面積を検出すると共に検出した面積
の大きさに応じて候補点に統計的処理により重みづけを
行い虹彩中心位置を検出する虹彩中心検出手段とを備え
たことを特徴とする虹彩位置検出装置。
1. An image input means for inputting a face image including both eyes of a driver, a binarization means for binarizing an input image sent from the image input means, and a binarization by the binarization means. Area setting means for setting an area for detecting an iris part in a coded image, and detecting at least the area of a dark area in the area set by the area setting means and statistically determining candidate points in accordance with the size of the detected area. An iris position detecting device, comprising: iris center detecting means for weighting by processing to detect an iris center position.
【請求項2】運転者の両目を含む顔画像を入力する画像
入力手段と、この画像入力手段から送出される入力画像
を2値化する2値化手段と、この2値化手段による2値
化画像において虹彩部を検出する領域を設定する領域設
定手段と、この領域設定手段で設定した領域内において
少なくとも暗領域の面積を検出すると共に検出した面積
の大きさに応じて候補点に統計的処理により重みづけを
行い虹彩中心位置を検出する虹彩中心検出手段と、この
虹彩中心検出手段による検出結果から運転者の状態を判
定する判定手段とを備えたことを特徴とする運転者の状
態検出装置。
2. An image input means for inputting a face image including both eyes of a driver, a binarization means for binarizing an input image transmitted from the image input means, and a binarization by the binarization means. Area setting means for setting an area for detecting an iris part in a coded image, and detecting at least the area of a dark area in the area set by the area setting means and statistically determining candidate points in accordance with the size of the detected area. Iris center detecting means for performing weighting by processing to detect an iris center position, and determining means for judging a driver state based on a detection result by the iris center detecting means; apparatus.
JP1338671A 1989-12-28 1989-12-28 Iris position detecting device and driver state detecting device Expired - Fee Related JP2932551B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1338671A JP2932551B2 (en) 1989-12-28 1989-12-28 Iris position detecting device and driver state detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1338671A JP2932551B2 (en) 1989-12-28 1989-12-28 Iris position detecting device and driver state detecting device

Publications (2)

Publication Number Publication Date
JPH03202045A JPH03202045A (en) 1991-09-03
JP2932551B2 true JP2932551B2 (en) 1999-08-09

Family

ID=18320367

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1338671A Expired - Fee Related JP2932551B2 (en) 1989-12-28 1989-12-28 Iris position detecting device and driver state detecting device

Country Status (1)

Country Link
JP (1) JP2932551B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4137969B2 (en) 2006-12-04 2008-08-20 アイシン精機株式会社 Eye detection device, eye detection method, and program
JP4845698B2 (en) 2006-12-06 2011-12-28 アイシン精機株式会社 Eye detection device, eye detection method, and program
JP4895797B2 (en) 2006-12-26 2012-03-14 アイシン精機株式会社 Wrinkle detection device, wrinkle detection method and program
JP4309926B2 (en) 2007-03-13 2009-08-05 アイシン精機株式会社 Facial feature point detection apparatus, facial feature point detection method, and program
JP4307496B2 (en) 2007-03-19 2009-08-05 株式会社豊田中央研究所 Facial part detection device and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4397531A (en) 1981-06-29 1983-08-09 Honeywell Inc. Eye closure discrimination system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60158303A (en) * 1984-01-30 1985-08-19 Nippon Denso Co Ltd Apparatus for recognizing positions of vehicle driver's eyes

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4397531A (en) 1981-06-29 1983-08-09 Honeywell Inc. Eye closure discrimination system

Also Published As

Publication number Publication date
JPH03202045A (en) 1991-09-03

Similar Documents

Publication Publication Date Title
JP2541688B2 (en) Eye position detection device
JP2522859B2 (en) Eye position detection device
US6504942B1 (en) Method of and apparatus for detecting a face-like region and observer tracking display
JP3761059B2 (en) Method and apparatus for detecting human face and observer tracking display
JP4307496B2 (en) Facial part detection device and program
JP2500726B2 (en) Method and apparatus for detecting upper eyelid region, inner corner of eye, outer corner of eye, upper eyelid region and eye structure
US7907752B2 (en) Face center position detecting device, face center position detecting method, and computer-readable medium
JPH0944685A (en) Face image processor
JP3143819B2 (en) Eyelid opening detector
JP2822799B2 (en) Driver status detection device
CN115039150A (en) Determination method, determination device, and determination program
JP2932551B2 (en) Iris position detecting device and driver state detecting device
JP2836238B2 (en) Driving car eye position detection device and state detection device
JP2705388B2 (en) Driver's eye position detection device
JP2936943B2 (en) Driver status detection device
JPH11174948A (en) Manual operation confirming device
JP2677010B2 (en) Eye position detection device
JPH10143669A (en) Dozing state detecting device
JP2541689B2 (en) Eye position detection device and subject state detection device
JP3813043B2 (en) Glasses reflection detection apparatus and glasses reflection detection method
JPH04216403A (en) Detecting apparatus of position of eye
KR960013819B1 (en) Personal identification by image processing human face of series of image
JP3465566B2 (en) Eye position detection device
US20220309833A1 (en) Iris detection method, iris detection apparatus, and non-transitory computer-readable recording medium recording iris detection program
JPH03194661A (en) Device for detecting driver's state

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees