JP3111645B2 - Eye position detector - Google Patents

Eye position detector

Info

Publication number
JP3111645B2
JP3111645B2 JP04153531A JP15353192A JP3111645B2 JP 3111645 B2 JP3111645 B2 JP 3111645B2 JP 04153531 A JP04153531 A JP 04153531A JP 15353192 A JP15353192 A JP 15353192A JP 3111645 B2 JP3111645 B2 JP 3111645B2
Authority
JP
Japan
Prior art keywords
predetermined
image
pixels
pixel
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP04153531A
Other languages
Japanese (ja)
Other versions
JPH05340720A (en
Inventor
雅之 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP04153531A priority Critical patent/JP3111645B2/en
Publication of JPH05340720A publication Critical patent/JPH05340720A/en
Application granted granted Critical
Publication of JP3111645B2 publication Critical patent/JP3111645B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、眼の位置を検出する眼
位置検出装置に関し、更に詳しくは、車両の運転者の眼
の画像から運転者の居眠りや脇見運転を検出するのに利
用することができる眼位置検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an eye position detecting device for detecting the position of an eye, and more particularly, to detecting a driver's dozing or inattentive driving from an image of a driver's eye of a vehicle. The present invention relates to an eye position detecting device capable of detecting an eye position.

【0002】[0002]

【従来の技術】従来の画像処理による車両運転者の位置
検出装置(顔の部分的な判断を含む)には、例えば特開
昭60−166807号、特開昭60−168005号
公報に記載されたようなものがある。これらは発光手段
の光量を制御したり、撮像機に入射する光量を制御する
ことにより、車両室内の明るさを問わずに、常に鮮明な
画像を得ることができるようにしているため、画像処理
(2値化も含む)によって運転者の眼の位置等を精度良
く検出できる構成となっている。
2. Description of the Related Art Conventionally, an apparatus for detecting a position of a vehicle driver (including a partial determination of a face) by image processing is disclosed in, for example, JP-A-60-166807 and JP-A-60-168005. Something like that. These control the amount of light emitted from the light emitting means or the amount of light incident on the image pickup device, so that a clear image can always be obtained regardless of the brightness of the vehicle interior. (Including binarization), it is possible to accurately detect the position of the driver's eyes and the like.

【0003】[0003]

【発明が解決しようとする課題】上述した従来の画像処
理による車両運転者の位置検出装置では、入力画像全体
での濃淡画像情報の補正を行うようにしか発光手段の光
量の制御や撮像機に入射する光量の制御を行っていない
ため、例えば発光手段よりも遥かに大きな光量を有する
自然光が入力画像の一部分に入ってきた場合、全体の濃
淡画像を対象とした処理では、適切な画像処理を行うこ
とができない場合があるという問題がある。
In the above-described conventional position detecting apparatus for a vehicle driver based on image processing, the control of the light amount of the light-emitting means and the control of the image pickup device are performed so as to correct the grayscale image information of the entire input image. Since the amount of incident light is not controlled, for example, when natural light having a much larger amount of light than the light emitting means enters a part of the input image, appropriate image processing is performed in the processing for the entire grayscale image. There is a problem that it may not be possible.

【0004】画像処理の2値化には微分ヒストグラム
法、判別分析法等の種々の処理方法がある。これらの方
法はすべて入力画像の濃淡情報を対象に数学的な計算を
行い、2値化のしきい値を設定し、眼、眉、髪等を黒画
素に変換し、額、頬、鼻、顎等を白画素に変換するため
に2値化手法を本来使用しているが、上述したように全
画素を対象として数学的に決定されたしきい値での2値
化では、眼の部分が白画素に変換されてしまったり、顔
にできる影の部分が黒画素に変換されて、本当の眼の黒
画素と区別できなくなることがあるという問題があり、
この結果車室内のように刻々と変化する照度環境では、
居眠り検出等のために常に運転者の状態を正確に捉える
ことができない。
There are various processing methods such as a differential histogram method and a discriminant analysis method for binarizing image processing. All of these methods perform mathematical calculations on the grayscale information of the input image, set thresholds for binarization, convert eyes, eyebrows, hair, etc. into black pixels, forehead, cheeks, nose, Although the binarization method is originally used to convert the chin and the like to white pixels, as described above, in the binarization using the threshold value that is mathematically determined for all pixels, a portion of the eye There is a problem that may be converted to white pixels, or the part of the shadow that can be formed on the face may be converted to black pixels, making it impossible to distinguish from the black pixels of the real eye,
As a result, in an ever-changing illuminance environment such as in a vehicle cabin,
It is not always possible to accurately detect the driver's state due to dozing detection or the like.

【0005】本発明は、上記に鑑みてなされたもので、
その目的とするところは、周囲環境の明るさに影響され
ずに、眼の位置を適確に検出することができる眼位置検
出装置を提供することにある。
[0005] The present invention has been made in view of the above,
An object of the present invention is to provide an eye position detection device that can accurately detect the position of an eye without being affected by the brightness of the surrounding environment.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するた
め、本発明の眼位置検出装置は、図1に示すように、少
なくとも、眼を含む顔画像を複数の単位画素からなる第
1所定領域とするとともに、この第1所定領域の単位画
素毎に濃度情報を入力する画像入力手段CL1と、前記
第1所定領域の少なくとも一部分を複数の第2所定領域
に分割し、該第2所定領域の各々において所定値以上の
濃度情報を有する単位画素数を測定する領域測定手段C
L2と、該領域測定手段による測定値に基づいて前記複
数の第2所定領域の各領域毎にしきい値を補正する補正
手段CL3と、該補正手段によって補正されたしきい値
によって前記画像入力手段により入力された単位画素毎
の濃度情報を2値化する2値化手段CL4と、該2値化
手段によって2値化された情報から眼の存在領域を特定
する眼存在領域特定手段CL5とを有することを要旨と
する。
In order to achieve the above object, an eye position detecting apparatus according to the present invention, as shown in FIG. 1, converts at least a face image including an eye into a first predetermined area comprising a plurality of unit pixels. And image input means CL1 for inputting density information for each unit pixel of the first predetermined area; and dividing at least a part of the first predetermined area into a plurality of second predetermined areas, Area measuring means C for measuring the number of unit pixels each having density information equal to or more than a predetermined value
L2, correction means CL3 for correcting a threshold value for each of the plurality of second predetermined areas based on the measurement value of the area measurement means, and the image input means based on the threshold value corrected by the correction means. A binarizing unit CL4 for binarizing the density information of each unit pixel input by the above-mentioned method, and an eye existing region specifying unit CL5 for specifying an eye existing region from the information binarized by the binarizing unit. It is the gist to have.

【0007】[0007]

【作用】本発明の眼位置検出装置では、少なくとも、眼
を含む顔画像の少なくとも一部分を複数の第2所定領域
に分割し、該第2所定領域の各々において所定値以上の
濃度情報を有する単位画素数を測定し、この測定値に基
づいて各第2所定領域毎にしきい値を補正し、この補正
されたしきい値によって入力画像の単位画素毎の濃度情
報を2値化し、この2値化情報から眼の存在領域を特定
する。
According to the eye position detecting device of the present invention, at least a part of the face image including the eyes is divided into a plurality of second predetermined areas, and each of the second predetermined areas has density information equal to or more than a predetermined value. The number of pixels is measured, the threshold value is corrected for each second predetermined area based on the measured value, and the density information for each unit pixel of the input image is binarized based on the corrected threshold value. The eye existence region is specified from the conversion information.

【0008】[0008]

【実施例】以下、図面を用いて本発明の実施例を説明す
る。
Embodiments of the present invention will be described below with reference to the drawings.

【0009】図2は、本発明の一実施例に係わる眼位置
検出装置の構成を示すブロック図である。同図に示す眼
位置検出装置は、車両の運転者の眼の位置を検出するた
めに適用されたものであり、運転者の顔および、その顔
周囲の背景部分を撮像する画像入力手段CL1を構成す
るCCDカメラ1を有する。このCCDカメラ1で撮像
された画像情報は、A−D変換器3を介してディジタル
信号に変換されて、画像メモリ5に記憶される。
FIG. 2 is a block diagram showing a configuration of an eye position detecting apparatus according to one embodiment of the present invention. The eye position detection device shown in FIG. 1 is applied to detect the position of the driver's eye of the vehicle, and includes an image input unit CL1 for capturing the driver's face and a background portion around the face. It has a CCD camera 1 to configure. The image information captured by the CCD camera 1 is converted into a digital signal via the A / D converter 3 and stored in the image memory 5.

【0010】前記カメラ1で撮像された運転者の顔およ
び、この顔周囲の背景部分の画像は、例えば図12ない
し図15に示すように顔部分が縦方向にほぼいっぱいに
なるように画角が調整され、横(X)方向520画素、
縦(Y)方向500画素からなる画像として構成され
る。
The image of the driver's face taken by the camera 1 and the image of the background surrounding the face are, for example, as shown in FIGS. Is adjusted to 520 pixels in the horizontal (X) direction,
It is configured as an image composed of 500 pixels in the vertical (Y) direction.

【0011】画像メモリ5に記憶された画像信号は、前
記領域測定手段CL2、補正手段CL3および2値化手
段CL4を構成する画像処理回路7に供給され、これに
より前記顔および、この顔周囲の背景部分の画像を複数
の単位画素からなる第1所定領域とした該領域の少なく
とも一部分を複数の第2所定領域に分割し、該第2所定
領域の各々において所定値以上の濃度情報を有する単位
画素数を測定する領域測定手段CL2、この測定値に基
づいて複数の第2所定領域の各領域毎にしきい値を補正
する補正手段CL3、およびこの補正されたしきい値に
よって入力画像の単位画素毎の濃度情報を2値化する2
値化手段CL4の各機能を達成している。
The image signal stored in the image memory 5 is supplied to an image processing circuit 7 constituting the area measuring means CL2, the correcting means CL3 and the binarizing means CL4. A unit having an image of a background portion as a first predetermined region including a plurality of unit pixels, at least a part of the region is divided into a plurality of second predetermined regions, and each of the second predetermined regions has density information equal to or more than a predetermined value. Area measuring means CL2 for measuring the number of pixels, correcting means CL3 for correcting a threshold value for each of a plurality of second predetermined areas based on the measured values, and unit pixels of the input image based on the corrected threshold values Binarize density information for each 2
Each function of the value conversion means CL4 is achieved.

【0012】そして、画像処理回路7の出力信号は、前
記眼存在領域特定手段CL5を構成する眼存在領域特定
部9に供給され、ここで前記2値化手段によって2値化
された情報から眼の存在領域を特定する。
Then, the output signal of the image processing circuit 7 is supplied to an eye existence area specifying section 9 constituting the eye existence area specifying means CL5. Here, an eye signal is obtained from the information binarized by the binarization means. The existence area of is specified.

【0013】次に、図3ないし図11に示すフローチャ
ートを参照して、全体の作用を説明する。
Next, the overall operation will be described with reference to the flowcharts shown in FIGS.

【0014】図3において、車両の運転者の顔および、
その顔周囲の背景部分の画像がCCDカメラ1で撮像さ
れ、A−D変換器3を介してディジタル信号に変換さ
れ、濃度階調情報として画像メモリ5に記憶される(ス
テップ101)。
In FIG. 3, the face of the driver of the vehicle and
An image of a background portion around the face is picked up by the CCD camera 1, converted into a digital signal via the A / D converter 3, and stored in the image memory 5 as density gradation information (step 101).

【0015】このように生成された画素の階調J(x,
y)は、黒い(暗い)部分がJ(x,y)=0となり、
白い(明るい)部分がJ(x,y)=255となる25
6階調で表現される。なお、前記画像メモリ5に記憶さ
れた入力画像は、図12ないし図15に示して上述した
ように横(X)方向520画素、縦(Y)方向500画
素からなる画像として構成され、顔部分が縦方向でほぼ
いっぱいになるように画角が調整されている。
The gradation J (x,
y) indicates that the black (dark) portion has J (x, y) = 0,
25 where the white (bright) part is J (x, y) = 255
Expressed in six gradations. The input image stored in the image memory 5 is configured as an image composed of 520 pixels in the horizontal (X) direction and 500 pixels in the vertical (Y) direction as described above with reference to FIGS. Is adjusted so that is almost full in the vertical direction.

【0016】図3および図4に示す以降のステップ10
2ないし203では、第1の処理として、運転席側に太
陽があり、運転者の顔の右半分に光が当たっているよう
な光環境において運転者の眼の位置を検出する処理を説
明する。
The following step 10 shown in FIGS.
In steps 2 to 203, as a first process, a process of detecting the position of the driver's eyes in a light environment in which the sun is on the driver's seat side and the right half of the driver's face is illuminated by light will be described. .

【0017】まず、ステップ102では、所定の濃度階
調であるJ(x,y)=250を越えるような非常に明
るい画素の数を計数するための明画素カウンタNを設
け、この明画素カウンタNをまずリセットするととも
に、また図12に示すような画像においてX方向をX=
0から250まで、Y方向をY=0から200まで走査
して同画像の上半分の左側の領域の各画素の濃度を調べ
るためにY=0を設定し(ステップ102)、更にX=
0も設定する(ステップ103)。
First, at step 102, a bright pixel counter N for counting the number of very bright pixels exceeding a predetermined density gradation, J (x, y) = 250, is provided. N is first reset, and in the image shown in FIG.
From 0 to 250, the Y direction is scanned from Y = 0 to 200, and Y = 0 is set to check the density of each pixel in the left region of the upper half of the same image (step 102).
0 is also set (step 103).

【0018】そして、まず、X=0,Y=0の位置の画
素の濃度階調J(x,y)、すなわちJ(0,0)が2
50より大きいか否かチェックする(ステップ10
4)。この濃度階調J(x,y)が250より大きく、
非常に明るい場合には、明画素カウンタNを+1カウン
トアップする(ステップ105)。
First, the density gradation J (x, y) of the pixel at the position of X = 0, Y = 0, that is, J (0,0) is 2
Check whether it is greater than 50 (Step 10)
4). This density gradation J (x, y) is larger than 250,
If it is very bright, the bright pixel counter N is incremented by one (step 105).

【0019】それから、Xが250になったか否かをチ
ェックし(ステップ106)、Xが250未満の場合に
は、Xを+1インクリメントし(ステップ107)、こ
のインクリメントした(X,Y)=(1,0)の画素の
濃度階調J(x,y)が250より大きいか否か同様に
チェックし(ステップ104)、大きい場合には、同様
に明画素カウンタNをカウントアップする(ステップ1
05)。ステップ104ないし107の同様の処理をX
が250になるまで繰り返し実行し、Y=0の場合のX
=0からX=250までの各画素の濃度階調J(x,
y)をチェックする。
Then, it is checked whether or not X becomes 250 (step 106). If X is less than 250, X is incremented by +1 (step 107), and this incremented (X, Y) = ( Similarly, it is checked whether or not the density gradation J (x, y) of the (1, 0) pixel is greater than 250 (step 104). If it is, the bright pixel counter N is similarly counted up (step 1).
05). The same processing of steps 104 to 107 is performed by X
Is repeatedly executed until Y becomes 250, and X when Y = 0
= 0 to X = 250, the density gradation J (x,
Check y).

【0020】X=250になると、Yが200になった
か否かをチェックし(ステップ108)、Yが200未
満の場合には、Yを+1インクリメントし(ステップ1
09)、このインクリメントした(X,Y)=(0,
1)の画素の濃度階調J(x,y)が250より大きい
か否か同様にチェックし(ステップ104)、大きい場
合には、明画素カウンタNをカウントアップする(ステ
ップ105)。ステップ104ないし107の同様の処
理をXが250になるまで繰り返し実行し、Y=1の場
合のX=0からX=250までの各画素の濃度階調J
(x,y)をチェックする。以下、同様の動作をY=2
00まで繰り返し実行し、これによりX=0〜250、
Y=0〜200の各画素の濃度階調J(x,y)をチェ
ックし、この濃度階調J(x,y)が250より大き
く、非常に明るい画素の数が明画素カウンタNに計数さ
れる。
When X = 250, it is checked whether or not Y becomes 200 (step 108). If Y is less than 200, Y is incremented by +1 (step 1).
09), and this incremented (X, Y) = (0,
It is similarly checked whether the density gradation J (x, y) of the pixel of 1) is greater than 250 (step 104), and if it is, the bright pixel counter N is counted up (step 105). The same processing of steps 104 to 107 is repeatedly executed until X becomes 250, and the density gradation J of each pixel from X = 0 to X = 250 when Y = 1
Check (x, y). Hereinafter, the same operation is performed with Y = 2.
00, so that X = 0 to 250,
The density gradation J (x, y) of each pixel of Y = 0 to 200 is checked, and the number of very bright pixels whose density gradation J (x, y) is larger than 250 is counted by the bright pixel counter N. Is done.

【0021】次に続くステップ110〜117は、図1
2に示す画像の上半分の右側領域の各画素の濃度階調J
(x,y)が250よりも大きいか否かをチェックし、
250よりも大きく、非常に明るい画素の数を計数する
上述したステップ102〜109と同様の処理を行うも
のであり、このために別の明画素カウンタMを設定し、
該明画素カウンタMをまず最初に0にリセットするとと
もに、Y=0を設定し(ステップ110)、更にX=2
60に設定し(ステップ111)、これによりX=26
0〜520、Y=0〜200の各画素を走査する。この
処理は上述したステップ103〜109と同様であり、
この走査範囲の各画素の濃度階調J(x,y)が250
より大きいか否かがステップ112でチェックされて、
大きい場合には、明画素カウンタMが+1カウントアッ
プされ(ステップ113)、X=520になるまで(ス
テップ114)、Xが+1インクリメントされ(ステッ
プ115)、更にY=200になるまで(ステップ11
6)、Yが+1インクリメントされる(ステップ11
7)。
The following steps 110 to 117 correspond to FIG.
The density gradation J of each pixel in the upper right region of the image shown in FIG.
Check if (x, y) is greater than 250,
A process similar to the above-described steps 102 to 109 for counting the number of very bright pixels larger than 250 is performed, and another bright pixel counter M is set for this purpose.
First, the bright pixel counter M is reset to 0, Y = 0 is set (step 110), and X = 2
60 (step 111), whereby X = 26
Each pixel of 0 to 520 and Y = 0 to 200 is scanned. This process is similar to steps 103 to 109 described above.
The density gradation J (x, y) of each pixel in this scanning range is 250
It is checked in step 112 whether the value is greater than
If it is larger, the bright pixel counter M is counted up by +1 (step 113), X is incremented by +1 (step 115) until X = 520 (step 114), and Y is further increased until Y = 200 (step 11).
6), Y is incremented by +1 (step 11)
7).

【0022】X=260〜520およびY=0〜200
の画像上半分の右側領域の各画素の濃度階調J(x,
y)がチェック完了すると、図3のステップ116から
図4のステップ201に進む。
X = 260-520 and Y = 0-200
, The density gradation J (x,
When the check in y) is completed, the process proceeds from step 116 in FIG. 3 to step 201 in FIG.

【0023】そして、ステップ201では、上述したス
テップ105,113でそれぞれ計数した明画素カウン
タN,Mの計数値N,Mの差(N−M)が所定の画素数
Pより大きいか否かをチェックする。なお、この実施例
では、右ハンドルの車両を想定しているので、明画素カ
ウンタの計数値の差として、N−Mを取っているが、左
ハンドルの車両の場合には、直射日光の入射方向が逆に
なるので、逆のM−Nの差が所定の画素数Pより大きい
か否かをチェックすればよい。
In step 201, it is determined whether or not the difference (N−M) between the count values N and M of the bright pixel counters N and M counted in steps 105 and 113 is larger than a predetermined pixel number P. To check. In this embodiment, since a right-hand drive vehicle is assumed, NM is taken as the difference between the count values of the bright pixel counter. Since the directions are reversed, it is sufficient to check whether or not the difference of the inverse MN is larger than a predetermined number of pixels P.

【0024】前記差N−Mが所定の画素数P未満の場合
には、運転者の顔の左右の画像の明るさに差がないと判
定し、飛び越し記号Bで示すように図5以降の処理に進
むが、前記差N−Mが所定の画素数Pより大きい場合に
は、運転席側に太陽があり、運転者の顔の右半分に光が
当たっているような光環境であると判定し、ステップ2
02に進む。
If the difference NM is less than the predetermined number of pixels P, it is determined that there is no difference between the brightness of the left and right images of the driver's face, and as shown by the jump symbol B, as shown in FIG. When the difference NM is larger than the predetermined number of pixels P, it is determined that the light environment is such that the sun is on the driver's seat side and the right half of the driver's face is illuminated by light. Judge, step 2
Go to 02.

【0025】このステップ202では、画像信号を2値
化処理する場合に、画像の濃度情報から自動的に設定さ
れる2値化しきい値に対して直射日光が当たっていない
運転者の左眼を適切な状態で検出できるようにするため
に補正値α1を加味した2値化しきい値を設定する。そ
の後、ステップ203において片眼検出処理を行う。
In step 202, when the image signal is binarized, the driver's left eye not exposed to direct sunlight is exposed to the binarization threshold automatically set from the image density information. In order to enable detection in an appropriate state, a binarization threshold value taking into account the correction value α1 is set. Thereafter, in step 203, a one-eye detection process is performed.

【0026】この片眼検出処理は、特願平2−4025
12号に記載したように濃度変化点を検出し、眼球検出
領域を濃度変化点から左側に設定する。それから、この
入力画像をステップ202で設定したしきい値で2値化
する。最後に設定した眼球検索領域内で眼の存在領域を
設定する。この処理は前記特願平2−402512号に
記載の処理と同様で、検索開始点を濃度変化点で眼球検
索領域の端点とすれば、片眼のみの検索も可能である。
This one-eye detection process is performed in the manner described in Japanese Patent Application No. 2-4025.
As described in No. 12, the density change point is detected, and the eyeball detection area is set on the left side of the density change point. Then, the input image is binarized using the threshold value set in step 202. An eye existence area is set in the eyeball search area set last. This processing is the same as the processing described in Japanese Patent Application No. 2-402512, and if only the search start point is the end point of the eyeball search area by the density change point, search for only one eye is possible.

【0027】前記ステップ201のチェックにおいて、
前記差N−Mが所定の画素数P未満であって、左右の画
像の明るさに差がなく、片陽の光環境でないと判定され
た場合には、次に図5および図6に示す処理において正
面陽であるかどうかの判定が行われる。
In the check in step 201,
When it is determined that the difference NM is less than the predetermined number of pixels P, there is no difference between the brightness of the left and right images, and it is determined that the environment is not a positive light environment, then it is shown in FIGS. In the processing, it is determined whether or not the front is positive.

【0028】すなわち、図5および図6の処理は、車両
前方に太陽があり、その高度が高いかまたはサンバイザ
を使用していて、運転者の顔の下半分に光が当たってい
るような光環境を判定するものである。
That is, in the processing of FIGS. 5 and 6, the sun is in front of the vehicle, the altitude is high, or a sun visor is used, and the light shines on the lower half of the driver's face. This is to determine the environment.

【0029】更に詳しくは、図13に示す画像の上半分
の領域の各画素の濃度階調J(x,y)が250よりも
大きいか否かをチェックし、250よりも大きく、非常
に明るい画素の数を計数する上述したと同様の処理を行
うものであり、このために明画素カウンタNを設定し、
該明画素カウンタNを0にリセットするとともに、Y=
0を設定し(ステップ301)、更にX=0に設定し
(ステップ302)、これによりX=0〜520、Y=
0〜200の各画素を走査する。この処理は上述した処
理と同様であり、この走査範囲の各画素の濃度階調J
(x,y)が250より大きいか否かがステップ303
でチェックされて、大きい場合には、明画素カウンタN
が+1カウントアップされ(ステップ304)、X=5
20になるまで(ステップ305)、Xが+1インクリ
メントされ(ステップ306)、更にY=200になる
まで(ステップ307)、Yが+1インクリメントされ
る(ステップ308)。
More specifically, it is checked whether or not the density gradation J (x, y) of each pixel in the upper half area of the image shown in FIG. 13 is larger than 250, and it is larger than 250 and very bright. The same processing as described above for counting the number of pixels is performed. For this purpose, a bright pixel counter N is set,
The bright pixel counter N is reset to 0, and Y =
0 (step 301), and further sets X = 0 (step 302), whereby X = 0 to 520, Y =
Each pixel of 0 to 200 is scanned. This processing is similar to the above-described processing, and the density gradation J of each pixel in this scanning range is
Step 303 determines whether (x, y) is greater than 250.
And if it is large, the bright pixel counter N
Is incremented by +1 (step 304), and X = 5
Until 20 (step 305), X is incremented by +1 (step 306), and Y is incremented by +1 (step 308) until Y = 200 (step 307).

【0030】X=0〜520およびY=0〜200の画
像上半分の領域の各画素の濃度階調J(x,y)がチェ
ック完了すると、同様に図13に示す画像の下半分の領
域の各画素の濃度階調J(x,y)が250よりも大き
いか否かをチェックし、250よりも大きく、非常に明
るい画素の数を計数する上述したと同様の処理を行うも
のであり、このために明画素カウンタMを設定し、該明
画素カウンタMを0にリセットするとともに、Y=20
1を設定し(ステップ309)、更にX=0に設定し
(ステップ310)、これによりX=0〜520、Y=
201〜500の各画素を走査する。この処理は上述し
た処理と同様であり、この走査範囲の各画素の濃度階調
J(x,y)が250より大きいか否かがステップ31
1でチェックされて、大きい場合には、明画素カウンタ
Mが+1カウントアップされ(ステップ312)、X=
520になるまで(ステップ313)、Xが+1インク
リメントされ(ステップ314)、更にY=500にな
るまで(ステップ315)、Yが+1インクリメントさ
れる(ステップ316)。
When the density gradation J (x, y) of each pixel in the upper half area of the image of X = 0 to 520 and Y = 0 to 200 is completed, the lower half area of the image shown in FIG. Is checked whether or not the density gradation J (x, y) of each pixel is larger than 250, and the same processing as described above for counting the number of very bright pixels larger than 250 is performed. For this purpose, a bright pixel counter M is set, the bright pixel counter M is reset to 0, and Y = 20.
1 (step 309), and further sets X = 0 (step 310), whereby X = 0 to 520, Y =
Each pixel 201 to 500 is scanned. This processing is the same as the processing described above, and it is determined in step 31 whether or not the density gradation J (x, y) of each pixel in this scanning range is greater than 250.
If it is checked at 1 and it is larger, the bright pixel counter M is incremented by +1 (step 312), and X =
Until 520 (step 313), X is incremented by +1 (step 314), and Y is incremented by +1 (step 316) until Y = 500 (step 315).

【0031】X=0〜520およびY=201〜500
の画像下半分の領域の各画素の濃度階調J(x,y)が
チェック完了すると、図5のステップ315から図6の
ステップ401に進む。
X = 0 to 520 and Y = 201 to 500
When the check of the density gradation J (x, y) of each pixel in the lower half area of the image is completed, the process proceeds from step 315 in FIG. 5 to step 401 in FIG.

【0032】そして、ステップ401では、上述したス
テップ304,312でそれぞれ計数した明画素カウン
タN,Mの計数値N,Mの差(M−N)が所定の画素数
Qより大きいか否かをチェックする。
In step 401, it is determined whether or not the difference (M-N) between the count values N and M of the bright pixel counters N and M counted in steps 304 and 312 is greater than a predetermined number Q of pixels. To check.

【0033】前記差M−Nが所定の画素数Q未満の場合
には、運転者の顔の上下の画像の明るさに差がないと判
定し、飛び越し記号Dで示すように図7以降の処理に進
むが、前記差M−Nが所定の画素数Qより大きい場合に
は、車両前方に太陽があり、その高度が高いかまたはサ
ンバイザを使用して、運転者の顔の下半分に光が当たっ
ているような光環境であると判定し、ステップ402に
進む。
If the difference M−N is less than the predetermined number of pixels Q, it is determined that there is no difference in brightness between the upper and lower images of the driver's face. When the difference M−N is larger than the predetermined number of pixels Q, the sun is in front of the vehicle and the altitude is high or the sun visor is used to light the lower half of the driver's face. It is determined that the light environment is such that the light is applied, and the process proceeds to step 402.

【0034】このステップ402では、画像信号を2値
化処理する場合に、画像の濃度情報から自動的に設定さ
れる2値化しきい値に対して直射日光が当たっていない
運転者の眼を適切な状態で検出できるようにするために
補正値α2を加味した2値化しきい値を設定する。その
後、ステップ403において眼球検出領域が顔画像全面
の両眼検出処理を行う。
In step 402, when the image signal is binarized, the driver's eyes that are not exposed to direct sunlight are appropriately adjusted to the binarization threshold value automatically set from the image density information. In order to enable detection in a proper state, a binarization threshold value taking into account the correction value α2 is set. Thereafter, in step 403, a binocular detection process is performed on the entire face image in the eyeball detection area.

【0035】前記ステップ401のチェックにおいて、
前記差N−Mが所定の画素数Q未満であって、上下の画
像の明るさに差がなく、太陽の高度が高い正面陽や太陽
の高度が低く、サンバイザを使用している光環境でない
と判定された場合には、次に図7に示す処理において太
陽の高度が低い正面陽でサンバイザを使用していない光
環境であるかどうかの判定が行われる。
In the check in step 401,
The difference NM is less than the predetermined number of pixels Q, there is no difference in brightness between the upper and lower images, the front altitude where the altitude of the sun is high or the altitude of the sun is low, and it is not a light environment using the sun visor. If it is determined, the process shown in FIG. 7 then determines whether the light environment is such that the sun altitude is low and the sun visor is not used in the front sun.

【0036】すなわち、図7の処理は、車両前方に太陽
があり、その高度が低く、サンバイザも使用していない
状態で運転者の顔全体に光が当たっているような光環境
を判定するものである。
That is, the processing in FIG. 7 determines a light environment in which the sun is in front of the vehicle, the altitude is low, and the entire driver's face is illuminated with no sun visor. It is.

【0037】更に詳しくは、図14に示す運転者の顔の
画像のうちのほぼ中央部分の領域であるX=160〜3
59およびY=101〜400の範囲の各画素の濃度階
調J(x,y)が250よりも大きいか否かをチェック
し、250よりも大きく、非常に明るい画素の数を計数
する上述したと同様の処理を行うものであり、このため
に明画素カウンタNを設定し、該明画素カウンタNを0
にリセットするとともに、Y=101を設定し(ステッ
プ501)、更にX=160に設定し(ステップ50
2)、これによりX=160〜359、Y=101〜4
00の範囲の各画素を走査する。この処理は上述した処
理と同様であり、この走査範囲の各画素の濃度階調J
(x,y)が250より大きいか否かがステップ503
でチェックされて、大きい場合には、明画素カウンタN
が+1カウントアップされ(ステップ504)、X=3
59になるまで(ステップ505)、Xが+1インクリ
メントされ(ステップ506)、更にY=400になる
まで(ステップ507)、Yが+1インクリメントされ
る(ステップ508)。
More specifically, X = 160 to 3 which is a substantially central area in the driver's face image shown in FIG.
It is checked whether or not the density gradation J (x, y) of each pixel in the range of 59 and Y = 101 to 400 is larger than 250, and the number of pixels that are larger than 250 and very bright is counted. A bright pixel counter N is set, and the bright pixel counter N is set to 0.
And set Y = 101 (step 501), and further set X = 160 (step 50).
2), whereby X = 160-359, Y = 101-4
Each pixel in the range of 00 is scanned. This processing is similar to the above-described processing, and the density gradation J of each pixel in this scanning range is
Step 503 determines whether (x, y) is greater than 250.
And if it is large, the bright pixel counter N
Is incremented by +1 (step 504), and X = 3
Until 59 (Step 505), X is incremented by +1 (Step 506), and Y is incremented by +1 (Step 508) until Y = 400 (Step 507).

【0038】X=160〜359およびY=101〜4
00の領域の各画素の濃度階調J(x,y)がチェック
完了すると、ステップ509において明画素カウンタN
の計数値Nが所定の画素数Rより大きいか否かチェック
される。
X = 160-359 and Y = 101-4
When the check of the density gradation J (x, y) of each pixel in the area of 00 is completed, in step 509, the bright pixel counter N
It is checked whether the count value N is larger than a predetermined number R of pixels.

【0039】前記計数値Nが所定の画素数R未満の場合
には、運転者の顔全体に直射日光が当たっていない状態
と判定し、飛び越し記号Eで示すように図8以降の処理
に進むが、前記計数値Nが所定の画素数Rより大きい場
合には、車両前方に太陽があり、その高度が低く、サン
バイザも使用されておらず、運転者の顔全体に光が当た
っているような光環境であると判定し、ステップ510
に進む。
If the count value N is less than the predetermined number R of pixels, it is determined that the entire face of the driver is not exposed to direct sunlight, and the process proceeds to the processes shown in FIG. However, when the count value N is larger than the predetermined number R of pixels, the sun is ahead of the vehicle, the altitude is low, the sun visor is not used, and the entire face of the driver is illuminated. It is determined that the lighting environment is
Proceed to.

【0040】このステップ512では、画像信号を2値
化処理する場合に、画像の濃度情報から自動的に設定さ
れる2値化しきい値に対して直射日光が当たっている運
転者の眼を適切な状態で検出できるようにするために補
正値α3を加味した2値化しきい値を設定する。その
後、ステップ511において眼球検出領域が顔画像全面
の両眼検出処理を行う。
In this step 512, when the image signal is subjected to the binarization processing, the driver's eyes exposed to direct sunlight are appropriately adjusted to the binarization threshold value automatically set from the image density information. In order to enable detection in a proper state, a binarization threshold value taking into account the correction value α3 is set. Thereafter, in step 511, a binocular detection process is performed on the entire face image in the eyeball detection area.

【0041】前記ステップ509のチェックにおいて、
前記計数値Nが所定の画素数R未満であって、太陽の高
度が低い正面陽でない光環境と判定された場合には、次
に図8〜図10の処理において車両後方に太陽があり、
逆光となるような光環境かどうかの判定を行う。
In the check in step 509,
If the count value N is less than the predetermined number of pixels R and it is determined that the light environment is low and the altitude of the sun is low, the sun is behind the vehicle in the processing of FIGS.
A determination is made as to whether or not the light environment causes backlight.

【0042】すなわち、図8〜図10の処理は車両後方
に太陽があって、逆光となり、運転者の顔が影になるよ
うな光環境を判定するものである。
That is, the processes in FIGS. 8 to 10 are for judging a light environment in which the sun is behind the vehicle, the light is backlit, and the driver's face is shadowed.

【0043】更に詳しくは、図15に示す画像において
顔の周りを下向きの凹字状に囲む領域の各画素の濃度階
調J(x,y)が250よりも大きいか否かをチェック
し、250よりも大きく、非常に明るい画素の数を明画
素カウンタNで計数するとともに、前記下向きの凹字状
の内部の領域の各画素の濃度階調J(x,y)が250
よりも大きいか否かをチェックし、250よりも大き
く、非常に明るい画素の数を明画素カウンタMで計数
し、両明画素カウンタの計数値から前記光環境、すなわ
ち車両後方に太陽があって、逆光となり、運転者の顔が
影になるような光環境にあるか否かを判定する上述した
と同様の処理を行うものである。
More specifically, in the image shown in FIG. 15, it is checked whether or not the density gradation J (x, y) of each pixel in a region surrounding the face in a downward concave shape is larger than 250. The number of very bright pixels larger than 250 is counted by the bright pixel counter N, and the density gradation J (x, y) of each pixel in the downward concave internal region is 250.
The number of very bright pixels larger than 250 is counted by the bright pixel counter M. From the count values of both bright pixel counters, the light environment, that is, when the sun is behind the vehicle, , And performs the same processing as described above to determine whether or not there is a light environment in which the face of the driver is shadowed.

【0044】このためにまず明画素カウンタNを0にリ
セットするとともに、Y=0を設定し(ステップ60
1)、更にX=0に設定し(ステップ602)、これに
よりX=0〜159、Y=0〜500の範囲の各画素を
走査する。この処理は上述した処理と同様であり、この
走査範囲の各画素の濃度階調J(x,y)が250より
大きいか否かがステップ603でチェックされて、大き
い場合には、明画素カウンタNが+1カウントアップさ
れ(ステップ604)、X=159になるまで(ステッ
プ605)、Xが+1インクリメントされ(ステップ6
06)、更にY=500になるまで(ステップ60
7)、Yが+1インクリメントされる(ステップ60
8)。
For this purpose, first, the bright pixel counter N is reset to 0, and Y = 0 is set (step 60).
1) Further, X = 0 is set (step 602), whereby each pixel in the range of X = 0 to 159 and Y = 0 to 500 is scanned. This processing is the same as the above-described processing. It is checked in step 603 whether or not the density gradation J (x, y) of each pixel in this scanning range is greater than 250. N is incremented by +1 (step 604), and X is incremented by +1 until X = 159 (step 605) (step 6).
06), and until Y = 500 (step 60).
7), Y is incremented by +1 (step 60)
8).

【0045】X=0〜159およびY=0〜500の画
像左寄りの領域の各画素の濃度階調J(x,y)がチェ
ック完了すると、次のステップ609〜616において
図15に示す画像の上部分の一部、すなわち頭のほぼ中
央の髪の毛の部分の領域の各画素の濃度階調J(x,
y)が250よりも大きいか否かをチェックし、250
よりも大きく、非常に明るい画素の数を前記明画素カウ
ンタNで続けて計数する処理を行うために、まずY=0
を設定し(ステップ609)、更にX=160に設定し
(ステップ610)、これによりX=160〜359、
Y=0〜100の範囲の各画素を走査する。この処理は
上述した処理と同様であり、この走査範囲の各画素の濃
度階調J(x,y)が250より大きいか否かがステッ
プ611でチェックされて、大きい場合には、明画素カ
ウンタNが+1カウントアップされ(ステップ61
2)、X=359になるまで(ステップ613)、Xが
+1インクリメントされ(ステップ614)、更にY=
100になるまで(ステップ615)、Yが+1インク
リメントされる(ステップ616)。
When the check of the density gradation J (x, y) of each pixel in the region on the left side of the image of X = 0 to 159 and Y = 0 to 500 is completed, in the next steps 609 to 616, the image shown in FIG. The density gradation J (x, x) of each pixel in a part of the upper part, that is, the area of the hair part substantially at the center of the head
Check if y) is greater than 250,
In order to perform a process of continuously counting the number of pixels that are larger and very bright by the bright pixel counter N, first, Y = 0
Is set (step 609), and X is set to 160 (step 610), whereby X = 160 to 359,
Each pixel in the range of Y = 0 to 100 is scanned. This processing is the same as the above-described processing. It is checked in step 611 whether or not the density gradation J (x, y) of each pixel in this scanning range is greater than 250. N is incremented by +1 (step 61)
2) Until X = 359 (step 613), X is incremented by +1 (step 614), and Y =
Until the value reaches 100 (step 615), Y is incremented by +1 (step 616).

【0046】X=160〜359およびY=0〜100
の領域の各画素の濃度階調J(x,y)がチェック完了
すると、次に飛び越し記号Fによって図9に進んで、ス
テップ701〜708において図15に示す画像の右寄
りの部分の領域の各画素の濃度階調J(x,y)が25
0よりも大きいか否かをチェックし、250よりも大き
く、非常に明るい画素の数を前記明画素カウンタNで続
けて計数する処理を行う。このためにまずY=0を設定
し(ステップ701)、更にX=360に設定し(ステ
ップ702)、これによりX=360〜520、Y=0
〜500の範囲の各画素を走査する。この処理は上述し
た処理と同様であり、この走査範囲の各画素の濃度階調
J(x,y)が250より大きいか否かがステップ70
3でチェックされて、大きい場合には、明画素カウンタ
Nが+1カウントアップされ(ステップ704)、X=
520になるまで(ステップ705)、Xが+1インク
リメントされ(ステップ706)、更にY=500にな
るまで(ステップ707)、Yが+1インクリメントさ
れる(ステップ708)。
X = 160-359 and Y = 0-100
When the check of the density gradation J (x, y) of each pixel in the region is completed, the process proceeds to FIG. 9 with a jump symbol F. In steps 701 to 708, each of the regions on the right side of the image shown in FIG. Pixel density gradation J (x, y) is 25
It is checked whether or not the number is greater than 0, and the number of very bright pixels greater than 250 is counted by the bright pixel counter N continuously. For this purpose, first, Y = 0 is set (step 701), and further, X is set to 360 (step 702), whereby X = 360 to 520 and Y = 0.
Each pixel in the range of ~ 500 is scanned. This processing is the same as the above-described processing, and it is determined in step 70 whether or not the density gradation J (x, y) of each pixel in this scanning range is greater than 250.
If it is checked in step 3 that it is larger, the bright pixel counter N is incremented by 1 (step 704), and X =
Until 520 (step 705), X is incremented by +1 (step 706), and Y is incremented by +1 (step 708) until Y = 500 (step 707).

【0047】X=360〜520およびY=0〜500
の画像の右寄りの部分の領域の各画素の濃度階調J
(x,y)がチェック完了すると、同様に図15に示す
画像の前述した下向きの凹字状の内部の領域の各画素の
濃度階調J(x,y)が250よりも大きいか否かをチ
ェックし、250よりも大きく、非常に明るい画素の数
を計数する上述したと同様の処理を行うものであり、こ
のために明画素カウンタMを設定し、該明画素カウンタ
Mを0にリセットするとともに、Y=101を設定し
(ステップ709)、更にX=160に設定し(ステッ
プ710)、これによりX=160〜359、Y=10
1〜500の範囲の各画素を走査する。この処理は上述
した処理と同様であり、この走査範囲の各画素の濃度階
調J(x,y)が250より大きいか否かがステップ7
11でチェックされて、大きい場合には、明画素カウン
タMが+1カウントアップされ(ステップ712)、X
=359になるまで(ステップ713)、Xが+1イン
クリメントされ(ステップ714)、更にY=500に
なるまで(ステップ715)、Yが+1インクリメント
される(ステップ716)。
X = 360-520 and Y = 0-500
Density gradation J of each pixel in the area on the right side of the image of FIG.
When the check of (x, y) is completed, similarly, it is determined whether or not the density gradation J (x, y) of each pixel in the above-mentioned downward concave inner region of the image shown in FIG. Is checked, and the same processing as described above for counting the number of very bright pixels larger than 250 is performed. For this purpose, the bright pixel counter M is set, and the bright pixel counter M is reset to 0. At the same time, Y = 101 is set (step 709), and further, X is set to 160 (step 710), whereby X = 160 to 359 and Y = 10
Each pixel in the range of 1 to 500 is scanned. This processing is the same as the processing described above, and it is determined whether or not the density gradation J (x, y) of each pixel in this scanning range is greater than 250 (step 7).
If it is checked in step 11 that it is larger, the bright pixel counter M is incremented by +1 (step 712), and X
X is incremented by +1 (step 714) until Y = 359 (step 713), and Y is incremented by +1 (step 716) until Y = 500 (step 715).

【0048】X=160〜359およびY=101〜5
00の画像の下向きの凹字状の内部の領域の各画素の濃
度階調J(x,y)がチェック完了すると、図9のステ
ップ715から図10のステップ801に進む。
X = 160-359 and Y = 101-5
When the check of the density gradation J (x, y) of each pixel in the downward concave inner region of the image 00 is completed, the process proceeds from step 715 in FIG. 9 to step 801 in FIG.

【0049】そして、ステップ801では、上述したス
テップ601〜708およびステップ709〜716で
それぞれ計数した明画素カウンタN,Mの計数値N,M
の差(N−M)が所定の画素数Sより大きいか否かをチ
ェックする。
In step 801, the count values N and M of the bright pixel counters N and M counted in steps 601 to 708 and steps 709 to 716 described above, respectively.
It is checked whether or not the difference (N−M) is larger than a predetermined number S of pixels.

【0050】前記差N−Mが所定の画素数S未満の場合
には、背景と運転者の顔面部の画像の明るさに差がない
と判定し、飛び越し記号Hで示すように図11の処理に
進むが、前記差N−Mが所定の画素数Sより大きい場合
には、車両後方に太陽があり、逆光で運転者の顔は影に
なっているような光環境であると判定し、ステップ80
2に進む。
If the difference NM is less than the predetermined number of pixels S, it is determined that there is no difference between the brightness of the background and the image of the face of the driver, and as shown by the jump symbol H in FIG. When the difference NM is larger than the predetermined number of pixels S, the process is determined to be in a light environment in which the sun is behind the vehicle and the face of the driver is shaded by the backlight. , Step 80
Proceed to 2.

【0051】このステップ802では、画像信号を2値
化処理する場合に、画像の濃度情報から自動的に設定さ
れる2値化しきい値に対して影となる運転者の眼を適切
な状態で検出できるようにするために補正値α4を加味
した2値化しきい値を設定する。その後、ステップ80
3において眼球検出領域が顔画像全面の両眼検出処理を
行う。
In step 802, when the image signal is binarized, the driver's eyes, which are shadowed by the binarization threshold value automatically set from the image density information, are kept in an appropriate state. In order to enable detection, a binarization threshold value taking into account the correction value α4 is set. Then, step 80
In step 3, the eyeball detection area performs a binocular detection process on the entire face image.

【0052】前記ステップ801のチェックにおいて、
前記差N−Mが所定の画素数S未満であって、背景と顔
面部の明るさに差がなく、逆光となるような光環境でな
いと判定された場合には、次に図11に示す処理に進ん
で、十分な明るさが保たれている光環境であるかどうか
の判定が行われる。
In the check of the step 801,
If it is determined that the difference NM is less than the predetermined number S of pixels and there is no difference between the brightness of the background and the face, and the light environment is not backlighting, then it is shown in FIG. Proceeding to the processing, it is determined whether or not the light environment has sufficient brightness.

【0053】すなわち、図11の処理は、十分な明るさ
が保たれている光環境を判定するものであり、まず図1
5に示す運転者の顔の画像のうちのほぼ中央部分の顔面
領域であるX=160〜359およびY=101〜40
0の範囲の各画素の濃度階調J(x,y)が中間階調の
明画素である150よりも大きいか否かをチェックし、
150よりも大きく、明るい画素の数を計数する上述し
たと同様の処理を行うものであり、このために中間階調
用の明画素カウンタNを設定し、該明画素カウンタNを
0にリセットするとともに、Y=101を設定し(ステ
ップ901)、更にX=160に設定し(ステップ90
2)、これによりX=160〜359、Y=101〜5
00の範囲の各画素を走査する。この処理は上述した処
理と同様であり、この走査範囲の各画素の濃度階調J
(x,y)が150より大きいか否かがステップ903
でチェックされて、大きい場合には、明画素カウンタN
が+1カウントアップされ(ステップ904)、X=3
59になるまで(ステップ905)、Xが+1インクリ
メントされ(ステップ906)、更にY=500になる
まで(ステップ907)、Yが+1インクリメントされ
る(ステップ908)。
That is, the processing in FIG. 11 is for determining a light environment in which sufficient brightness is maintained.
X = 160 to 359 and Y = 101 to 40, which are the substantially central face areas in the driver's face image shown in FIG.
It is checked whether or not the density gradation J (x, y) of each pixel in the range of 0 is larger than 150 which is a bright pixel of the intermediate gradation.
The same processing as described above for counting the number of bright pixels larger than 150 is performed. For this purpose, a bright pixel counter N for an intermediate gradation is set, and the bright pixel counter N is reset to 0. , Y = 101 (step 901), and further set X = 160 (step 90).
2), whereby X = 160-359, Y = 101-5
Each pixel in the range of 00 is scanned. This processing is similar to the above-described processing, and the density gradation J of each pixel in this scanning range is
Step 903 determines whether (x, y) is greater than 150.
And if it is large, the bright pixel counter N
Is incremented by +1 (step 904), and X = 3
Until 59 (Step 905), X is incremented by +1 (Step 906), and Y is incremented by +1 until Y = 500 (Step 907).

【0054】X=160〜359およびY=101〜5
00の領域の各画素の濃度階調J(x,y)がチェック
完了すると、ステップ909において明画素カウンタN
の計数値Nが所定の画素数Tより大きいか否かチェック
される。
X = 160-359 and Y = 101-5
When the check of the density gradation J (x, y) of each pixel in the area of 00 is completed, in step 909, the bright pixel counter N
It is checked whether the count value N is larger than a predetermined number T of pixels.

【0055】前記計数値Nが所定の画素数Tより大きい
場合には、十分な明るさが保たれている状態と判定し、
ステップ910で眼球検出領域が顔画像全面の両眼検出
処理を行い、処理を終了する。また、前記計数値Nが所
定の画素数T未満の場合には、運転者の十分な明るさが
保たれていない光環境と判定し、ステップ911に進
む。このステップ911では、画像信号を2値化処理す
る場合に、画像の濃度情報から自動的に設定される2値
化しきい値に対して全体的に暗い運転者の顔から眼を適
切な状態で検出できるようにするために補正値α5を加
味した2値化しきい値を設定する。その後、ステップ9
12において眼球検出領域が顔画像全面の両眼検出処理
を行い、処理を終了する。
If the count value N is larger than the predetermined number of pixels T, it is determined that sufficient brightness is maintained.
In step 910, the binocular detection processing is performed on the entire face image in the eyeball detection area, and the processing ends. If the count value N is less than the predetermined number of pixels T, it is determined that the light environment does not maintain sufficient brightness of the driver, and the process proceeds to step 911. In this step 911, when the image signal is subjected to the binarization processing, the eyes of the driver from the face which is entirely dark with respect to the binarization threshold value which is automatically set from the density information of the image are appropriately adjusted. In order to enable detection, a binarization threshold value taking into account the correction value α5 is set. Then, step 9
In step 12, the eyeball detection region performs the binocular detection process on the entire face image, and the process ends.

【0056】図16は、本発明の他の実施例に係わる眼
位置検出装置の作用を示すフローチャートである。
FIG. 16 is a flowchart showing the operation of the eye position detecting apparatus according to another embodiment of the present invention.

【0057】図16に示す実施例は、運転者の顔部分を
撮像した画像の濃度情報を上述した図1〜図15で説明
したと同様な各光環境に従ってパターン化した基準パタ
ーンを複数用意しておき、撮像した画像がどの基準パタ
ーンに該当するかを判定し、この判定された基準パター
ンに従って光環境を推定し、2値化補正および眼球位置
検索方法を決定するものである。
In the embodiment shown in FIG. 16, a plurality of reference patterns are prepared by patterning the density information of the image obtained by capturing the driver's face in accordance with each light environment as described with reference to FIGS. In advance, it is determined which reference pattern the captured image corresponds to, the light environment is estimated according to the determined reference pattern, and the binarization correction and the eyeball position search method are determined.

【0058】すなわち、図16においては、まず全画像
領域を図17に示すように予め設定
That is, in FIG. 16, first, the entire image area is set in advance as shown in FIG.

【外1】された領域〜に分割して、各領域の濃度情
報を求め、その濃度情報が予め設定されているどの基準
パターンに該当するかを判定する(ステップ140
1)。
The density information of each area is obtained by dividing into the divided areas and it is determined to which preset reference pattern the density information corresponds (step 140).
1).

【0059】図18(a)〜(f)は、一例として6種
類の基準パターンを示しているもの
FIGS. 18A to 18F show six types of reference patterns as an example.

【外2】であるが、前記領域〜の各々における濃度
情報、例えば濃度階調J(x,y)が250を越える画
素数が多いか少ないかを示すマップで6種類の基準パタ
ーンを作成している。そして、前記ステップ1401で
は、画像の濃度情報がこの6種類の基準パターンのうち
のどれに該当するかを判定している。
However, six types of reference patterns are created using a map indicating whether the number of pixels whose density gradation J (x, y) exceeds 250 is large or small, for example, in each of the above areas (1) to (4). ing. In step 1401, it is determined which of the six types of reference patterns the image density information corresponds to.

【0060】該当する基準パターンが判定されると、こ
の基準パターンから車室内の光環境状態を推定し、これ
により2値化補正値および眼球位置検索方法を決定する
(ステップ1402)。それから、全画像を対象とした
自動2値化により設定されるしきい値に対して前記基準
パターンにより決定された値で補正後2値化処理を行う
(ステップ1403)。そして、最後に前記ステップ1
402で決定された眼球位置検索方法で眼球の検索を行
う(ステップ1404)。
When the corresponding reference pattern is determined, the light environment state in the vehicle cabin is estimated from the reference pattern, and the binarization correction value and the eyeball position search method are determined (step 1402). Then, after the correction, the threshold value set by the automatic binarization for all the images is subjected to the binarization process after the correction using the value determined by the reference pattern (step 1403). And finally, step 1
An eyeball is searched by the eyeball position search method determined in 402 (step 1404).

【0061】図19(イ)〜(ホ)は、上述した主な複
数の光環境条件とこの光環境条件に対する2値化しきい
値の補正方法の関係をわかり易く示した説明図である。
FIGS. 19A to 19E are explanatory diagrams showing the relationship between the above-described plurality of main light environment conditions and the method of correcting the binarization threshold value for the light environment conditions in an easy-to-understand manner.

【0062】まず、図19(イ)は、晴天時において太
陽の位置が車両前方にあり、太陽の高さが高い場合
(a)と低い場合(b)の光環境である。なお、同図に
おいて、ハッチングを施した部分は日影である。
First, FIG. 19A shows the light environment when the position of the sun is ahead of the vehicle in fine weather and the height of the sun is high (a) and when the sun is low (b). In the figure, the hatched portion is a shade.

【0063】同図(イ)で太陽の高さが高い場合(a)
には、運転者の顎付近に光が当り、眼の部分は日影とな
る。この日影にある眼の部分の抽出を行うに当り、光の
当たっていない部分の影響で自動2値化によるしきい値
が大きく設定されてしまうため、影の部分で黒画素と判
断する領域が大きくなり、影と眼の部分の識別が不適切
となる。従って、このような光環境条件下では、自動2
値化のしきい値に対して、しきい値を小さく補正する必
要がある。
In the case where the height of the sun is high in FIG.
In this case, light hits the vicinity of the driver's chin, and the eyes are shaded. In extracting the eye part in the shade, the threshold value by the automatic binarization is set to be large due to the influence of the part not illuminated. Becomes large, and the identification of the shadow and the eye portion becomes inappropriate. Therefore, under such light environment conditions, automatic 2
It is necessary to correct the threshold value to a smaller value than the threshold value for binarization.

【0064】同図(イ)で太陽の高さが低い場合(b)
には、運転者の顔全体に光が当たる。すなわち、眼に直
接光が当り、現画像の状態で眼の部分が潰れてしまい、
白っぽくなる。また、自動2値化のしきい値は光の当た
っていない背景の部分の影響で眼が抽出できるだけ大き
な値とならないため、眼が消えてしまう。従って、この
ような光環境条件下では、自動2値化のしきい値に対し
て、しきい値を大きく補正する必要がある。
In the case where the height of the sun is low in FIG.
Illuminates the entire driver's face. In other words, the light directly hits the eye, and the part of the eye is crushed in the state of the current image,
It becomes whitish. Further, the threshold value of the automatic binarization does not become as large as possible to extract the eyes due to the influence of the background portion which is not illuminated, so that the eyes disappear. Therefore, under such light environment conditions, the threshold value needs to be largely corrected with respect to the threshold value of automatic binarization.

【0065】また、同図(ロ)は、晴天時において太陽
の位置が車両後方にあり、太陽の高さが高い場合(a)
と低い場合(b)の光環境である。
FIG. 9B shows a case where the sun is positioned behind the vehicle and the height of the sun is high in fine weather (a).
(B) is the light environment.

【0066】同図(ロ)で太陽の高さが高い場合(a)
および低い場合(b)とも、運転者の背景が明るくな
り、顔全体は影となる。背景が明るくなることにより、
その影響で2値化しきい値が大きく設定されてしまうた
め、影となる顔面部で黒画素と判断される領域が大きく
なり、影と眼の識別が不適切となる。従って、このよう
な光環境条件下では、自動2値化のしきい値に対して、
しきい値を小さく補正する必要がある。
(B) In the case where the height of the sun is high in FIG.
In both cases (b), the driver's background becomes bright and the entire face becomes a shadow. By brightening the background,
As a result, the binarization threshold value is set to a large value. Therefore, the area of the face portion that is to be a shadow is determined to be a black pixel, and the discrimination between the shadow and the eye becomes inappropriate. Therefore, under such light environment conditions, the threshold for automatic binarization is
The threshold value needs to be corrected smaller.

【0067】更に、同図(ハ)は、晴天時において太陽
の位置が運転席側にあり、太陽の高さが高い場合(a)
と低い場合(b)の光環境である。
FIG. 3C shows a case where the sun is on the driver's seat side and the height of the sun is high in fine weather (a).
(B) is the light environment.

【0068】同図(ハ)で太陽の高さが高い場合(a)
および低い場合(b)とも、運転者の顔面の右半分に光
が当り、右側の眼は光により現画像で潰れぎみとなるの
で、両眼の抽出は困難である。従って、車両内側の日影
にある眼の部分の抽出を行うのに、光の当たっている部
分の影響で自動2値化によるしきい値が大きく設定され
てしまうため、影の部分で黒画素と判断する領域が大き
くなり、影と眼の部分の識別が不適切となる。従って、
このような光環境条件では、自動2値化のしきい値に対
して、しきい値を小さく補正する必要がある。
In the case where the height of the sun is high in FIG.
In both cases (b), light strikes the right half of the driver's face, and the right eye is crushed by the light in the current image, so that it is difficult to extract both eyes. Therefore, in order to extract the part of the eye in the shade inside the vehicle, the threshold value by the automatic binarization is set to be large due to the influence of the part that is illuminated. Becomes large, and the identification of the shadow and the eye part becomes inappropriate. Therefore,
Under such light environment conditions, the threshold value needs to be corrected to be smaller than the threshold value of the automatic binarization.

【0069】また更に、同図(ニ)は、晴天時において
太陽の位置が助手席にあり、太陽の高さが高い場合
(a)と低い場合(b)の光環境である。
FIG. 9D shows the light environment when the sun is in the passenger seat in fine weather and the height of the sun is high (a) and low (b).

【0070】同図(ニ)で太陽の高さが高い場合(a)
および低い場合(b)とも、運転者の顔全面は日影とな
るが、均一に比較的明るいので、自動2値化によるしき
い値の設定で適切な2値化画像となり、しきい値の変更
は不要である。
In the case where the height of the sun is high in FIG.
In both cases (b) and (b), the entire face of the driver is shaded, but since it is uniformly and relatively bright, an appropriate binarized image is obtained by setting the threshold by automatic binarization. No changes are required.

【0071】更に、同図(ホ)は、曇天時における光環
境である。この場合には、助手席側に太陽がある場合の
条件に近いが、画面全体が暗く、光量不足のため、コン
トラストの弱い画像データとなる。また、顔面部が背景
に対して暗くなるため、顔の部分で黒画素と判断する領
域が大きくなり、影と眼の部分の識別が不適切となる。
従って、このような光環境条件では、自動2値化のしき
い値に対して、しきい値を小さく補正する必要がある。
FIG. 9E shows the light environment when the weather is cloudy. In this case, although the condition is close to the condition when the sun is on the passenger seat side, the image data is low in contrast because the entire screen is dark and the amount of light is insufficient. In addition, since the face part is darker than the background, the area of the face part that is determined as a black pixel increases, and the identification of the shadow and the eye part becomes inappropriate.
Therefore, under such light environment conditions, the threshold value needs to be corrected to be smaller than the threshold value of the automatic binarization.

【0072】[0072]

【発明の効果】以上説明したように、本発明によれば、
少なくとも、眼を含む顔画像の少なくとも一部分を複数
の第2所定領域に分割し、該第2所定領域の各々におい
て所定値以上の濃度情報を有する単位画素数を測定し、
この測定値に基づいて各第2所定領域毎にしきい値を補
正し、この補正されたしきい値によって入力画像の単位
画素毎の濃度情報を2値化し、この2値化情報から眼の
存在領域を特定するので、走行中の車両において外光条
件が複雑に変化する場合でも、正確に眼球位置を検出す
ることができる。
As described above, according to the present invention,
At least, at least a part of the face image including the eyes is divided into a plurality of second predetermined regions, and the number of unit pixels having density information equal to or higher than a predetermined value is measured in each of the second predetermined regions,
The threshold value is corrected for each second predetermined area based on the measured value, and the density information for each unit pixel of the input image is binarized based on the corrected threshold value. Since the region is specified, the position of the eyeball can be accurately detected even when the external light condition changes complicatedly in the running vehicle.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明のクレーム対応図である。FIG. 1 is a diagram corresponding to claims of the present invention.

【図2】本発明の一実施例に係わる眼位置検出装置の構
成を示すブロック図である。
FIG. 2 is a block diagram illustrating a configuration of an eye position detection device according to an embodiment of the present invention.

【図3】図2に示す眼位置検出装置の作用を示すフロー
チャートである。
FIG. 3 is a flowchart showing an operation of the eye position detecting device shown in FIG.

【図4】図2に示す眼位置検出装置の作用を示すフロー
チャートである。
FIG. 4 is a flowchart showing an operation of the eye position detection device shown in FIG.

【図5】図2に示す眼位置検出装置の作用を示すフロー
チャートである。
FIG. 5 is a flowchart showing the operation of the eye position detecting device shown in FIG.

【図6】図2に示す眼位置検出装置の作用を示すフロー
チャートである。
6 is a flowchart showing the operation of the eye position detecting device shown in FIG.

【図7】図2に示す眼位置検出装置の作用を示すフロー
チャートである。
FIG. 7 is a flowchart showing the operation of the eye position detecting device shown in FIG.

【図8】図2に示す眼位置検出装置の作用を示すフロー
チャートである。
8 is a flowchart showing the operation of the eye position detecting device shown in FIG.

【図9】図2に示す眼位置検出装置の作用を示すフロー
チャートである。
FIG. 9 is a flowchart showing the operation of the eye position detecting device shown in FIG.

【図10】図2に示す眼位置検出装置の作用を示すフロ
ーチャートである。
FIG. 10 is a flowchart showing the operation of the eye position detection device shown in FIG.

【図11】図2に示す眼位置検出装置の作用を示すフロ
ーチャートである。
11 is a flowchart showing the operation of the eye position detecting device shown in FIG.

【図12】図2に示す眼位置検出装置の作用を説明する
のに使用される画像と座標系を示す説明図である。
FIG. 12 is an explanatory diagram showing an image and a coordinate system used for explaining the operation of the eye position detecting device shown in FIG. 2;

【図13】図2に示す眼位置検出装置の作用を説明する
のに使用される画像と座標系を示す説明図である。
FIG. 13 is an explanatory diagram showing an image and a coordinate system used for explaining the operation of the eye position detecting device shown in FIG. 2;

【図14】図2に示す眼位置検出装置の作用を説明する
のに使用される画像と座標系を示す説明図である。
FIG. 14 is an explanatory diagram showing an image and a coordinate system used for explaining the operation of the eye position detecting device shown in FIG. 2;

【図15】図2に示す眼位置検出装置の作用を説明する
のに使用される画像と座標系を示す説明図である。
FIG. 15 is an explanatory diagram showing an image and a coordinate system used for explaining the operation of the eye position detecting device shown in FIG. 2;

【図16】本発明の他の実施例に係わる眼位置検出装置
の作用を示すフローチャートである。
FIG. 16 is a flowchart illustrating an operation of an eye position detection device according to another embodiment of the present invention.

【図17】図16に示す眼位置検出装置の作用を説明す
るのに使用される画像、座標系および複数の分割領域を
示す説明図である。
FIG. 17 is an explanatory diagram showing an image, a coordinate system, and a plurality of divided regions used for explaining the operation of the eye position detecting device shown in FIG.

【図18】図16に示す眼位置検出装置に使用される基
準パターンを示す図である。
18 is a diagram showing a reference pattern used in the eye position detecting device shown in FIG.

【図19】主な複数の光環境条件とこの光環境条件に対
する2値化しきい値の補正方法の関係をわかり易く示し
た説明図である。
FIG. 19 is an explanatory diagram showing a relationship between a plurality of main light environment conditions and a method of correcting a binarization threshold value with respect to the light environment conditions for easy understanding.

【符号の説明】[Explanation of symbols]

1 CCDカメラ 3 A−D変換器 5 画像メモリ 7 画像処理回路 9 眼存在領域特定部 Reference Signs List 1 CCD camera 3 A / D converter 5 Image memory 7 Image processing circuit 9 Eye existence area specifying unit

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 少なくとも、眼を含む顔画像を複数の単
位画素からなる第1所定領域とするとともに、この第1
所定領域の単位画素毎に濃度情報を入力する画像入力手
段と、 前記第1所定領域の少なくとも一部分を複数の第2所定
領域に分割し、該第2所定領域の各々において所定値以
上の濃度情報を有する単位画素数を測定する領域測定手
段と、 該領域測定手段による測定値に基づいて前記複数の第2
所定領域の各領域毎にしきい値を補正する補正手段と、 該補正手段によって補正されたしきい値によって前記画
像入力手段により入力された単位画素毎の濃度情報を2
値化する2値化手段と、 該2値化手段によって2値化された情報から眼の存在領
域を特定する眼存在領域特定手段とを有することを特徴
とする眼位置検出装置。
At least a face image including an eye is defined as a first predetermined area including a plurality of unit pixels, and the first predetermined area includes a plurality of unit pixels.
Image input means for inputting density information for each unit pixel of the predetermined area; at least a part of the first predetermined area is divided into a plurality of second predetermined areas, and density information having a predetermined value or more in each of the second predetermined areas. Area measuring means for measuring the number of unit pixels having the following formula:
Correction means for correcting a threshold value for each area of the predetermined area; density information for each unit pixel input by the image input means based on the threshold value corrected by the correction means;
An eye position detecting device comprising: a binarizing unit for converting a value; and an eye existing region specifying unit for specifying an eye existing region from information binarized by the binarizing unit.
【請求項2】 前記領域測定手段は、前記第2所定領域
の各々において所定値以上の濃度情報を有する単位画素
数が第1の所定数以下のとき、前記第1所定領域の少な
くとも一部を前記第2所定領域と異なる複数の第3所定
領域に分割し、該第3所定領域の各々において所定値以
上の濃度情報を有する単位画素数を測定する手段を有
し、 前記補正手段は、前記第3所定領域の各々において所定
値以上の濃度情報を有する単位画素数が所定数以のと
き、前記複数の第3所定領域の各々毎に前記しきい値を
補正する手段を有することを特徴とする請求項1記載の
眼位置検出装置。
2. The method according to claim 1, wherein when the number of unit pixels having density information equal to or more than a predetermined value in each of the second predetermined areas is equal to or less than a first predetermined number, at least a part of the first predetermined area is determined. Dividing the image into a plurality of third predetermined areas different from the second predetermined area, and measuring the number of unit pixels having density information equal to or more than a predetermined value in each of the third predetermined areas; the third time unit number of pixels having density information of a predetermined value or more in each of the predetermined regions under the predetermined number or less, characterized in that it has means for correcting the threshold value for each of each of the plurality of third predetermined region The eye position detecting device according to claim 1, wherein
JP04153531A 1992-06-12 1992-06-12 Eye position detector Expired - Fee Related JP3111645B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04153531A JP3111645B2 (en) 1992-06-12 1992-06-12 Eye position detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04153531A JP3111645B2 (en) 1992-06-12 1992-06-12 Eye position detector

Publications (2)

Publication Number Publication Date
JPH05340720A JPH05340720A (en) 1993-12-21
JP3111645B2 true JP3111645B2 (en) 2000-11-27

Family

ID=15564564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04153531A Expired - Fee Related JP3111645B2 (en) 1992-06-12 1992-06-12 Eye position detector

Country Status (1)

Country Link
JP (1) JP3111645B2 (en)

Also Published As

Publication number Publication date
JPH05340720A (en) 1993-12-21

Similar Documents

Publication Publication Date Title
US7784943B2 (en) Eyelid detecting apparatus, eyelid detecting method and program thereof
JP2522859B2 (en) Eye position detection device
US6590521B1 (en) Object recognition system
WO2017028587A1 (en) Vehicle monitoring method and apparatus, processor, and image acquisition device
JP4035910B2 (en) Car color discrimination device
US6718050B1 (en) Face-image processing apparatus
US20110019912A1 (en) Detecting And Correcting Peteye
JPH06203154A (en) Image processor
EP2723060A1 (en) Vehicle-mounted camera device
CN109886205B (en) Real-time safety belt monitoring method and system
JP2016196233A (en) Road sign recognizing device for vehicle
CN110334601A (en) A kind of speed(-)limit sign board recognition methods of combination machine learning and computer vision
CN111046741A (en) Method and device for identifying lane line
CN107886033A (en) Identify the method, apparatus and vehicle of circular traffic lights
CN104156703A (en) License plate location method and system based on color texture
JP5338762B2 (en) White balance coefficient calculation device and program
CN113673614A (en) Machine vision-based subway tunnel foreign matter intrusion detection device and method
JP3111645B2 (en) Eye position detector
JP2836238B2 (en) Driving car eye position detection device and state detection device
CN201440274U (en) Target detection equipment and image acquisition device used by same
JP2705388B2 (en) Driver's eye position detection device
JPH11306348A (en) Method and device for object detection
JPH1166490A (en) Vehicle detecting method
JP2007257242A (en) White line recognition device
KR101954404B1 (en) CCTV System and Method for improving Recognition of Car Number by Using dynamic Thresholds

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees