JPH06344801A - Monitor of driver's eyes on vehicle - Google Patents

Monitor of driver's eyes on vehicle

Info

Publication number
JPH06344801A
JPH06344801A JP14215093A JP14215093A JPH06344801A JP H06344801 A JPH06344801 A JP H06344801A JP 14215093 A JP14215093 A JP 14215093A JP 14215093 A JP14215093 A JP 14215093A JP H06344801 A JPH06344801 A JP H06344801A
Authority
JP
Japan
Prior art keywords
interest
eye
point
image
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP14215093A
Other languages
Japanese (ja)
Inventor
Katsuo Suzuki
木 勝 雄 鈴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP14215093A priority Critical patent/JPH06344801A/en
Publication of JPH06344801A publication Critical patent/JPH06344801A/en
Pending legal-status Critical Current

Links

Landscapes

  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

PURPOSE:To call a driver's attention to napping, looking away, etc., by photographing the driver on a vehicle by a two-dimensional camera and processing the photographed image by an image information processor and detecting the eyes' position by an inspective means and energizing an alrm means when the eyes' position is getting out of a specified area on the photographed image. CONSTITUTION:A CCD camera 3 transmits its image signals to a microprocessor 6 through an interface 16. When the microprocessor 6 reads one frame of image data, it writes it on a frame memory (RAM) 12. The microprocessor 6 is connected to another microprocessor 8 in order to run operation for various image processings and judging thereof. And components such as ROM 9, RAM 10, bus controller 15 and frame memory 12 are connected therewith. The microprocessor 6 judges attention marks and inspects them every time when respective frames are written in the memory 12. When these exceed an allowable value, a buzzer 5 is turned on.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、車両上ドライバ(運転
者)を2次元撮像装置で撮影し、撮影画面の画像処理に
より眼位置を検出し追跡する監視装置に関し、特に、こ
れに限定する意図ではないが、車両上ドライバの居眠り
検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a surveillance device for photographing a driver (driver) on a vehicle with a two-dimensional image pickup device, and detecting and tracking an eye position by image processing of a photographed screen, and particularly to this. Although not intended, the present invention relates to a drowsiness detection device for a driver on a vehicle.

【0002】[0002]

【従来の技術】特公平4−284号公報には、車両上ド
ライバ(運転者)の顔をカメラで撮影し、撮影画像上に
おいて目および口を認識し追跡して、目の開度(開,
閉)を算出し、開度に基づいて目を閉じているか否かを
判定する。ドライバの顔部を照明する照明灯の明るさ
は、画像デ−タに基づいて目および口を認識するのに最
適に調整される。画像データはフレームメモリに格納さ
れると共に、2値化される。2値データに基づいてドラ
イバの目および口が検出される。目の閉じ時間が長い
と、ドライバが居眠りをしていると見なして警報が発っ
せられる。
In Japanese Patent Publication No. 4-284, a face of a vehicle driver (driver) is photographed by a camera, and the eyes and mouth are recognized and tracked on the photographed image to determine the degree of opening of the eye (opening). ,
Closed) is calculated, and it is determined whether or not the eyes are closed based on the opening degree. The brightness of the lamp that illuminates the driver's face is optimally adjusted to recognize the eyes and mouth based on the image data. The image data is stored in the frame memory and binarized. The driver's eyes and mouth are detected based on the binary data. If the eyes are closed for too long, the driver is considered dozing and an alarm is issued.

【0003】[0003]

【発明が解決しようとする課題】ところで、ドライバが
車両前方に顔を向けているときにはその眼等が比較的に
正確に検出されるが、居眠り,余所見あるいはその他何
らかの事情でドライバの頭が下がる(顔が下を向く)と
か、横到れになるとか、横向きになると、眼の検出自身
が出来なくなる。あるいは眼でないものを眼と誤検出す
る。
By the way, when the driver is facing the front of the vehicle, his or her eyes or the like can be detected relatively accurately, but the driver's head is lowered due to drowsiness, extraneous points, or some other reason ( When the face is facing down), when the subject is sideways, or when the subject turns sideways, the eyes themselves cannot be detected. Alternatively, a non-eye is erroneously detected as an eye.

【0004】本発明は、この種の、眼認識が不可能な状
態をドライバに警報することを目的とする。
It is an object of the present invention to warn the driver of this type of condition in which eye recognition is not possible.

【0005】[0005]

【課題を解決するための手段】本発明の、車両上ドライ
バの眼を監視する装置は、車両上ドライバを撮影する2
次元撮像手段(3);警報手段(5);2次元撮像手段(3)が
撮影した画像を、前記ドライバの眼位置の検出のために
処理する画像情報処理手段(6,8);該画像情報処理手段
(6,8)が眼位置と決定した位置(m1,n1/m2,n2)が、前記撮
影画面上の、画面面積より小さい所定領域(ECR)の内か
外かを判定し外れているときには前記警報手段(5)を付
勢する検証手段(6,8);および、該検証手段(6,8)が所定
領域内と判定したとき前記2次元撮像手段(3)が繰返し
撮影する画面上における眼位置を追跡する追跡手段(6,
8);を備える。なお、カッコ内の記号等は、図面に示し
後述する実施例の対応要素もしくは対応事項を示す。
The device for monitoring the eyes of a vehicle driver according to the present invention captures an image of the vehicle driver.
Dimensional image pickup means (3); Warning means (5); Image information processing means (6, 8) for processing the image photographed by the two-dimensional image pickup means (3) for detecting the eye position of the driver; Information processing means
The position (m 1 , n 1 / m 2 , n 2 ) determined to be the eye position by (6, 8) is determined whether it is inside or outside a predetermined area (ECR) smaller than the screen area on the photographing screen. Verification means (6, 8) for urging the alarm means (5) when it is disengaged; and the two-dimensional imaging means (3) is repeated when the verification means (6, 8) determines that it is within a predetermined area. Tracking means (6,
8); Symbols in parentheses indicate corresponding elements or corresponding matters in the embodiments shown in the drawings and described later.

【0006】[0006]

【作用】2次元撮像手段(3)が車両上ドライバを撮影
し、画像情報処理手段(6,8)が、撮影画像を処理して眼
位置(m1,n1/m2,n2)を検出するが、検証手段(6,8)が、該
眼位置(m1,n1/m2,n2)が、撮影画面上の、画面面積より
小さい所定領域(ECR)の内か外かを判定し外れていると
きには前記警報手段(5)を付勢する。これにより警報が
発っせられる。該所定領域(ECR)を、はっきりと前方を
視認している(定常状態の)ドライバの眼の、画面上の
画像(眼像)位置に余裕代を加えたものとしておくこと
により、居眠り,余所見あるいはその他何らかの事情で
ドライバの頭が下がる(顔が下を向く)とか、横到れに
なるとか、横向きになるとき又はなったときには、画像
情報処理手段(6,8)が眼とみなした像の位置が、それが
正しく眼像であっても、また別物を眼と誤検出しても、
所定領域(ECR)から外れるので、警報が発っせられる。
この警報はドライバに注意を喚起する。
The two-dimensional image pickup means (3) photographs the driver on the vehicle, and the image information processing means (6, 8) processes the photographed image and the eye position (m 1 , n 1 / m 2 , n 2 ) The verification means (6, 8) detects that the eye position (m 1 , n 1 / m 2 , n 2 ) is inside or outside a predetermined area (ECR) smaller than the screen area on the photographing screen. If it is judged to be wrong, the alarm means (5) is energized. This will trigger an alarm. By setting the predetermined area (ECR) as the position of the image (eye image) on the screen of the driver's eye who is clearly visually recognizing the front (in a steady state), a margin is added, thereby causing a drowsiness Or, when the driver's head goes down (face faces down), becomes oblivious, or turns sideways for some other reason, the image that the image information processing means (6, 8) considers to be an eye. Even if it is the correct eye image or if another object is falsely detected as the eye,
An alarm is issued because it is out of the predetermined area (ECR).
This alert calls the driver's attention.

【0007】本発明の他の目的および特徴は、図面を参
照した以下の実施例の説明より明らかになろう。
Other objects and features of the present invention will become apparent from the following description of embodiments with reference to the drawings.

【0008】[0008]

【実施例】図1に、一実施例の構成を示す。この実施例
は車両上ドライバの顔を撮影して撮像画像中の眼を検出
し、時系列で眼を追跡して、目の開,閉を認識し、所定
時間以上継続して目が閉じられている(居眠り)とブザー
5を付勢するものである。CCDカメラ3およびドライ
バの少なくとも顔部を照明する照明灯4は、図2に示す
ように、一体に構成されてインスツルメントパネル2
に、上下および左右に指向方向を調整自在に固着されて
いる。CCDカメラ3の側面には警報を発生するブザー
5およびブザー5の警報を止めるストップスイッチSS
Wが設けられている。照明灯4は、発光ダイオードから
構成される赤外線照明であり、CCDカメラ3は赤外線
領域における感度を有している。赤外線照明は、普通光
による照明と異なりドライバにまぶしさを与えることが
ないのでドライバの前方視認をむつかしくすることがな
い。したがって照明灯4は常時点灯してもよい。図2に
おいて、符号1は車両の走行方向制御のためドライバが
操作するステアリングホイールである。
EXAMPLE FIG. 1 shows the configuration of an example. In this embodiment, the driver's face on the vehicle is photographed to detect the eyes in the captured image, the eyes are tracked in time series to recognize whether the eyes are open or closed, and the eyes are closed for a predetermined time or longer. When it is sleeping (sleeping), it activates the buzzer 5. As shown in FIG. 2, the CCD camera 3 and the illuminating lamp 4 for illuminating at least the face portion of the driver are integrally configured to form an instrument panel 2.
In addition, it is fixed so that the pointing direction can be adjusted vertically and horizontally. A buzzer 5 for generating an alarm and a stop switch SS for stopping the alarm of the buzzer 5 are provided on the side surface of the CCD camera 3.
W is provided. The illuminating lamp 4 is an infrared illuminator composed of a light emitting diode, and the CCD camera 3 has sensitivity in the infrared region. The infrared illumination does not give glare to the driver, unlike the illumination by ordinary light, and thus does not make the driver's front view difficult. Therefore, the illumination lamp 4 may be constantly turned on. In FIG. 2, reference numeral 1 is a steering wheel operated by a driver for controlling the traveling direction of the vehicle.

【0009】再度図1を参照する。ブザー5はブザーコ
ントローラ19によりオン/オフ付勢される。このブザ
ー5は後述するように、ドライバが目を閉じた状態が所
定時間以上継続すると(居眠りと見なして)付勢され
る。また照明灯4は赤外線ランプコントローラ18によ
り点灯付勢される。ブザーコントローラ19,赤外線ラ
ンプコントローラ18,その他出力(ラジオ,エアコ
ン,ワイパ,ヘッドライト等を制御するコントローラ)
には、マイクロプロセッサ6が、インターフェイス13
を介してオン/オフ指示信号等を与える。
Referring again to FIG. The buzzer 5 is turned on / off by the buzzer controller 19. As will be described later, the buzzer 5 is urged when the driver's eyes are closed for a predetermined time or longer (assuming that the driver is asleep). The illumination lamp 4 is energized by the infrared lamp controller 18. Buzzer controller 19, infrared lamp controller 18, other outputs (controller that controls radio, air conditioner, wiper, headlight, etc.)
Includes a microprocessor 6 and an interface 13
An on / off instruction signal or the like is given via.

【0010】CCDカメラ3は、2次元CCDを備える
ものであり、このCCDカメラ3に、インターフェイス
16を介して、マイクロプロセッサ6が、オン/オフ信
号を与える。CCDカメラ3は、撮影した映像信号(ビ
デオ信号:アナログ)を繰り返してA/Dコンバータ1
7に出力すると共に、画素同期パルスをA/Dコンバー
タ17にA/D変換同期パルスとして与えると共に、フ
レーム同期パルス,ライン同期パルスおよび画素同期パ
ルスをインターフェイス16を介してマイクロプロセッ
サ6に与える。
The CCD camera 3 is provided with a two-dimensional CCD, and the microprocessor 6 gives an ON / OFF signal to the CCD camera 3 via an interface 16. The CCD camera 3 repeats the captured video signal (video signal: analog) to repeat the A / D converter 1
7 and outputs the pixel sync pulse to the A / D converter 17 as an A / D conversion sync pulse, and also applies the frame sync pulse, the line sync pulse and the pixel sync pulse to the microprocessor 6 via the interface 16.

【0011】マイクロプロセッサ6は、画像データの1
フレーム分を読込むときには、フレーム同期パルスに同
期してフレームメモリ(RAM)12に書込みを指示
し、ライン同期パルスおよび画素同期パルスに同期して
フレームメモリ12の書込アドレスを進める。フレーム
メモリ12には、この例ではCCDカメラ3が1画面を
横512画素,縦485画素分割で撮影するので、51
2×485画素分の256階調の画像デ−タを記憶しう
る画像メモリを使用する。
The microprocessor 6 uses 1 of the image data.
When reading a frame, the frame memory (RAM) 12 is instructed to write in synchronization with the frame sync pulse, and the write address of the frame memory 12 is advanced in synchronization with the line sync pulse and the pixel sync pulse. In the frame memory 12, in this example, the CCD camera 3 captures one screen with 512 horizontal pixels and 485 vertical pixels.
An image memory capable of storing 256-gradation image data for 2 × 485 pixels is used.

【0012】A/Dコンバータ17は、ビデオ信号を8
ビット(256階調)のデジタルデータに変換する。す
なわち、フレームメモリ12に書込まれる画像データ
は、一画素(以下ドット)当り8ビット(256階調)
の、明るさを示すデ−タである。したがってマイクロプ
ロセッサ6はフレームメモリ12の値を読み出すこと
で、画面上の任意の位置の明るさを知ることができる。
The A / D converter 17 converts the video signal into 8
It is converted into digital data of bits (256 gradations). That is, the image data written in the frame memory 12 is 8 bits (256 gradations) per pixel (hereinafter, dot).
Is data indicating the brightness. Therefore, the microprocessor 6 can know the brightness at any position on the screen by reading the value in the frame memory 12.

【0013】マイクロプロセッサ6には、各種画像処理
および判定用の演算を行うためにもう1つのマイクロプ
ロセッサ8が接続されており、また通常のコンピュータ
システム制御用のROM9およびRAM10,バスコン
トローラ15および前述のフレームメモリ12が接続さ
れている。
The microprocessor 6 is connected with another microprocessor 8 for performing various image processing and arithmetic operations for determination, and also a ROM 9 and a RAM 10 for controlling a normal computer system, a bus controller 15 and the above-mentioned. The frame memory 12 of is connected.

【0014】図3に、マイクロプロセッサ6および8の
動作の概要(メインルーチン)を示し、動作の詳細(サ
ブルーチン)を図4〜図15に示す。以下これらの図面
を参照して、設定されたプログラムに基づいたマイクロ
プロセッサ6および8の制御動作を説明する。
FIG. 3 shows an outline (main routine) of the operation of the microprocessors 6 and 8, and details of the operation (subroutine) are shown in FIGS. The control operation of the microprocessors 6 and 8 based on the set program will be described below with reference to these drawings.

【0015】まず動作の概要を図3を参照して説明す
る。電源が投入されるとマイクロプロセッサ6は、初期
化を行う(ステップ1:以下カッコ内ではステップとい
う語を省略する)。これにおいては、入出力ポートを初
期化して、内部レジスタ,フラグ等をクリアし、CCD
カメラ3および赤外線ランプコントローラ18にオンを
示す付勢信号を与え、ブザーコントローラ19にオフを
示す信号を与える。またマイクロプロセッサ6は、図1
6に示すように、フレームメモリ12に書込む画像デ−
タの一画面分布に対して、画面の中央付近に横25個,
縦17個,の総計425個の注目点(カーソル)を縦,
横15ドット間隔で配置する。この間隔は、画面上で人
の眼の大きさがどの程度になるかによって変わるが、図
17に示すように、CCDカメラ3の撮影画面上で1つ
の目の縦方向の最大幅は30ドット,横方向は40〜5
0ドットであるため、1つの目の領域に少くとも1個の
注目点が存在するように、本実施例では15ドット間隔
としている。図16のように、フレームメモリ12に書
込まれる画像の横方向をx軸,縦方向をy軸とした場合
(画像の左上端座標(0,0),右下端座標(511,
484))、425個の注目点の左上端座標を(68,
200),右下端座標を(428,440)となるよう
注目点を配置し、その座標データ(Xm,Yn)を、図1
8に示すような、RAM(メモリ)10(図1)のメモリ
テーブルのアドレスAnmに書込む。
First, the outline of the operation will be described with reference to FIG. When the power is turned on, the microprocessor 6 performs initialization (step 1: hereinafter, the word step is omitted in parentheses). In this, the I / O ports are initialized, the internal registers, flags, etc. are cleared, and the CCD
The camera 3 and the infrared lamp controller 18 are supplied with an energizing signal indicating ON, and the buzzer controller 19 is supplied with a signal indicating OFF. Further, the microprocessor 6 has
As shown in FIG. 6, image data to be written in the frame memory 12
25 screens in the center of the screen,
A total of 425 points of interest (cursors), 17 in the vertical direction,
It is arranged at intervals of 15 dots horizontally. This interval varies depending on the size of the human eye on the screen, but as shown in FIG. 17, the maximum vertical width of one eye on the shooting screen of the CCD camera 3 is 30 dots. , Horizontal direction is 40-5
Since there are 0 dots, the interval is 15 dots in this embodiment so that at least one target point exists in one eye area. As shown in FIG. 16, when the horizontal direction of the image written in the frame memory 12 is the x-axis and the vertical direction is the y-axis (the upper left corner coordinates (0, 0) of the image, the lower right coordinates (511,
484)) and the upper left corner coordinates of the 425 points of interest are (68,
200), the target point is arranged so that the lower right coordinate is (428, 440), and its coordinate data (X m , Y n ) is calculated as shown in FIG.
Write to address A nm in the memory table of RAM (memory) 10 (FIG. 1) as shown in FIG.

【0016】 ただし、Xm=68+15(m−1);1≦m≦25, Yn=200+15(n−1);1≦n≦17,であ
る。
However, X m = 68 + 15 (m−1); 1 ≦ m ≦ 25, Y n = 200 + 15 (n−1); 1 ≦ n ≦ 17.

【0017】そして初期化から所定時間(照明ランプ4
の明るさが安定し、ドライバの顔が運転時の位置に静止
するのを待つ時間)の後、CCDカメラ3からのフレー
ム同期パルスに同期して、1フレーム分の画像データ
の、フレームメモリ12への書込みを開始し、1フレー
ム分の画像データ(1ドット当り8ビットの多階調デー
タ)をメモリ12に書込む(2)。
Then, a predetermined time has passed since the initialization (illumination lamp 4
Of the image data for one frame in synchronization with the frame synchronizing pulse from the CCD camera 3 after waiting for the driver's face to be stationary at the driving position). Writing is started, and image data for one frame (8-bit multi-gradation data per dot) is written in the memory 12 (2).

【0018】次にマイクロプロセッサ6は、各々の注目
点を中心とした小領域を設定し、該領域内で最も暗い点
に注目点の座標を更新する(3)。この操作を425個
の注目点のすべてについて行う。この内容は、図4を参
照して後述する。
Next, the microprocessor 6 sets a small area centered on each target point and updates the coordinates of the target point to the darkest point in the area (3). This operation is performed for all 425 points of interest. The contents will be described later with reference to FIG.

【0019】次にマイクロプロセッサ6は、座標更新後
の注目点について、周辺に他の注目点が存在しない孤立
点を消去したり、ある注目点の近傍の他の注目点を1つ
にまとめる処理等を行い、最終的に注目点の数Nが人の
目の数,すなわち注目点が2個であるか否かの判定を行
い、かつ2個であるとそれらが所定の領域ECRにある
かの判定等を行なう(4)。この内容は、図5〜図13
を参照して後述する。最終的に注目点の数Nが2でない
場合には、ステップ2に戻る。
Next, the microprocessor 6 erases the isolated points having no other points of interest from the points of interest after the coordinate update, or merges other points of interest in the vicinity of a certain point of interest into one. Etc., and finally, it is determined whether the number N of attention points is the number of eyes of a person, that is, whether there are two attention points, and if they are two, whether or not they are in a predetermined area ECR. (4) is performed. This content is shown in Figs.
Will be described later with reference to. Finally, when the number N of attention points is not 2, the process returns to step 2.

【0020】注目点が2個でしかも所定領域ECR内に
あれば、注目点の座標は人の両目の位置を示すものとみ
なして、毎フレームをメモリ12に書込むごとに該注目
点を追跡して、時系列的に両目の開閉状態を検知してド
ライバが居眠り,あるいは脇見をしているか否かの判断
を行う(5)。この内容は図14および図15を参照し
て後述する。追跡処理中に、追跡不能となるとステップ
1の初期化に戻る。
If there are two points of interest and they are within the predetermined area ECR, the coordinates of the points of interest are regarded as indicating the positions of both eyes of a person, and the points of interest are tracked each time each frame is written in the memory 12. Then, the open / closed state of both eyes is detected in a time series to determine whether the driver is dozing or looking aside (5). The contents will be described later with reference to FIGS. 14 and 15. If tracking becomes impossible during the tracking process, the process returns to the initialization of step 1.

【0021】図4を参照して、「小領域での暗点検出」
(3)の内容を説明する。これは、注目点を中心に縦横
方向に±10ドット範囲の小領域を設定し、小領域内で
一番暗い点を示す座標に注目点の座標を更新する処理で
ある。
Referring to FIG. 4, "dark spot detection in a small area"
The contents of (3) will be described. This is a process of setting a small area within a range of ± 10 dots in the vertical and horizontal directions around the target point, and updating the coordinates of the target point to the coordinates indicating the darkest point in the small area.

【0022】まず、マイクロプロセッサ6はレジスタ
m,nに1をセットし(31)、図18に示すメモリの
アドレスAnmの座標データXm,Ynを読み出す(3
2)。最初はアドレスA11の座標データX1,Y1が読み
出される。次にレジスタx1にXm−10をy1にYn−1
0をセットして小領域の左上端の座標を設定し(3
3)、レジスタx2にXm+10をy2にYn+10をセッ
トして小領域の右下端の座標を設定する(34)。そし
て、領域,x1≦x≦x2&y1≦y≦y2内においてフレ
ームメモリ12のデータを読み出して明るさ値の最も暗
い点を検出し、その座標をメモリのアドレスAnmに更新
メモリする(35)。次に、レジスタmを1インクレメ
ント(36)し、ステップ37でmの値が25より大き
くなるまではステップ32〜36の処理を繰り返す。す
なわち、これにより25個の注目点の座標(X1
1),(X2,Y1),・・,(X25,Y1)が更新され
る。レジスタmが25より大きくなると(37)、mの
値を1にセットしレジスタnを1インクレメントし(3
8)、ステップ39でnの値が17より大きくなるまで
はステップ32〜38の処理を繰り返す。これにより注
目点の座標(X1,Y2),(X2,Y2),・・,
(X25,Y2),(X1,Y3),(X2,Y3),・・,
(X25,Y3),・・・が更新され、総計425個の注
目点の座標が更新されると(ステップ39でYES)リ
ターンする。これにより、初期化で等間隔で配置された
注目点は人の目,眉や髪の毛等、暗い部分に移動する。
First, the microprocessor 6 sets 1 in the registers m and n (31) and reads the coordinate data X m and Y n at the address A nm of the memory shown in FIG. 18 (3
2). Initially, the coordinate data X 1 and Y 1 of the address A 11 are read. Next, register x 1 has X m −10 and y 1 has Y n −1.
Set 0 to set the coordinates of the upper left corner of the small area (3
3), X m +10 is set in the register x 2 and Y n +10 is set in y 2 to set the coordinates of the lower right corner of the small area (34). Then, the data in the frame memory 12 is read out in the area x 1 ≤x ≤x 2 & y 1 ≤y ≤y 2 to detect the darkest point of the brightness value, and the coordinates are updated to the memory address A nm. Yes (35). Next, the register m is incremented by 1 (36), and the processes of steps 32 to 36 are repeated until the value of m becomes larger than 25 in step 37. That is, this allows the coordinates (X 1 ,
Y 1 ), (X 2 , Y 1 ), ..., (X 25 , Y 1 ) are updated. When the register m becomes larger than 25 (37), the value of m is set to 1 and the register n is incremented by 1 (3
8), the processes of steps 32 to 38 are repeated until the value of n becomes larger than 17 in step 39. As a result, the coordinates (X 1 , Y 2 ) of the point of interest, (X 2 , Y 2 ), ...
(X 25 , Y 2 ), (X 1 , Y 3 ), (X 2 , Y 3 ), ...
(X 25 , Y 3 ), ... Are updated, and when the coordinates of a total of 425 points of interest are updated (YES in step 39), the routine returns. As a result, the points of interest arranged at equal intervals during initialization move to dark areas such as the human eyes, eyebrows, and hair.

【0023】図5を参照して、「判定」(4)の制御動
作を説明する。判定では、黒目には複数の注目点が集ま
っているので孤立点を削除する、「孤立点の削除」(4
1),注目点の周辺に複数の注目点がある場合に一つの
注目点に統合する、「注目点近傍の他注目点の削除」
(42),注目点を中心とする縦方向と横方向の平均階
調を比較して縦階調の方が暗い注目点を削除する、「十
字階調差による削除」(43),予め検出した目のテン
プレート画像との比較を行って比較誤差の大きい注目点
を削除する、「テンプレートマッチングによる削除」
(44),注目点を中心とする右上斜め方向と左上斜め
方向の平均階調を比較して比較誤差の大きい注目点を削
除する、「斜め方向階調差による削除」(45),残存
する注目点をステップ3と同様の処理により小領域内で
最暗点に移動させる、「小領域での暗点検出」(4
6),互いに位置の近い注目点を統合する、「近傍注目
点の統合」(47),最終的に残存する注目点の数Nが
両目に対応して2であるか否かを判定する、「注目点数
の判定」(48)、および、眼と判定した2つの像が共
に所定領域ECRにありかつ相互に人の眼対応の位置関
係にあるかをチェックする「注目点検証」(49)、を
実行する。
The control operation of "determination" (4) will be described with reference to FIG. In the judgment, since a plurality of points of interest are gathered on the black eye, the isolated point is deleted.
1), when there are multiple points of interest around the point of interest, they are integrated into one point of interest, "deletion of other points of interest near the point of interest"
(42), comparing the average gray scales in the vertical and horizontal directions centering on the point of interest and deleting the point of interest with darker vertical gray scale, "deletion by cross gray scale difference" (43), detected in advance “Delete by template matching”, which removes the points of interest with a large comparison error by comparing it with the template image
(44), comparing the average gray scales in the upper right diagonal direction and the upper left diagonal direction centering on the target point to delete the target point having a large comparison error, "deletion due to diagonal direction gradation difference" (45), remaining By moving the point of interest to the darkest point in the small area by the same processing as in step 3, "dark point detection in small area" (4
6), integrate points of interest that are close to each other, "integrate neighboring points of interest" (47), and determine whether the number N of finally remaining points of interest is 2 for both eyes, "Determination of the number of points of interest" (48) and "attention point verification" (49) of checking whether both of the two images determined to be eyes are in a predetermined area ECR and are in a positional relationship corresponding to each other's eyes Execute.

【0024】図6を参照して、「孤立点の削除」(4
1)の処理内容を更に詳細に説明する。まず、マイクロ
プロセッサ6はレジスタm1,n1に1をセットし(410
1)、レジスタm1,n1の値をレジスタm,nにセットし
て(4102)、メモリのアドレスAnmの座標データXm,Yn
を読み出す(4103)。m1,n1は注目点を示すレジスタで
ある。最初はアドレスA11の座標データX1,Y1が読み
出される。次にレジスタx1にXm−10をy1にYn−1
0をセットして他の注目点の存在の有無を検出する領域
の左上端の座標を設定し(4104)、レジスタx2にXm
10をy2にYn+10をセットして検出領域の右下端の
座標を設定する(4105)。
Referring to FIG. 6, "deletion of isolated points" (4
The processing content of 1) will be described in more detail. First, the microprocessor 6 sets 1 in the registers m 1 and n 1 (410
1), the values of the registers m 1 and n 1 are set in the registers m and n (4102), and the coordinate data X m and Y n of the memory address A nm are set.
Is read (4103). m 1 and n 1 are registers indicating points of interest. Initially, the coordinate data X 1 and Y 1 of the address A 11 are read. Next, register x 1 has X m −10 and y 1 has Y n −1.
0 is set to set the coordinates of the upper left corner of the area for detecting the presence or absence of another target point (4104), and X m + is set in the register x 2.
10. Set y 2 to Y n +10 to set the coordinates of the lower right corner of the detection area (4105).

【0025】次に、レジスタm2,n2に1をセットする
(4106)。レジスタm2,n2はm1,n1で示す注目点に対
する他の注目点を示すレジスタである。次にm1=m2
1=n2であるか、すなわち注目点と他の注目点とが同
一のものであるか否かをチェックする(4107)。同一の
ものであれば、孤立点の削除の必要はないため後述する
ステップ4112に進むが、同一でなければレジスタm,n
にm2,n2をセットし(4108)、メモリのアドレスAnm
データが存在するか否かをチェックし(4109)、データが
なければステップ4112に進むが、データが有ればその座
標データXm,Ynを読み出す(4110)。最初は、レジスタ
1,n1およびm2,n2には1がセットされるためステ
ップ4112に進みm2が1インクレメントされ、ステップ4
107に戻るので、注目点としてアドレスA11の座標デー
タX1,Y1と、他の注目点としてアドレスA21の座標デ
ータX2,Y1が読み出される。
Next, 1 is set in the registers m 2 and n 2.
(4106). The registers m 2 and n 2 are registers indicating other points of interest with respect to the points of interest indicated by m 1 and n 1 . Then m 1 = m 2 &
It is checked whether n 1 = n 2, that is, whether the target point is the same as another target point (4107). If they are the same, it is not necessary to delete the isolated points, and therefore the process proceeds to step 4112, which will be described later.
M 2 and n 2 are set to (4108), and it is checked whether or not data exists at the memory address A nm (4109). If there is no data, the process proceeds to step 4112. The data X m and Y n are read (4110). Initially, 1 is set in the registers m 1 and n 1 and m 2 and n 2 , so the flow advances to step 4112 to increment m 2 by 1 and step 4
Since the process returns to 107, the coordinate data X 1 and Y 1 at the address A 11 are read as the target points and the coordinate data X 2 and Y 1 at the address A 21 are read as the other target points.

【0026】次に、他の注目点の座標データXm,Yn
注目点の検出領域内に存在するか否かをチェックし(411
1)、存在すれば注目点は孤立点ではないのでそのまま残
置するが、検出領域内に存在しなければ、他の全ての注
目点についても検出領域内に在存するか否かを一つ存在
することが検知されるまで行う。すなわち、m2が25よ
り大きくなるまでm2を1インクレメントし(4112,411
3)、25より大きくなるとm2を1にセットしn2を1インク
レメントし(4114)、n2が17より大きくなるまでステッ
プ4107〜4111の処理を繰り返す(4115)。そして、注目点
を中心とする検出領域にその他の注目点が全く存在しな
い場合に(ステップ4115でYES)、レジスタm,nにm1
1をセットして(4116)、メモリのアドレスAnmの座標
データを消去する(4117)。
Next, it is checked whether or not the coordinate data X m , Y n of another target point exists in the detection region of the target point (411).
1) If it exists, the point of interest is not an isolated point and is left as it is, but if it does not exist in the detection area, there is one whether all other points of interest also exist in the detection area. Repeat until it is detected. That is, m 2 is incremented by 1 until m 2 becomes larger than 25 (4112,411
3), the n 2 sets m 2 to 1 when greater than 25 1 increments and (4114), n 2 repeats the processing at steps 4107 to 4111 until greater than 17 (4115). Then, when there is no other target point in the detection area centered on the target point (YES in step 4115), m 1 in the registers m and n,
sets the n 1 (4116), to erase the address A nm coordinate data in the memory (4117).

【0027】座標データの消去あるいは検出領域に一つ
他の注目点が存在すると、注目点を示すレジスタm1を1
インクレメントし(4118)、ステップ4102に戻り上述の処
理を残置する(ステップ4109でYES)全ての注目点に関し
て繰り返す(4118〜4121〜4102〜4118・・・)。そして全注
目点について孤立点か否かの判定を終了すると(4121でY
ES)、リターンする。すなわち注目点を中心とする±10
ドット領域内に他の注目点があるか否か判定し、他の注
目点が全く存在しないと、基準となる注目点はメモリ10
から消去される。これにより、人の目,眉や髪の毛等、
暗い部分に移動した注目点は残置されるが、それ以外の
注目点はメモリテーブルから消去される。図7を参照し
て、「注目点近傍の他注目点の削除」(42)の処理内
容を更に詳細に説明する。まず、マイクロプロセッサ6
はレジスタm1,n1に1をセットし(4201)、レジスタm
1,n1の値をレジスタm,nにセットして(4202)、メモ
リのアドレスAnmにデータが存在するか否かをチェック
する(4203)。これは「孤立点の削除」(41)処理によってデ
ータがメモリ10から消去されている場合があるからであ
る。なおm1,n1は基準となる注目点を示すレジスタで
ある。データがなければステップ4217に進むが、データ
が有ればその座標データXm,Ynを読み出す(4204)。次
に、レジスタx1にXm−5をy1にYn−5をセットして
他の注目点の存在の有無を検出する領域の左上端の座標
を設定し(4205)、レジスタx2にXm+5をy2にYn
5をセットして検出領域の右下端の座標を設定する(42
06)。
When another point of interest exists in the area where the coordinate data is erased or detected, the register m 1 indicating the point of interest is set to 1
Increment (4118), return to step 4102, and leave the above processing (YES at step 4109) and repeat for all points of interest (4118-4121-4102-4118 ...). When the determination of whether all the points of interest are isolated points is completed (Y in 4121
ES), return. That is, ± 10 around the point of interest
If there is no other point of interest in the dot area, and if there is no other point of interest, the reference point of interest is the memory 10
Erased from. As a result, human eyes, eyebrows, hair, etc.
The attention points moved to the dark part are left, but the other attention points are erased from the memory table. With reference to FIG. 7, the processing content of "deletion of other attention points near the attention point" (42) will be described in more detail. First, the microprocessor 6
Sets 1 to registers m 1 and n 1 (4201), and register m 1
The values of 1 and n 1 are set in the registers m and n (4202), and it is checked whether data exists at the memory address A nm (4203). This is because the data may have been erased from the memory 10 by the "deletion of isolated points" (41) process. It should be noted that m 1 and n 1 are registers indicating a reference point of interest. If there is no data, the process proceeds to step 4217, but if there is data, the coordinate data X m and Y n are read (4204). Next, X m -5 is set in the register x 1 and Y n -5 is set in y 1 to set the coordinates of the upper left corner of the area for detecting the presence or absence of another target point (4205), and register x 2 To X m +5 and y 2 to Y n +
Set 5 to set the coordinates of the lower right corner of the detection area (42
06).

【0028】次に、レジスタm2にm1+1を,n2にn1
セットする(4207)。「孤立点の削除」(41)と同様にm2,n
2に1をセットしないのは、メモリのアドレスAnmに残置
しているデータは、それ以前の注目点に対して検出領域
外のものであり、重複して検出する必要がないからであ
る。よって、基準となる注目点を示すレジスタm1,n1
に対し、検出領域に存在するか否かの対象となる他の注
目点のレジスタm2,n2はm1,n1より大きいものをチ
ェックすればよい。
Next, the m 1 +1 in the register m 2, sets n 1 to n 2 (4207). As in "Deletion of isolated points" (41), m 2 , n
The reason why 1 is not set to 2 is that the data remaining at the address A nm of the memory is outside the detection area with respect to the point of interest before that and does not need to be detected in duplicate. Therefore, the registers m 1 and n 1 indicating the reference point of interest
On the other hand, the registers m 2 and n 2 of the other points of interest, which are the objects of existence in the detection area, may be checked if they are larger than m 1 and n 1 .

【0029】次に、レジスタm,nにm2,n2をセット
し(4208)、メモリのアドレスAnmにデータが存在するか
否かをチェックし(4209)、データがなければステップ42
12に進むが、データが有ればその座標データXm,Yn
読み出す(4210)。
Next, m 2 and n 2 are set in the registers m and n (4208), and it is checked whether or not there is data at the memory address A nm (4209).
12, the coordinate data X m and Y n are read if there is data (4210).

【0030】次に、他の注目点の座標データXm,Yn
注目点の検出領域内に存在するか否かをチェックし(421
1)、存在すればその点は注目点の近傍であるためメモリ
のアドレスAnmの座標データを消去する(4216)。一方、
検出領域外であればその点は残置する。これら処理を
「孤立点の削除」(41)と同様に全ての残存している注目点
について行う(4212〜4215〜4217〜4220〜4202〜4212,・・
・)。そして全注目点について孤立点か否かの判定を終了
すると(4220でYES)、リターンする。すなわち、注目点
を中心として±5ドット領域内の他の注目点はメモリ10
から消去し、領域内には注目点を一とする。これによ
り、人の目,眉や髪の毛等、暗い部分に移動した注目点
のうち近傍の注目点は一とされ、注目点の残存数は減少
する。
Next, it is checked whether or not the coordinate data X m , Y n of another target point exists within the detection area of the target point (421).
1) If it exists, the point is near the target point, and the coordinate data of the address A nm of the memory is deleted (4216). on the other hand,
If it is outside the detection area, the point is left. These processes are performed for all remaining attention points (4212 to 4215 to 4217 to 4220 to 4202 to 4212, ..., Similar to `` deletion of isolated points '' (41).
・). When the determination as to whether all the points of interest are isolated points is completed (YES in 4220), the process returns. That is, the other points of interest within the ± 5 dot area around the point of interest are the memory 10
And the target point is set to be one in the area. As a result, among the points of interest that have moved to dark areas such as human eyes, eyebrows, and hair, the points of interest in the vicinity are set to one, and the number of remaining points of interest decreases.

【0031】図8を参照して、「十字階調差による削
除」(43)の制御動作を更に詳細に説明する。まず、
マイクロプロセッサ6はレジスタm,nに1をセットし
(4301)、メモリのアドレスAnmにデータが存在するか否
かをチェックする(4302)。データがなければステップ43
10に進むが、データが有ればその座標データXm,Yn
読み出し(4303)、レジスタx1にXm−20をy1にYn
20をセットし(4304)、レジスタx2にXm+20をy
2にYn+20をセットする(4305)。
With reference to FIG. 8, the control operation of "deletion by cross gradation difference" (43) will be described in more detail. First,
The microprocessor 6 sets 1 in the registers m and n
(4301), it is checked whether or not data exists at the memory address A nm (4302). If there is no data, step 43
The process proceeds to 10, the coordinate data X m If there is data, it reads out the Y n (4303), the X m -20 to register x 1 to y 1 Y n -
20 is set (4304), and X m +20 is set to y in the register x 2.
Set Y n +20 to 2 (4305).

【0032】次に、領域,y=Yn&x1≦x≦x2、す
なわち注目点を中心に横方向±20ドットにおける各点
の明るさ値を検出し、その総和をレジスタTHにセット
し(4306)、領域,x=Xm&y1≦y≦y2、すなわち注
目点を中心に縦方向±20ドットにおける各点の明るさ
値を検出し、その総和をレジスタTVにセットする(430
7)。そして、THとTVを比較し(4308)、縦階調THの方
が横階調TVより大きい場合のみ注目点をメモリのアド
レスAnmから消去する(4309)。
Next, the area, y = Y n & x 1 ≤x≤x 2 , that is, the brightness value of each point in the lateral direction ± 20 dots centering on the target point is detected, and the sum is set in the register T H. (4306), the area, x = X m & y 1 ≦ y ≦ y 2 , that is, the brightness value of each point in the vertical direction ± 20 dots centering on the target point is detected, and the sum thereof is set in the register T V. (430
7). Then, T H and T V are compared (4308), and only when the vertical gradation T H is larger than the horizontal gradation T V , the target point is erased from the memory address A nm (4309).

【0033】この処理を「注目点近傍の他注目点の削除」
(42)の終了時に残存する全注目点に関して行う(4310〜4
313〜4302〜4310,・・・)。すなわち、図17に示すよう
に、人の目の大きさは縦方向より横方向が長く、横階調
の方が縦階調より暗いので、注目点のうち縦階調の方が
暗いものは人の目の位置にあるものでないとしてメモリ
10から消去する。これにより、人の目や眉以外の特に髪
の毛等の暗い部分に移動した注目点の残存数は減少す
る。
This processing is performed by "deleting other attention points near the attention point".
Perform all remaining attention points at the end of (42) (4310-4
313-4302-4310, ...). That is, as shown in FIG. 17, the size of human eyes is longer in the horizontal direction than in the vertical direction, and the horizontal gradation is darker than the vertical gradation. Memory as not in the eye position of the person
Erase from 10. As a result, the number of remaining attention points that have moved to dark areas other than the human eyes and eyebrows, particularly hair, is reduced.

【0034】図9を参照して、「テンプレートマッチン
グによる削除」(44)の制御動作を更に詳細に説明す
る。まず、マイクロプロセッサ6はレジスタm,nに1
をセットし(4401)、メモリのアドレスAnmにデータが存
在するか否かをチェックする(4402)。データがなければ
ステップ4408に進むが、データが有ればその座標データ
m,Ynを読み出し(4403)、レジスタx1にXm−30を
1にYn−20をセットし(4404)、レジスタx2にXm
+30をy2にYn+20をセットする(4405)。 次
に、領域,x1≦x≦x2&y1≦y≦y2、内の各点の明
るさ値と、各点の位置に対応するテンプレートの領域,
0−30≦x≦x0+30&y0−20≦y≦y0+2
0、内の各点の明るさ値の差の絶対値の総和を検出し、
レジスタTnmにセットする(4406)。すなわち、注目点
を中心に縦方向±20ドット,横方向±30ドット範囲にお
ける各点(2400=60×40個)の階調度と、予め読み込んで
おいた人の眼の中心(x0,y0)に同じく縦方向±20ドッ
ト,横方向±30ドット範囲における各点(2400=60×40個)
の階調度を、対応する各点,(Xm−30,Yn−20)と
(x0−30,y0−20),(Xm−29,Yn−20)と(x0
−29,y0−20),(Xm−28,Yn−20)と(x0−2
8,y0−20),・・・,(Xm,Yn)と(x0,y0),・
・・,(Xm+30,Yn+20)と(x0+30,y0+2
0),につきそれぞれ比較する。そして、セットしたT
nmをアドレスAnm対応でセーブする(4407)。
The control operation of "deletion by template matching" (44) will be described in more detail with reference to FIG. First, the microprocessor 6 sets 1 in the registers m and n.
Is set (4401), and it is checked whether data exists at the memory address A nm (4402). The process proceeds to step 4408 if there is no data, if there is data the coordinate data X m, reads Y n (4403), the X m -30 sets Y n -20 to y 1 to the register x 1 (4404 ), X m in register x 2
Set +30 to y 2 and Y n +20 (4405). Next, the brightness value of each point in the area, x 1 ≦ x ≦ x 2 & y 1 ≦ y ≦ y 2 , and the area of the template corresponding to the position of each point,
x 0 −30 ≦ x ≦ x 0 +30 & y 0 −20 ≦ y ≦ y 0 +2
The sum of the absolute values of the differences in the brightness value of each point within 0, is detected,
The register T n m is set (4406). That is, the gradation of each point (2400 = 60 × 40) in the range of ± 20 dots in the vertical direction and ± 30 dots in the horizontal direction around the point of interest and the center of the human eye (x 0 , y (0 ) Similarly, each point in the range of ± 20 dots in the vertical direction and ± 30 dots in the horizontal direction (2400 = 60 × 40)
And the gradient of each of the corresponding points, (X m −30, Y n −20)
(x 0 -30, y 0 -20 ), (X m -29, Y n -20) and (x 0
−29, y 0 −20), (X m −28, Y n −20) and (x 0 −2
8, y 0 -20), ..., (X m , Y n ) and (x 0 , y 0 ),
··, (X m + 30, Y n +20) and (x 0 + 30, y 0 +2
0), respectively. And the set T
Save nm with address A nm (4407).

【0035】この処理を「十字階調差による削除」(43)の
終了時に残存する全注目点に関して行う(4408〜4411〜4
402〜4408,・・・)。次に、総和グループ中の最大値と最小
値を検出し、それらの中間値T0を算出し(4412)、総和
が中間値T0より大きいアドレスの座標データをメモリ
から消去する(4413)。これにより、人の眼以外の眉や髪
の毛等の暗い部分に移動した注目点の残存数は減少す
る。
This processing is performed for all remaining attention points at the end of the "deletion by cross tone difference" (43) (4408 to 4411 to 4).
402-4408, ...). Next, the maximum value and the minimum value in the total sum group are detected, the intermediate value T 0 between them is calculated (4412), and the coordinate data of the address whose total sum is larger than the intermediate value T 0 is erased from the memory (4413). This reduces the number of remaining attention points that have moved to dark areas such as eyebrows and hairs other than the human eye.

【0036】図10を参照して、「斜め方向階調差によ
る削除」(45)の処理内容を更に詳細に説明する。こ
れは前述の「十字階調差による削除」(43)の注目点
を中心とする縦横方向の十字を45度回転した位置にお
ける階調差による削除を行う処理である。まず、マイク
ロプロセッサ6はレジスタm,nに1をセットし(450
1)、メモリのアドレスAnmにデータが存在するか否かを
チェックする(4502)。データがなければステップ4512に
進むが、データが有ればその座標データXm,Ynを読み
出し(4503)、レジスタx1にXm−20をy1にYn−20
をセットし(4504)、レジスタx2にXm+20をy2
n+20をセットする(4505)。
With reference to FIG. 10, the processing contents of "deletion due to diagonal gradation difference" (45) will be described in more detail. This is a process of performing deletion by gradation difference at a position obtained by rotating the cross in the vertical and horizontal directions centered on the point of interest of the above "deletion by cross gradation difference" (43) by 45 degrees. First, the microprocessor 6 sets 1 in the registers m and n (450
1), it is checked whether or not data exists at the memory address A nm (4502). Proceeds Without data to step 4512, if there is data the coordinate data X m, reads Y n (4503), Y n -20 to X m -20 to y 1 in the register x 1
Sets (4504), the X m +20 sets Y n +20 to y 2 into register x 2 (4505).

【0037】次に、(x1,y1)と(x2,y2)を結ぶ
直線上,すなわち注目点の中心を通る左斜め上〜右斜め
下方向における各点の明るさ値を検出し、その総和をレ
ジスタTRDにセットし(4506)、(x1,y2)と(x2
1)を結ぶ直線上,すなわち注目点の中心を通る右斜
め上〜左斜め下方向における各点の明るさ値を検出し、
その総和をレジスタTRUにセットする(4507)。そし
て、TRDとTRUを比較し(4508)、両者の差がいずれか小
さい方の階調和の+20%の範囲にあるか否かをチェック
し(4509,4510)、範囲外の場合の注目点をメモリのアド
レスAnmから消去する(4511)。
Next, the brightness value of each point is detected on the straight line connecting (x 1 , y 1 ) and (x 2 , y 2 ), that is, in the left diagonally upper direction to the right diagonally lower direction passing through the center of the point of interest. Then, the sum is set in the register T RD (4506), and (x 1 , y 2 ) and (x 2 ,
y 1 ) on a straight line, that is, the brightness value of each point in the diagonally right upper direction to the left diagonally lower direction passing through the center of the point of interest is detected,
The sum is set in the register T RU (4507). Then, T RD and T RU are compared (4508), and it is checked whether the difference between the two is within + 20% of the smaller gradation sum (4509, 4510). The point is deleted from the memory address A nm (4511).

【0038】この処理を「テンプレートマッチングによ
る削除」(44)の終了時に残存する全注目点に関して行う
(4512〜4515〜4502〜4512,・・・)。すなわち、人の瞳の中
心に位置する注目点は、TRDとTRUの差はほとんどない
ので、差の大きい注目点をメモリ10から消去する。これ
により、人の眼の縁や眉の縁に移動した注目点の残存数
は減少する。
This processing is performed for all remaining points of interest at the end of the “deletion by template matching” (44)
(4512-4515-4502-4512, ...). That is, since the attention point located at the center of the human pupil has almost no difference between T RD and T RU , the attention point having a large difference is erased from the memory 10. This reduces the number of remaining attention points that have moved to the edge of the human eye or the edge of the eyebrow.

【0039】その後、残存する注目点をステップ46
(図5)で、小領域,注目点を中心として縦横方向±2
0ドットの範囲内で注目点を最暗点に移動させる、「小
領域での暗点検出」(46)を実行する。この処理(図
示しない)はステップ3(図4)と同様であるが、領域
範囲が±20ドット(図4では±10ドット)である
点,および図4のステップ31とステップ32の間に
「メモリのアドレスAnmにデータ有?」の判定処理を設
け、存在すればステップ32に進むが存在しなければス
テップ36に進むようにする点において異なる。
Thereafter, the remaining points of interest are identified in step 46.
In (Fig. 5), the small area and the point of interest are centered in the vertical and horizontal directions ± 2.
The "detection of dark spots in a small area" (46) of moving the target point to the darkest spot within the range of 0 dots is executed. This process (not shown) is the same as step 3 (FIG. 4), except that the area range is ± 20 dots (± 10 dots in FIG. 4) and that between step 31 and step 32 in FIG. The difference is that a determination process of "data is present at memory address A nm " is provided, and if it exists, the process proceeds to step 32, and if it does not exist, the process proceeds to step 36.

【0040】図11を参照して、「近傍注目点の統合」
(47)の処理内容を更に詳細に説明する。「注目点近
傍の他注目点の削除」(42)では、注目点を中心とす
る縦横方向±5ドット範囲内の他の注目点を削除した
が、「近傍注目点の統合」(47)では、縦横方向±2
0ドット範囲内に他の注目点が存在する場合には、両点
の中間位置に注目点を移動させて他の注目点を削除す
る。また、「注目点近傍の他注目点の削除」(42)で
は基準となる注目点を示すレジスタm1,n1に対し、検
出領域に存在するか否かの対象となる他の注目点のレジ
スタm2,n2はm1,n1より大きいものをチェックすれ
ばよかったが、「近傍注目点の統合」(47)では基準
となる注目点は移動するため、基準となる注目点に対し
残っている全ての注目点についてチェックする。
Referring to FIG. 11, "integration of neighboring points of interest"
The processing content of (47) will be described in more detail. In "Delete other attention points in the vicinity of attention point" (42), other attention points within the range of ± 5 dots in the vertical and horizontal directions centering on the attention point were deleted, but in "Integration of neighborhood attention points" (47) , Horizontal and vertical ± 2
If another point of interest exists within the 0 dot range, the point of interest is moved to an intermediate position between the two points and the other point of interest is deleted. In addition, in the "deletion of other attention points near the attention point" (42), the registers m 1 and n 1 indicating the reference attention points are set to the other attention points which are the objects of presence or absence in the detection area. It suffices to check registers m 2 and n 2 that are larger than m 1 and n 1 , but in “Integration of neighboring attention points” (47), the reference attention point moves, so Check all remaining attention points.

【0041】まず、マイクロプロセッサ6はレジスタm
1,n1に1をセットし(4701)、レジスタm1,n1の値を
レジスタm,nにセットして(4702)、メモリのアドレス
nmにデータが存在するか否かをチェックし(4703)、デ
ータがなければステップ4722に進むが、データが有れば
メモリのアドレスAnmの座標データXm1,Yn1を読み出
す(4704)。m1,n1は基準となる注目点を示すレジスタ
である。次にレジスタx1にXm1−20をy1にYn1−2
0をセットして他の注目点の存在の有無を検出する領域
の左上端の座標を設定し(4705)、レジスタx2にXm1
+20をy2にYn1+20をセットして検出領域の右下
端の座標を設定する(4706)。
First, the microprocessor 6 uses the register m.
1 is set to 1 and n 1 (4701), the values of the registers m 1 and n 1 are set to the registers m and n (4702), and it is checked whether or not data exists at the memory address A nm. (4703) If there is no data, the process proceeds to step 4722, but if there is data, the coordinate data X m1 and Y n1 at the address A nm of the memory are read (4704). m 1 and n 1 are registers indicating a reference point of interest. Next, register x 1 has X m1 -20 and y 1 has Y n1 -2
Set 0 to set the coordinates of the upper left corner of the area for detecting the presence / absence of another target point (4705), and set X m1 in the register x 2.
The coordinate of the lower right corner of the detection area is set by setting Y n1 +20 to y 2 of +20 (4706).

【0042】次に、レジスタm2,n2に1をセットする
(4707)。レジスタm2,n2はm1,n1で示す注目点に対
する他の注目点を示すレジスタである。次にm1=m2
1=n2であるか、すなわち注目点と他の注目点とが同
一のものであるか否かをチェックする(4708)。同一の
ものであれば、統合する必要はないため後述するステッ
プ4718に進むが、同一でなければレジスタm,nに
2,n2をセットし(4709)、メモリのアドレスAnmにデ
ータが存在するか否かをチェックし(4710)、データがな
ければステップ4718に進むが、データが有ればその座標
データXm2,Yn2を読み出す(4711)。
Next, 1 is set in the registers m 2 and n 2.
(4707). The registers m 2 and n 2 are registers indicating other points of interest with respect to the points of interest indicated by m 1 and n 1 . Then m 1 = m 2 &
It is checked whether n 1 = n 2, that is, whether the target point is the same as another target point (4708). If they are the same, it is not necessary to integrate them, and the process proceeds to step 4718 described later. If they are not the same, m 2 and n 2 are set in the registers m and n (4709), and the data is stored in the memory address A nm. It is checked whether or not it exists (4710), and if there is no data, the process proceeds to step 4718, but if there is data, the coordinate data X m2 , Y n2 is read (4711).

【0043】次に、他の注目点の座標データXm2,Yn2
が注目点の検出領域内に存在するか否かをチェックし(4
712)、存在しなければ統合する必要はないのそのまま残
置するが、検出領域内に存在すれば、両注目点を統合す
る。すなわち、基準となる注目点と対象となる注目点の
中間位置(Xi,Yi)を計算し(Xi=(Xm1+Xm2)/2,
i=(Ym1+Ym2)/2)、中間位置(Xi,Yi)に注目
点を移動してメモリのアドレスAnmの座標データを更新
メモリし(4713〜4715)、対象となる注目点の座標データ
をメモリのアドレスAnmから消去する(4716,4717)。
Next, the coordinate data X m2 and Y n2 of the other points of interest.
Check whether or not exists in the detection area of the point of interest (4
712) If it does not exist, there is no need to integrate it, and it is left as it is, but if it exists in the detection area, both points of interest are integrated. That is, the intermediate position (X i , Y i ) between the reference point of interest and the target point of interest is calculated (X i = (X m1 + X m2 ) / 2,
Y i = (Y m1 + Y m2 ) / 2), the attention point is moved to the intermediate position (X i , Y i ) and the coordinate data of the address A nm of the memory is updated and stored (4713 to 4715) to be the target. The coordinate data of the target point is erased from the memory address A nm (4716, 4717).

【0044】この処理を残存する全注目点について行う
(4718〜4725〜4702〜4718,・・・)。これにより、注目点は
人の瞳の中心部を示す位置に近づく。
This processing is performed for all remaining points of interest.
(4718-4725-4702-4718, ...). As a result, the point of interest approaches the position indicating the center of the human pupil.

【0045】図12を参照して、「注目点数の判定」
(48)の処理内容を更に詳細に説明する。まず、マイ
クロプロセッサ6はレジスタm,nに1,およびNに0
をそれぞれをセットし(4801)、メモリのアドレスAnm
データが存在するか否かをチェックする(4802)。データ
がなければステップ4805に進むが、データが有ればレジ
スタNを1インクレメントし(4803)、Nが2以下である
か否かをチェックする(4804)。Nが2以下であるとメ
モリの全領域についてデータが存在するか否かをチェッ
クする(4805〜4809〜4802〜4805,・・・)。すなわち、メモ
リ10に存在するデータの数,すなわち注目点の数は人の
眼の数(=2)であるか否かをチェックする。このチェック
の途中にNが2より大きくなると(ステップ4804 NO),
あるいは全領域についてチェック終了時にNが2でない
と(ステップ4810 NO;N=0又は1のとき)両眼の位置を注
目点によって特定することができなかったとして、図3
のステップ2に戻り1フレーム画像の入力し、Nが2と
なるまで上述の「小領域での暗点検出」(3)および
「判定」(4)を繰り返す。
Referring to FIG. 12, "determination of the number of points of interest"
The processing content of (48) will be described in more detail. First, the microprocessor 6 registers 1 in registers m and n and 0 in N.
Are set (4801), and it is checked whether data exists at the memory address A nm (4802). If there is no data, the process proceeds to step 4805, but if there is data, the register N is incremented by 1 (4803), and it is checked whether N is 2 or less (4804). If N is 2 or less, it is checked whether or not data exists in all areas of the memory (4805 to 4809 to 4802 to 4805, ...). That is, it is checked whether the number of data existing in the memory 10, that is, the number of attention points is the number of human eyes (= 2). If N becomes larger than 2 during this check (step 4804 NO),
Alternatively, if N is not 2 at the end of the check for all areas (step 4810 NO; when N = 0 or 1), the positions of both eyes cannot be specified by the points of interest.
The process returns to step 2 of 1), one frame image is input, and the above-mentioned “dark spot detection in a small area” (3) and “determination” (4) are repeated until N becomes 2.

【0046】これにより、Nが2であれば両眼の位置は
注目点によって特定されるので、メモリにある座標デー
タ(m1,n1)および(m2,n2)をセーブする(4811)。図
18に、最終的に残った2個の注目点が人の両眼の位置
を特定する状態を示す。
As a result, if N is 2, the positions of both eyes are specified by the point of interest, so the coordinate data (m 1 , n 1 ) and (m 2 , n 2 ) in the memory are saved (4811). ). FIG. 18 shows a state in which the last two remaining points of interest specify the positions of both eyes of a person.

【0047】図13を参照して「注目点の検証」(4
9)の処理内容を更に詳細に説明する。まず、マイクロ
プロセッサ6は、上述の「注目点数の判定」(48)で
眼と検出した像の中心位置座標(m1,n1)および
(m2,n2)が、はっきりと前方を視認した定常運転
姿勢で彼の眼が位置する画面上の領域に余裕代を加えて
予め(処理プログラム上)設定した、図19に示す定常
眼領域ECR内にあるか否かをチェックし(4901)、該
領域内のときには更に、中心位置座標のx(横方向)座
標値の差(m2−m1)が、両眼の瞳の標準間隔(6c
m対応の画素数)±許容値(1cm対応の画素数)の範
囲内であるかをチェックし(4902)、該範囲内のと
きには更に、両眼の瞳のy方向(上下方向)の位置差
(│n2−n1│)が、運転中のドライバの顔の一時的
な左,右への傾きや少々の定常的傾斜により生ずる上下
ずれよりも少々大きい値(1cm対応の画素数)以下で
あるかをチェックする(4903)。いずれのチェックでも領
域内又は範囲内との結果となると、上述の「注目点数の
判定」(48)で眼と検出した像の中心位置座標(m
1,n1)が正しくその通りのものであると見なして、
フラグレジスタFをクリア(「0」の書込みと同義)す
る(4904)。このレジスタFの内容「0」は、正常に眼を
検出していることを意味する。そしてブザ−5の付勢を
停止し(4905)、「判定」4から「追跡」5に進む。な
お、ブザ−5の付勢停止(4905)は、今回の「判定」4の
前の「判定」又は「追跡」で検出エラ−又は追跡エラ−
を生じていた場合に、今回の「判定」4では検出に成功
したのでブザ−5の鳴動を停止する意味がある。今回の
「判定」4に進んだときにブザ−5を付勢していない場
合、付勢していないブザ−の停止制御をすることになる
が、ブザ−制御上問題は生じない。ところで、上述の
「注目点数の判定」(48)で眼と検出した像の中心位
置座標(m1,n1)および(m2,n2)が、領域E
CRを外れているか、x座標値の差(m2−m1)が、
両眼の瞳の標準間隔±許容値の範囲を外れているか、又
は、y方向(上下方向)の位置差(│n2−n1│)
が、上述の許容値を越える場合には、ブザ−5を付勢し
(4906)、ブザ−5が付勢か非付勢かを示すフラグFが0
(作動していない)であるかチェックし(4907)、フラグF
が0であればマイクロプロセッサ6は内部タイマをオン
し(4908)、フラグFに1をセットし(4909)ブザ−付勢中
を示す(4909)。そして、タイマがオーバしたかをチェッ
クし(4910)、タイマがオーバしていないと画像読込み
(図3の2)に戻り、そして「小領域の暗点検出」3を経て
「判定」4を再度実行する。この判定の「注目点の検
証」49で、再度「眼」と判定した画像の中心座標が、
図13のチェック4901〜4903のすべてでYES
の結果となると、フラグレジスタFがクリアされて(49
04)、ブザ−5の付勢が停止される(4905)。しかし、再
度,再々度以下の「注目点の検証」49でも眼検出がエ
ラ−であるとの結果となり、タイマ−がタイムオ−バす
ると、マイクロプロセッサ6は、「注目点の検証」49
(の最後のステップ4910)から図15のステップ521
に進み、そしてストップ指示の入力(SSWオン)を待
つ。ブザ−5の鳴動を止めようとドライバがスイッチS
SWを押下するとすなわちストップ指示入力があると、
マイクロプロセッサ6は、ブザ−5を停止し、ステップ
1の初期化(図3)に戻る。
Referring to FIG. 13, "verification of attention point" (4
The processing content of 9) will be described in more detail. First, the microprocessor 6 determines that the center position coordinates (m1, n1) and (m2, n2) of the image detected as the eye in the above-mentioned “judgment of the number of points of interest” (48) clearly see the front in the steady driving posture. Then, it is checked whether or not it is within the steady eye region ECR shown in FIG. 19 which is set (in the processing program) in advance by adding a margin to the region on the screen where his eyes are located (4901), and within the region. In addition, the difference (m2-m1) in the x (horizontal direction) coordinate value of the center position coordinate is the standard interval (6c) between the pupils of both eyes.
It is checked whether it is within the range of (the number of pixels corresponding to m) ± allowable value (the number of pixels corresponding to 1 cm) (4902), and when it is within the range, the positional difference of the pupils of both eyes in the y direction (vertical direction) (| N2-n1 |) is less than a value (the number of pixels corresponding to 1 cm) which is slightly larger than the vertical shift caused by the temporary left or right inclination of the driver's face during driving or a slight steady inclination. Check if (4903). If any of the checks result in the area or the range, the center position coordinates (m of the image detected as the eye in the above “determination of the number of points of interest” (48) (m
1, n1) is considered to be correct,
The flag register F is cleared (synonymous with writing "0") (4904). The content “0” of the register F means that the eyes are normally detected. Then, the urging of the buzzer 5 is stopped (4905), and the process proceeds from the "determination" 4 to the "tracking" 5. Note that the buzzer 5 deenergization (4905) was detected by the "judgment" or "chase" before the "judgment" 4 this time, or a tracking error.
If it occurs, it is meaningful to stop the ringing of the buzzer 5 in the "judgment" 4 of this time because the detection was successful. If the buzzer 5 is not energized when the process goes to the "judgment" 4, the stop control of the buzzer that is not energized is performed, but no problem occurs in the buzzer control. By the way, the center position coordinates (m1, n1) and (m2, n2) of the image detected as the eye in the above-mentioned “judgment of the number of points of interest” (48) are the area E.
Is it out of CR or the difference in x coordinate value (m2-m1) is
Either the standard distance between the pupils of both eyes is out of the range of ± the allowable value, or the position difference in the y direction (vertical direction) (| n2-n1 |)
However, if the allowable value is exceeded, activate the buzzer-5.
(4906), the flag F indicating whether the buzzer 5 is energized or not energized is 0.
Check if it is (not working) (4907) and flag F
If is 0, the microprocessor 6 turns on the internal timer (4908), sets 1 in the flag F (4909), and indicates that the buzzer is being activated (4909). Then, it is checked whether the timer is over (4910), and if the timer is not over, the image is read.
Returning to (2 in FIG. 3), the “determination” 4 is executed again after the “small area dark spot detection” 3 is performed. The center coordinates of the image that has been determined to be “eyes” again in the “verification point verification” 49 of this determination are
YES in all of the checks 4901 to 4903 in FIG.
The flag register F is cleared (49
04), the urging of buzzer-5 is stopped (4905). However, once again, the "verification of the point of interest" 49 below results in that the eye detection is in error, and when the timer times out, the microprocessor 6 causes the "verification of the point of interest" 49 to occur.
(Last step 4910 of) to step 521 of FIG.
, And waits for input of stop instruction (SSW ON). The driver uses the switch S to stop the buzzer 5
When the SW is pressed, that is, when there is a stop instruction input,
The microprocessor 6 stops the buzzer-5 and returns to the initialization of step 1 (FIG. 3).

【0048】図14および図15に、図3に示す「追
跡」(5)の処理内容を更に詳細に説明する。なお、
「判定」4で眼を正確に検出した(注目点の検証49で
眼との検証結果を得た)場合にこの「追跡」5に進むこ
とに注意されたい。まず、マイクロプロセッサ6は、1
フレーム画像データをフレームメモリ12に書込む(50
1)。そしてレジスタm,nにm1,n1をセットする。す
なわち人の両眼のうち、いずれか一方の眼の位置を示す
注目点のアドレスを示す値をセットする(502)。そし
て、メモリのアドレスからその眼の位置を示す座標デー
タXm,Ynを読み出す(503)。次に、「小領域での暗点検
出」(3)と同様に小領域(この場合は注目点を中心として
縦横方向±20ドットの範囲)を設定、すなわちレジスタ
1にXm−20をy1にYn−20をセットして小領域の
左上端の座標を設定し(504)、レジスタx2にXm+20
をy2にYn+20をセットして検出領域の右下端の座標
を設定する(505)。そして、領域,x1≦x≦x2&y1
≦y≦y2内においてフレームメモリ12のデータを読
み出して明るさ値の最も暗い点を検出し、その座標をメ
モリのアドレスAnmに更新メモリする(506)。これに
より一方の眼の時系列的に変化する位置が検出される。
次に、眼の開閉状態をチェックする。すなわち、最暗点
に移動した後の注目点を中心とする縦方向±20ドット範
囲における明るさ値の最大値T(max)と最小値T(min)
検出し、その平均値を算出し、レジスタTAVにセットす
る(507)。そしてTAV以下の明るさ値を示す縦(y)
方向の幅W1を検出する(508)。図14に示す模式図に
おいて縦方向の幅は、 W1=|y′−y″|となる。
The processing contents of the "tracking" (5) shown in FIG. 3 will be described in more detail with reference to FIGS. In addition,
It should be noted that if the eye is accurately detected in the "judgment" 4 (the verification result with the eye is obtained in the verification 49 of the point of interest), the "tracking" 5 is performed. First, the microprocessor 6
Write the frame image data to the frame memory 12 (50
1). Then, m 1 and n 1 are set in the registers m and n. That is, a value indicating the address of the point of interest indicating the position of one of the two eyes of a person is set (502). Then, the coordinate data X m , Y n indicating the eye position is read from the memory address (503). Next, a small area (in this case, a range of ± 20 dots in the vertical and horizontal directions centering on the point of interest) is set, that is, X m −20 is set in the register x 1 in the same manner as “Dark spot detection in small area” (3). Y n -20 is set in y 1 to set the coordinates of the upper left corner of the small area (504), and X m +20 is set in the register x 2.
Is set to y 2 and Y n +20 to set the coordinates of the lower right corner of the detection area (505). Then, the region, x 1 ≦ x ≦ x 2 & y 1
The data in the frame memory 12 is read within ≦ y ≦ y 2 to detect the darkest point of the brightness value, and the coordinates are updated to the memory address A nm (506). As a result, the position of one eye that changes in time series is detected.
Next, the open / closed state of the eyes is checked. That is, the maximum value T (max) and the minimum value T (min) of the brightness values in the vertical direction ± 20 dot range centered on the target point after moving to the darkest point are detected, and the average value is calculated. , Set in the register T AV (507). And the vertical (y) indicating the brightness value below T AV
The width W 1 in the direction is detected (508). In the schematic diagram shown in FIG. 14, the width in the vertical direction is W 1 = | y′−y ″ |.

【0049】同様の処理を他方の眼についても行い縦
(y)方向の幅W2を検出する(509〜515)。これにより
時系列的に変化する両眼の開閉度が検出される。
The same process is performed for the other eye to detect the width W 2 in the vertical (y) direction (509 to 515). As a result, the degree of opening and closing of both eyes that changes in time series is detected.

【0050】ここまでの処理により、前回の1フレ−ム
画像デ−タに基づいて検出した眼位置に基づいて、今回
読込んだ(図14の501)1フレ−ム画像上の眼位置
が追跡され、今回読込んだ1フレ−ム画像上の眼位置デ
−タが、図14のステップ502〜506の処理により
アドレスAn1m1に、また図14のステップ509〜
513の処理によりアドレスAn2m2に格納されてい
る。
By the processing up to this point, the eye position on the one frame image read this time (501 in FIG. 14) is determined based on the eye position detected based on the previous one frame image data. The eye position data on the one frame image which has been tracked and read this time is assigned to the address An1m1 by the processing of steps 502 to 506 of FIG. 14, and the step 509 of FIG.
It is stored in the address An2m2 by the processing of 513.

【0051】上述のように眼幅W1およびW2を算出す
るとマイクロプロセッサ6は、図15の「注目点の検
証」ECS2を実行する。この内容は、図13に示す
「注目点の検証」49の内容と同様である。ただし、こ
こでは、「注目点の検証」49のチェックブロック49
01の座標デ−タ(m1,n1)はアドレスAn1m1
のデ−タ、座標デ−タ(m2,n2)はアドレスAn2
m2のデ−タとなる。「注目点の検証」ECS2を実行
することにより、今回読込んだ(図14の501)1フ
レ−ム画像上で検出(追跡)した「眼」が、正しく眼で
あるかの検証が行なわれる。
When the pupil distances W1 and W2 are calculated as described above, the microprocessor 6 executes the "verification of target point" ECS2 of FIG. The contents are the same as the contents of the “verification point verification” 49 shown in FIG. However, here, the check block 49 of “verification of the attention point” 49
01 coordinate data (m1, n1) is the address An1m1.
Data, coordinate data (m2, n2) is the address An2.
It becomes the data of m2. By executing "verification of target point" ECS2, it is verified whether the "eye" detected (tracked) on the one frame image read this time (501 in FIG. 14) is the correct eye. .

【0052】図15を参照する。「注目点の検証」EC
S2で正しく眼であると判定すると、マイクロプロセッ
サ6は、次に、両眼の幅W1およびW2が所定値W0以下
であるか否かをチェックし(516)、いずれかの眼が所定
値W0より大きいとドライバは正常(居眠り状態あるいは
脇見運転ではない)と判定し、ステップ501に戻り上述の
処理(501〜516〜501,・・・)を続行するが、この途中に両
眼の幅W1およびW2が所定値W0以下であると、タイマ
の作動の有無を示すフラグFが0(作動していない)であ
るかチェックし(517)、フラグFが0であればマイクロ
プロセッサ6は内部タイマをオンし(518)、フラグFに
1をセットしタイマ作動中を示す(519)。そして、タイ
マがオーバしたかをチェックし(520)、タイマがオーバ
していないとステップ501に戻り処理を繰り返すが、タ
イマがオーバしているとドライバは居眠り状態あるいは
脇見運転中であると判定しブザーコントローラ19を介し
て、ドライバからのストップ指示(ストップスイッチS
SWをドライバがオン)があるまで警報を発し続ける(52
1〜522)。なお、一旦タイマがオンされてタイマがオー
バしていない間に、ドライバのいずれかの眼の幅が所定
値W0より大きくなると(516)フラグは0にセットされる
ため(524)、例えばドライバの自然のまばたき等、一時
的に眼を閉じる状態(タイマのセット時間未満)では警報
は発せられない。警報オンの状態で、ドライバからのス
トップ指示があるとステップ1の初期化(図3)に戻
る。
Referring to FIG. "Verification of points of interest" EC
When it is determined in S2 that the eyes are correct, the microprocessor 6 next checks whether or not the widths W 1 and W 2 of both eyes are equal to or less than a predetermined value W 0 (516). If it is larger than the predetermined value W 0 , the driver determines that it is normal (not in the dozing state or looking aside) and returns to step 501 to continue the above-mentioned processing (501 to 516 to 501, ...). When the eye widths W 1 and W 2 are equal to or less than the predetermined value W 0 , it is checked whether the flag F indicating whether the timer is operating is 0 (not operating) (517), and if the flag F is 0. For example, the microprocessor 6 turns on the internal timer (518) and sets the flag F to 1 to indicate that the timer is operating (519). Then, it is checked whether the timer has expired (520), and if the timer has not expired, the process returns to step 501 and repeats the processing.If the timer has expired, it is determined that the driver is in a dozing state or is looking aside. A stop instruction from the driver (stop switch S
Keeps issuing alarm until SW turns on (52)
1-522). If the width of any one of the eyes of the driver becomes larger than the predetermined value W 0 while the timer is once turned on and the timer is not over, the flag (516) is set to 0 (524). The alarm is not issued when the eyes are temporarily closed (less than the set time of the timer) such as the natural blinking of. When the driver gives a stop instruction while the alarm is on, the process returns to the initialization of step 1 (FIG. 3).

【0053】なお、「追跡」中に眼の検出に失敗するこ
とがあるが、そのときには上述の「注目点の検証」EC
S2で眼検出エラ−との判定結果となるか、あるいは、
上述の「居眠り状態あるいは脇見運転中」との判定結果
となり、ブザ−5が付勢される。したがってブザ−5
は、「追跡」中に眼の検出に失敗したとき、ならびに、
監視対象のドライバが「居眠り状態あるいは脇見運転
中」のときに鳴動する。
In some cases, eye detection may fail during "tracking". At that time, the above-mentioned "verification of attention point" EC
In S2, the judgment result of the eye detection error, or
As a result of the above-mentioned "drowning state or looking aside while driving", the buzzer 5 is activated. Therefore buzzer-5
When it fails to detect the eye during "tracking", and
Sounds when the driver to be monitored is "drowsy or looking aside."

【0054】上述の本実施例は、人の両眼の開閉に応答
して、ドライバの居眠り等を検知し所定時間閉じた状態
であれば警報を発するようにしたが、これに限らず、例
えば右眼か左眼かの判定を行い(「追跡」(5)におい
てレジスタm1の値とm2の値を比較)、右眼だけが所定
時間閉じられた状態(意図的なまばたき)であればエア
コン制御を行うなど、特公平4−284号公報に示した
電気装置の付勢制御を実施しうる。また、人の眼の検出
のため小領域内で最暗点を検出し、注目点を最暗点に移
動させたが、最も明るい点,あるいは所定の明るさの値
に設定してもよく、所望の画像のテンプレートマッチン
グ,階調差による削除処理等を実行すれば、撮影対象は
人の眼に限らず、他の物体あるいはその一部等、撮影画
像上で特徴ある暗パタ−ン又は明パタ−ンをもたらすも
のであってもよい。
In the above-described embodiment, the driver's dozing or the like is detected in response to the opening / closing of both eyes of the person, and the alarm is issued if the driver is closed for a predetermined time. However, the present invention is not limited to this. Whether the right eye or the left eye is determined (the value of register m 1 is compared with the value of m 2 in “tracking” (5)), and only the right eye is closed for a predetermined time (intentional blinking) For example, the air conditioner control may be performed, and the bias control of the electric device disclosed in Japanese Patent Publication No. 4-284 may be performed. Further, the darkest point is detected in the small area for detecting the human eye, and the point of interest is moved to the darkest point, but it may be set to the brightest point or a predetermined brightness value. By performing template matching of a desired image, deletion processing by gradation difference, etc., the object to be photographed is not limited to the human eye, and other objects or a part thereof, such as a dark pattern or a bright pattern characteristic of the photographed image. It may provide a pattern.

【0055】なお上記実施例では、メモリテ−ブルに予
め所定ピッチで分散させた注目点の座標を書込むが、こ
の書込みは省略し、代りに、例えば第1注目点(68,
200)を指定してその座標デ−タを座標レジスタに書
込み、その周縁の最暗部を検出してその座標をメモリテ
−ブルに書込み、次に座標レジスタのx座標デ−タを1
5ドット分インクリメントして第2注目点座標とする具
合に、座標デ−タを順次インクリメントして順次に注目
点を指定してもよい。また、上記実施例ではメモリテ−
ブルに注目点の座標デ−タを保持するが、RAM10又
は別途のメモリに1フレ−ム2値デ−タテ−ブルを割り
当てて、そのアドレスを多階調デ−タを書込むフレ−ム
メモリ12のアドレスと一対一に対応付けて、注目点の
座標に対応する2値デ−タテ−ブルアドレスに、「注目
点」を示す「1」を書込むことにより注目点位置情報を
2値デ−タテ−ブルに保持し、注目点を確認(サ−チ又
は読出し)するときには、アドレスを順次に更新して2
値デ−タテ−ブルのデ−タを順次に読出し、読出しデ−
タが「1」(注目点)のときの読出しアドレスをセ−ブ
(注目点のアドレスとして摘出)すればよい。
In the above embodiment, the coordinates of the points of interest dispersed in advance at a predetermined pitch are written in the memory table, but this writing is omitted, and instead, for example, the first points of interest (68,
200) and write the coordinate data to the coordinate register, detect the darkest part of the periphery and write the coordinates to the memory table, and then set the x coordinate data of the coordinate register to 1
The coordinate data may be sequentially incremented and the points of interest may be sequentially specified, such that the coordinates of the second points of interest are incremented by 5 dots. In the above embodiment, the memory table is
Although the coordinate data of the target point is held in the blue memory, a frame memory for allocating one frame binary data table to the RAM 10 or a separate memory and writing the address to the multi-gradation data. The point of interest position information is binary-coded by writing "1" indicating the "point of interest" in the binary data table address corresponding to the coordinates of the point of interest in a one-to-one correspondence with the 12 addresses. -When the data is held in the table and the point of interest is confirmed (searched or read), the address is sequentially updated to 2
The data of the value data table is sequentially read and the read data is read.
The read address when the data is "1" (point of interest) may be saved (extracted as the address of the point of interest).

【0056】[0056]

【発明の効果】例えば、居眠り,余所見あるいはその他
何らかの事情でドライバの頭が下がる(顔が下を向く)
とか、横到れになるとか、横向きになるとき又はなった
ときには、画像情報処理手段(6,8)による眼位置(m1,n1/
m2,n2)検出がエラ−又は不可能となるが、このような場
合検証手段(6,8)が警報手段(5)を付勢する。これにより
警報が発っせられ、この警報はドライバに注意を喚起す
る。
[Effects of the Invention] For example, the driver's head goes down (face turns down) due to drowsiness, extra sight, or some other reason.
When, or when it comes to the sideways, or sideways, when the eye position by the image information processing means (6, 8) (m 1 , n 1 /
The detection of m 2 , n 2 ) becomes error or impossible. In such a case, the verification means (6, 8) activates the alarm means (5). This triggers an alarm, which alerts the driver.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の一実施例の構成を示すブロック図で
ある。
FIG. 1 is a block diagram showing a configuration of an exemplary embodiment of the present invention.

【図2】 図1に示すCCDカメラ3,照明ランプ4お
よびブザー5の配置外観を示す斜視図である。
FIG. 2 is a perspective view showing the external appearance of the arrangement of a CCD camera 3, an illumination lamp 4 and a buzzer 5 shown in FIG.

【図3】 図1に示すマイクロプロセッサ6の処理内容
の概要を示すフローチャートである。
3 is a flowchart showing an outline of processing contents of a microprocessor 6 shown in FIG.

【図4】 図3に示す「小領域での暗点検出」(3)の
処理内容を示すフローチャートである。
FIG. 4 is a flowchart showing the processing content of “dark spot detection in a small area” (3) shown in FIG.

【図5】 図3に示す「判定」(4)の処理内容を示す
フローチャートである。
FIG. 5 is a flowchart showing the processing contents of “determination” (4) shown in FIG.

【図6】 図5に示す「孤立点の削除」(41)の処理
内容を示すフローチャートである。
FIG. 6 is a flowchart showing the processing content of “deletion of isolated point” (41) shown in FIG.

【図7】 図5に示す「注目点近傍の他注目点の削除」
(42)の処理内容を示すフローチャートである。
[FIG. 7] “Delete other attention points near the attention point” shown in FIG.
It is a flowchart which shows the processing content of (42).

【図8】 図5に示す「十字階調差による削除」(4
3)の処理内容を示すフローチャートである。
FIG. 8 shows “deletion due to cross gradation difference” (4
It is a flowchart which shows the processing content of 3).

【図9】 図5に示す「テンプレートマッチングによる
削除」(44)の処理内容を示すフローチャートであ
る。
9 is a flowchart showing the processing contents of "deletion by template matching" (44) shown in FIG.

【図10】 図5に示す「斜め方向階調差による削除」
(45)の処理内容を示すフローチャートである。
[FIG. 10] “Delete due to gradation difference in diagonal direction” shown in FIG.
It is a flowchart which shows the processing content of (45).

【図11】 図5に示す「近傍注目点の統合」(47)
の処理内容を示すフローチャートである。
[FIG. 11] “Integration of neighboring points of interest” shown in FIG. 5 (47)
5 is a flowchart showing the processing contents of FIG.

【図12】 図5に示す「注目点数の判定」(48)の
処理内容を示すフローチャートである。
FIG. 12 is a flowchart showing the processing contents of “determination of the number of points of interest” (48) shown in FIG.

【図13】 図5に示す「注目点の検証」(49)の処
理内容を示すフローチャートである。
FIG. 13 is a flowchart showing the processing content of “verification of attention point” (49) shown in FIG.

【図14】 図3に示す「追跡」(5)の処理内容を示
すフローチャートである。
FIG. 14 is a flowchart showing the processing content of “tracking” (5) shown in FIG.

【図15】 図3に示す「追跡」(5)の処理内容を示
すフローチャートである。
FIG. 15 is a flowchart showing the processing content of “tracking” (5) shown in FIG.

【図16】 フレームメモリ12に書込む画像データの
一画面分布に425個の注目点を配置した様子を示す状
態図である。
16 is a state diagram showing a state in which 425 points of interest are arranged in one screen distribution of image data to be written in the frame memory 12. FIG.

【図17】 人の眼の縦方向と横方向の大きさを示すブ
ロック図である。
FIG. 17 is a block diagram showing vertical and horizontal sizes of a human eye.

【図18】 図1に示すRAM10のメモリテーブルの
内容を示すブロック図である。
18 is a block diagram showing the contents of a memory table of RAM 10 shown in FIG.

【図19】 2個の注目点が人の両眼の位置を特定する
様子を示す状態図である。
FIG. 19 is a state diagram showing how two attention points specify the positions of both eyes of a person.

【符号の説明】[Explanation of symbols]

3:CCDカメラ 4:照明ランプ 5:ブザー 6,8:マイクロ
プロセッサ 7:アドレスバス&コントロールバス 9:ROM 10:RAM 12:フレームメモリ 17:A/Dコン
バータ 18:赤外線ランプコントローラ 19:ブザーコン
トローラ SSW:ストップスイッチ
3: CCD camera 4: Illumination lamp 5: Buzzer 6, 8: Microprocessor 7: Address bus & control bus 9: ROM 10: RAM 12: Frame memory 17: A / D converter 18: Infrared lamp controller 19: Buzzer controller SSW : Stop switch

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】車両上ドライバを撮影する2次元撮像手
段;警報手段;2次元撮像手段が撮影した画像を、前記
ドライバの眼位置の検出のために処理する画像情報処理
手段;該画像情報処理手段が眼位置と決定した位置が、
前記撮影画面上の、画面面積より小さい所定領域の内か
外かを判定し外れているときには前記警報手段を付勢す
る検証手段;および、 該検証手段が所定領域内と判定したとき前記2次元撮像
手段が繰返し撮影する画面上における眼位置を追跡する
追跡手段;を備える、車両上ドライバの眼を監視する装
置。
1. A two-dimensional image pickup means for photographing a driver on a vehicle; a warning means; an image information processing means for processing an image photographed by the two-dimensional image pickup means for detecting the eye position of the driver; The position determined by the means as the eye position is
Verification means for activating the alarm means when it is determined whether it is inside or outside a predetermined area smaller than the screen area on the photographing screen; and the two-dimensional when the verification means determines that the area is within the predetermined area. An apparatus for monitoring the eyes of a driver on a vehicle, comprising: a tracking unit that tracks an eye position on a screen that is repeatedly captured by an image capturing unit.
【請求項2】検証手段は更に、追跡手段が追跡で得た眼
位置が、前記撮影画面上の、画面面積より小さい所定領
域の内か外かを判定し外れているときには前記警報手段
を付勢する請求項1記載の、車両上ドライバの眼を監視
する装置。
2. The verification means further includes the alarm means when determining whether the eye position obtained by the tracking by the tracking means is inside or outside a predetermined area smaller than the screen area on the photographing screen. The device for monitoring the eyes of a driver on a vehicle according to claim 1, wherein the device is a moving device.
【請求項3】追跡手段が追跡した眼位置の眼像が眼開と
眼閉のいずれかを検出し、眼閉と検出したときには警報
手段を付勢する居眠り検出手段;を更に備える請求項1
又は請求項2記載の、車両上ドライバの眼を監視する装
置。
3. The drowsiness detecting means for detecting whether the eye image at the eye position tracked by the tracking means detects either eye opening or eye closing and activating the alarm means when the eye image is detected.
Alternatively, the device for monitoring the eyes of a driver on a vehicle according to claim 2.
【請求項4】画像情報処理手段は、2次元撮像手段で得
る画像信号を多階調を表わすための画像デ−タに変換し
て記憶手段に記憶し、所定ピッチ又はランダムに注目点
を指定して各注目点につき、それを基準にした所定小領
域内の前記画像デ−タの最大又は最小位置を検出して、
検出した最大又は最小位置に注目点の位置を変更し、孤
立注目点を消去し互に近接する注目点は間引き、そし
て、残った注目点を基準にした所定小領域内の前記画像
デ−タ、ならびに、眼像の撮影画面上に現われる特徴に
従って予め定められた判別論理、に従って該所定小領域
内に眼があるか否かを検出する、請求項1,請求項2又
は請求項3記載の、車両上ドライバの眼を監視する装
置。
4. The image information processing means converts the image signal obtained by the two-dimensional image pickup means into image data for representing multi-gradation and stores it in the storage means, and designates a point of interest at a predetermined pitch or randomly. Then, for each point of interest, the maximum or minimum position of the image data in a predetermined small area based on it is detected,
The position of the point of interest is changed to the detected maximum or minimum position, the isolated points of interest are erased, the points of interest that are close to each other are thinned, and the image data in a predetermined small area based on the remaining points of interest are used as the reference. , And whether or not there is an eye in the predetermined small area according to a discriminant logic that is predetermined according to the feature that appears on the shooting screen of the eye image. , A device for monitoring the eyes of a driver on a vehicle.
JP14215093A 1993-06-14 1993-06-14 Monitor of driver's eyes on vehicle Pending JPH06344801A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14215093A JPH06344801A (en) 1993-06-14 1993-06-14 Monitor of driver's eyes on vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14215093A JPH06344801A (en) 1993-06-14 1993-06-14 Monitor of driver's eyes on vehicle

Publications (1)

Publication Number Publication Date
JPH06344801A true JPH06344801A (en) 1994-12-20

Family

ID=15308530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14215093A Pending JPH06344801A (en) 1993-06-14 1993-06-14 Monitor of driver's eyes on vehicle

Country Status (1)

Country Link
JP (1) JPH06344801A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190037701A (en) * 2017-09-29 2019-04-08 주식회사 루멘스 Sleepiness prevention apparatus for vehicle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190037701A (en) * 2017-09-29 2019-04-08 주식회사 루멘스 Sleepiness prevention apparatus for vehicle

Similar Documents

Publication Publication Date Title
US7784943B2 (en) Eyelid detecting apparatus, eyelid detecting method and program thereof
US8224035B2 (en) Device, method and program for detecting eye
JP4135123B2 (en) Display processing device
JPH04284B2 (en)
JP2002509321A (en) Method and apparatus for detecting driver drowsiness and avoiding the drowsiness
JP3143819B2 (en) Eyelid opening detector
JP2003150942A (en) Eye position tracing method
KR100617777B1 (en) Apparatus and method for detecting driver's eye image in drowsy driving warning apparatus
JP3395344B2 (en) Image processing device and doze alarm device using the same
JPH07181012A (en) Feature amount detector for image data
JP2009265722A (en) Face direction sensing device
JPH06262959A (en) Alarm device for distracting driving
JP3312562B2 (en) Dozing state detection device
JPH06293228A (en) On-vehicle crew identification device
JPH06278495A (en) Device to prevent dozing at the wheel
JPH06344801A (en) Monitor of driver's eyes on vehicle
JPH06348980A (en) Device for monitoring eyes of driver on vehicle
JPH06270712A (en) Inattentive driving alarming device
JPH04174309A (en) Driver's eye position detecting apparatus and condition detecting apparatus
JP3779229B2 (en) Identification method, identification device, and traffic control system
KR20230060374A (en) Face verification system, vehicle comprising the same and face verification method
JPH06262958A (en) Detector for closing of moving body for opening/closing opening
JPH06270710A (en) Asleep drive alarming device
JP2000301962A (en) Eye condition detecting device and alarm device for sleep during driving
JP3057996B2 (en) Eye position detection device for vehicle driver