JPH0944680A - Eye zone extracting device for moving image - Google Patents

Eye zone extracting device for moving image

Info

Publication number
JPH0944680A
JPH0944680A JP19063795A JP19063795A JPH0944680A JP H0944680 A JPH0944680 A JP H0944680A JP 19063795 A JP19063795 A JP 19063795A JP 19063795 A JP19063795 A JP 19063795A JP H0944680 A JPH0944680 A JP H0944680A
Authority
JP
Japan
Prior art keywords
eye
search area
image
area
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP19063795A
Other languages
Japanese (ja)
Inventor
Makihito Seki
真規人 関
Mitsuo Shitaya
光生 下谷
Toshihide Satake
敏英 佐竹
Minoru Nishida
稔 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP19063795A priority Critical patent/JPH0944680A/en
Publication of JPH0944680A publication Critical patent/JPH0944680A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an eye zone extracting device for moving image with which erroneous extraction at the time of blinking can be reduced, the motion of face or eye with time can be dealt with and an eye zone can be efficiently extracted in a comparatively short time. SOLUTION: The image of the face of a detection object person 1 is time sequentially and continuously photographed by a photographing means 10, the moving image is provided, and the eye zone is extracted by an extracting means 22 in the search area set to a current image by a search area setting means 21. Especially, the search area setting means 21 sets any one of the position of search area, size, number and shape corresponding to the extracted result of eye zone in the image in the past at least. Besides, the extracting means 22 judges the opening/closing state of eyes.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、検出対象者の顔
面を時系列的に撮影した動画像から、目領域を抽出する
動画像の目領域抽出装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image eye area extracting apparatus for extracting an eye area from a moving image obtained by time-sequentially capturing the face of a person to be detected.

【0002】[0002]

【従来の技術】従来のこの種の装置として、例えば、特
開平4−174309号公報に示されている装置では、
顔画像から目領域を抽出する際に、一つの顔画像内で抽
出範囲を限定して行なっている。例えば撮影手段で検出
対象者の顔面の画像を連続して撮影し、その一つの静止
画像に対し、二値化処理を施した後、目の存在範囲を限
定して探索域とし、その探索域内で目領域を抽出してい
る。
2. Description of the Related Art As a conventional device of this type, for example, in the device disclosed in Japanese Patent Laid-Open No. 4-174309,
When extracting the eye region from the face image, the extraction range is limited within one face image. For example, the image of the face of the person to be detected is continuously photographed by the photographing means, the one still image is binarized, and then the existence range of the eyes is limited to be the search area. The eye area is extracted with.

【0003】以下に、この装置の探索域の設定方法を更
に詳しく説明する。検出対象者の顔面を撮影した一つの
静止画像を、白色/黒色に二値化処理する。この二値化
処理後の二値画像の中央部から少なくとも左右一方に走
査し、連続する白色画素数を計算する。この場合、白色
は顔面を示し、黒色は背景や顔面の各部、例えば眉毛や
目などを示している。次に、白色画素数が横方向に最大
となる部分の端点を顔面の端と特定し、一般的な顔幅か
ら目の探索域の横方向の位置を決定する。そして、横方
向だけ決定した探索域内で、縦方向の下から黒色画素の
領域の下端部、即ち目領域の下端部を検出し、これと一
般的な目の縦方向の大きさとに基づいて、目の探索域の
縦方向の位置を決定する。この装置では、このようにし
て決定した探索域から目領域を抽出している。
The method of setting the search area of this apparatus will be described in more detail below. One still image obtained by photographing the face of the person to be detected is binarized into white / black. The number of continuous white pixels is calculated by scanning at least one of the left and right sides from the center of the binary image after this binarization processing. In this case, white indicates the face, and black indicates the background and each part of the face, such as eyebrows and eyes. Next, the end point of the portion where the number of white pixels is maximum in the horizontal direction is specified as the end of the face, and the horizontal position of the eye search area is determined from the general face width. Then, in the search area determined only in the horizontal direction, the lower end of the black pixel area from the bottom in the vertical direction, that is, the lower end of the eye area is detected, and based on this and the general vertical size of the eye, Determine the vertical position of the eye search area. In this device, the eye region is extracted from the search area thus determined.

【0004】この目領域抽出装置によって抽出した目領
域の形状などから目の開閉状態が判定され、その結果を
人物の状態、例えば、居眠りの状態を判定することなど
に適用している。居眠りなどの状態を判定する場合に
は、撮影手段から時系列的に連続して得られる画像、即
ち動画像に対して続けて目領域を抽出し、目の開閉状態
を判定する必要がある。この場合、撮影手段から時系列
的に連続して得られる複数の画像のそれぞれに対して、
上記のように探索域を決定し、目領域を抽出していた。
The eye open / closed state is determined from the shape of the eye region extracted by the eye region extracting device, and the result is applied to determine the state of a person, for example, the state of dozing. In the case of determining a state such as dozing, it is necessary to continuously extract eye regions from images obtained in a time series from the photographing means, that is, moving images, and determine the open / closed state of the eyes. In this case, for each of the plurality of images obtained in a time series from the photographing means,
The search area was determined as described above, and the eye area was extracted.

【0005】また、目領域として網膜反射像を抽出し、
目の開閉状態を判定する装置もあった。例えば、特開平
6−261863号公報や特開平6−270711号公
報に示されており、その簡略構成を図17に示す。図に
おいて、11はLED光源、12はハーフミラーであ
り、LED光源11からの照明光の照射軸とカメラ10
の光軸がほぼ同軸になるように設置している。13はL
ED光源11に電流を送るLED駆動回路である。この
ように構成された装置では、カメラ10で検出対象者1
の顔面を撮影すると、眼球の網膜からの反射像が明るく
光って撮影することができる。この網膜反射像を瞳孔領
域として抽出し、目の開閉状態を判定して、視線検出や
覚醒度検出に利用している。
Further, a retina reflection image is extracted as an eye region,
There was also a device for determining the open / closed state of the eyes. For example, it is shown in JP-A-6-261863 and JP-A-6-270711, and a simplified configuration thereof is shown in FIG. In the figure, 11 is an LED light source, 12 is a half mirror, and the irradiation axis of the illumination light from the LED light source 11 and the camera 10 are shown.
They are installed so that their optical axes are almost coaxial. 13 is L
It is an LED drive circuit that sends a current to the ED light source 11. In the device configured as described above, the camera 10 detects the person 1 to be detected.
When the face is photographed, the reflected image from the retina of the eyeball shines brightly and can be photographed. This retina reflection image is extracted as a pupil region, the open / closed state of the eyes is determined, and this is used for detecting the line of sight and detecting the awakening level.

【0006】[0006]

【発明が解決しようとする課題】従来の目領域抽出装置
は以上のように構成されているので、動画像から続けて
目領域を抽出する場合、撮影手段から時系列的に連続し
て得られる複数の画像のそれぞれに対して、画像全体の
画素をサーチして探索域を決定し、目領域を抽出してい
た。このため、目領域の抽出に時間がかかるという問題
点があった。
Since the conventional eye area extracting device is constructed as described above, when the eye area is continuously extracted from the moving image, it is continuously obtained from the photographing means in time series. For each of the plurality of images, the search region is determined by searching the pixels of the entire image, and the eye region is extracted. Therefore, there is a problem that it takes time to extract the eye region.

【0007】また、動画像の場合、瞬目によって開眼、
閉眼、中途半端な閉眼というように抽出対象が変動して
いる。この結果、従来装置では開眼時には目領域を含む
探索域を正しく設定することができるが、閉眼時には目
領域を含まず、誤って他の黒色領域、例えば眉毛などを
含む探索域が設定されることになってしまう。
In the case of a moving image, the eyes are opened by blinking,
The extraction target is changing, such as closed eyes or half-closed eyes. As a result, in the conventional device, the search area including the eye area can be correctly set when the eyes are opened, but the eye area is not included when the eyes are closed, and a search area including another black area, for example, eyebrows is erroneously set. Become.

【0008】さらに、検出対象者の顔面もじっと静止し
ているわけではなく、常に多少は動いており、時系列的
に連続して得た複数の画像に対して、位置や大きさを固
定した探索域によって目領域を抽出するのは困難である
という問題点があった。
Furthermore, the face of the person to be detected is not still stationary, but is constantly moving a little, and the position and size are fixed with respect to a plurality of images obtained continuously in time series. There is a problem that it is difficult to extract the eye region by the search area.

【0009】また、眼鏡を装着した人を検出対象者とし
た場合、得られた画像には抽出したい目領域の近くに眼
鏡が撮影され、このために抽出すべき目領域を含まない
探索域を設定してしまうこともあった。
Further, when the person wearing the eyeglasses is the detection target person, the eyeglasses are photographed in the obtained image in the vicinity of the eye region to be extracted, and for this reason, a search area that does not include the eye region to be extracted is set. Sometimes I set it.

【0010】また、動画像において連続して目領域が抽
出できている場合とそうでない場合では、前回抽出した
画像から現在の画像までの経過時間が異なり、この間に
目の動く範囲が異なるはずである。このため、探索域の
位置や大きさを常に一定にしていたのでは、探索域内に
目領域が含まれていなかったり、目領域の他に眉毛など
必要ない部分を含んでしまったりする。
Further, the elapsed time from the previously extracted image to the current image is different depending on whether the eye region is continuously extracted in the moving image or not, and the eye moving range must be different during this time. is there. For this reason, if the position and size of the search area are always constant, the eye area may not be included in the search area, or unnecessary parts such as eyebrows may be included in addition to the eye area.

【0011】図18は、図17に示した撮影装置によっ
て撮影した目の近傍の撮影画像を示す説明図である。こ
の検出対象者1は眼鏡を装着しているとする。図におい
て、31は眼鏡、32は目、33は網膜反射像、34は
フレーム反射像、35はレンズ反射像である。この図に
示すように、検出対象者1が眼鏡を装着している場合に
は、網膜反射像33だけでなく、眼鏡のレンズ反射像3
5やフレーム反射像34も撮影されてしまうため、これ
らの反射像34,35と網膜反射像33を識別して抽出
しなければならず抽出処理が困難になる。例えば、探索
域を領域Aのように設定すると、網膜反射像33とレン
ズ反射像35やフレーム反射像34とは類似しているた
め、探索域A内に含まれる眼鏡のレンズ反射像35やフ
レーム反射像34を網膜反射像として抽出してしまう可
能性が高い。このように最適な探索域を設定するのはた
いへん困難である。
FIG. 18 is an explanatory view showing a photographed image of the vicinity of the eye photographed by the photographing device shown in FIG. It is assumed that the detection target person 1 wears glasses. In the figure, 31 is eyeglasses, 32 is eyes, 33 is a retina reflection image, 34 is a frame reflection image, and 35 is a lens reflection image. As shown in this figure, when the detection target person 1 wears spectacles, not only the retina reflection image 33 but also the lens reflection image 3 of the spectacles.
Since the image 5 and the frame reflection image 34 are also photographed, these reflection images 34 and 35 and the retina reflection image 33 must be identified and extracted, which makes extraction processing difficult. For example, when the search area is set to the area A, the retinal reflection image 33 and the lens reflection image 35 and the frame reflection image 34 are similar to each other, and thus the lens reflection image 35 and the frame of the glasses included in the search area A are included. There is a high possibility that the reflection image 34 will be extracted as a retina reflection image. Thus, it is very difficult to set the optimum search area.

【0012】この発明は、上記のような従来の問題点を
解消するためになされたもので、動画像に対して、目領
域の誤抽出を防止でき、顔や目の時間的な動きに対応で
き、比較的短時間で精度よく目領域を抽出できる動画像
の目領域抽出装置を得ることを目的とする。
The present invention has been made in order to solve the above-mentioned conventional problems, and it is possible to prevent erroneous extraction of an eye region from a moving image and cope with temporal movement of the face and eyes. It is an object of the present invention to provide a moving image eye area extracting device that can perform eye area extraction with high accuracy in a relatively short time.

【0013】また、眼鏡を装着している検出対象者に対
しても、目領域の誤抽出を防止できる動画像の目領域抽
出装置を得ることを目的とする。
It is another object of the present invention to provide a moving image eye area extracting apparatus capable of preventing the eye area from being erroneously extracted even for a detection target person wearing eyeglasses.

【0014】[0014]

【課題を解決するための手段】この発明の請求項1に係
る動画像の目領域抽出装置は、検出対象者の顔面の画像
を時系列的に連続して撮影することにより動画像を得る
撮影手段、時系列的に撮影した画像のうちの現在の画像
に対して探索域を設定する探索域設定手段、並びに探索
域内で目領域を抽出する抽出手段を備え、探索域設定手
段は、探索域の位置、大きさ、数、および形のうちの少
なくとも1つを、過去の画像における目領域の抽出結果
に応じて設定可変としたものである。
According to a first aspect of the present invention, a moving image eye area extracting apparatus obtains a moving image by continuously taking images of the face of a detection target person in time series. Means, a search area setting means for setting a search area for a current image among the images captured in time series, and an extracting means for extracting an eye area in the search area. At least one of the position, size, number, and shape of is set variable according to the extraction result of the eye region in the past image.

【0015】また、この発明の請求項2に係る動画像の
目領域抽出装置は、検出対象者の顔面の画像を時系列的
に連続して撮影することにより動画像を得る撮影手段、
時系列的に撮影した画像のうちの現在の画像に対して探
索域を設定する探索域設定手段、並びに探索域内で目領
域を抽出し、目の開閉状態を判定する抽出手段を備え、
探索域設定手段は、探索域の位置、大きさ、数、および
形のうちの少なくとも1つを、過去の画像における目の
開閉判定結果に応じて設定可変としたものである。
According to a second aspect of the present invention, there is provided a moving image eye area extracting device, which is a photographing means for obtaining a moving image by continuously photographing the images of the face of the person to be detected in time series.
A search area setting means for setting a search area with respect to the current image among the images captured in time series, and an extraction means for extracting an eye area in the search area and determining the open / closed state of the eyes,
The search area setting means is such that at least one of the position, size, number, and shape of the search area can be set and changed according to the eye open / closed determination result in the past image.

【0016】また、この発明の請求項3に係る動画像の
目領域抽出装置は、請求項1または請求項2に加え、探
索域設定手段は、直前の画像における目領域の抽出の有
無と、直前から過去側の画像における抽出の有無の継続
時間とに応じて、現在の画像に対する探索域の大きさを
設定可変としたものである。
According to a third aspect of the present invention, in addition to the first or second aspect, the moving image eye area extracting device has a search area setting means that determines whether or not the eye area is extracted in the immediately preceding image. The size of the search area for the current image is variable according to the duration of the presence / absence of extraction in the immediately preceding image to the past image.

【0017】また、この発明の請求項4に係る動画像の
目領域抽出装置は、請求項1または請求項2または請求
項3に加え、抽出手段で抽出した過去の目領域から、動
画像における目領域の移動ベクトルを算出し、この移動
ベクトルから現在の画像における目領域の位置を推定す
る位置推定手段を備え、探索域設定手段は、位置推定手
段の推定結果に基づいて、現在の画像における探索域の
位置を設定するようにしたものである。
According to a fourth aspect of the present invention, in addition to the first or second or third aspect of the present invention, the moving image eye area extracting device extracts a moving image from a past eye area extracted by the extracting means. The position estimation means for calculating the movement vector of the eye area and estimating the position of the eye area in the current image from the movement vector is provided, and the search area setting means is based on the estimation result of the position estimation means. The position of the search area is set.

【0018】[0018]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

実施の形態1.この発明の実施の形態1による動画像の
目領域抽出装置について説明する。この実施の形態は、
実際の目のモデルとして、例えば幅4cm、高さ2cm
の目モデルを想定し、探索域の大きさを目モデルに基づ
いて設定している。なお、瞬目時とは、瞬目による閉眼
や中途半端な閉眼状態を言う。図1は、実施の形態1に
よる動画像の目領域抽出装置を示すブロック図である。
図において、1は検出対象者の顔面、10は検出対象者
1の顔画像を時系列的に連続して撮影することにより動
画像を得る撮影手段で例えばカメラ、20はカメラ10
から出力される画像信号を一時記憶する画像メモリ、2
1は検出対象者1の現在の顔画像に対して探索域を設定
する探索域設定手段で、例えば左右の目領域を抽出する
ための探索域を、左右の目に対して独立して設定する探
索域設定回路、22は探索域設定回路21で設定した探
索域内で目領域を抽出し、目の開閉状態を判定する抽出
手段で、例えば特徴抽出回路である。なお、目の開閉状
態の判定は、開眼,閉眼の2種類としてもよく、またど
のくらい目を閉じたかを判定するものであってもよい。
Embodiment 1. A moving image eye area extracting apparatus according to Embodiment 1 of the present invention will be described. In this embodiment,
As an actual eye model, for example, width 4 cm, height 2 cm
Assuming the eye model, the size of the search area is set based on the eye model. The term “blinking” refers to a state in which the eyes are closed due to blinking or the eyes are closed halfway. FIG. 1 is a block diagram showing a moving image eye area extracting apparatus according to the first embodiment.
In the figure, 1 is a face of a detection target person, 10 is a photographing means for obtaining a moving image by continuously photographing the face image of the detection target person 1 in time series, for example, a camera, 20 is a camera 10.
Image memory for temporarily storing the image signal output from 2
Reference numeral 1 is a search area setting means for setting a search area for the current face image of the detection target person 1. For example, the search areas for extracting the left and right eye areas are independently set for the left and right eyes. A search area setting circuit, 22 is an extraction unit that extracts an eye area in the search area set by the search area setting circuit 21 and determines the open / closed state of the eye, and is, for example, a feature extraction circuit. It should be noted that the determination of the open / closed state of the eyes may be performed with two types of eyes open and eyes closed, and how long the eyes are closed may be determined.

【0019】以下、実施の形態1に係る処理について説
明する。図2は実施の形態1に係る処理を示すフローチ
ャートである。ステップS101で装置が起動された
後、探索域設定回路21において画像全体を探索域とす
る初期探索域を設定する(ステップS102)。ステッ
プS103ではカメラ10で検出対象者1の顔画像を撮
影し、画像メモリ20に入力して記憶する。次に、特徴
抽出回路22は、今撮影した現在の画像を画像メモリ2
0より入力し、探索域設定回路21からは現在の画像に
対する探索域として初期探索域を入力する。そして例え
ばこの探索域内の画像を白色/黒色に二値化処理し、探
索して左右の目領域を抽出する(ステップS104)。
この探索域が適当に設定されていれば、二値化後の画像
は、顔の白色画素の中に目の部分が黒色画素で存在して
いる。したがって黒色画素を検出することにより、容易
に目領域を抽出できる。そして、ステップS105で、
抽出した目領域の形状などから目の開閉状態を判定す
る。ただし、目領域が抽出できなかった場合は、閉眼状
態であるとみなす。判定後、ステップS106で目領域
の中心座標値を基に次の画像用として探索域を設定しな
おす。ステップS103からステップS106の処理を
例えば30msの間隔で繰り返し行なう。
The processing according to the first embodiment will be described below. FIG. 2 is a flowchart showing the processing according to the first embodiment. After the apparatus is started in step S101, the search area setting circuit 21 sets an initial search area having the entire image as a search area (step S102). In step S103, the camera 10 captures a face image of the person to be detected 1 and inputs it to the image memory 20 for storage. Next, the feature extraction circuit 22 uses the image memory 2 to store the current image just captured.
Input from 0, and the search area setting circuit 21 inputs the initial search area as the search area for the current image. Then, for example, the image in this search area is binarized into white / black, and the search is performed to extract the left and right eye areas (step S104).
If this search area is set appropriately, in the binarized image, the eyes are black pixels in the white pixels of the face. Therefore, the eye region can be easily extracted by detecting the black pixel. Then, in step S105,
The open / closed state of the eye is determined based on the shape of the extracted eye region. However, if the eye region cannot be extracted, it is considered that the eye is closed. After the determination, in step S106, the search area for the next image is reset based on the center coordinate value of the eye area. The processing from step S103 to step S106 is repeated at intervals of 30 ms, for example.

【0020】図3は実施の形態1に係る探索域設定回路
21における探索域の設定方法を説明する説明図であ
り、この図に基づいて探索域の設定方法について詳しく
述べる。ここで、処理過程の現在の時刻をT、時系列の
時間間隔をΔtとする。また、画像を2次元XY座標系
で表現する。また、1つの画像は顔面付近の25.6c
m×25.6cmの範囲を撮影したものであり、それに
対応する画素数は512×512とする。直前の撮影時
刻(T−Δt)において右目領域を抽出でき、その中心
座標値を(X1,Y1)とする。この場合は、時刻Tに
おいて、例えば、 幅方向: X1−50<x<X1+50 高さ方向: Y1−30<y<Y1+30 の範囲の探索域を設定する。ただし、この算式における
50および30の値は、画像上の探索域の幅と高さの画
素数を表し、例えばこの実施の形態では以下のようにし
て決めている。幅4cm、高さ2cmの目モデルを想定
し、探索域は目モデルより大きくなるように幅と高さを
決める。目安として、目モデルの1〜5倍程度に設定す
ればよく、例えば、目モデルに余裕を加えて、幅5c
m、高さ3cmの探索域とする。この実施の形態におけ
る1つの画像では顔面上での1cmが撮影画像上での2
0画素に対応することになり、画像上では幅100画
素、高さ60画素の大きさの探索域となる。左目の探索
域も同様である。
FIG. 3 is an explanatory diagram for explaining the method of setting the search area in the search area setting circuit 21 according to the first embodiment, and the method of setting the search area will be described in detail based on this figure. Here, the current time of the process is T and the time-series time interval is Δt. Further, the image is represented by a two-dimensional XY coordinate system. Also, one image is 25.6c near the face.
The image is taken in an area of m × 25.6 cm, and the number of pixels corresponding to the image is 512 × 512. The right-eye region can be extracted at the immediately preceding shooting time (T-Δt), and its center coordinate value is set to (X1, Y1). In this case, at time T, for example, a search area in the range of: width direction: X1-50 <x <X1 + 50 height direction: Y1-30 <y <Y1 + 30 is set. However, the values of 50 and 30 in this formula represent the number of pixels of the width and height of the search area on the image, and are determined as follows in this embodiment, for example. Assuming an eye model with a width of 4 cm and a height of 2 cm, the width and height are determined so that the search area is larger than the eye model. As a guide, it may be set to about 1 to 5 times as large as the eye model.
m, height 3 cm. In one image in this embodiment, 1 cm on the face is 2 on the captured image.
This corresponds to 0 pixel, which is a search area having a width of 100 pixels and a height of 60 pixels on the image. The same applies to the search area for the left eye.

【0021】この実施の形態のように直前に抽出できた
目領域を中心として現在の画像における探索域を設定
し、この探索域内で目領域を抽出すれば、抽出時間を短
縮できる。また、瞬目時には閉眼や中途半端な閉眼が撮
影され目領域の黒色画素数が少なくなるが、瞬目前の開
眼時の抽出位置を利用して、眉毛等を含まない範囲に探
索域を設定できるので、誤抽出を防止できる。さらに抽
出した目領域の形状などから精度よく目の開閉状態を判
定することができる。
As in this embodiment, the extraction time can be shortened by setting the search area in the current image with the eye area extracted immediately before as the center and extracting the eye area within this search area. Also, when the eyeblink is closed or halfway closed, the number of black pixels in the eye area is reduced, but by using the extraction position when the eye is opened before the eyeblink, the search area can be set in a range that does not include eyebrows. Therefore, erroneous extraction can be prevented. Further, the open / closed state of the eyes can be accurately determined from the shape of the extracted eye region and the like.

【0022】実施の形態2.この実施の形態では、検出
対象者1が眼鏡を装着している場合について述べる。動
画像の目領域抽出装置の構成,主な処理は実施の形態1
と同様である。この実施の形態は、例えば幅4cm、高
さ2cmの目モデルを想定すると共に、幅6cm、高さ
4cmのレンズを持つ眼鏡モデルを想定し、探索域の大
きさを目モデルと眼鏡モデルに基づいて設定している。
撮影画像全体を二値化処理すると、眼鏡のフレームに対
する黒色画素や白色画素が存在し、目領域を抽出するの
は大変に困難であった。さらに、閉眼時や中途半端な閉
眼時などには、例えば、探索域内に含まれる眉毛や眼鏡
フレームを目領域として抽出してしまい、誤抽出になっ
てしまう可能性が高い。このため、目の開閉状態が正し
く判定できなかった。これに対し、この実施の形態では
探索域として眼鏡フレームを除くように小さい探索域を
設定し、目領域の抽出を容易にしている。さらに、この
目領域から精度よく目の開閉状態を判定できるようにし
ている。
Embodiment 2 FIG. In this embodiment, the case where the detection target person 1 wears glasses will be described. The configuration and main processing of the moving image eye area extraction device are the same as in the first embodiment.
Is the same as In this embodiment, for example, an eye model having a width of 4 cm and a height of 2 cm is assumed, and an eyeglass model having a lens having a width of 6 cm and a height of 4 cm is assumed, and the size of the search area is based on the eye model and the eyeglass model. Is set.
When the entire photographed image is binarized, there are black pixels and white pixels for the frame of the glasses, and it is very difficult to extract the eye region. Furthermore, when the eyes are closed or when the eyes are closed halfway, for example, eyebrows or spectacle frames included in the search area are extracted as eye regions, and there is a high possibility that the extraction may be erroneous. Therefore, the open / closed state of the eyes cannot be correctly determined. On the other hand, in this embodiment, a small search area is set as the search area so as to exclude the spectacle frame to facilitate extraction of the eye area. Further, the open / closed state of the eyes can be accurately determined from this eye region.

【0023】探索域設定回路21において探索域を設定
する方法を説明する。実施の形態1と同様の大きさの撮
影画像で、直前の撮影時刻(T−Δt)において右目領
域を抽出でき、その中心座標値を(X1,Y1)とす
る。この場合は、時刻Tにおいて、例えば、 幅方向: X1−45<x<X1+45 高さ方向: Y1−30<y<Y1+30 の範囲の探索域を設定する。ただし、この算式における
45および30の値は、画像上の探索域の幅と高さの画
素数を表し、例えばこの実施の形態では以下のようにし
て決めている。目モデルを幅4cm、高さ2cmとし、
かつ、幅6cm、高さ4cmのレンズを持つ眼鏡モデル
を想定する。そして、目領域が眼鏡レンズ中央に位置し
ているとみなして、探索域は、目モデルより大きく、眼
鏡レンズよりも小さくなるように幅と高さを決める。目
安として、目モデル以上で、眼鏡レンズモデルの4/5
倍程度以下に設定すればよく、例えば、幅4.5cm、
高さ3cmの探索域とする。これは画像上では幅90画
素、高さ60画素の大きさの探索域となる。この探索域
は必要以上に大きく設定すると、それだけ眉毛や眼鏡な
どが混在する可能性が高く、特に閉眼時や中途半端な閉
眼時には誤抽出につながりやすい。このため、適当な大
きさに設定している。
A method of setting the search area in the search area setting circuit 21 will be described. In the captured image of the same size as in the first embodiment, the right eye region can be extracted at the immediately preceding capturing time (T-Δt), and its center coordinate value is (X1, Y1). In this case, at time T, for example, a search area in the range of: width direction: X1-45 <x <X1 + 45 height direction: Y1-30 <y <Y1 + 30 is set. However, the values of 45 and 30 in this formula represent the number of pixels in the width and height of the search area on the image, and are determined as follows in this embodiment, for example. The eye model is 4 cm wide and 2 cm high,
Moreover, an eyeglass model having a lens with a width of 6 cm and a height of 4 cm is assumed. Then, assuming that the eye region is located at the center of the spectacle lens, the width and height are determined so that the search region is larger than the eye model and smaller than the spectacle lens. As a guide, above eye model, 4/5 of eyeglass lens model
It may be set to about twice or less, for example, a width of 4.5 cm,
The search area is 3 cm high. This is a search area having a size of 90 pixels in width and 60 pixels in height on the image. If this search area is set larger than necessary, eyebrows, eyeglasses, and the like are likely to be mixed together, and erroneous extraction is likely to occur particularly when the eyes are closed or when the eyes are closed halfway. Therefore, it is set to an appropriate size.

【0024】この実施の形態のように直前に抽出できた
目領域を中心として、眼鏡モデルを考慮した適当な大き
さの探索域を設定し、この探索域内で目領域を抽出すれ
ば、抽出時間を短縮できる。また、閉眼時や中途半端な
閉眼時には、開眼時の抽出位置を利用し、眉毛や眼鏡フ
レーム等を含まない範囲に探索域を設定でき、誤抽出を
防ぐことができる。さらに眼鏡を装着していても常に精
度よく目の開閉状態を判定することができる。
As in this embodiment, by setting a search area of an appropriate size in consideration of the eyeglass model centering on the eye area that has been extracted immediately before, and extracting the eye area within this search area, the extraction time Can be shortened. Further, when the eyes are closed or when the eyes are closed halfway, the extraction position when the eyes are opened can be used to set the search area in a range that does not include the eyebrows, eyeglass frames, etc., and erroneous extraction can be prevented. Further, even if the eyeglasses are worn, the open / closed state of the eyes can be accurately determined at all times.

【0025】実施の形態3.検出対象者1が瞬目し、閉
眼または中途半端な閉眼が撮影された場合、その画像か
ら目領域を抽出することができない。このことから、目
領域を抽出できなかった画像では、検出対象者1は閉眼
状態であるとみなすことができる。この実施の形態で
は、直前の画像で目領域を抽出できず閉眼とみなした場
合の処理について述べる。図4は実施の形態3による動
画像の目領域抽出装置の構成を示すブロック図である。
図において、23は特徴抽出回路22の抽出結果を記憶
する抽出結果記憶用メモリであり、この実施の形態にお
ける探索域設定回路21は、抽出結果記憶用メモリ23
に記憶されている過去の抽出結果を調べて、探索域を設
定する。
Embodiment 3. When the detection target person 1 blinks and the closed eye or the halfway closed eye is photographed, the eye region cannot be extracted from the image. From this, it can be considered that the detection target person 1 has the eyes closed in the image in which the eye region cannot be extracted. In this embodiment, a process in the case where the eye region cannot be extracted from the immediately previous image and the eye is regarded as closed is described. FIG. 4 is a block diagram showing the configuration of the moving image eye area extracting apparatus according to the third embodiment.
In the figure, 23 is an extraction result storage memory that stores the extraction result of the feature extraction circuit 22, and the search area setting circuit 21 in this embodiment is the extraction result storage memory 23.
The past extraction result stored in is checked and the search area is set.

【0026】以下、実施の形態3に係る処理について説
明する。図5は実施の形態3に係る処理を示すフローチ
ャートである。ステップS101〜ステップS105
は、実施の形態1と同様である。ステップS104で目
領域を抽出後、ステップS105で目領域の形状から目
の開閉状態を判定する。そして、ステップS107で目
領域の座標値を抽出結果記憶用メモリ23に記憶する。
ステップS104で目領域を抽出できなかった場合は閉
眼と判定し、その抽出結果を記憶する。その後、ステッ
プS108において、探索域設定回路21は抽出結果記
憶用メモリ23から過去の目領域の抽出結果を調べ、次
の画像用として探索域を設定しなおす。ステップS10
3からステップS108の処理を例えば30msの間隔
で繰り返し行なう。
The processing according to the third embodiment will be described below. FIG. 5 is a flowchart showing the processing according to the third embodiment. Step S101 to Step S105
Is the same as in the first embodiment. After extracting the eye region in step S104, the open / closed state of the eye is determined from the shape of the eye region in step S105. Then, in step S107, the coordinate value of the eye area is stored in the extraction result storage memory 23.
If the eye region cannot be extracted in step S104, it is determined that the eye is closed and the extraction result is stored. After that, in step S108, the search area setting circuit 21 checks the extraction result of the past eye area from the extraction result storage memory 23 and resets the search area for the next image. Step S10
The process from 3 to step S108 is repeated at intervals of, for example, 30 ms.

【0027】以下、探索域設定回路21における探索域
の設定方法を図6に基づいて詳しく説明する。この実施
の形態では、目領域を時間的に連続して抽出できている
ときは、小さな探索域を設定し、瞬目などにより一時的
に目領域を抽出できず閉眼とみなした場合は、やや大き
な探索域を設定し、所定時間以上抽出できず閉眼とみな
した場合は、さらに大きな探索域を設定する。そして、
再び目領域を抽出できたら、小さな探索域に戻す。
Hereinafter, a method of setting the search area in the search area setting circuit 21 will be described in detail with reference to FIG. In this embodiment, when the eye region can be continuously extracted in time, a small search area is set, and when the eye region cannot be temporarily extracted due to a blink or the like and the eye is regarded as closed eyes, If a large search area is set and it is considered that the eyes cannot be extracted for a predetermined time or longer and the eyes are closed, a larger search area is set. And
When the eye area can be extracted again, return to the small search area.

【0028】図6は実施の形態3に係る探索域設定回路
21における探索域の設定方法を説明する説明図であ
る。直前の撮影時刻(T−Δt)において右目領域を抽
出できた場合は、実施の形態1と同様、抽出した中心座
標値(X1,Y1)に基づいて、 幅方向: X1−50<x<X1+50 高さ方向: Y1−30<y<Y1+30 の範囲の探索域を設定する。この30画素および50画
素の値は、実施の形態1で述べた目モデルから設定して
いる。
FIG. 6 is an explanatory diagram for explaining a search area setting method in the search area setting circuit 21 according to the third embodiment. When the right-eye area can be extracted at the immediately preceding shooting time (T-Δt), as in the first embodiment, based on the extracted center coordinate values (X1, Y1), the width direction: X1-50 <x <X1 + 50. Height direction: A search area in the range of Y1-30 <y <Y1 + 30 is set. The values of 30 pixels and 50 pixels are set based on the eye model described in the first embodiment.

【0029】図6(a)に示すように、直前の撮影時刻
(T−Δt)において右目領域を抽出できず閉眼とみな
した場合は、それ以前の所定時間内(図6(a)ではT
−2Δt)に抽出できた時の座標値(X2,Y2)を使
って、直前の撮影時刻(T−Δt)で抽出できた場合の
探索域より大きな探索域を設定する。例えば、 幅方向: X2−100<x<X2+100 高さ方向: Y2− 60<y<Y2+ 60 の範囲の探索域を設定する。ただし、100 および 6
0の値は、直前の目領域が抽出できた場合の探索域の2
倍の大きさになるように決めただけで、100および6
0である必要はない。直前の画像において目領域を抽出
できず閉眼とみなした場合には、2つ分の撮影時間間隔
に目が移動し得るので、その距離を考慮して決めてもよ
い。左目の探索域も同様である。
As shown in FIG. 6A, when the right eye region cannot be extracted at the immediately preceding photographing time (T-Δt) and the eye is regarded as closed, within a predetermined time before that (T in FIG. 6A).
Using the coordinate values (X2, Y2) when extracted at −2Δt), a search area larger than the search area when extracted at the immediately preceding shooting time (T−Δt) is set. For example, a search area in the range of: width direction: X2-100 <x <X2 + 100 height direction: Y2-60 <y <Y2 + 60 is set. However, 100 and 6
A value of 0 is 2 in the search area when the previous eye area could be extracted.
Just decided to double the size, 100 and 6
It need not be zero. If the eye area cannot be extracted in the immediately preceding image and the eye is regarded as closed, the eye can move in the imaging time interval of two, and therefore the distance may be taken into consideration for the determination. The same applies to the search area for the left eye.

【0030】さらに、図6(b)に示すように、直前の
撮影時刻(T−Δt)より以前に所定時間、例えば30
0msの間、続けて右目領域が抽出できず閉眼とみなし
た場合は、画像全体を探索域として設定する。左目の探
索域も同様である。
Further, as shown in FIG. 6 (b), a predetermined time, for example, 30 minutes before the immediately preceding photographing time (T-Δt).
When the right eye region cannot be continuously extracted for 0 ms and it is considered that the eye is closed, the entire image is set as the search area. The same applies to the search area for the left eye.

【0031】ここでは、100画素×60画素,200
画素×120画素,画像全体(512画素×512画
素)の3種類の大きさの探索域を予め設け、過去の抽出
結果に応じてこの中から1つの探索域を選んで設定する
目領域抽出装置を示したが、2種類の大きさの探索域の
中で設定するように構成してもよい。また、連続して目
領域を抽出した時間に応じて探索域を小さく設定した
り、連続して目領域を抽出できず閉眼とみなした時間に
応じて大きな探索域を設定するようにして、多段階の探
索域を設定してもよい。
Here, 100 pixels × 60 pixels, 200 pixels
An eye area extraction device in which search areas of three sizes of pixels × 120 pixels and the entire image (512 pixels × 512 pixels) are provided in advance, and one search area is selected and set from these in accordance with past extraction results. However, it may be configured to be set in the search areas of two sizes. In addition, a small search area is set according to the time when the eye area is continuously extracted, or a large search area is set according to the time when the eye area cannot be continuously extracted and the eye is regarded as closed. You may set the search area of a step.

【0032】また、図6(a),(b)において、直前
の撮影時刻(T−Δt)に左右の目領域のうちどちらか
一方だけ抽出できている場合は、図7のように、抽出で
きた目領域の座標値(X1,Y1)を用いて抽出できな
かった方の探索域の位置を決めてもよい。例えば、 幅方向: (X1+m1)−100<x<(X1+m
1)+100 高さ方向: (Y1+m2)− 60<y<(Y1+m
2)+ 60 の範囲の探索域を設定する。ただし、m1,m2は定数
とし、画像上の左右の目のおおよその間隔を設定すれば
よく、例えば、図7では、幅方向はm1=150,高さ
方向はm2=0とした。探索域の大きさは、図6(a)
と同じである。なお、直前の撮影時刻(T−Δt)に抽
出できた目領域の方は、実施の形態1と同様にして探索
域を設定する。
Further, in FIGS. 6A and 6B, when only one of the left and right eye regions can be extracted at the immediately preceding photographing time (T-Δt), the extraction is performed as shown in FIG. The position of the search area that could not be extracted may be determined using the coordinate values (X1, Y1) of the created eye area. For example, in the width direction: (X1 + m1) -100 <x <(X1 + m
1) +100 Height direction: (Y1 + m2) -60 <y <(Y1 + m
2) Set the search area in the range of +60. However, m1 and m2 may be constants, and approximate intervals between the left and right eyes on the image may be set. For example, in FIG. 7, m1 = 150 in the width direction and m2 = 0 in the height direction. The size of the search area is shown in FIG.
Is the same as For the eye area that was extracted at the immediately preceding shooting time (T-Δt), the search area is set in the same manner as in the first embodiment.

【0033】この実施の形態では、過去の目領域の抽出
位置に応じて探索域の位置を決め、過去の目領域の抽出
結果に応じて探索域の大きさを変えることにより、直前
の画像で目領域を抽出できず閉眼とみなした場合でも、
それ以前に抽出した目領域の位置を利用して、眉毛や眼
鏡フレーム等を含まない範囲に探索域を設定でき、眉毛
や眼鏡などの誤抽出を低減できる。また、このような動
画像処理において、現在の画像以前に目領域が抽出でき
ず閉眼とみなした継続時間が長ければ長いほど、現在の
目領域の位置を特定するのが困難となる。これに対しこ
の実施の形態では、目領域が抽出できず閉眼とみなした
ときは探索域を大きくするので、瞬目後でも顔や目の時
間的な動きを許容して目領域を抽出することができる。
さらに抽出した目領域の形状などから、常に精度よく目
の開閉状態を判定することができる。
In this embodiment, the position of the search area is determined according to the extraction position of the past eye area, and the size of the search area is changed according to the extraction result of the past eye area. Even if you can not extract the eye area and consider it as closed eyes,
By utilizing the position of the eye region extracted before that, the search area can be set in a range not including the eyebrows, the eyeglass frames, etc., and erroneous extraction of the eyebrows, eyeglasses, etc. can be reduced. Further, in such moving image processing, the longer the duration of time when the eye region cannot be extracted before the current image and the eye is regarded as closed eyes, the more difficult it is to specify the position of the current eye region. On the other hand, in this embodiment, when the eye area cannot be extracted and the eye is regarded as closed, the search area is increased, and therefore the eye area is extracted by allowing the temporal movement of the face and eyes even after the blink. You can
Furthermore, the open / closed state of the eyes can always be accurately determined from the shape of the extracted eye region.

【0034】実施の形態4.この発明の実施の形態4に
よる動画像の目領域抽出装置について説明する。目領域
抽出装置の構成および処理は実施の形態3と同様であ
り、この実施の形態は探索域を設定するときの他の例を
示すものである。
Embodiment 4 A moving image eye area extracting apparatus according to Embodiment 4 of the present invention will be described. The configuration and processing of the eye area extraction device are the same as those in the third embodiment, and this embodiment shows another example when setting the search area.

【0035】図8は実施の形態4に係る探索域設定回路
21における探索域の設定処理を説明する説明図であ
り、図に基づき探索域の設定方法について詳しく述べ
る。図8(a)に示すように、直前の撮影時刻(T−Δ
t)において右目領域を抽出できた場合は、実施の形態
1と同様、抽出した中心座標値(X1,Y1)に基づい
て、 幅方向: X1−50<x<X1+50 高さ方向: Y1−30<y<Y1+30 の範囲の探索域を設定する。左目も同様である。つま
り、左右の目に対してそれぞれ独立して探索域を設定す
る。
FIG. 8 is an explanatory view for explaining a search area setting process in the search area setting circuit 21 according to the fourth embodiment, and the method for setting the search area will be described in detail with reference to the drawing. As shown in FIG. 8A, the immediately preceding shooting time (T-Δ
When the right eye region can be extracted in t), the width direction: X1-50 <x <X1 + 50 height direction: Y1-30 based on the extracted center coordinate values (X1, Y1) as in the first embodiment. A search area in the range of <y <Y1 + 30 is set. The same applies to the left eye. That is, the search areas are set independently for the left and right eyes.

【0036】図8(b)に示すように、直前の撮影時刻
(T−Δt)において右目領域が抽出できず閉眼とみな
した場合は、それ以前の所定時間内(図8ではT−2Δ
t)に抽出できた時の座標値(X2,Y2)を使って複
数、この場合は5つの探索域を設定する。例えば、 幅方向: X2−50<x<X2+50 高さ方向: Y2−30<y<Y2+30 の範囲の探索域、および 幅方向: X2−150<x<X2−50 高さ方向: Y2− 30<y<Y2+30 の範囲の探索域、および 幅方向: X2+50<x<X2+150 高さ方向: Y2−30<y<Y2+ 30 の範囲の探索域、および 幅方向: X2−50<x<X2+50 高さ方向: Y2−90<y<Y2−30 の範囲の探索域、および 幅方向: X2−50<x<X2+50 高さ方向: Y2+30<y<Y2+90 の範囲の探索域を設定する。左目も同様である。もちろ
ん、実施の形態3と同様に、直前の撮影時刻(T−Δ
t)において左右の目領域のうちどちらか一方だけ抽出
できている場合は、抽出できた目領域の座標値(X1,
Y1)を用いて複数の探索域を設定してもよい。また、
ここでは、抽出できた場合と同じ大きさの探索域を複数
設定する例を示したが、大きさの異なる探索域を複数設
定してもよい。
As shown in FIG. 8B, when the right eye region cannot be extracted at the immediately preceding photographing time (T-Δt) and the eye is regarded as closed, within a predetermined time before that (T-2Δ in FIG. 8).
A plurality of search areas, in this case, five search areas are set by using the coordinate values (X2, Y2) when the extraction is possible in t). For example, width direction: X2-50 <x <X2 + 50 height direction: search area in the range of Y2-30 <y <Y2 + 30, and width direction: X2-150 <x <X2-50 height direction: Y2-30 < Search area in the range of y <Y2 + 30, and width direction: X2 + 50 <x <X2 + 150 Height direction: Search area in the range of Y2-30 <y <Y2 + 30, and width direction: X2-50 <x <X2 + 50 Height direction A search area in the range of Y2-90 <y <Y2-30 and a width direction: X2-50 <x <X2 + 50 in the height direction: a search area in the range of Y2 + 30 <y <Y2 + 90. The same applies to the left eye. Of course, as in the third embodiment, the immediately preceding shooting time (T-Δ
When only one of the left and right eye regions can be extracted in t), the coordinate value (X1,
A plurality of search areas may be set using Y1). Also,
Here, an example is shown in which a plurality of search areas having the same size as in the case of being extracted are set, but a plurality of search areas having different sizes may be set.

【0037】図8(c)に示すように、直前の撮影時刻
(T−Δt)より以前に所定時間、例えば300msの
間、続けて右目領域が抽出できず閉眼とみなした場合
は、画像全体を探索域として設定する。左目の探索域も
同様である。
As shown in FIG. 8C, when the right eye region cannot be continuously extracted for a predetermined time, for example, 300 ms before the immediately preceding photographing time (T-Δt), it is considered that the entire image is closed. Is set as the search area. The same applies to the search area for the left eye.

【0038】この実施の形態による目領域抽出装置で
は、過去の目領域の抽出位置に応じて探索域の位置を決
め、過去の目領域の抽出結果に応じて探索域の数を変え
ることにより、眉毛や眼鏡などの誤抽出を低減させると
ともに、瞬目後でも顔や目の時間的な動きを許容して精
度よく抽出することができる。特に目領域を抽出する場
合、時刻(T−2Δt)からの移動を考えると上下左右
方向の可能性が高い。このため直前の画面で目領域を抽
出できず閉眼とみなした場合、探索域を上下左右に複数
設定することにより、効率よく目領域を抽出できる。さ
らに抽出した目領域の形状などから、常に精度よく目の
開閉状態を判定することができる。
In the eye area extraction device according to this embodiment, the position of the search area is determined according to the extraction position of the past eye area, and the number of search areas is changed according to the extraction result of the past eye area. It is possible to reduce erroneous extraction of eyebrows, eyeglasses, and the like, and allow temporal movement of the face and eyes even after the blink to allow accurate extraction. In particular, when extracting the eye region, there is a high possibility in the vertical and horizontal directions considering the movement from the time (T-2Δt). Therefore, when the eye area cannot be extracted on the immediately preceding screen and it is considered that the eye is closed, the eye area can be efficiently extracted by setting a plurality of search areas vertically and horizontally. Furthermore, the open / closed state of the eyes can always be accurately determined from the shape of the extracted eye region.

【0039】実施の形態5.この発明の実施の形態5に
よる動画像の目領域抽出装置について説明する。目領域
抽出装置の構成および処理は実施の形態3と同様であ
り、この実施の形態は探索域を設定するときの他の例を
示すものである。
Embodiment 5 A moving image eye area extracting apparatus according to Embodiment 5 of the present invention will be described. The configuration and processing of the eye area extraction device are the same as those in the third embodiment, and this embodiment shows another example when setting the search area.

【0040】図9は実施の形態5に係る探索域設定回路
21における探索域の設定方法を説明する説明図であ
り、図に基づき探索域の設定方法について詳しく述べ
る。図9(a)に示すように、直前の撮影時刻(T−Δ
t)において右目領域を抽出できた場合は、抽出した中
心座標値(X1,Y1)に基づいて、 幅方向: X1−50<x<X1+50 高さ方向: Y1−50<y<Y1+50 の範囲の正方形の探索域を設定する。左目も同様であ
る。
FIG. 9 is an explanatory view for explaining a search area setting method in the search area setting circuit 21 according to the fifth embodiment, and the search area setting method will be described in detail with reference to the drawing. As shown in FIG. 9A, the immediately preceding shooting time (T-Δ
When the right eye region can be extracted in t), based on the extracted center coordinate values (X1, Y1), the width direction: X1-50 <x <X1 + 50 Height direction: Y1-50 <y <Y1 + 50 Set a square search area. The same applies to the left eye.

【0041】図9(b)に示すように、直前の撮影時刻
(T−Δt)において右目領域が抽出できず閉眼とみな
した場合は、それ以前の所定時間内(図9ではT−2Δ
t)に抽出できた時の座標値(X2,Y2)を使って横
に長い長方形の探索域を設定する。例えば、 幅方向: X2−100<x<X2+100 高さ方向: Y2− 60<y<Y2+60 の範囲の探索域を設定する。左目も同様である。
As shown in FIG. 9B, when the right eye region cannot be extracted at the immediately preceding photographing time (T-Δt) and the eye is regarded as closed, within a predetermined time before that (T-2Δ in FIG. 9).
The search area of a horizontally long rectangle is set by using the coordinate values (X2, Y2) when extracted in t). For example, a search area in the range of: width direction: X2-100 <x <X2 + 100 height direction: Y2-60 <y <Y2 + 60 is set. The same applies to the left eye.

【0042】図9(c)に示すように、直前の撮影時刻
(T−Δt)より以前に所定時間、例えば300msの
間、続けて右目領域が抽出できず閉眼とみなした場合
は、画像全体を探索域として設定する。左目の探索域も
同様である。
As shown in FIG. 9C, when the right eye region cannot be continuously extracted for a predetermined time, for example, 300 ms before the immediately preceding photographing time (T-Δt), the entire image is regarded as closed. Is set as the search area. The same applies to the search area for the left eye.

【0043】この実施の形態では、過去の目領域の抽出
位置に応じて探索域の位置を決め、過去の目領域の抽出
結果に応じて探索域の形を変えることにより、眉毛や眼
鏡などの誤抽出を低減させるとともに、瞬目後でも顔や
目の時間的な動きを許容して目領域を精度よく抽出する
ことができる。特に目領域の抽出の場合、首を回すこと
によって横方向に動く可能性が高い。このため直前の画
面で目領域を抽出できず閉眼とみなした場合、目領域が
横方向に動いていると考えられ、探索域を横に長くする
ことにより、効率よく目領域を抽出できる。さらに抽出
した目領域の形状などから、常に精度よく目の開閉状態
を判定することができる。
In this embodiment, the position of the search area is determined according to the extraction position of the past eye area, and the shape of the search area is changed according to the extraction result of the past eye area. In addition to reducing erroneous extraction, it is possible to accurately extract the eye region by allowing temporal movement of the face and eyes even after the blink. Especially in the case of extraction of the eye region, there is a high possibility of moving laterally by turning the neck. Therefore, when the eye area cannot be extracted on the immediately preceding screen and it is considered that the eye is closed, it is considered that the eye area is moving in the lateral direction, and the eye area can be efficiently extracted by lengthening the search area horizontally. Furthermore, the open / closed state of the eyes can always be accurately determined from the shape of the extracted eye region.

【0044】実施の形態6.この発明の実施の形態6に
よる動画像の目領域抽出装置について説明する。図10
は、この発明の実施の形態6による動画像の目領域抽出
装置を示すブロック図である。図において、21は検出
対象者1の現在の顔画像に対して探索域を設定する探索
域設定回路、22は探索域設定回路21で設定した探索
域内で目領域を抽出し、目の開閉状態を判定する特徴抽
出回路、23は特徴抽出回路22の抽出結果を記憶する
抽出結果記憶用メモリである。さらに、24は抽出結果
記憶用メモリ23に記憶されている過去の抽出結果か
ら、画像上の目領域の位置の移動ベクトルを算出し、算
出された移動ベクトルと過去の位置から現在の画像にお
ける目領域の位置を推定する位置推定回路である。この
実施の形態における探索域設定回路21は位置推定回路
24の推定結果と抽出結果記憶用メモリ23に記憶され
ている過去の抽出結果をもとに探索域を設定する。
Embodiment 6 FIG. A moving image eye area extracting apparatus according to Embodiment 6 of the present invention will be described. FIG.
FIG. 14 is a block diagram showing a moving image eye area extracting apparatus according to Embodiment 6 of the present invention. In the figure, 21 is a search area setting circuit that sets a search area for the current face image of the detection target person 1, 22 is an eye area within the search area set by the search area setting circuit 21, and the open / closed state of the eyes. A reference numeral 23 is a feature extraction circuit for determining whether or not the extraction result storage memory stores the extraction result of the feature extraction circuit 22. Further, 24 calculates the movement vector of the position of the eye area on the image from the past extraction result stored in the extraction result storage memory 23, and calculates the movement vector of the position of the eye area on the image from the calculated movement vector and the past position. It is a position estimation circuit that estimates the position of the area. The search area setting circuit 21 in this embodiment sets the search area based on the estimation result of the position estimation circuit 24 and the past extraction result stored in the extraction result storage memory 23.

【0045】以下、実施の形態6に係る抽出処理につい
て説明する。図11は実施の形態6に係る処理を示すフ
ローチャートである。ステップS101で装置が起動さ
れた後、探索域設定回路21において画像全体を探索域
とする初期探索域を設定する(ステップS102)。ス
テップS103でカメラ10で検出対象者1の顔画像を
撮影し、画像メモリ20に記憶する。次に、特徴抽出回
路22は、今撮影した現在の画像を画像メモリ20より
入力し、探索域設定回路21からは現在の画像に対する
探索域として初期探索域を入力する。そしてこの探索域
内の画像を白色/黒色に二値化処理し、探索して左右の
目領域を抽出する(ステップS104)。この探索域が
適当に設定されていれば、二値化後の画像は、顔の白色
画素の中に目の部分が黒色画素で存在している。したが
って黒色画素を検出することにより、容易に目領域を抽
出できる。そしてステップS105によって、抽出した
目領域の形状から目の開閉状態を判定し、ステップS1
07で目領域の座標値を抽出結果記憶用メモリ23に記
憶する。目領域を抽出できなかった場合は、閉眼状態と
みなし、その抽出結果を記憶する。このステップS10
1〜ステップS107は実施の形態3と同様の処理であ
る。
The extraction processing according to the sixth embodiment will be described below. FIG. 11 is a flowchart showing the processing according to the sixth embodiment. After the apparatus is started in step S101, the search area setting circuit 21 sets an initial search area having the entire image as a search area (step S102). In step S 103, the face image of the person to be detected 1 is captured by the camera 10 and stored in the image memory 20. Next, the feature extraction circuit 22 inputs the current image just shot from the image memory 20, and the search region setting circuit 21 inputs the initial search region as the search region for the current image. Then, the image within this search area is binarized into white / black, and the left and right eye areas are extracted by searching (step S104). If this search area is set appropriately, in the binarized image, the eyes are black pixels in the white pixels of the face. Therefore, the eye region can be easily extracted by detecting the black pixel. Then, in step S105, the open / closed state of the eyes is determined from the shape of the extracted eye region, and step S1
At 07, the coordinate value of the eye area is stored in the extraction result storage memory 23. If the eye region cannot be extracted, it is considered that the eye region is closed, and the extraction result is stored. This step S10
1 to step S107 are the same processes as in the third embodiment.

【0046】この後、ステップS109において、位置
推定回路24は抽出結果記憶用メモリ23から過去の目
領域の抽出結果を調べ、目領域の位置の移動ベクトルを
算出する。ただし、過去において、目領域が抽出できず
閉眼とみなした画像に対する時間帯は、目が移動しなか
ったものと仮定する。そして、算出した目領域の移動ベ
クトルと過去の抽出位置より現在の画像における目領域
の位置を推定する。探索域設定回路21は位置推定回路
24が推定した位置と抽出結果記憶用メモリ23に記憶
されている抽出結果をもとに、ステップS110で、次
の画像用として探索域を設定しなおし、ステップS10
3からステップS110の処理を例えば30msの間隔
で繰り返し行なう。
After that, in step S109, the position estimation circuit 24 checks the past extraction result of the eye area from the extraction result storage memory 23 and calculates the movement vector of the position of the eye area. However, in the past, it is assumed that the eye has not moved in the time zone for the image in which the eye region cannot be extracted and the eye is regarded as closed. Then, the position of the eye region in the current image is estimated from the calculated movement vector of the eye region and the past extraction position. The search area setting circuit 21 resets the search area for the next image in step S110 based on the position estimated by the position estimating circuit 24 and the extraction result stored in the extraction result storage memory 23. S10
The process from 3 to step S110 is repeated at intervals of 30 ms, for example.

【0047】探索域の設定方法を図12に基づいて、以
下に詳しく述べる。例えば、処理過程の現在の時刻をT
とするとき、時刻(T−2Δt)に抽出された右目領域
の座標値を(X2,Y2)、時刻(T−Δt)に抽出さ
れた右目領域の座標値を(X1,Y1)とすると、時刻
(T−2Δt)から時刻(T−Δt)への移動ベクトル
は、 (XV,YV) = (X1,Y1)−(X2,Y2) として算出できる。この移動ベクトル(XV,YV)を
使って、現在の時刻Tにおける右目領域の推定座標値
(Xt,Yt)を計算する。例えば、 (Xt,Yt) = (X1,Y1)+(XV,YV) により推定する。ただし、時刻(T−Δt)において、
右目領域が抽出できず閉眼とみなした場合、移動ベクト
ルは、 (XV,YV) = (0,0) とする。左目領域も同様である。
The method of setting the search area will be described in detail below with reference to FIG. For example, the current time of the process is T
When the coordinate value of the right eye region extracted at time (T-2Δt) is (X2, Y2) and the coordinate value of the right eye region extracted at time (T-Δt) is (X1, Y1), The movement vector from time (T-2Δt) to time (T-Δt) can be calculated as (XV, YV) = (X1, Y1)-(X2, Y2). Using the movement vector (XV, YV), the estimated coordinate value (Xt, Yt) of the right eye region at the current time T is calculated. For example, it is estimated by (Xt, Yt) = (X1, Y1) + (XV, YV). However, at time (T-Δt),
When the right eye region cannot be extracted and the eye is regarded as closed, the movement vector is (XV, YV) = (0, 0). The same applies to the left eye region.

【0048】この推定位置を中心として、探索域設定回
路21は探索域を設定する。例えば、推定した中心座標
値(Xt,Yt)に基づいて、 幅方向: Xt−50<x<Xt+50 高さ方向: Yt−30<y<Yt+30 の範囲を探索域として設定する。左目も同様である。こ
の探索域の大きさは、目領域の過去の抽出結果をもと
に、実施の形態1〜実施の形態5のいずれかの方法で決
めることができる。
The search area setting circuit 21 sets the search area around the estimated position. For example, based on the estimated center coordinate value (Xt, Yt), a range of width direction: Xt-50 <x <Xt + 50 height direction: Yt-30 <y <Yt + 30 is set as a search area. The same applies to the left eye. The size of this search area can be determined by any one of the first to fifth embodiments based on the past extraction result of the eye area.

【0049】この実施の形態による目領域抽出装置で
は、過去の目領域の抽出位置とそれにより算出される目
領域の移動ベクトルに基づき探索域の位置を決めること
により、適当な探索域を設定できる。特に、顔や目の時
間的な動きを許容し、誤抽出を低減できる効果がある。
さらに抽出した目領域の形状などから、精度よく目の開
閉状態を判定することができる。なお、特徴抽出回路2
1で探索域の中で目領域を抽出する際、位置推定回路2
4で推定した目領域の推定位置を用いてもよい。即ち、
位置推定回路21によって推定された位置により近いも
のを目領域として抽出するように構成すればよい。
In the eye area extracting apparatus according to this embodiment, an appropriate search area can be set by deciding the position of the search area based on the past extraction position of the eye area and the movement vector of the eye area calculated thereby. . In particular, there is an effect that the temporal movements of the face and eyes are allowed and false extraction can be reduced.
Further, the open / closed state of the eyes can be accurately determined from the shape of the extracted eye region and the like. The feature extraction circuit 2
When the eye area is extracted from the search area in 1, the position estimation circuit 2
The estimated position of the eye region estimated in 4 may be used. That is,
It suffices that a position closer to the position estimated by the position estimation circuit 21 is extracted as an eye region.

【0050】実施の形態7.この発明の実施の形態7に
よる動画像の目領域抽出装置について説明する。図13
は、この発明の実施の形態7による動画像の目領域抽出
装置に係る処理を示すフローチャートであり、この実施
の形態による動画像の目領域抽出装置の構成は実施の形
態6と同様である。この実施の形態における目領域抽出
処理を図13に基づいて説明する。
Embodiment 7 FIG. A moving image eye area extracting apparatus according to Embodiment 7 of the present invention will be described. FIG.
9 is a flowchart showing a process relating to a moving image eye area extracting device according to a seventh embodiment of the present invention, and the configuration of the moving image eye area extracting device according to the present embodiment is the same as that of the sixth embodiment. The eye area extraction processing in this embodiment will be described with reference to FIG.

【0051】ステップS101で装置が起動された後、
探索域設定回路21において画像全体を探索域とする初
期探索域を設定する(ステップS102)。ステップS
103ではカメラ10で検出対象者1の顔画像を撮影
し、画像メモリ20に記憶する。次に、特徴抽出回路2
2はステップS201,ステップS104,ステップS
202〜ステップS205で目領域を抽出し、目の開閉
状態を判定する。即ち、ステップS201でカウンタ
(count)を0に初期設定した後、今撮影した現在
の画像を画像メモリ20より入力し、探索域設定回路2
1からは現在の画像に対する探索域を入力する。そして
この探索域内の画像を白色/黒色に二値化処理し、探索
して左右の目領域を抽出する(ステップS104)。こ
の探索域が適当に設定されていれば、二値化後の画像
は、顔の白色画素の中に目の部分が黒色画素で存在して
いる。したがって黒色画素を検出することにより、容易
に目領域を抽出できる。
After the device is started in step S101,
The search area setting circuit 21 sets an initial search area having the entire image as the search area (step S102). Step S
In 103, the camera 10 captures a face image of the detection target person 1 and stores it in the image memory 20. Next, the feature extraction circuit 2
2 is step S201, step S104, step S
From 202 to step S205, the eye area is extracted and the open / closed state of the eye is determined. That is, after the counter (count) is initially set to 0 in step S201, the current image just shot is input from the image memory 20, and the search area setting circuit 2
From 1 enter the search area for the current image. Then, the image within this search area is binarized into white / black, and the left and right eye areas are extracted by searching (step S104). If this search area is set appropriately, in the binarized image, the eyes are black pixels in the white pixels of the face. Therefore, the eye region can be easily extracted by detecting the black pixel.

【0052】ところが、ステップS202で目領域が抽
出できたかどうかを判断し、抽出できなかった場合は、
ステップS203で、カウンタ(count)の値が所
定回数、例えば5回より小さいことを確認して、ステッ
プS204で探索域を設定し直す。例えば探索域の位置
を前回の探索域の近傍で移動する。そして、ステップS
205でカウンタ(count)に1を加えて更新し、
ステップS104で現在の画像より再び目領域を抽出す
る。所定回数内で目領域を抽出できるまで探索域を再設
定して、現在の画像を探索する。
However, in step S202, it is determined whether or not the eye region has been extracted, and if it cannot be extracted,
In step S203, it is confirmed that the value of the counter (count) is smaller than a predetermined number of times, for example, five times, and the search area is reset in step S204. For example, the position of the search area is moved near the previous search area. And step S
At 205, the counter (count) is incremented by 1 and updated,
In step S104, the eye area is extracted again from the current image. The search area is reset until the eye area can be extracted within a predetermined number of times, and the current image is searched.

【0053】目領域を抽出後、ステップS105で目の
開閉状態を判定し、ステップS107で目領域の座標値
を抽出結果記憶用メモリ23に記憶する。逆に、所定回
数繰り返しても目領域を抽出できなかった場合は、閉眼
状態であるとみなし、その抽出結果を記憶する。
After extracting the eye area, the open / closed state of the eye is determined in step S105, and the coordinate value of the eye area is stored in the extraction result storage memory 23 in step S107. On the contrary, if the eye region cannot be extracted even after repeating the predetermined number of times, it is considered that the eye region is closed, and the extraction result is stored.

【0054】その後、実施の形態6と同様、ステップS
109において、位置推定回路24は抽出結果記憶用メ
モリ23から過去の目領域の抽出結果を調べ、目領域の
位置の移動ベクトルを算出する。ただし、過去におい
て、抽出できず閉眼とみなした画像に対する時間帯は、
目が移動しなかったものと仮定する。そして、算出した
目領域の移動ベクトルと過去の抽出位置より現在の画像
における目領域の位置を推定する。探索域設定回路21
は位置推定回路24が推定した位置と抽出結果記憶用メ
モリ23に記憶されている抽出結果をもとに、ステップ
S110で、次の画像用として探索域を設定しなおし、
ステップS103からステップS110の処理を例えば
30msの間隔で繰り返し行なう。
Thereafter, as in the sixth embodiment, step S
At 109, the position estimation circuit 24 checks the past extraction result of the eye area from the extraction result storage memory 23 and calculates the movement vector of the position of the eye area. However, in the past, the time zone for images that could not be extracted and were considered to be closed eyes is
Suppose your eyes did not move. Then, the position of the eye region in the current image is estimated from the calculated movement vector of the eye region and the past extraction position. Search area setting circuit 21
Is based on the position estimated by the position estimation circuit 24 and the extraction result stored in the extraction result storage memory 23, and in step S110, the search area is reset for the next image.
The processing from step S103 to step S110 is repeated at intervals of 30 ms, for example.

【0055】この実施の形態では、一つの画像におい
て、探索域を変更して複数回探索するように構成したの
で、直前の画像からの目領域の移動がある程度大きく、
実施の形態1のような探索域の設定方法では目領域を抽
出できない場合でも、更に探索して抽出することができ
るように構成されている。このため、精度よく目の開閉
状態を判定することができ、信頼性の高い動画像の目領
域抽出装置が得られる。なお、実施の形態3にこの処理
を付加してもよい。
In this embodiment, since the search area is changed and the search is performed a plurality of times in one image, the movement of the eye area from the immediately preceding image is large to some extent.
Even if the eye region cannot be extracted by the method of setting the search area as in the first embodiment, the eye region can be further searched and extracted. Therefore, the eye open / closed state can be accurately determined, and a highly reliable moving image eye area extraction device can be obtained. Note that this processing may be added to the third embodiment.

【0056】実施の形態8.この発明の実施の形態8に
よる動画像の目領域抽出装置について説明する。この実
施の形態は、検出対象者の網膜反射像を抽出し、目の開
閉状態を判定する装置に関し、特に検出対象者が眼鏡を
装着している場合の抽出処理について説明する。図14
は、実施の形態8による動画像の目領域抽出装置を示す
ブロック図である。 図において、11はLED光源、
12はハーフミラーであり、LED光源11からの照明
光の照射軸とカメラ10の光軸がほぼ同軸になるように
設置している。13はLED光源11に電流を送るLE
D駆動回路である。実施の形態6と同一符号は同一、ま
たは相当部分を示す。
Embodiment 8 FIG. A moving image eye area extracting apparatus according to Embodiment 8 of the present invention will be described. This embodiment relates to a device that extracts a retina reflection image of a detection target person and determines the open / closed state of eyes, and particularly, an extraction process when the detection target person wears glasses. FIG.
FIG. 19 is a block diagram showing a moving image eye area extracting device according to an eighth embodiment. In the figure, 11 is an LED light source,
A half mirror 12 is installed so that the irradiation axis of the illumination light from the LED light source 11 and the optical axis of the camera 10 are substantially coaxial. 13 is an LE that sends a current to the LED light source 11.
It is a D drive circuit. The same reference numerals as those in the sixth embodiment indicate the same or corresponding portions.

【0057】以下、この実施の形態の抽出処理を説明す
る。図15は目領域の抽出処理を示すフローチャートで
ある。ステップS101で装置が起動された後、探索域
設定回路21において画像全体を探索域とする初期探索
域を設定する(ステップS102)。ステップS103
でLED光源11からの照明光によってカメラ10で検
出対象者1の顔画像を撮影し、画像メモリ20に記憶す
る。次に、特徴抽出回路22は、今撮影した現在の画像
を画像メモリ20より入力し、探索域設定回路21から
は現在の画像に対する探索域を入力する。そしてこの探
索域内の画像を、顔面が黒色画素になるような適当なニ
値化しきい値で白色/黒色に二値化処理し、左右の網膜
反射像を抽出する(ステップS301)。この探索域が
適当に設定されていれば、二値化後の画像は、顔の黒色
画素の中に網膜反射像の部分が白色画素で存在してい
る。したがって白色画素を検出することにより、容易に
網膜反射像を抽出できる。ステップS105で網膜反射
像を抽出できた場合は、開眼中であると判定し、ステッ
プS107で網膜反射像の座標値を抽出結果記憶用メモ
リ23に記憶する。網膜反射像を抽出できなかった場合
は、閉眼中であると判定し、その結果を記憶する。
The extraction processing of this embodiment will be described below. FIG. 15 is a flowchart showing the eye area extraction processing. After the apparatus is started in step S101, the search area setting circuit 21 sets an initial search area having the entire image as a search area (step S102). Step S103
Then, the face image of the detection target person 1 is captured by the camera 10 by the illumination light from the LED light source 11 and stored in the image memory 20. Next, the feature extraction circuit 22 inputs the currently captured current image from the image memory 20, and the search region setting circuit 21 inputs the search region for the current image. Then, the image in the search area is binarized into white / black with an appropriate binarization threshold value so that the face becomes black pixels, and left and right retina reflection images are extracted (step S301). If this search area is set appropriately, in the image after binarization, the portion of the retina reflection image is white pixels in the black pixels of the face. Therefore, the retinal reflection image can be easily extracted by detecting the white pixels. When the retina reflection image can be extracted in step S105, it is determined that the eye is open, and the coordinate value of the retina reflection image is stored in the extraction result storage memory 23 in step S107. When the retinal reflection image cannot be extracted, it is determined that the eyes are closed and the result is stored.

【0058】この後、ステップS302において、位置
推定回路24は抽出結果記憶用メモリ23から過去の網
膜反射像の抽出結果を調べ、網膜反射像の位置の移動ベ
クトルを算出する。ただし、過去において、抽出できず
閉眼とみなした時間帯は、網膜反射像が移動しなかった
ものと仮定する。そして、算出した網膜反射像の移動ベ
クトルと過去の抽出位置より現在の画像における網膜反
射像の位置を推定する。探索域設定回路21は位置推定
回路24が推定した位置と抽出結果記憶用メモリ23に
記憶されている抽出結果を基に、ステップS303で、
次の画像用として探索域を設定しなおす。このステップ
S103からステップS303の処理を例えば30ms
の間隔で繰り返し行なう。
Thereafter, in step S302, the position estimation circuit 24 checks the extraction result of the past retinal reflection image from the extraction result storage memory 23 and calculates the movement vector of the position of the retinal reflection image. However, in the past, it is assumed that the retinal reflex image did not move during the time period when it could not be extracted and was regarded as closed eyes. Then, the position of the retinal reflection image in the current image is estimated from the calculated movement vector of the retinal reflection image and the past extraction position. Based on the position estimated by the position estimation circuit 24 and the extraction result stored in the extraction result storage memory 23, the search area setting circuit 21 determines in step S303
Reset the search area for the next image. For example, the processing from step S103 to step S303 is performed for 30 ms.
Repeat at intervals of.

【0059】図16のように検出対象者が眼鏡を装着し
ている場合、網膜反射像を撮影すると、網膜反射像と共
にレンズ反射像やフレーム反射像などの必要としないも
のが撮影されてしまう。この実施の形態では探索域を図
中Bで示す領域とし、レンズ反射像35やフレーム反射
像34などが含まれないように設定している。このた
め、網膜反射像の抽出が容易になり、精度よく目の開閉
状態を判定できる。
When a person to be detected wears glasses as shown in FIG. 16, when a retina reflection image is photographed, unnecessary images such as a lens reflection image and a frame reflection image are photographed together with the retina reflection image. In this embodiment, the search area is set to the area indicated by B in the figure, and is set so that the lens reflection image 35 and the frame reflection image 34 are not included. Therefore, the retina reflection image can be easily extracted, and the open / closed state of the eyes can be accurately determined.

【0060】この実施の形態による探索域の設定方法は
実施の形態6と同様の方法を用いる。例えば、処理過程
の現在の時刻をTとするとき、時刻(T−2Δt)に抽
出された右網膜反射像の座標値を(X2,Y2)、時刻
(T−Δt)に抽出された右網膜反射像の座標値を(X
1,Y1)とすると、時刻(T−2Δt)から時刻(T
−Δt)への移動ベクトルは、 (XV,YV) = (X1,Y1)−(X2,Y2) として算出できる。この移動ベクトル(XV,YV)を
使って、現在の時刻Tにおける右網膜反射像の推定座標
値(Xt,Yt)を計算する。例えば、 (Xt,Yt) = (X1,Y1)+(XV,YV) により推定する。ただし、時刻(T−Δt)において、
右網膜反射像が抽出できず閉眼とみなした場合、移動ベ
クトルは、 (XV,YV) = (0,0) とする。左網膜反射像も同様である。
The method of setting the search area according to this embodiment is the same as that of the sixth embodiment. For example, when the current time of the process is T, the coordinate values of the right retina reflection image extracted at time (T-2Δt) are (X2, Y2), and the right retina extracted at time (T-Δt). Set the coordinate value of the reflection image to (X
1, Y1), the time (T-2Δt) to the time (T
The movement vector to −Δt) can be calculated as (XV, YV) = (X1, Y1) − (X2, Y2). Using this movement vector (XV, YV), the estimated coordinate value (Xt, Yt) of the right retina reflection image at the current time T is calculated. For example, it is estimated by (Xt, Yt) = (X1, Y1) + (XV, YV). However, at time (T-Δt),
When the right retinal reflection image cannot be extracted and the eye is regarded as closed, the movement vector is (XV, YV) = (0, 0). The same applies to the left retina reflection image.

【0061】この推定位置を中心として、探索域設定回
路21は探索域を設定する。例えば、探索域の大きさ
は、網膜反射像の過去の抽出結果をもとに、実施の形態
3と同様の方法で設定する。直前の撮影時刻(T−Δ
t)において右網膜反射像を抽出できた場合は、抽出し
た中心座標値(X1,Y1)に基づいて、 幅方向: X1−20<x<X1+20 高さ方向: Y1−20<y<Y1+20 の範囲の正方形の探索域を設定する。この20画素の値
は、以下のようにして設定している。
The search area setting circuit 21 sets the search area around the estimated position. For example, the size of the search area is set by the same method as in the third embodiment based on the past extraction result of the retina reflection image. Last shooting time (T-Δ
When the right retinal reflection image can be extracted in t), based on the extracted center coordinate values (X1, Y1), the width direction: X1-20 <x <X1 + 20 The height direction: Y1-20 <y <Y1 + 20 Set the search area for the square of the range. The value of 20 pixels is set as follows.

【0062】網膜反射像のモデルとして、一般の瞳孔の
大きさ、つまり直径0.8cmの円を想定し、かつ、幅
6cm、高さ4cmのレンズを持つ眼鏡モデルを想定す
る。さらに、網膜反射像が眼鏡レンズ中央付近に位置し
ているとみなして、網膜反射像モデルより大きく、眼鏡
レンズよりも小さな探索域となるように探索域の幅と高
さを決める。目安として、網膜反射像モデルより大き
く、眼鏡レンズモデルの1/5〜4/5の大きさの探索
域となるように決める。例えば、顔面上で幅2cm、高
さ2cmの探索域とする。顔面上での1cmが撮影画像
上での20画素に対応しているとすると、画像上では幅
40画素、高さ40画素の探索域となる。もし、検出対
象者が眼鏡を装着していない場合は、網膜反射像モデル
の1〜10倍程度の範囲で探索域を設定すればよい。左
網膜反射像の探索域も同様である。
As a model of the retina reflection image, a general pupil size, that is, a circle having a diameter of 0.8 cm is assumed, and an eyeglass model having a lens having a width of 6 cm and a height of 4 cm is assumed. Further, assuming that the retinal reflection image is located near the center of the spectacle lens, the width and height of the search area are determined so that the search area is larger than the retinal reflection image model and smaller than the spectacle lens. As a guide, it is determined so that the search area is larger than the retinal reflection image model and 1/5 to 4/5 the size of the spectacle lens model. For example, the search area has a width of 2 cm and a height of 2 cm on the face. Assuming that 1 cm on the face corresponds to 20 pixels on the captured image, the search area has a width of 40 pixels and a height of 40 pixels on the image. If the person to be detected does not wear glasses, the search area may be set within the range of about 1 to 10 times the retinal reflection image model. The same applies to the search area of the left retina reflection image.

【0063】直前の撮影時刻(T−Δt)において右網
膜反射像を抽出できず閉眼とみなした場合は、それ以前
の所定時間内、例えば時刻(T−2Δt)に抽出できた
時の座標値(X2,Y2)を使って、抽出できた場合の
探索域より大きな探索域を設定する。例えば、 幅方向: X2−40<x<X2+40 高さ方向: Y2−40<y<Y2+40 の範囲の探索域を設定する。ただし、40画素の値は、
直前の網膜反射像が抽出できた場合の探索域の2倍の大
きさになるように決めただけで、これに限る必要はな
い。直前の網膜反射像を抽出できず閉眼とみなした場合
には、2つ分の撮影時間間隔に網膜反射像が移動し得る
ので、その距離を考慮して決めてもよい。左網膜反射像
の探索域も同様である。
When the right retinal reflection image cannot be extracted at the immediately preceding photographing time (T-Δt) and it is considered that the eye is closed, the coordinate value when it can be extracted within a predetermined time before that, for example, at time (T-2Δt). By using (X2, Y2), a search area larger than the search area when it can be extracted is set. For example, a search area in the range of: width direction: X2-40 <x <X2 + 40 height direction: Y2-40 <y <Y2 + 40 is set. However, the value of 40 pixels is
The size is determined to be twice the size of the search area when the immediately preceding retinal reflection image can be extracted, and the size is not limited to this. When the immediately preceding retinal reflection image cannot be extracted and the eye is regarded as a closed eye, the retinal reflection image may move in two photographing time intervals, and therefore the distance may be taken into consideration for the determination. The same applies to the search area of the left retina reflection image.

【0064】さらに、直前の撮影時刻(T−Δt)から
過去側に所定時間の間、例えば300ms続けて右網膜
反射像が抽出できず閉眼とみなした場合は、以前に抽出
した網膜反射像の位置にこだわらず、画像全体を探索域
として設定する。左網膜反射像も同様である。探索域を
設定した後、特徴抽出回路22は網膜反射像を眼鏡反射
像と区別して抽出する。
Further, when the right retinal reflection image cannot be extracted for a predetermined time from the immediately preceding photographing time (T-Δt) to the past side, for example, 300 ms continuously, and the eye is regarded as closed, the retinal reflection image extracted previously is detected. Regardless of the position, the entire image is set as the search area. The same applies to the left retina reflection image. After setting the search area, the feature extraction circuit 22 distinguishes the retinal reflection image from the spectacle reflection image and extracts it.

【0065】この実施の形態による目領域抽出装置で
は、過去の網膜反射像の抽出位置とそれにより算出され
る網膜反射像の移動ベクトルに基づき探索域の位置を決
めることにより、探索域内に含まれる眼鏡反射像を極力
少なくし、誤抽出を低減させる効果がある。また、顔や
目の時間的な動きをある程度許容できる。特に、検出対
象者が眼鏡を装着しており、その網膜反射像を抽出する
撮影画像に網膜反射像だけでなく、眼鏡のレンズやフレ
ームによる反射像も撮影されている場合においても、精
度よく網膜反射像を抽出できる。さらに抽出結果から目
の開閉状態を正しく判定することができる。
In the eye area extracting apparatus according to this embodiment, the position of the search area is determined based on the extraction position of the past retinal reflection image and the movement vector of the retinal reflection image calculated thereby, so that the eye area is included in the search area. The effect is to minimize the reflected image of the glasses and reduce erroneous extraction. Moreover, temporal movement of the face and eyes can be allowed to some extent. In particular, even when the detection target wears spectacles and not only the retinal reflection image in the captured image that extracts the retinal reflection image but also the reflection image by the lens or frame of the spectacles, the retina is accurately measured. The reflection image can be extracted. Furthermore, the open / closed state of the eyes can be correctly determined from the extraction result.

【0066】なお、特徴抽出回路21で探索域の中で目
領域を抽出する際、位置推定回路24で推定した目領域
の推定位置を用いてもよい。即ち、位置推定回路21に
よって推定された位置により近いものを目領域として抽
出するように構成すればよい。
When the feature extraction circuit 21 extracts an eye region in the search area, the estimated position of the eye region estimated by the position estimation circuit 24 may be used. That is, it is only necessary to extract the eye area closer to the position estimated by the position estimating circuit 21 as the eye area.

【0067】また、実施の形態1〜実施の形態7では、
目領域を抽出し、目の開閉状態を判定するための目領域
抽出装置を示したが、実施の形態8に示すように目領域
として瞳孔領域を抽出するように構成してもよい。ま
た、実施の形態1〜実施の形態8による撮像手段は、時
系列的に30msの間隔で連続して撮影した動画像から
目領域を抽出し、目の開閉状態を判定するものとした
が、この撮影の間隔はこれに限るものではなく、さらに
は等間隔でなくてもよい。また、実施の形態1〜実施の
形態8による抽出手段における目の開閉状態の判定は、
開眼,閉眼の2種類だけでなく、どのくらい目を閉じた
かを判定するように構成してもよい。また、実施の形態
1〜実施の形態8による抽出手段は目の開閉状態を判定
しているがこれに限らず目領域の抽出のみを行なう構成
とし、抽出した目領域の形状や位置を他に利用してもよ
い。
In the first to seventh embodiments,
Although the eye area extracting device for extracting the eye area and determining the open / closed state of the eye is shown, the pupil area may be extracted as the eye area as shown in the eighth embodiment. Further, the image capturing means according to the first to eighth embodiments extracts the eye region from a moving image continuously captured at time intervals of 30 ms, and determines the open / closed state of the eye. The shooting intervals are not limited to this, and may not be even intervals. In addition, the determination of the open / closed state of the eyes in the extraction means according to the first to eighth embodiments is as follows.
Not only two types of eyes open and eyes closed, but how long the eyes are closed may be determined. Further, although the extraction means according to the first to eighth embodiments determines the open / closed state of the eyes, the present invention is not limited to this, and the configuration is such that only the eye region is extracted, and the shape and position of the extracted eye region are changed. You may use it.

【0068】[0068]

【発明の効果】以上のように、請求項1記載の発明によ
れば、検出対象者の顔面の画像を時系列的に連続して撮
影することにより動画像を得る撮影手段、時系列的に撮
影した画像のうちの現在の画像に対して探索域を設定す
る探索域設定手段、探索域内で目領域を抽出する抽出手
段を備え、探索域設定手段は、探索域の位置、大きさ、
数、および形のうちの少なくとも1つを、過去の画像に
おける目領域の抽出結果に応じて設定可変としたので、
動画像における目領域を効率よく抽出し得る探索域を設
定でき、これにより、目領域の誤抽出を防止して、比較
的短時間で精度よく目領域を抽出できる動画像の目領域
抽出装置が得られる効果がある。
As described above, according to the first aspect of the invention, a photographing means for obtaining a moving image by continuously photographing the face image of the person to be detected in time series, the time series. A search area setting means for setting a search area with respect to the current image of the captured images, and an extracting means for extracting an eye area in the search area are provided, and the search area setting means includes a position, a size of the search area,
Since at least one of the number and the shape is variable according to the extraction result of the eye region in the past image,
A search area capable of efficiently extracting an eye area in a moving image can be set, thereby preventing an erroneous extraction of the eye area and accurately extracting the eye area in a relatively short time. There is an effect to be obtained.

【0069】また、請求項2記載の発明によれば、検出
対象者の顔面の画像を時系列的に連続して撮影すること
により動画像を得る撮影手段、時系列的に撮影した画像
のうちの現在の画像に対して探索域を設定する探索域設
定手段、並びに探索域内で目領域を抽出し、目の開閉状
態を判定する抽出手段を備え、探索域設定手段は、探索
域の位置、大きさ、数、および形のうちの少なくとも1
つを、過去の画像における目の開閉判定結果に応じて設
定可変としたので、動画像における目領域を効率よく抽
出し得る探索域を設定でき、これにより、目の開閉状態
を正しく判定でき、比較的短時間で精度よく目領域を抽
出できる動画像の目領域抽出装置が得られる効果があ
る。
According to the second aspect of the invention, the photographing means for obtaining a moving image by continuously photographing the face image of the person to be detected in time series, among the images photographed in time series, The search area setting means for setting a search area for the current image of, and extraction means for extracting the eye area in the search area to determine the open / closed state of the eye, the search area setting means is a position of the search area, At least one of size, number, and shape
Since the setting is variable according to the eye open / closed determination result in the past image, it is possible to set the search area that can efficiently extract the eye area in the moving image, and thus the eye open / closed state can be correctly determined. There is an effect that an eye area extraction device for a moving image that can accurately extract an eye area in a relatively short time can be obtained.

【0070】また、請求項3記載の発明によれば、請求
項1または請求項2に加え、探索域設定手段は、直前の
画像における目領域の抽出の有無と、直前から過去側の
画像における抽出の有無の継続時間とに応じて、現在の
画像に対する探索域の大きさを設定可変としたので、請
求項1または請求項2の効果に加え、さらに動画像にお
ける顔や目の時間的な動きに対応して探索域を設定で
き、信頼性の高い動画像の目領域抽出装置が得られる効
果がある。
According to the third aspect of the invention, in addition to the first or second aspect, the search area setting means determines whether or not the eye region is extracted in the immediately preceding image, and the images in the images from the immediately preceding to the past. Since the size of the search area for the current image is variable according to the duration of the presence / absence of extraction, in addition to the effect of claim 1 or claim 2, the temporal change of the face and eyes in the moving image There is an effect that a search area can be set according to the motion, and a highly reliable moving image eye area extracting device can be obtained.

【0071】また、請求項4記載の発明によれば、請求
項1または請求項2または請求項3に加え、抽出手段で
抽出した過去の目領域から、動画像における目領域の移
動ベクトルを算出し、この移動ベクトルから現在の画像
における目領域の位置を推定する位置推定手段を備え、
探索域設定手段は、位置推定手段の推定結果に基づい
て、現在の画像における探索域の位置を設定したので、
請求項1または請求項2または請求項3の効果に加え、
さらに動画像における顔や目の時間的な動きに対応で
き、比較的短時間で目領域を抽出でき、信頼性の高い動
画像の目領域抽出装置が得られる効果がある。
According to the invention of claim 4, in addition to claim 1, 2 or 3, the movement vector of the eye area in the moving image is calculated from the past eye area extracted by the extracting means. Then, the position estimation means for estimating the position of the eye region in the current image from the movement vector is provided,
Since the search area setting means sets the position of the search area in the current image based on the estimation result of the position estimating means,
In addition to the effects of claim 1 or claim 2 or claim 3,
Further, there is an effect that it is possible to cope with temporal movements of faces and eyes in a moving image, extract an eye region in a relatively short time, and obtain a highly reliable eye region extracting device for a moving image.

【図面の簡単な説明】[Brief description of drawings]

【図1】 この発明の実施の形態1による動画像の目領
域抽出装置の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a moving image eye area extracting device according to a first embodiment of the present invention.

【図2】 実施の形態1に係る処理を示すフローチャー
トである。
FIG. 2 is a flowchart showing a process according to the first embodiment.

【図3】 実施の形態1に係る探索域設定回路における
探索域の設定処理を説明する説明図である。
FIG. 3 is an explanatory diagram illustrating a search area setting process in the search area setting circuit according to the first embodiment.

【図4】 この発明の実施の形態3による動画像の目領
域抽出装置の構成を示すブロック図である。
FIG. 4 is a block diagram showing the configuration of a moving image eye area extracting device according to a third embodiment of the present invention.

【図5】 実施の形態3に係る処理を示すフローチャー
トである。
FIG. 5 is a flowchart showing a process according to the third embodiment.

【図6】 実施の形態3に係る探索域設定回路における
探索域の設定処理を説明する説明図である。
FIG. 6 is an explanatory diagram illustrating a search area setting process in a search area setting circuit according to the third embodiment.

【図7】 実施の形態3に係る探索域設定回路における
探索域の設定処理を説明する説明図である。
FIG. 7 is an explanatory diagram illustrating a search area setting process in a search area setting circuit according to the third embodiment.

【図8】 この発明の実施の形態4に係る探索域設定回
路における探索域の設定処理を説明する説明図である。
FIG. 8 is an explanatory diagram illustrating a search area setting process in a search area setting circuit according to the fourth embodiment of the present invention.

【図9】 この発明の実施の形態5に係る探索域設定回
路における探索域の設定処理を説明する説明図である。
FIG. 9 is an explanatory diagram illustrating a search area setting process in a search area setting circuit according to the fifth embodiment of the present invention.

【図10】 この発明の実施の形態6による動画像の目
領域抽出装置の構成を示すブロック図である。
FIG. 10 is a block diagram showing a configuration of a moving image eye area extracting device according to a sixth embodiment of the present invention.

【図11】 実施の形態6に係る処理を示すフローチャ
ートである。
FIG. 11 is a flowchart showing a process according to the sixth embodiment.

【図12】 実施の形態6に係る探索域設定回路におけ
る探索域の設定処理を説明する説明図である。
FIG. 12 is an explanatory diagram illustrating a search area setting process in the search area setting circuit according to the sixth embodiment.

【図13】 この発明の実施の形態7に係る処理を示す
フローチャートである。
FIG. 13 is a flowchart showing a process according to the seventh embodiment of the present invention.

【図14】 この発明の実施の形態8による動画像の目
領域抽出装置の構成を示すブロック図である。
FIG. 14 is a block diagram showing a configuration of a moving image eye area extracting device according to an eighth embodiment of the present invention.

【図15】 実施の形態8に係る処理を示すフローチャ
ートである。
FIG. 15 is a flowchart showing a process according to the eighth embodiment.

【図16】 実施の形態8に係る検出対象者の撮影画像
を説明する説明図である。
FIG. 16 is an explanatory diagram illustrating a captured image of a detection target person according to the eighth embodiment.

【図17】 従来の網膜反射像を撮影する装置の構成図
である。
FIG. 17 is a configuration diagram of a conventional device for capturing a retina reflection image.

【図18】 従来の装置に係る検出対象者の撮影画像を
説明する説明図である。
FIG. 18 is an explanatory diagram illustrating a captured image of a person to be detected according to a conventional device.

【符号の説明】[Explanation of symbols]

1 検出対象者、10 撮影手段、21 探索域設定手
段、22 特徴抽出手段、24 位置推定手段。
1 detection target person, 10 imaging means, 21 search area setting means, 22 feature extraction means, 24 position estimation means.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 // B60R 21/00 630 B60R 21/00 630 (72)発明者 西田 稔 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical indication location // B60R 21/00 630 B60R 21/00 630 (72) Inventor Minoru Nishida Two Marunouchi, Chiyoda-ku, Tokyo Chome 2-3, Sanryo Electric Co., Ltd.

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 検出対象者の顔面の画像を時系列的に連
続して撮影することにより動画像を得る撮影手段、上記
時系列的に撮影した画像のうちの現在の画像に対して探
索域を設定する探索域設定手段、並びに上記探索域内で
目領域を抽出する抽出手段を備え、上記探索域設定手段
は、上記探索域の位置、大きさ、数、および形のうちの
少なくとも1つを、過去の画像における上記目領域の抽
出結果に応じて設定可変とすることを特徴とする動画像
の目領域抽出装置。
1. A photographing means for obtaining a moving image by continuously photographing images of a face of a detection target person in time series, and a search area for a current image of the images photographed in time series. And search means for extracting an eye area within the search area, wherein the search area setting means sets at least one of the position, size, number, and shape of the search area. A moving image eye area extracting device, wherein setting is variable according to a result of extracting the eye area in a past image.
【請求項2】 検出対象者の顔面の画像を時系列的に連
続して撮影することにより動画像を得る撮影手段、上記
時系列的に撮影した画像のうちの現在の画像に対して探
索域を設定する探索域設定手段、並びに上記探索域内で
目領域を抽出し、目の開閉状態を判定する抽出手段を備
え、上記探索域設定手段は、上記探索域の位置、大き
さ、数、および形のうちの少なくとも1つを、過去の画
像における上記目の開閉判定結果に応じて設定可変とす
ることを特徴とする動画像の目領域抽出装置。
2. A photographing means for obtaining a moving image by continuously photographing images of a face of a person to be detected in time series, a search area for a current image of the images photographed in time series. A search area setting means for setting the search area, and an extraction means for extracting the eye area in the search area to determine the open / closed state of the eyes, wherein the search area setting means includes the position, size, number, and An eye area extraction device for a moving image, wherein at least one of the shapes is set variable according to the eye open / closed determination result in a past image.
【請求項3】 探索域設定手段は、直前の画像における
目領域の抽出の有無と、直前から過去側の画像における
上記抽出の有無の継続時間とに応じて、現在の画像に対
する探索域の大きさを設定可変とすることを特徴とする
請求項1または請求項2記載の動画像の目領域抽出装
置。
3. The search area setting means sets the size of the search area for the current image in accordance with the presence / absence of extraction of the eye area in the immediately preceding image and the duration of the presence / absence of the extraction in the immediately preceding image. 3. The moving image eye area extracting device according to claim 1, wherein the height is variable.
【請求項4】 抽出手段で抽出した過去の目領域から、
動画像における上記目領域の移動ベクトルを算出し、こ
の移動ベクトルから現在の画像における目領域の位置を
推定する位置推定手段を備え、探索域設定手段は、上記
位置推定手段の推定結果に基づいて、上記現在の画像に
おける探索域の位置を設定することを特徴とする請求項
1または請求項2または請求項3記載の動画像の目領域
抽出装置。
4. From the past eye region extracted by the extraction means,
The moving image includes a position estimating means for calculating a movement vector of the eye area and estimating the position of the eye area in the current image from the movement vector, and the search area setting means is based on the estimation result of the position estimating means. The eye area extraction device for a moving image according to claim 1, 2 or 3, wherein a position of a search area in the current image is set.
JP19063795A 1995-07-26 1995-07-26 Eye zone extracting device for moving image Pending JPH0944680A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19063795A JPH0944680A (en) 1995-07-26 1995-07-26 Eye zone extracting device for moving image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19063795A JPH0944680A (en) 1995-07-26 1995-07-26 Eye zone extracting device for moving image

Publications (1)

Publication Number Publication Date
JPH0944680A true JPH0944680A (en) 1997-02-14

Family

ID=16261392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19063795A Pending JPH0944680A (en) 1995-07-26 1995-07-26 Eye zone extracting device for moving image

Country Status (1)

Country Link
JP (1) JPH0944680A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5905563A (en) * 1997-10-02 1999-05-18 Mitsubishi Denki Kabushiki Kaisha Blink detection face image processing apparatus utilizing retinal reflection image
JP2004070514A (en) * 2002-08-02 2004-03-04 Nissan Motor Co Ltd Face state detection device
JP2008160279A (en) * 2006-12-21 2008-07-10 Sanyo Electric Co Ltd Imaging apparatus and imaging method
US7813533B2 (en) 2003-10-06 2010-10-12 Fuji Xerox Co., Ltd. Operation-discerning apparatus and apparatus for discerning posture of subject
CN103479367A (en) * 2013-09-09 2014-01-01 广东工业大学 Driver fatigue detection method based on facial action unit recognition

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5905563A (en) * 1997-10-02 1999-05-18 Mitsubishi Denki Kabushiki Kaisha Blink detection face image processing apparatus utilizing retinal reflection image
JP2004070514A (en) * 2002-08-02 2004-03-04 Nissan Motor Co Ltd Face state detection device
US7813533B2 (en) 2003-10-06 2010-10-12 Fuji Xerox Co., Ltd. Operation-discerning apparatus and apparatus for discerning posture of subject
JP2008160279A (en) * 2006-12-21 2008-07-10 Sanyo Electric Co Ltd Imaging apparatus and imaging method
CN103479367A (en) * 2013-09-09 2014-01-01 广东工业大学 Driver fatigue detection method based on facial action unit recognition

Similar Documents

Publication Publication Date Title
US10521683B2 (en) Glare reduction
JP6577454B2 (en) On-axis gaze tracking system and method
JP2541688B2 (en) Eye position detection device
JP4469476B2 (en) Eye position detection method and eye position detection apparatus
US20160335495A1 (en) Apparatus and method for acquiring image for iris recognition using distance of facial feature
JPH0944685A (en) Face image processor
WO1997021188A1 (en) Wide field of view/narrow field of view recognition system and method
US9002053B2 (en) Iris recognition systems
JP2008210239A (en) Line-of-sight estimation device
US10552675B2 (en) Method and apparatus for eye detection from glints
JP3063504B2 (en) Image data feature detection device
CN112153363B (en) Method and system for 3D corneal position estimation
JPH11105578A (en) Wink detecting facial picture processor using retinal reflected image
EP3042341A1 (en) Method and apparatus for eye detection from glints
CN114155557B (en) Positioning method, positioning device, robot and computer-readable storage medium
JP3465336B2 (en) Face image capturing device
JP2003271932A (en) Sight line direction detector
JPH0944680A (en) Eye zone extracting device for moving image
JP2004192552A (en) Eye opening/closing determining apparatus
JP4568836B2 (en) Real-time pupil position detection system
Kunka et al. Non-intrusive infrared-free eye tracking method
KR20060105271A (en) Assuming system of eyeball position using 3-dimension position information and assuming method of eyeball position
CN111219940B (en) Method and device for controlling light in refrigerator and refrigerator
JP2904204B1 (en) Observation position detection device and its observation position detection method
JP4103495B2 (en) Facial feature detection device