JP2757756B2 - Eye corner detection device - Google Patents

Eye corner detection device

Info

Publication number
JP2757756B2
JP2757756B2 JP5326669A JP32666993A JP2757756B2 JP 2757756 B2 JP2757756 B2 JP 2757756B2 JP 5326669 A JP5326669 A JP 5326669A JP 32666993 A JP32666993 A JP 32666993A JP 2757756 B2 JP2757756 B2 JP 2757756B2
Authority
JP
Japan
Prior art keywords
eye
signal
image
edge
ditch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP5326669A
Other languages
Japanese (ja)
Other versions
JPH07182483A (en
Inventor
静生 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Electric Co Ltd filed Critical Nippon Electric Co Ltd
Priority to JP5326669A priority Critical patent/JP2757756B2/en
Publication of JPH07182483A publication Critical patent/JPH07182483A/en
Application granted granted Critical
Publication of JP2757756B2 publication Critical patent/JP2757756B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は人物顔画像から目尻の構
造を高精度に検出する技術に関するもので、顔画像から
の人物認識や表情認識等の、人間と機械の間のコミュニ
ケーションを計る分野に応用されるものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for detecting the structure of the outer corner of the eye from a human face image with high accuracy, and for measuring communication between a human and a machine, such as human recognition and facial expression recognition from a facial image. It is applied to.

【0002】[0002]

【従来の技術】人物顔画像から目の構造を検出する従来
方式の一例として、文献〔特願平4−153128〕に
基づいて説明する。このとき図2に示したような目の部
分画像が入力されたとする。
2. Description of the Related Art An example of a conventional method for detecting an eye structure from a human face image will be described with reference to a document [Japanese Patent Application No. 4-153128]. At this time, it is assumed that a partial image of the eye as shown in FIG. 2 has been input.

【0003】本従来手法を説明する前に、ここで用いる
Step(−)/Step (+)/Roof/V-Ditch の各エッジと、
各々のエッジで挟まれたStep(−)〜V-Ditch 領域につ
いて、文献〔特開平5−189566号公報〕に基づき
図3を用いて説明する。
Before describing the conventional method, it is used here.
Each edge of Step (-) / Step (+) / Roof / V-Ditch and
The Step (-) to V-Ditch area sandwiched between the edges will be described with reference to FIG. 3 based on the literature [Japanese Patent Laid-Open No. Hei 5-189566].

【0004】図3の横軸を座標・縦軸を輝度値であると
する。入力信号100が入った時、該入力信号100の
一次微分信号101・二次微分信号102がそれぞれ計
算される。Roof Edge 103の地点は極大の地点であ
り、前記一次微分信号101が0・二次微分信号102
が負であるという条件で求めることが出来る。Step
(−)Edge104は変曲点であり、前記一次微分信号1
01が負・二次微分信号102が0であるという条件で
求めることが出来る。V-Ditch Edge105は極小の地点
あり、前記一次微分信号が0・二次微分信号102が正
であるという条件で求めることができる。本図4には示
していないが、Step(+)Edgeも変曲点としてStep
(−)Edgeと同様に定義し、前記一次微分信号10が正
・二次微分信号102が0という条件で求めることが出
来る。
It is assumed that the horizontal axis in FIG. 3 is a coordinate and the vertical axis is a luminance value. When the input signal 100 is input, a first derivative signal 101 and a second derivative signal 102 of the input signal 100 are calculated. The point of the roof edge 103 is a local maximum point, and the first differential signal 101 is a 0 / second differential signal 102
Can be obtained under the condition that is negative. Step
(−) Edge 104 is an inflection point, and the primary differential signal 1
01 can be obtained under the condition that the negative / secondary differential signal 102 is 0. The V-Ditch Edge 105 is located at a minimum point, and can be obtained under the condition that the primary differential signal is 0 and the secondary differential signal 102 is positive. Although not shown in FIG. 4, Step (+) Edge is also used as an inflection point in Step
(-) Defined in the same way as Edge, the primary differential signal 10 can be obtained under the condition that the positive and secondary differential signals 102 are 0.

【0005】二種類のEdgeで挟まれる領域を次に定義す
る。Roof Edge 103とStep(−)Edge104で挟まれ
るRoof〜Step(−)領域106は、前記一次微分信号1
01と二次微分信号102が共に負である条件により求
めることが出来る。Step(−)Edge104とV-Ditch Ed
ge105で挟まれるStep(−)〜V-Ditch 領域107
は、前記一次微分信号101が負・二次微分信号102
が正である条件により求めることが出来る。ここでは示
していないが同じように前記一次微分信号と二次微分信
号を用いて、Step(+)〜Roof領域・V-Ditch 〜Step
(+)領域・Step(+)〜Step(+)領域・Step(−)
〜Step(−)領域を定義することが出来る。
[0005] An area sandwiched between two types of edges is defined below. The Roof to Step (−) region 106 sandwiched between the Roof Edge 103 and the Step (−) Edge 104 is the first differential signal 1
01 and the second derivative signal 102 can be obtained under the condition that both are negative. Step (-) Edge104 and V-Ditch Ed
Step (-) to V-Ditch area 107 sandwiched by ge 105
Is that the primary differential signal 101 is a negative / secondary differential signal 102
Can be obtained under the condition that is positive. Although not shown here, similarly, the first differential signal and the second differential signal are used to calculate Step (+) to Roof area, V-Ditch to Step
(+) Area-Step (+) to Step (+) area-Step (-)
~ Step (-) region can be defined.

【0006】検出する目構造を図2を用いて説明する。
入力画像50の中に目が大きく撮影されているとする。
抽出対象となる目の構造は、瞳51・上瞼52・目頭5
4・目尻56である。前記従来手法は目頭54・目尻5
6・と、上瞼52のうち目頭54と目尻56に近い部分
の構造を、「眼球とその他の部分との境界で、最も奥ま
った位置」であるとモデル化して検出する手法である。
An eye structure to be detected will be described with reference to FIG.
It is assumed that a large eye is photographed in the input image 50.
The structure of the eyes to be extracted includes the pupil 51, the upper eyelid 52, and the inner eye 5
4. Eye corner 56. The conventional method is the inner corner 54 and the outer corner 5
6. This method is a method of modeling and detecting the structure of a portion of the upper eyelid 52 that is close to the inner corner of the eye 54 and the outer corner of the eye 56 as “the deepest position at the boundary between the eyeball and other parts”.

【0007】従来手法を図4を用いて説明する。The conventional method will be described with reference to FIG.

【0008】Step(−)〜V-Ditch 領域検出手段30
は、入力画像信号11を入力としてStep(−)〜V-Ditc
h 領域を切り出し、Step(−)〜V-Ditch 領域信号33
を出力する。上瞼候補領域検出手段31は該Step(−)
〜V-Ditch 領域信号33を入力として、ある閾値よりも
幅の広い領域を全て選択し上瞼候補領域とし、上瞼候補
領域信号34を出力する。該閾値は典型的な瞳の幅より
も広く、目の幅よりも狭い値を選択する。前記上瞼候補
領域信号34を入力とし、上瞼領域検出手段32は領域
中の輝度の平均値が最も暗い領域を上瞼であるとし、上
瞼領域信号12として出力する。
Step (-) to V-Ditch area detecting means 30
Are input from the input image signal 11 as steps (−) to V-Ditc.
h area is cut out, and Step (−) to V-Ditch area signal 33
Is output. The upper eyelid candidate region detecting means 31 performs the Step (−)
With the ~ V-Ditch region signal 33 as an input, all regions wider than a certain threshold are selected as upper eyelid candidate regions, and an upper eyelid candidate region signal 34 is output. The threshold is chosen to be wider than the typical pupil width and narrower than the eye width. The upper eyelid candidate area signal 34 is input, and the upper eyelid area detecting means 32 outputs the upper eyelid area signal 12 assuming that the area having the lowest average luminance value in the area is the upper eyelid.

【0009】第一のV-ditch Edge検出手段6は、目の付
近を切り出した画像である入力画像信号11を入力し
て、ある方向に対して局部的に暗い点を検出し第一のV-
ditchEdge信号21として出力する。第二のV-ditch Edg
e検出手段7は同様に、目の付近を切り出した画像であ
る入力画像信号11を入力として、前記V-ditch Edge検
出手段6と異なる方向に対して局部的に暗い点を検出し
て第二のV-ditch Edge信号22として出力する。論理和
手段3は、上瞼領域信号12と上記第一のV-ditch Edge
信号21、第二のV-ditch Edge信号22を入力として論
理和を計算し、目頭点・目尻点・上瞼線を含む目構造点
群信号24を出力する。また顔の上下関係を示す、目尻
方向を判断するための顔方向信号14を基準に上記目構
造点群信号24の中から、目尻点選択手段5は最も顔の
外側になる点を選択して目尻点とし、目尻点信号15と
して出力する手法であった。
The first V-ditch Edge detecting means 6 receives an input image signal 11 which is an image obtained by cutting out the vicinity of the eyes, detects a dark point locally in a certain direction, and detects the first V-ditch Edge. -
Output as a ditchEdge signal 21. Second V-ditch Edg
Similarly, the e-detecting means 7 receives the input image signal 11 which is an image obtained by cutting out the vicinity of the eyes, and detects a dark point locally in a direction different from that of the V-ditch Edge detecting means 6 to perform the second detection. Is output as the V-ditch Edge signal 22. The OR means 3 calculates the upper eyelid region signal 12 and the first V-ditch Edge
A logical sum is calculated by using the signal 21 and the second V-ditch Edge signal 22 as inputs, and an eye structure point group signal 24 including an inner corner point, an outer corner point, and an upper eyelid line is output. The eye corner point selecting means 5 selects a point which is the most outside of the face from the eye structure point group signal 24 based on the face direction signal 14 for determining the direction of the outer corner of the eye, which indicates the vertical relationship of the face. In this method, an eye corner point is output and the eye corner point signal 15 is output.

【0010】[0010]

【発明が解決しようとする課題】前記目構造検出方法は
2つのパラメータを持っていた。一つは上瞼領域検出の
ためのパラメータ、もう一つはエッジオペレータのサイ
ズである。前者は典型的な目の幅と瞳の幅の間に設定す
れば良く、本パラメータによって目尻や目頭の構造が大
まかにどの付近に存在するかを示す上瞼領域が検出され
るだけであるため、多少のずれがあっても検出結果に影
響を与えない量であった。
The above-mentioned eye structure detection method has two parameters. One is a parameter for detecting the upper eyelid region, and the other is the size of the edge operator. The former only needs to be set between the typical eye width and pupil width, and this parameter only detects the upper eyelid area that roughly indicates where the structure of the outer or outer corner of the eye is located. The amount did not affect the detection result even if there was some deviation.

【0011】しかしエッジオペレータのサイズは、目尻
や目頭が実際にどの位置に存在するかを指し示すエッジ
位置を決定する量であり、検出対象となる目尻や目頭の
構造に大きく依存しているため、従来はどのような基準
で定めたら良いかわからなかった。ここで画像に適当な
サイズを持つエッジオペレータを適用するということは
画像を低域濾過した後微分処理を行うことと同等である
ことから、エッジオペレータのサイズを決定する問題は
ローパスフィルタのカットオフ周波数を決定する問題と
同等であると考えて良い。
However, the size of the edge operator is an amount that determines the edge position indicating the actual position of the outer or outer corner of the eye, and largely depends on the structure of the outer or outer corner of the eye to be detected. Conventionally, it has not been known what criteria should be used. Here, applying an edge operator having an appropriate size to an image is equivalent to performing low-pass filtering on the image and then performing differential processing, so the problem of determining the size of the edge operator is the cutoff of the low-pass filter. It can be considered to be equivalent to the problem of determining the frequency.

【0012】またエッジオペレータのサイズを固定して
考えた場合、処理対象の画像中に目がどういう大きさで
撮影されていると、実際の顔の大きさに対する誤差が小
さくなるかという問題に言い換えることもできる。この
ことから前記の問題点は、目画像をどういう大きさにス
ケール変換するかという問題と同等である。
When the size of the edge operator is fixed, the problem is that if the size of the eyes is photographed in the image to be processed, the error with respect to the actual face size is reduced. You can also. From this, the above problem is equivalent to the problem of how to convert the size of the eye image to scale.

【0013】本発明の目的はこれらの、エッジオペレー
タのサイズあるいはローパスフィルタのカットオフ周波
数や画像のスケール変換パラメータを、他の検出が容易
な量から自動的に定めることにより、人間が検出するの
と同等以上の精度で目尻を検出することにある。
An object of the present invention is to automatically determine the size of the edge operator, the cut-off frequency of the low-pass filter, and the scale conversion parameter of the image from other easily detectable amounts, thereby enabling human detection. Detecting the outer corner of the eye with the same or better accuracy.

【0014】[0014]

【課題を解決するための手段】本発明の、目尻検出装置
は、人物の顔の目付近を撮影した画像から目尻の構造を
検出する装置において、顔の両目の間隔の逆数を定数倍
することにより、空間周波数でのローパスフィルタのカ
ットオフ周波数を定める手段と、前記画像に前記ローパ
スフィルタを適用して低周波数成分の画像を生成する手
段と、前記低周波成分画像を処理する手段とを備える
ことを特徴とする。
Of the present invention SUMMARY OF THE INVENTION, the eye area detection device, in a device for detecting an image from the eye area structure obtained by photographing the vicinity of the eyes of a person's face, constant times the reciprocal of the eyes of the spacing of the face
By, mosquitoes of the low-pass filter in the spatial frequency
Means for determining a cutoff frequency, characterized in that it comprises means for generating an image of the low frequency components by applying the low-pass filter to the image, and means for processing the low frequency component image.

【0015】また本発明の、目尻検出装置は、人物の顔
の目付近を撮影した画像から目尻の構造を検出する装置
において、顔の両目の間隔を基にしてエッジオペレータ
を定める手段と、前記画像に前記エッジオペレータを適
用してエッジ画像を生成する手段と、前記エッジ画像を
処理する手段とを備えることを特徴とする。
An eye corner detecting device according to the present invention is a device for detecting the structure of the outer corner of the eye from an image obtained by photographing the vicinity of the eyes of a person's face. The image processing apparatus further comprises means for generating an edge image by applying the edge operator to an image, and means for processing the edge image.

【0016】また本発明の目尻検出装置は、人物の顔の
目付近を撮影した画像から目尻の構造を検出する装置に
おいて、顔の両目の間隔を基にして、変換後の両目の間
隔が予め与えたエッジオペレータのサイズの定数倍とな
るようにスケール変換してスケール変換画像を生成する
手段と、前記スケール変換画像に前記サイズのエッジオ
ペレータを適用してエッジ画像を生成する手段と、前記
エッジ画像を処理する手段とを備えることを特徴とす
る。
Further outside corner detection apparatus of the present invention, there is provided an apparatus for detecting an image from the eye area structure obtained by photographing the vicinity of the eyes of a human face, based on the distance between the eyes of the face, between the eyes after conversion
The gap is a constant multiple of the edge operator size given in advance.
Means for generating a scaled image by scaling in so that means for generating an edge image by applying the size of the edge operator to the scaled image, in that it comprises means for processing said edge image Features.

【0017】[0017]

【作用】本発明の原理は、検出することが容易な目の大
まかな位置を用いてエッジオペレータのサイズあるいは
ローパスフィルタのカットオフ周波数を定めるものであ
る。
According to the principle of the present invention, the size of the edge operator or the cutoff frequency of the low-pass filter is determined by using the approximate position of the eye which is easy to detect.

【0018】肌と白目位置の色の差はそれほど大きくな
いために、目尻のような目の構造を定めることは非常に
難しい。このため目構造の特徴をうまく用いてやらない
と高精度な検出は不可能である。ところで顔の中で目
(時に瞳)と肌の色の差は際立っているために、目の大
まかな位置を定めることは容易である。そこで両目の大
まかな間隔と、エッジオペレータのサイズあるいはロー
パスフィルタのカットオフ周波数による目構造の検出精
度の関係を調べることにより、両目の大まかな間隔と目
尻検出精度との相関が大きいことが判明した。従来はこ
のような事実は知られておらず、手探りで最適なパラメ
ータを決定する必要があった。
Since the color difference between the skin and the white eye position is not so large, it is very difficult to determine the eye structure such as the outer corner of the eye. For this reason, high-precision detection is impossible unless the features of the eye structure are used properly. By the way, since the difference between the eyes (sometimes the eyes) and the skin color in the face is remarkable, it is easy to determine the approximate position of the eyes. Therefore, by examining the relationship between the rough distance between the eyes and the detection accuracy of the eye structure based on the size of the edge operator or the cutoff frequency of the low-pass filter, it was found that the correlation between the rough distance between the eyes and the accuracy of the outer corner of the eye was large. . Conventionally, such a fact has not been known, and it has been necessary to determine the optimal parameters by fumbling.

【0019】実際にエッジオペレータサイズもしくはロ
ーパスフィルタのカットオフ周波数を両目の間隔で正規
化することによって高精度な抽出が可能となることが様
々な人物の目画像を処理することによって実験的に明ら
かとなった。従来方式の一例と示した文献〔特願平4−
153128〕の方法の場合、瞳間距離とエッジオペレ
ータのサイズの比が500対3付近で最も検出精度が良
くなり、人間が手で目尻点を指定した場合と同程度以上
の検出精度を得ることができるという結果が得られた。
この事実により初めて、人手による検出精度と比較し得
る高精度の目尻点自動検出可能となる。
It is experimentally clarified by processing eye images of various persons that high-precision extraction becomes possible by normalizing the edge operator size or the cutoff frequency of the low-pass filter at the interval between the eyes. It became. A document that is shown as an example of the conventional method [Japanese Patent Application No.
153128], the detection accuracy is the best when the ratio between the pupil distance and the size of the edge operator is around 500: 3, and the detection accuracy is at least as high as that when a human designates the outer corner of the eye by hand. Was obtained.
For the first time, this fact makes it possible to automatically detect the outer corner of the eye with high accuracy comparable to the detection accuracy by hand.

【0020】[0020]

【実施例】本発明の目尻検出装置の第一の実施例を、図
1を用いて説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment of an eye corner detecting apparatus according to the present invention will be described with reference to FIG.

【0021】瞳間距離信号13から、局所的に暗い点を
検出するために用いるV-ditch Edgeオペレータのサイズ
を決定する、V-ditch Edgeオペレータ決定手段4によっ
て、V-ditch Edgeオペレータサイズ信号23が出力され
る。上記V-ditch edgeオペレータ決定手段はV-ditch Ed
geオペレータサイズを目の幅の定数倍により求める。第
一のV-ditch Edge検出手段1は、目の付近を切り出した
画像である入力画像信号11と上記V-ditch Edgeオペレ
ータサイズ信号23を入力として、ある方向に対して局
部的に暗い点を検出し第一のV-ditch Edge信号21とし
て出力する。第二のV-ditch Edge検出手段2は同様に、
目の付近を切り出した画像である入力画像信号11と上
記V-ditch Edgeオペレータサイズ信号23を入力とし
て、前記V-ditch Edge検出手段1と異なる方向に対して
局部的に暗い点を検出して第二のV-ditch Edge信号22
として出力する。論理和手段3は、上瞼領域信号12と
上記第一のV-ditch Edge信号21、第二のV-ditch Edge
信号22を入力として論理和を計算し、目頭点・目尻点
・上瞼線を含む目構造点群信号24を出力する。また顔
の上下関係を示す目尻方向を判断するための顔方向信号
14を基準に、目尻点選択手段5は上記目構造点群信号
24を入力として、目構造点群24の中から最も顔の外
側になる点を選択して目尻点とし、目尻点信号15とし
て出力する。
The V-ditch Edge operator determining means 4 for determining the size of a V-ditch Edge operator used to detect a locally dark point from the inter-pupil distance signal 13 causes the V-ditch Edge operator size signal 23 to be determined. Is output. The V-ditch edge operator determination means is V-ditch Ed
The ge operator size is determined by a constant multiple of the eye width. The first V-ditch Edge detecting means 1 receives an input image signal 11 which is an image obtained by cutting out the vicinity of the eyes and the V-ditch Edge operator size signal 23, and detects a locally dark point in a certain direction. Detected and output as a first V-ditch Edge signal 21. Similarly, the second V-ditch Edge detecting means 2
The input image signal 11 which is an image obtained by cutting out the vicinity of the eyes and the V-ditch Edge operator size signal 23 are input, and a dark point is locally detected in a direction different from that of the V-ditch Edge detecting means 1. Second V-ditch Edge signal 22
Output as The OR means 3 generates the upper eyelid region signal 12, the first V-ditch Edge signal 21, and the second V-ditch Edge signal.
A logical sum is calculated by using the signal 22 as an input, and an eye structure point group signal 24 including an inner corner point, an outer corner point, and an upper eyelid line is output. Also, based on the face direction signal 14 for determining the direction of the outer corner of the eye indicating the upper and lower relationship of the face, the outer corner point selecting means 5 receives the above-mentioned eye structure point group signal 24 as input, and The outside point is selected as the outer corner point, and is output as the outer corner point signal 15.

【0022】次に本発明の目尻検出装置の第二の実施例
を、図5を用いて説明する。
Next, a second embodiment of the eye corner detecting apparatus of the present invention will be described with reference to FIG.

【0023】瞳間距離信号13から、目尻の構造を調べ
るのに有効な周波数成分を取り出すためのカットオフ周
波数を決定する、ローパスフィルタカットオフ周波数決
定手段9によって、ローパスフィルタカットオフ周波数
信号26が出力される。該ローパスフィルタカットオフ
周波数信号26は、前記ローパスフィルタカットオフ周
波数決定手段9によって、瞳間距離の逆数を定数倍する
ことにより定められる。ローパスフィルタ手段8は入力
画像信号11を前記ローパスフィルタカットオフ周波数
信号26を基にして低域濾過処理を施し、低域周波数信
号25を出力する。第一のV-ditch Edge検出手段6
は、前記低域周波数信号25を入力として、ある方向に
対して固定した領域内で局部的に暗い点を検出し第一の
V-ditch Edge信号21として出力する。第二のV-ditch
Edge検出手段7は同様に、前記低域周波数信号25を
入力として、前記第一のV-ditch Edge検出手段6とは
異なる方向に対して固定した領域内で局部的に暗い点を
検出して第二のV-ditch Edge信号22として出力す
る。論理和手段3は、上瞼領域信号12と上記第一のV-
ditch Edge信号21、第二のV-ditch Edge信号22を
入力として論理和を計算し、目頭点・目尻点・上瞼線を
含む目構造点群信号24を出力する。顔方向信号14を
基準に、目尻点選択手段5は上記目構造点群信号24を
入力として、目構造点群24の中から最も顔の外側にな
る点を選択して目尻点とし、目尻点信号15として出力
することにより、本発明の実現することができる。
The low-pass filter cut-off frequency signal 26 is determined by the low-pass filter cut-off frequency determining means 9 for determining a cut-off frequency for extracting a frequency component effective for examining the structure of the outer corner of the eye from the pupil distance signal 13. Is output. The low-pass filter cut-off frequency signal 26 by the low-pass filter cutoff frequency determination means 9, for constant times the reciprocal of the pupil distance
It is determined by that. The low-pass filter means 8 performs a low-pass filtering process on the input image signal 11 based on the low-pass filter cut-off frequency signal 26, and outputs a low-frequency signal 25. First V-ditch Edge detection means 6
Receives the low frequency signal 25 as an input, detects a locally dark spot in an area fixed in a certain direction,
Output as V-ditch Edge signal 21. Second V-ditch
Similarly, the edge detecting means 7 receives the low frequency signal 25 as an input, and detects a locally dark point in a region fixed in a direction different from that of the first V-ditch edge detecting means 6. Output as the second V-ditch Edge signal 22. The OR means 3 calculates the upper eyelid region signal 12 and the first V-
A logical sum is calculated by using the ditch Edge signal 21 and the second V-ditch Edge signal 22 as inputs, and an eye structure point group signal 24 including an inner corner point, an outer corner point, and an upper eyelid line is output. Based on the face direction signal 14, the eye corner point selection means 5 receives the eye structure point group signal 24 as input, selects a point that is the outermost of the face from the eye structure point group 24, sets the point as the eye corner point, By outputting the signal as the signal 15, the present invention can be realized.

【0024】本発明の目尻検出装置の第三の実施例を、
図6を用いて説明する。
A third embodiment of the eye corner detecting device of the present invention is as follows.
This will be described with reference to FIG.

【0025】予め与えたエッジオペレータのサイズと、
瞳間距離信号13から、目尻の構造を調べるのに有効な
周波数成分を取り出すための画像の大きさを決定する、
スケール変換パラメータ決定手段29によって、スケー
ル変換パラメータ信号27出力される。スケール変換
手段10は入力画像信号11を前記スケール変換パラメ
ータ信号27を基にしてスケール変換処理を施し、スケ
ール変換画像信号28を出力する。スケール変換により
目の部分画像は、瞳間距離が前記サイズに対して定数倍
の画像の大きさを持つように変換される。第一のV-ditc
h Edge検出手段6は、前記スケール変換画像信号28
を入力として、前記サイズのV-ditch Edgeオペレータ
を用いて、ある方向に対して固定した領域内で局部的に
暗い点を検出し第一のV-ditch Edge検出信号21とし
て出力する。第二のV-ditch Edge検出手段7は同様
に、前記スケール変換画像信号28を入力として、前記
サイズのV-ditch Edgeオペレータにより、前記第一のV
-ditch Edge検出手段6とは異なる方向に対して固定し
た領域内で局部的に暗い点を検出して第二のV-ditch E
dge信号22として出力する。論理和手段3は、上瞼領
域信号12と上記第一のV-ditch Edge信号21、第二
のV-ditch Edge信号22を入力として論理和を計算
し、目頭点・目尻点・上瞼線を含む目構造点群信号24
を出力する。目尻点選択手段5は顔方向信号14と上記
目構造点群信号24を入力とsて、目構造点群24の中
から最も顔の外側になる点を選択して目尻点とし、目尻
点信号15として出力することにより、本発明の実現
することができる。
The edge operator size given in advance,
From the pupil distance signal 13, determine the size of an image for extracting frequency components effective for examining the structure of the outer corner of the eye,
The scale conversion parameter signal 27 is output by the scale conversion parameter determination means 29. The scale conversion means 10 performs a scale conversion process on the input image signal 11 based on the scale conversion parameter signal 27, and outputs a scale converted image signal 28. By the scale conversion, the partial image of the eye is converted such that the distance between the pupils is a constant multiple of the above-mentioned size . First V-ditc
h The edge detecting means 6 outputs the scale-converted image signal 28
As input, V-ditch Edge operator of the above size
, A dark point is locally detected in an area fixed in a certain direction , and is output as a first V-ditch Edge detection signal 21. The second V-Ditch Edge detecting means 7 Similarly, as an input the scaled image signal 28, the
The size of the first V-ditch Edge operator
-ditch Edge detection means 6 detects a locally dark point in an area fixed in a direction different from that of the second V-ditch E
Output as dge signal 22. The OR means 3 receives the upper eyelid region signal 12, the first V-ditch Edge signal 21, and the second V-ditch Edge signal 22 as inputs and calculates a logical OR, and calculates the inner and outer corner points, the outer corner points, and the upper eyelid line. Eye structure point cloud signal 24 including
Is output. The eye corner point selecting means 5 receives the face direction signal 14 and the eye structure point group signal 24 as input, selects a point which is the outermost of the face from the eye structure point group 24, sets the point as the eye corner point, and sets the eye corner point signal. by outputting as 15, it can be <br/> the implementation of the present invention.

【0026】以上目構造検出手段として、文献〔特願平
4−153128〕に基づいた手法によって説明した
が、これに限らずエッジオペレータを適用して構造抽出
する手法に取り替えても、本発明を実現することが出来
る。
As described above, the eye structure detecting means has been described based on the method based on the document [Japanese Patent Application No. 4-153128]. Can be realized.

【0027】[0027]

【発明の効果】本発明により、従来困難であった目尻の
詳細構造を定めるためのエッジオペレータのサイズある
いはローパスフィルタのカットオフ周波数、スケール変
換パラメータを、両目の間の距離情報を基に自動的に定
めることにより、人間が検出するのと同等以上の精度で
目尻を検出することができる。
According to the present invention, the size of the edge operator, the cutoff frequency of the low-pass filter, and the scale conversion parameter for determining the detailed structure of the outer corner of the eye, which were difficult in the past, are automatically determined based on the distance information between the eyes. , The outer corner of the eye can be detected with an accuracy equal to or higher than that detected by a human.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の目尻検出装置の第一の実施例の構成図
である。
FIG. 1 is a configuration diagram of a first embodiment of an eye corner detection device according to the present invention.

【図2】処理対象となる人物の目の部分画像である。FIG. 2 is a partial image of the eyes of a person to be processed.

【図3】Roof Edge /V-Ditch Edge/Step(+)/Step
(−)Edgeと、二種類のエッジで挟まれる領域の説明図
である。
[Figure 3] Roof Edge / V-Ditch Edge / Step (+) / Step
It is explanatory drawing of (-) Edge and the area | region pinched by two types of edges.

【図4】従来手法における目構造検出装置の構成図であ
る。
FIG. 4 is a configuration diagram of an eye structure detection device according to a conventional method.

【図5】本発明の目尻検出装置の第二の実施例の構成図
である。
FIG. 5 is a configuration diagram of a second embodiment of an eye corner detection device according to the present invention.

【図6】本発明の目尻検出装置の第三の実施例の構成図
である。
FIG. 6 is a configuration diagram of a third embodiment of an eye corner detection device according to the present invention.

【符号の説明】[Explanation of symbols]

1 第一のV-Ditch Edge検出手段 2 第二のV-Ditch Edge検出手段 3 論理和手段 4 V-Ditch Edgeオペレータ決定手段 5 目尻点選択手段 6 第一のV-Ditch Edge検出手段 7 第二のV-Ditch Edge検出手段 8 ローパスフィルタ手段 9 ローパスフィルタカットオフ周波数決定手段 10 スケール変換手段 11 入力画像信号11 12 上瞼領域信号 13 瞳間距離信号 14 顔方向信号 15 目尻信号 21 第一のV-Ditch Edge信号 22 第二のV-Ditch Edge信号 23 V-Ditch Edgeオペレータサイズ信号 24 目構造点群信号 25 低域周波数信号 26 ローパスフィルタカットオフ周波数信号 27 スケール変換パラメータ信号 28 スケール変換画像信号 29 スケール変換パラメータ決定手段 30 Step(−)〜V-Ditch 領域検出手段 31 上瞼候補領域検出手段 32 上瞼領域検出手段 33 Step(−)〜V-Ditch 領域信号 34 上瞼候補領域信号 50 入力画像 51 瞳 52 上瞼 53 下瞼 54 目尻 55 涙袋 56 目尻 100 入力信号 101 一次微分信号 102 二次微分信号 103 極大値Roof Edge 104 変曲点Step(−)Edge 105 極小値V-Ditch Edge 106 Roof〜Step(−)領域 107 Step(−)〜V-Ditch 領域 DESCRIPTION OF SYMBOLS 1 First V-Ditch Edge detecting means 2 Second V-Ditch Edge detecting means 3 Logical OR means 4 V-Ditch Edge operator determining means 5 Eye corner point selecting means 6 First V-Ditch Edge detecting means 7 Second V-Ditch Edge detection means 8 Low-pass filter means 9 Low-pass filter cut-off frequency determination means 10 Scale conversion means 11 Input image signal 11 12 Upper eyelid region signal 13 Interpupillary distance signal 14 Face direction signal 15 Eye corner signal 21 First V -Ditch Edge signal 22 Second V-Ditch Edge signal 23 V-Ditch Edge operator size signal 24 Eye structure point group signal 25 Low frequency signal 26 Low pass filter cutoff frequency signal 27 Scale conversion parameter signal 28 Scale converted image signal 29 Scale conversion parameter determination means 30 Step (-) to V-Ditch area detection means 31 Upper eyelid candidate area detection means 32 Upper eyelid area detection means 3 Step (-) to V-Ditch area signal 34 Upper eyelid candidate area signal 50 Input image 51 Eyes 52 Upper eyelid 53 Lower eyelid 54 Eye corner 55 Tears bag 56 Eye corner 100 Input signal 101 Primary differential signal 102 Secondary differential signal 103 Maximum value Roof Edge 104 Inflection point Step (−) Edge 105 Minimal value V-Ditch Edge 106 Roof to Step (−) region 107 Step (−) to V-Ditch region

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平5−108804(JP,A) 顔画像中からの目の特徴点抽出 坂本 静生、宮尾陽子、田島譲二 電子情報通 信学会論文誌 D−▲II▼ VOl. J76−D−▲II▼ NO.8 PP. 1796−1804 1993年8月 顔画像によるセキュリティシステムの 開発 土井元紀、千原國宏 ASPシン ポジウム講演論文集 VOl.1993 P AGE.37−40 1993 (1993年9月17 日公知) 人物の顔照合のための特徴量解析 坂 本静生、宮尾陽子、田島譲二 1990年電 子情報通信学会秋期全国大会講演論文集 VOl.1990,NO.AUTUMN PT 6 PAGE.6.411 1990 アクセスコントロールを目的とする正 面顔画像照合システムの開発 土居元 紀、大城理、千原國宏 システム制御情 報学会研究発表講演会講演論文集 Vo l.38th Page.531−532 1994 (本願出願後公知) (58)調査した分野(Int.Cl.6,DB名) G06T 1/00 G06T 5/20 G06T 7/00 H04N 7/15──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-5-108804 (JP, A) Extraction of feature points of eyes from face images Shizuo Sakamoto, Yoko Miyao, Joji Tajima Transactions of the Institute of Electronics, Information and Communication Engineers D -▲ II ▼ VOL. J76-D- ▲ II ▼ NO. 8 PP. 1796-1804 August 1993 Development of Security System Using Face Images Motoki Doi, Kunihiro Chihara ASP Symposium Proceedings Vol. 1993 PAGE. 37-40 1993 (known on September 17, 1993) Feature analysis for human face matching Shizuo Sakamoto, Yoko Miyao, Joji Tajima Proceedings of the 1990 IEICE Autumn National Convention Vol. 1990, NO. AUTUMN PT 6 PAGE. 6.411 1990 Development of Frontal Face Image Matching System for Access Control Motoki Doi, Osamu Oshiro, Kunihiro Chihara Proceedings of the Conference on System Control Information Society Vol. 38th Page. 531-532 1994 (known after filing the application) (58) Fields investigated (Int.Cl. 6 , DB name) G06T 1/00 G06T 5/20 G06T 7/00 H04N 7/15

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】人物の顔の目付近を撮影した画像から目尻
の構造を検出する装置において、 顔の両目の間隔の逆数を定数倍することにより、空間周
波数でのローパスフィルタのカットオフ周波数を定める
手段と、 前記画像に前記ローパスフィルタを適用して低周波数成
分の画像を生成する手段と、 前記低周波成分画像を処理する手段とを備えることを
特徴とする目尻検出装置。
1. A device for detecting the eye area of the structure around the eye from the captured image of the face of a person, by a constant multiple of the reciprocal of the eyes of the spacing of the face, the cut-off frequency of the low-pass filter in the spatial frequency eye area detection device for a means for determining, means for generating an image of the low frequency components by applying the low-pass filter to the image, characterized in that it comprises a means for processing the low frequency component image.
【請求項2】 人物の顔の目付近を撮影した画像から目
尻の構造を検出する装置において、 顔の両目の間隔を基にしてエッジオペレータを定める手
段と、 前記画像に前記エッジオペレータを適用してエッジ画像
を生成する手段と、 前記エッジ画像を処理する手段とを備えることを特徴と
する目尻検出装置。
2. An apparatus for detecting a structure of an outer corner of an eye from an image of the vicinity of an eye of a person's face, comprising: means for determining an edge operator based on a distance between both eyes of the face; and applying the edge operator to the image. And a means for processing the edge image.
【請求項3】人物の顔の目付近を撮影した画像から目尻
の構造を検出する装置において、 顔の両目の間隔を基にして、変換後の両目の間隔が予め
与えたエッジオペレータのサイズの定数倍となるように
スケール変換してスケール変換画像を生成する手段と、 前記スケール変換画像に前記サイズのエッジオペレータ
を適用してエッジ画像を生成する手段と、 前記エッジ画像を処理する手段とを備えることを特徴と
する目尻検出装置。
3. An apparatus for detecting a structure of an outer corner of an eye from an image of the vicinity of an eye of a person's face, wherein the distance between the converted eyes is determined in advance based on the distance between the eyes of the face.
Means for generating a scale-converted image by performing scale conversion so as to be a constant multiple of the size of the given edge operator; means for generating an edge image by applying an edge operator of the size to the scale-converted image And a means for processing the edge image.
JP5326669A 1993-12-24 1993-12-24 Eye corner detection device Expired - Lifetime JP2757756B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5326669A JP2757756B2 (en) 1993-12-24 1993-12-24 Eye corner detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5326669A JP2757756B2 (en) 1993-12-24 1993-12-24 Eye corner detection device

Publications (2)

Publication Number Publication Date
JPH07182483A JPH07182483A (en) 1995-07-21
JP2757756B2 true JP2757756B2 (en) 1998-05-25

Family

ID=18190349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5326669A Expired - Lifetime JP2757756B2 (en) 1993-12-24 1993-12-24 Eye corner detection device

Country Status (1)

Country Link
JP (1) JP2757756B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6292574B1 (en) * 1997-08-29 2001-09-18 Eastman Kodak Company Computer program product for redeye detection

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
アクセスコントロールを目的とする正面顔画像照合システムの開発 土居元紀、大城理、千原國宏 システム制御情報学会研究発表講演会講演論文集 Vol.38th Page.531−532 1994 (本願出願後公知)
人物の顔照合のための特徴量解析 坂本静生、宮尾陽子、田島譲二 1990年電子情報通信学会秋期全国大会講演論文集 VOl.1990,NO.AUTUMN PT 6 PAGE.6.411 1990
顔画像によるセキュリティシステムの開発 土井元紀、千原國宏 ASPシンポジウム講演論文集 VOl.1993 PAGE.37−40 1993 (1993年9月17日公知)
顔画像中からの目の特徴点抽出 坂本静生、宮尾陽子、田島譲二 電子情報通信学会論文誌 D−▲II▼ VOl.J76−D−▲II▼ NO.8 PP.1796−1804 1993年8月

Also Published As

Publication number Publication date
JPH07182483A (en) 1995-07-21

Similar Documents

Publication Publication Date Title
JP3350296B2 (en) Face image processing device
US7860280B2 (en) Facial feature detection method and device
CA2218793C (en) Multi-modal system for locating objects in images
US6118887A (en) Robust multi-modal method for recognizing objects
JP3761059B2 (en) Method and apparatus for detecting human face and observer tracking display
US7376250B2 (en) Apparatus, method and program for moving object detection
EP2698762B1 (en) Eyelid-detection device, eyelid-detection method, and program
US20040146187A1 (en) Iris extraction method
US20050041867A1 (en) Method and apparatus for the automatic detection of facial features
EP1229493A2 (en) Multi-mode digital image processing method for detecting eyes
JPH11250267A (en) Method and device for detecting position of eye and record medium recording program for detecting position of eye
KR101937323B1 (en) System for generating signcription of wireless mobie communication
JP2002259994A (en) Automatic image pattern detecting method and image processor
KR19990023570A (en) Eye position detection device and method
JP3490910B2 (en) Face area detection device
EP2701122A1 (en) Eyelid detection device, eyelid detection method, and program
JP4203279B2 (en) Attention determination device
JP2757756B2 (en) Eye corner detection device
JP2004303150A (en) Apparatus, method and program for face identification
KR20210092914A (en) Method and system for alopecia self-diagnosis
JP3305551B2 (en) Specific symmetric object judgment method
EP1865443A2 (en) Facial feature detection method and device
Mariani Subpixellic eyes detection
KR20040026905A (en) Evaluation apparatus and method of image quality for realtime iris recognition, and storage media having program thereof
JP2001338293A (en) Image collation processing system

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19980210