JP3319408B2 - Facial feature extraction device - Google Patents

Facial feature extraction device

Info

Publication number
JP3319408B2
JP3319408B2 JP28988698A JP28988698A JP3319408B2 JP 3319408 B2 JP3319408 B2 JP 3319408B2 JP 28988698 A JP28988698 A JP 28988698A JP 28988698 A JP28988698 A JP 28988698A JP 3319408 B2 JP3319408 B2 JP 3319408B2
Authority
JP
Japan
Prior art keywords
image
value
area
luminance
eyes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP28988698A
Other languages
Japanese (ja)
Other versions
JP2000123148A (en
Inventor
道則 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP28988698A priority Critical patent/JP3319408B2/en
Publication of JP2000123148A publication Critical patent/JP2000123148A/en
Application granted granted Critical
Publication of JP3319408B2 publication Critical patent/JP3319408B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、顔の特徴抽出装置
に係り、特に、赤外画像のように白眼と黒眼との区別が
明確に行えない場合においても、正確に眼の位置の候補
となる領域を抽出することができる顔の特徴抽出装置に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for extracting facial features, and more particularly, to an accurate eye position candidate even when it is not possible to clearly distinguish between a white eye and a black eye as in an infrared image. The present invention relates to a facial feature extraction device capable of extracting a region that becomes

【0002】[0002]

【従来の技術及び発明が解決しようとする課題】特開平
3−533号公報には、虹彩を検出するために、半径R
画素の暗い円形領域を検出する技術が記載されている。
この技術では、半径R画素の円形領域に交差する縦横2
方向の矩形領域を設定し、矩形領域の円形領域内の部分
の輝度値総和と円形領域外の部分の輝度値総和との差を
演算する。この差は、半径R画素の円形領域が虹彩
(瞳)の大きさに適合した場合に最大値となるため、こ
の差と予め定められたしきい値とを比較して、虹彩の位
置及び眼が開閉しているか否かを判断する。
2. Description of the Related Art Japanese Unexamined Patent Publication (Kokai) No. 3-533 discloses a method for detecting an iris having a radius R.
A technique for detecting dark circular regions of pixels is described.
According to this technique, the horizontal and vertical directions intersecting a circular area having a radius of R pixels are used.
A rectangular area in the direction is set, and the difference between the sum of the luminance values of the part inside the circular area of the rectangular area and the sum of the luminance values of the part outside the circular area is calculated. This difference has a maximum value when the circular area having the radius R pixels conforms to the size of the iris (pupil). Therefore, the difference is compared with a predetermined threshold to determine the position of the iris and the eye. It is determined whether or not is opened and closed.

【0003】しかしながら、上記の従来の技術では、虹
彩の位置を検出しようとした場合、個人差によって白眼
と黒眼とを明確に区別することができない場合には、虹
彩の位置を検出することができない、という問題があ
る。また、図3に示すように、赤外線を照射して撮影し
た赤外画像の場合には白眼と黒眼の区別が明確にできな
い場合が多いので、虹彩の位置を検出することが困難な
場合が多い。また、従来技術では、虹彩を演算する際に
縦横2方向の領域を用いているため、形状が異なる円形
の境界にマッチングさせることは困難である。
However, according to the above-mentioned conventional technique, when it is attempted to detect the position of the iris, if the white and black eyes cannot be clearly distinguished due to individual differences, the position of the iris cannot be detected. There is a problem that can not be. Further, as shown in FIG. 3, in the case of an infrared image captured by irradiating infrared light, it is often difficult to clearly distinguish between the white eye and the black eye, and thus it is sometimes difficult to detect the position of the iris. Many. Further, in the related art, when calculating the iris, regions in two vertical and horizontal directions are used, and therefore, it is difficult to match with a circular boundary having a different shape.

【0004】また、特開平7−93561号公報、及び
論文「形状抽出とパターン照合の組合わせによる顔特徴
の抽出」(電子情報通信学会論文誌D−II Vol.
J80−D−II No.3 pp.2170−2177
1997年8月)には、分離度フィルタにより、眼の
位置を検出する技術が記載されている。この技術では、
図1(A)に示すように、半径R1と半径R2(>R
1)の同心円によって虹彩の形(円形)に適合させたウ
インドウ8を用いて、半径R1の円内の領域1と、半径
R2の円内の領域から半径R1の円内の領域1を除いた
領域2との分離度を計算し、分離度の高い領域を抽出す
る。なお、分離度は、領域1及び領域2各々の分散、ウ
インドウ全体の分散を考慮している。そして、半径R1
の領域1が、虹彩(瞳)の大きさに適合した際に、分散
値が最大となることから眼のエッジ及び輪郭を抽出する
ことができる。
Further, Japanese Patent Application Laid-Open No. Hei 7-93561, and a paper entitled "Extraction of Facial Features by Combination of Shape Extraction and Pattern Matching" (Transactions of the Institute of Electronics, Information and Communication Engineers, D-II Vol.
J80-D-II No.3 pp. 2170-2177
(August 1997) describes a technique for detecting the position of an eye using a separation filter. With this technology,
As shown in FIG. 1A, the radius R1 and the radius R2 (> R
Using the window 8 adapted to the shape (circle) of the iris by the concentric circle of 1), the area 1 in the circle with the radius R1 and the area 1 in the circle with the radius R1 are removed from the area in the circle with the radius R2. The degree of separation from the area 2 is calculated, and an area having a high degree of separation is extracted. The degree of separation takes into account the variance of each of the area 1 and the area 2 and the variance of the entire window. And the radius R1
Since the variance value is maximized when the region 1 of conforms to the size of the iris (pupil), the edge and the contour of the eye can be extracted.

【0005】図1(B)は、半径R1と半径R2の同心
円状のウインドウ8と同様の機能を有する同心状に配置
された図1(C)に示す大小2つの正方形からなるウイ
ンドウ6を用いて分離度フィルタにより眼の位置を検出
したシミュレーション結果を示すものである。図1
(D)は、分散度の大きさ(大、中、0)と領域1及び
領域2内の輝度の大きさとの関係を示す線図である。
FIG. 1B uses a window 6 composed of two large and small squares shown in FIG. 1C and arranged concentrically and having the same function as a concentric window 8 having a radius R1 and a radius R2. 3 shows a simulation result of detecting the position of the eye with a separation filter. FIG.
(D) is a diagram showing the relationship between the magnitude of the degree of dispersion (large, medium, 0) and the magnitude of the luminance in the area 1 and the area 2.

【0006】従来の技術では、ウインドウが虹彩の形状
に適合した円形領域1を有しているため、図1(B)か
ら理解されるように、原画像の眼が開いている場合に
は、すなわち虹彩が検出できる場合には、眼の位置を検
出することができる。
In the prior art, since the window has a circular area 1 conforming to the shape of the iris, as can be understood from FIG. 1B, when the eyes of the original image are open, That is, when the iris can be detected, the position of the eye can be detected.

【0007】しかしながら、上記従来の技術では、虹彩
の形状に適合した円形領域を有するウインドウを用いて
眼の位置を検出しているため、眼が細くなっている場合
等のように虹彩を検出することができない場合には、可
視光画像及び赤外画像にかかわらず眼の位置を検出する
ことができない、という問題がある。
However, in the above-mentioned conventional technique, since the position of the eye is detected using a window having a circular area adapted to the shape of the iris, the iris is detected as in the case where the eye is thin. If this is not possible, there is a problem that the position of the eye cannot be detected regardless of the visible light image and the infrared image.

【0008】すなわち、従来の技術において図1の眼が
開いている場合と同じしきい値を設定して図2(A)に
示す眼が細くなっている原画像の眼の位置を検出する
と、図2(B)に示すような分散度フィルタ出力結果が
得られ、図2(C)に示すように眼の位置の候補点が消
失してしまうため眼の位置を検出することができなくな
る。一方、しきい値を低い値に設定すると図2(D)に
示すように眼の位置の候補以外に多数の候補点が出現す
るため眼の位置を検出することができなくなる。
That is, in the prior art, when the same threshold value as that in the case where the eyes in FIG. 1 are open is set and the position of the eyes of the original image in which the eyes are narrow as shown in FIG. An output result of the degree of dispersion filter as shown in FIG. 2B is obtained, and as shown in FIG. 2C, candidate points of the eye position disappear, so that the eye position cannot be detected. On the other hand, if the threshold value is set to a low value, as shown in FIG. 2D, many candidate points appear in addition to the eye position candidates, so that the eye position cannot be detected.

【0009】なお、眼が細くなる原因としては、個人
差、眼を閉じている、撮影装置に対して顔が正面を向い
ていない等がある。
[0009] The causes of narrowing of the eyes include individual differences, eyes closed, and the face not facing the photographing apparatus.

【0010】本発明は、上記問題点を解決するためにな
されたもので、原画像の眼の形状(眼が細くなってい
る、眼が閉じている、及び眼が開いている等)に係わら
ず、眼等の顔の特徴を抽出することができる顔の特徴抽
出装置を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and relates to the shape of the eyes of an original image (the eyes are thin, the eyes are closed, the eyes are open, etc.). It is another object of the present invention to provide a facial feature extracting device capable of extracting facial features such as eyes.

【0011】[0011]

【課題を解決するための手段】上記目的を達成するため
に、本発明は、入力された顔画像上で顔の縦方向に隣接
して連続するように設定された少なくとも3個の矩形領
域からなるウインドウ内の各矩形領域内の輝度平均値を
算出する輝度平均値算出手段と、隣接する矩形領域の輝
度平均値の差及び前記輝度平均値の差の総和を演算する
演算手段と、前記輝度平均値の差及び前記輝度平均値の
差の総和をしきい値と比較し、しきい値より大きい画素
を抽出する抽出手段と、を含んで構成したものである。
In order to achieve the above-mentioned object, the present invention provides an image processing system comprising at least three rectangular areas which are set so as to be adjacent to each other in the vertical direction of a face on an input face image. A brightness average value calculation means for calculating a brightness average value in each rectangular area in the window; a calculation means for calculating a difference between brightness average values of adjacent rectangular areas and a sum of the brightness average value differences; Extracting means for comparing the difference between the average value and the sum of the differences between the luminance average values with a threshold value and extracting a pixel larger than the threshold value.

【0012】本発明では、輝度平均算出手段によって、
入力された顔画像上で顔の縦方向に隣接して連続するよ
うに設定された少なくとも3個の矩形領域からなるウイ
ンドウ内の各矩形領域内の輝度平均値を算出する。顔画
像上の眼の部分は、顔の縦方向に沿った輝度の相違があ
るので、演算手段は、隣接する矩形領域の輝度平均値の
差及び輝度平均値の差の総和を演算する。抽出手段は、
輝度平均値の差及び輝度平均値の差の総和をしきい値と
比較し、しきい値より大きい画素を抽出する。
In the present invention, the luminance average calculating means
An average luminance value in each rectangular area in a window including at least three rectangular areas set so as to be adjacent and continuous in the vertical direction of the face on the input face image is calculated. Since the eye portion on the face image has a difference in luminance along the vertical direction of the face, the calculation means calculates the difference between the average luminance values of the adjacent rectangular areas and the sum of the differences between the average luminance values. The extraction means is
The difference between the average brightness values and the sum of the differences between the average brightness values are compared with a threshold value, and pixels larger than the threshold value are extracted.

【0013】抽出された画素は、隣接する矩形領域にお
いて輝度平均値の差及び輝度平均値の差の総和が大きい
画素であるので、これにより眼の特徴を表す候補領域が
抽出され、この候補領域内の画素の値をしきい値と比較
することにより2値化処理を行う等によって、眼の位置
を検出することができる。また、検出された眼の位置を
基準とすれば、眉等の顔の他の特徴部分の検出を行うこ
とができる。
The extracted pixels are pixels in which the difference between the average brightness values and the sum of the differences between the average brightness values are large in adjacent rectangular regions, so that a candidate region representing the feature of the eye is extracted. The position of the eye can be detected by performing a binarization process by comparing the values of the pixels in the pixel with a threshold value. Further, using the detected position of the eye as a reference, other characteristic portions of the face such as eyebrows can be detected.

【0014】この2値化処理を行うときには、輝度平均
値の総和の度数分布を表すヒストグラムを作成し、上位
の度数から積算した積算値が全度数に対して所定の割合
になるときの輝度平均値の総和をしきい値として用いる
ことができる。
When performing the binarization process, a histogram representing the frequency distribution of the sum of the average luminance values is created, and the luminance average when the integrated value integrated from the higher frequency becomes a predetermined ratio with respect to all frequencies is generated. The sum of the values can be used as the threshold.

【0015】本発明によれば、眼の開閉に係わらず、ま
た赤外画像で良くあるように白眼と黒眼とが区別できな
いような場合であっても、眼が細くなっている場合であ
っても顔の特徴の1つである眼の位置を検出することが
可能になる。また、矩形のウインドを用いているので、
個人差による眼の形状の相違、眼を閉じていたり顔が正
面を向いていない等によって眼が細く撮影されている場
合においても眼の位置を検出することができる。
According to the present invention, regardless of the opening and closing of the eyes, and even when the white and black eyes cannot be distinguished from each other as is often the case with an infrared image, the eyes are narrow. However, it is possible to detect the position of the eye, which is one of the features of the face. Also, since a rectangular window is used,
The position of the eye can be detected even when the eye is photographed thinly due to differences in the shape of the eye due to individual differences, eyes closed or the face not facing front.

【0016】本発明においては、ウインドウの最上位に
位置する矩形領域を2等分等によって2分割する等によ
り、矩形領域の個数を4個以上に増加すれば、顔の特徴
である眼と眉とを同時に検出することができる。
In the present invention, if the number of rectangular areas is increased to four or more by dividing the rectangular area located at the top of the window into two equal parts, etc., the eyes and eyebrows, which are features of the face, are obtained. And can be detected simultaneously.

【0017】[0017]

【発明の実施の形態】以下、図面を参照して本発明を顔
の特徴の1つである眼を抽出する場合に適用した第1の
実施の形態について説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment in which the present invention is applied to the case of extracting an eye which is one of the features of a face will be described below with reference to the drawings.

【0018】第1の実施の形態は、図4に示すように、
顔を撮影するカメラ10、画像処理用のコンピュータ、
及びコンピュータに接続されて抽出された2値化画像等
を表示するCRTで構成された表示装置28によって構
成されている。
In the first embodiment, as shown in FIG.
A camera 10 for photographing a face, a computer for image processing,
And a display device 28 which is connected to a computer and which is configured by a CRT for displaying an extracted binary image or the like.

【0019】画像処理用のコンピュータは、カメラ10
から入力された画像信号をディジタル変換するアナログ
−ディジタル(A/D)変換器12、CPU14、顔画
像抽出処理ルーチンのプログラムが記憶されたROM1
6、RAM18、画像データを記憶する画像メモリ2
0、輝度平均値を記憶する平均値レジスタ22、輝度平
均値の総和の度数分布を表すヒストグラムを記憶するヒ
ストグラムメモリ24、表示装置28に接続された出力
ポート26、輝度平均値の総和の値及び0が書き込まれ
る画像メモリ32、及びこれらを接続するコントロール
バスやデータバス等のバス30で構成されている。
The computer for image processing is a camera 10
Analog-to-digital (A / D) converter 12 for digitally converting an image signal inputted from the CPU, a CPU 14, and a ROM 1 storing a program of a face image extraction processing routine.
6, RAM 18, image memory 2 for storing image data
0, an average value register 22 for storing the average luminance value, a histogram memory 24 for storing a histogram representing the frequency distribution of the total average luminance value, an output port 26 connected to the display device 28, a value for the total luminance average value, It is composed of an image memory 32 to which 0 is written, and a bus 30 such as a control bus or a data bus connecting these.

【0020】次に、第1の実施の形態の顔画像抽出処理
ルーチンについて図5を参照して説明する。
Next, a face image extraction processing routine according to the first embodiment will be described with reference to FIG.

【0021】カメラ10から入力された画像信号は、A
/D変換器12によってディジタルの画像データに変換
されて画像メモリ20に記憶されている。本実施の形態
では、図6に示すように、画像データの顔画像上で顔の
縦方向に隣接して連続するように上側から下側に向かっ
て設定された矩形領域1、矩形領域2、及び矩形領域3
の3個の矩形領域で構成された矩形のウインドウ40を
用いる。このウインドウ40において、矩形領域1と矩
形領域3とは同じ形状で同じ面積であり、矩形領域2の
幅は矩形領域1と同じで矩形領域1の面積よりも大き
く、例えば略2倍の面積を有している。
The image signal input from the camera 10 is A
The image data is converted into digital image data by the / D converter 12 and stored in the image memory 20. In the present embodiment, as shown in FIG. 6, a rectangular area 1, a rectangular area 2, and a rectangular area 2 are set from the upper side to the lower side so as to be adjacent and continuous in the vertical direction of the face on the face image of the image data. And rectangular area 3
A rectangular window 40 composed of three rectangular areas is used. In this window 40, the rectangular area 1 and the rectangular area 3 have the same shape and the same area, and the width of the rectangular area 2 is the same as that of the rectangular area 1 and is larger than the area of the rectangular area 1. Have.

【0022】まず、画像メモリ20から顔画像のデータ
を読み込み、入力された顔画像上に、顔画像の縦方向に
3個の矩形の領域が連続するようにウインドウ40を設
定する。
First, the face image data is read from the image memory 20, and a window 40 is set on the input face image so that three rectangular regions are continuous in the vertical direction of the face image.

【0023】図5のステップ100では、各矩形領域内
の全画素の輝度値を積算することにより輝度積算値を各
々算出する。ステップ102では、各矩形領域内の輝度
積算値をそれぞれの矩形領域内の全画素数で除算するこ
とにより、各矩形領域内の輝度平均値P1,P2,P3
(図7参照)を算出し、輝度平均値レジスタ22にウイ
ンドウの位置に応じて保存する。
In step 100 of FIG. 5, the luminance integrated values are calculated by integrating the luminance values of all the pixels in each rectangular area. In step 102, the luminance average value P1, P2, P3 in each rectangular area is divided by dividing the integrated luminance value in each rectangular area by the total number of pixels in each rectangular area.
(Refer to FIG. 7) is calculated and stored in the average brightness value register 22 according to the position of the window.

【0024】次のステップ104では、隣接する矩形領
域内の輝度平均値の差(P1−P2)、(P3−P2)
の各々と、しきい値K1とを比較し、次の条件を満足す
るか否かを判断する。
In the next step 104, the differences (P1-P2) and (P3-P2) between the average luminance values in the adjacent rectangular areas.
Is compared with a threshold value K1 to determine whether or not the following condition is satisfied.

【0025】 (P1−P2>K1)かつ(P3−P2>K1) ステップ104で上記の条件を満足すると判断されたと
き、すなわち隣接する矩形領域内の輝度平均値の差が大
きいことから眼の候補領域であると判断される場合に
は、ステップ106において、顔画像が記憶されている
画像メモリとは別の画像メモリ32へ輝度平均値の差の
総和(P1−P2)+(P3−P2)の値を書き込む。
書き込むべき座標は、矩形領域2の中心点の座標に書き
込む。同時にステップ108においてヒストグラムメモ
リ24に記憶されている輝度平均値の差の総和の度数分
布を表すヒストグラムの総和(P1−P2)+(P3−
P2)に対する度数を1増加する。
(P1-P2> K1) and (P3-P2> K1) When it is determined in step 104 that the above condition is satisfied, that is, since the difference between the average luminance values in adjacent rectangular regions is large, If it is determined that the area is a candidate area, in step 106, the sum of the differences between the average brightness values (P1-P2) + (P3-P2) is stored in an image memory 32 different from the image memory in which the face image is stored. Write the value of).
The coordinates to be written are written to the coordinates of the center point of the rectangular area 2. At the same time, in step 108, the total of the histogram (P1-P2) + (P3-
The frequency for P2) is increased by one.

【0026】ステップ104において上記の条件を満足
しないと判断されたとき、すなわち隣接する矩形領域間
の輝度平均値の差が小さい場合には、顔の肌領域である
と推定してステップ110において、顔画像が記憶され
ている画像メモリとは別の画像メモリ32へ0を書き込
む。書き込むべき座標は、矩形領域2の中心点の座標に
書き込む。同時に、ステップ112においてヒストグラ
ムメモリ24の総和が0の度数を1増加する。
If it is determined in step 104 that the above condition is not satisfied, that is, if the difference between the average luminance values of adjacent rectangular areas is small, it is estimated that the area is a face skin area, and in step 110, 0 is written in an image memory 32 different from the image memory in which the face image is stored. The coordinates to be written are written to the coordinates of the center point of the rectangular area 2. At the same time, in step 112, the frequency at which the sum of the histogram memory 24 is 0 is increased by 1.

【0027】次のステップ114では、顔画像全面につ
いてステップ100〜ステップ112の処理が終了した
か否かを判断し、処理が終了していない場合にはウイン
ドウを1画素ずつずらしてステップ100に戻り、上記
の処理を繰り返す。なお、ウインドウをずらす方向は左
右方向、上下方向、斜め方向のいずれでもよい。
In the next step 114, it is determined whether or not the processing of steps 100 to 112 has been completed for the entire face image. If the processing has not been completed, the window is shifted by one pixel and the process returns to step 100. , And the above processing is repeated. Note that the direction in which the window is shifted may be any of the horizontal direction, the vertical direction, and the oblique direction.

【0028】上記の処理を、矩形のウインドウを1画素
ずつずらしながら、入力画像である顔画像全体に対して
行うことにより、輝度値が輝度平均値の差の総和に変換
処理された画像及びヒストグラムが得られる。
The above processing is performed on the entire face image, which is the input image, while shifting the rectangular window by one pixel, so that the luminance value is converted to the sum of the differences between the luminance average values and the histogram. Is obtained.

【0029】ステップ114で顔画像全面について処理
が終了していると判断された場合は、ステップ116に
おいてヒストグラムメモリに記憶されているヒストグラ
ムに基づいて輝度平均値の差の総和(P1−P2)+
(P3−P2)に対するしきい値K2を算出する。すな
わち、ヒストグラムの上位の度数から度数を積算し、積
算した値が全度数に対して所定割り合いに到達した際の
総和(P1−P2)+(P3−P2)の値をしきい値K
2として設定する。この全度数に対する所定割り合い
は、予めシミュレーション等によって設定される。
If it is determined in step 114 that the processing has been completed for the entire face image, then in step 116, the sum of the differences between the average luminance values (P1-P2) + based on the histogram stored in the histogram memory.
A threshold value K2 for (P3-P2) is calculated. That is, the frequencies are integrated from the higher frequencies in the histogram, and the value of the sum (P1-P2) + (P3-P2) when the integrated value reaches a predetermined ratio with respect to all the frequencies is set to the threshold value K.
Set as 2. The predetermined ratio for the total frequency is set in advance by simulation or the like.

【0030】ステップ118では、ステップ106で輝
度平均値の差の総和(P1−P2)+(P3−P2)が
書き込まれた画像メモリ上の各画素について輝度平均値
の差の総和(P1−P2)+(P3−P2)としきい値
K2とを比較して次の条件を満足するか否かを判断す
る。
In step 118, the sum (P1-P2) of the differences between the average brightness values for each pixel in the image memory in which the sum (P1-P2) + (P3-P2) of the difference in the average brightness value has been written in step 106. ) + (P3-P2) is compared with the threshold value K2 to determine whether or not the following condition is satisfied.

【0031】(P1−P2)+(P3−P2)>K2 上記条件を満足する画素に対してはステップ120にお
いて出力するときの値を1とし、上記条件を満足しない
画素に対してはステップ122において出力するときの
値を0とし、2値化を行う。上記の2値化処理はステッ
プ124で画像全面について処理が終了したと判断され
るまで継続される。そして、画像全面について処理を行
うことにより2値化画像が得られる。
(P1-P2) + (P3-P2)> K2 For a pixel satisfying the above condition, the value at the time of output in step 120 is set to 1, and for a pixel not satisfying the above condition, step 122 is performed. The value at the time of output is set to 0 and binarization is performed. The above-described binarization process is continued until it is determined in step 124 that the process has been completed for the entire image. Then, by performing processing on the entire image, a binary image is obtained.

【0032】上記のように処理したときの処理結果を図
8に示す。図8(A)は、原画像が眼を開いている場合
の処理結果であり、図8(B)は、原画像が眼を閉じて
いる場合の処理結果であり、いずれの場合においても2
値化画像において顔の特徴である眼が良好に抽出されて
おり、この2値化画像から眼の位置を特定することがで
きる。なお、図8(A)、(B)において中央の画像
は、ステップ100〜112の処理を画像全面に対して
行ったときの処理画像である。
FIG. 8 shows the processing result when the above processing is performed. FIG. 8A shows a processing result when the original image has the eyes open, and FIG. 8B shows a processing result when the original image has the eyes closed.
The eyes, which are the features of the face, are satisfactorily extracted from the binarized image, and the positions of the eyes can be specified from the binarized image. Note that the center image in FIGS. 8A and 8B is a processed image when the processes of steps 100 to 112 are performed on the entire image.

【0033】図9(B)は、図9(A)に示すように顔
が正面を向いていない場合の2値化画像を求めた場合の
処理結果であり、眼が良好に抽出されており、また、図
9(C)は、顔が正面を向いていない場合の眼を抽出し
たときの処理結果であり、眼が良好に抽出されている。
FIG. 9B shows a processing result when a binarized image is obtained when the face is not facing the front as shown in FIG. 9A, and the eyes are well extracted. FIG. 9C shows the processing result when the eyes are extracted when the face is not facing the front, and the eyes are well extracted.

【0034】次に、本発明の第2の実施の形態について
説明する。第1の実施の形態において、図10に示すよ
うに眼と眉とが接近している顔の画像について処理を行
うと、矩形領域1に眉が入った場合には矩形領域1の輝
度平均値が小さくなり、最終的に2値化画像の出力結果
が小さくなる場合がある。このため、第2の実施の形態
では、図7に示したウインドウ40の矩形領域1を図1
1に示すように面積が等しい上下2つの矩形領域1A,
1Bに2分割して4つの矩形領域からなるウインドウ4
4とし、眉が矩形領域内に入る場合には眉が入った領域
を除外して演算することにより2値化画像の出力結果が
小さくなるのを防止したものである。
Next, a second embodiment of the present invention will be described. In the first embodiment, when processing is performed on an image of a face in which eyes and eyebrows are approaching as shown in FIG. 10, when the eyebrow enters the rectangular area 1, the luminance average value of the rectangular area 1 May become small, and the output result of the binarized image may eventually become small. Therefore, in the second embodiment, the rectangular area 1 of the window 40 shown in FIG.
As shown in FIG. 1, two upper and lower rectangular areas 1A having the same area,
A window 4 consisting of four rectangular areas divided into two 1B
When the eyebrow falls within the rectangular area, the calculation is performed excluding the area where the eyebrow enters, thereby preventing the output result of the binarized image from being reduced.

【0035】次に、第2の実施の形態の顔画像抽出処理
ルーチンについて図12を参照して説明する。なお、図
12において図5の処理ルーチンと同一部分には同一符
号を付して説明する。
Next, a face image extraction processing routine according to the second embodiment will be described with reference to FIG. In FIG. 12, the same parts as those in the processing routine of FIG.

【0036】画像メモリ20から顔画像のデータを読み
込み、入力された顔画像上に、顔画像の縦方向に4個の
矩形の領域が連続するようにウインドウ44を設定す
る。
The face image data is read from the image memory 20, and a window 44 is set on the input face image so that four rectangular areas are continuous in the vertical direction of the face image.

【0037】図12のステップ100で、各矩形領域内
の全画素の輝度積算値を各々算出すした後、ステップ1
02において、各矩形領域内の全画素数で輝度積算値を
各々除算することにより、各矩形領域内の輝度平均値P
1A,P1B,P2,P3を算出し、輝度平均値レジス
タ22に保存する。矩形領域1A,1Bは、矩形領域1
を2分割したものであるため、第1の実施の形態で説明
した矩形領域1の輝度平均値P1との間には、(P1A
+P1B)/2=P1の関係がある。
After calculating the integrated luminance values of all the pixels in each rectangular area in step 100 of FIG.
02, each of the integrated luminance values is divided by the total number of pixels in each rectangular area to obtain an average luminance value P in each rectangular area.
1A, P1B, P2, and P3 are calculated and stored in the average luminance value register 22. The rectangular areas 1A and 1B are rectangular areas 1
Is divided into two, so that (P1A) is different from the average luminance value P1 of the rectangular area 1 described in the first embodiment.
+ P1B) / 2 = P1.

【0038】次のステップ103では、矩形領域1A,
1B内の輝度平均値の差(P1B−P1A)と、しきい
値K3とを比較する。
In the next step 103, the rectangular areas 1A,
The difference (P1B-P1A) between the average luminance values within 1B is compared with a threshold value K3.

【0039】ステップ103で(P1B−P1A)<K
3を満足する場合には、すなわち隣接する矩形領域間の
輝度平均値の差が小さい場合には、顔の肌領域であると
推定して以下で説明するように演算結果に反映させ、
(P1B−P1A)<K3を満足しない場合は、眉が矩
形領域1A内に入ったと推定して以下で説明するように
眉が入った矩形領域1Aのデータを除外して演算するよ
うにする。
In step 103, (P1B-P1A) <K
3 is satisfied, that is, when the difference in the average luminance value between the adjacent rectangular regions is small, it is estimated that the region is the skin region of the face, and reflected in the calculation result as described below.
If (P1B-P1A) <K3 is not satisfied, it is assumed that the eyebrow has entered the rectangular area 1A, and the calculation is performed by excluding the data of the rectangular area 1A having the eyebrows as described below.

【0040】すなわち、ステップ103の判断が肯定さ
れた場合には、眉が矩形領域1A内に入っていないと判
断して、第1の実施の形態の図6で説明したステップ1
04〜ステップ108と同様の処理を行う。
That is, if the determination in step 103 is affirmative, it is determined that the eyebrows are not within the rectangular area 1A, and step 1 described in FIG. 6 of the first embodiment is performed.
The same processing as in step 04 to step 108 is performed.

【0041】一方、ステップ103の判断が否定された
場合には、眉が矩形領域1A内に入ったと判断し、矩形
領域1A内の輝度平均値P1Aを除外して演算に用いな
いようにし、矩形域1B、2、3内の輝度平均値の差
(P1B−P2)、(P3−P2)の各々と、しきい値
K4とを比較し、次の条件を満足するか否かを判定す
る。なお、しきい値K4は、ステップ104のしきい値
K1と同じ値に設定することができる。
On the other hand, if the determination in step 103 is denied, it is determined that the eyebrow has entered the rectangular area 1A, and the average brightness value P1A in the rectangular area 1A is excluded so as not to be used in the calculation. Each of the differences (P1B-P2) and (P3-P2) between the average brightness values in the regions 1B, 2, and 3 is compared with the threshold value K4 to determine whether or not the following condition is satisfied. The threshold value K4 can be set to the same value as the threshold value K1 in step 104.

【0042】 (P1B−P2>K4)かつ(P3−P2>K4) ステップ105で上記の条件を満足すると判断されたと
き、すなわち隣接する矩形領域間の輝度平均値の差が大
きいことから眼の候補領域であると判断される場合に
は、ステップ107において、顔画像が記憶されている
画像メモリとは別の画像メモリへ輝度平均値の差の総和
(P1B−P2)+(P3−P2)の値を書き込む。書
き込むべき座標は、矩形領域2の中心点の座標に書き込
む。同時にステップ109においてヒストグラムメモリ
24に記憶されている輝度平均値の差の総和の度数分布
を表すヒストグラムの総和(P1B−P2)+(P3−
P2)に対する度数を1増加する。
(P1B−P2> K4) and (P3−P2> K4) When it is determined in step 105 that the above condition is satisfied, that is, since the difference between the average luminance values of adjacent rectangular regions is large, If it is determined that the area is a candidate area, in step 107, the sum of the differences between the average brightness values is transferred to an image memory different from the image memory in which the face image is stored (P1B-P2) + (P3-P2). Write the value of The coordinates to be written are written to the coordinates of the center point of the rectangular area 2. At the same time, in step 109, the total sum of histograms (P1B-P2) + (P3-
The frequency for P2) is increased by one.

【0043】ステップ105において上記の条件を満足
しないと判断されたときは、第1の実施の形態と同様
に、顔画像が記憶されている画像メモリとは別の画像メ
モリへ0を書き込む。同時にステップ112において総
和が0の度数を1増加する。
If it is determined in step 105 that the above condition is not satisfied, 0 is written to an image memory different from the image memory in which the face image is stored, as in the first embodiment. At the same time, in step 112, the frequency whose sum is 0 is increased by 1.

【0044】上記の処理は、ステップ114で顔画像全
面について処理が終了したと判断されるまで繰り返さ
れ、ステップ114で処理が終了していると判断された
場合は、ステップ116において作成されたヒストグラ
ムから上記と同様にして輝度平均値の差の総和に対する
しきい値K2を算出する。ステップ118では、ステッ
プ106において(P1−P2)+(P3−P2)が、
ステップ107において(P1B−P2)+(P3−P
2)が書き込まれた画像メモリ上の各画素について、各
画素の値(P1−P2)+(P3−P2)または(P1
B−P2)+(P3−P2)としきい値K2とを比較し
て次の条件を満足するか否かを判断する。なお、上述し
たようにP1=(P1A+P1B)/2である。
The above processing is repeated until it is determined in step 114 that the processing has been completed for the entire face image. If it is determined in step 114 that the processing has been completed, the histogram created in step 116 is generated. , The threshold value K2 for the sum of the differences between the average brightness values is calculated in the same manner as described above. In step 118, (P1-P2) + (P3-P2) in step 106 is
In step 107, (P1B-P2) + (P3-P
For each pixel in the image memory in which 2) is written, the value of each pixel (P1-P2) + (P3-P2) or (P1
(B−P2) + (P3−P2) is compared with the threshold value K2 to determine whether or not the following condition is satisfied. Note that, as described above, P1 = (P1A + P1B) / 2.

【0045】(P1−P2)+(P3−P2)>K2 または(P1B−P2)+(P3−P2)>K2 上記条件を満足する画素に対してはステップ120にお
いて出力するときの値を1とし、上記条件を満足しない
画素に対してはステップ122において出力するときの
値を0とし、2値化を行い、第1の実施の形態で説明し
たように2値化画像を得る。
(P1-P2) + (P3-P2)> K2 or (P1B-P2) + (P3-P2)> K2 For the pixel satisfying the above condition, the value output at step 120 is set to 1 For pixels that do not satisfy the above condition, the value when output in step 122 is set to 0, and binarization is performed to obtain a binarized image as described in the first embodiment.

【0046】なお、上記の各実施の形態では、矩形領域
2の縦サイズを矩形領域1の縦サイズの略2倍とする例
について説明したが、個人差(眼の太さ)に応じて矩形
領域2の縦サイズを変化させてもよい。
In each of the above embodiments, an example has been described in which the vertical size of the rectangular area 2 is substantially twice the vertical size of the rectangular area 1. However, the rectangular size may be varied according to individual differences (eye thickness). The vertical size of the area 2 may be changed.

【0047】この場合には、矩形領域2の縦サイズを複
数個設定しておき、最初に抽出された眼の座標において
各矩形領域2の縦サイズ毎に出力を演算し、最も高い出
力値が演算された矩形領域2の縦サイズを選択するよう
にすることができる。
In this case, a plurality of vertical sizes of the rectangular area 2 are set, and the output is calculated for each vertical size of each rectangular area 2 at the coordinates of the eye extracted first, and the highest output value is obtained. The vertical size of the calculated rectangular area 2 can be selected.

【0048】このように、最初の抽出時に最適なウイン
ドウサイズを選択することにより、個人差、特に眼の太
さに対応して安定に眼の位置を抽出することができる。
As described above, by selecting the optimum window size at the time of the first extraction, it is possible to stably extract the position of the eye corresponding to individual differences, particularly, the thickness of the eye.

【0049】また、上記の各実施の形態では、眼の位置
を検出する例について説明したが、ウインドウの大きさ
を変更して上記と同様の手法を適用することにより、眼
以外の顔の別の特徴である眉、口等も検出可能である。
そして、これらの特徴点の位置関係を検証に用いること
により、信頼性の高い顔の特徴を抽出を行うことができ
る。
In each of the above embodiments, the example of detecting the position of the eyes has been described. However, by changing the size of the window and applying the same method as described above, the face other than the eyes can be identified. The eyebrows, mouth, and the like, which are the characteristics of, can be detected.
Then, by using the positional relationship of these feature points for verification, highly reliable facial features can be extracted.

【0050】[0050]

【発明の効果】以上説明したように、本発明によれば、
縦方向の境界のみを考慮した矩形のウインドウを設定し
ているため、白眼と黒眼の区別が明確にできない赤外画
像の場合でも眼等の顔の特徴の候補となる領域を正確に
抽出できる、という効果が得られる。
As described above, according to the present invention,
Since a rectangular window is set taking into account only the vertical boundary, it is possible to accurately extract regions that are candidates for facial features such as eyes even in the case of an infrared image in which it is not possible to clearly distinguish between white and black eyes. Is obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】(A)は従来のウインドを示す図であり、
(B)は従来技術による眼の位置検出のシミュレーショ
ン結果を示す図であり、(C)はシミュレーションに用
いたウインドを示す図であり、(D)は分離度と各領域
の輝度との関係を示す線図である。
FIG. 1A is a diagram showing a conventional window,
(B) is a diagram showing a simulation result of eye position detection according to the related art, (C) is a diagram showing a window used in the simulation, and (D) is a diagram showing the relationship between the degree of separation and the luminance of each region. FIG.

【図2】従来技術の問題点を説明するための図であり、
(A)は原画像、(B)は分離度フィルタ出力結果、
(C)はしきい値が図1と同じ場合の2値化画像、
(D)はしきい値を小さくした場合の2値化画像であ
る。
FIG. 2 is a diagram for explaining a problem of the related art;
(A) is an original image, (B) is an output result of a separation filter,
(C) is a binarized image when the threshold value is the same as in FIG. 1,
(D) is a binarized image when the threshold value is reduced.

【図3】赤外画像を示す図である。FIG. 3 is a diagram showing an infrared image.

【図4】本実施の形態のブロック図である。FIG. 4 is a block diagram of the present embodiment.

【図5】第1実施の形態における顔画像抽出処理ルーチ
ンを示す流れ図である。
FIG. 5 is a flowchart showing a face image extraction processing routine according to the first embodiment.

【図6】第1の実施の形態のウインドウ構成を示す図で
ある。
FIG. 6 illustrates a window configuration according to the first embodiment.

【図7】第1の実施の形態の輝度平均値を示す線図であ
る。
FIG. 7 is a diagram illustrating an average luminance value according to the first embodiment.

【図8】(A)は眼を開いている場合における第1の実
施の形態による処理結果を示す図であり、(B)は眼を
閉じている場合における第1の実施の形態による処理結
果を示す図である。
8A is a diagram illustrating a processing result according to the first embodiment when the eyes are open, and FIG. 8B is a diagram illustrating a processing result according to the first embodiment when the eyes are closed; FIG.

【図9】(A)は処理対象画像を示す図であり、(B)
は(A)の処理対象画像を第1の実施の形態によって処
理した処理結果を示す図であり、(C)は眼の位置を抽
出した場合における処理結果を示す図である。
FIG. 9A is a diagram showing a processing target image, and FIG.
7A is a diagram illustrating a processing result obtained by processing the processing target image of (A) according to the first embodiment, and FIG. 7C is a diagram illustrating a processing result when an eye position is extracted.

【図10】眼と眉とが接近している顔の画像を示す図で
ある。
FIG. 10 is a diagram showing an image of a face where eyes and eyebrows are approaching.

【図11】(A)は第2の実施の形態のウインドウ構成
を示す図であり、(B)は第2の実施の形態の輝度平均
値を示す線図である。
FIG. 11A is a diagram illustrating a window configuration according to the second embodiment, and FIG. 11B is a diagram illustrating a luminance average value according to the second embodiment;

【図12】第2実施の形態における顔画像抽出処理ルー
チンを示す流れ図である。
FIG. 12 is a flowchart showing a face image extraction processing routine according to the second embodiment.

【符号の説明】[Explanation of symbols]

10 カメラ 12 アナログ−ディジタル変換器 20 画像メモリ 22 平均値レジスタ 24 ヒストグラムメモリ Reference Signs List 10 camera 12 analog-digital converter 20 image memory 22 average value register 24 histogram memory

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 330 G06T 7/00 G06T 7/00 510 ──────────────────────────────────────────────────続 き Continued on the front page (58) Field surveyed (Int. Cl. 7 , DB name) G06T 1/00 330 G06T 7/00 G06T 7/00 510

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】入力された顔画像上で顔の縦方向に隣接し
て連続するように設定された少なくとも3個の矩形領域
からなるウインドウ内の各矩形領域内の輝度平均値を算
出する輝度平均値算出手段と、 隣接する矩形領域の輝度平均値の差及び前記輝度平均値
の差の総和を演算する演算手段と、 前記輝度平均値の差及び前記輝度平均値の差の総和をし
きい値と比較し、しきい値より大きい画素を抽出する抽
出手段と、 を含む顔の特徴抽出装置。
1. A luminance for calculating an average luminance value in each rectangular area in a window composed of at least three rectangular areas which are set adjacent to each other in the vertical direction of a face on an input face image. Average value calculating means; calculating means for calculating the difference between the luminance average values of adjacent rectangular areas and the sum of the differences between the luminance average values; and a threshold value for calculating the difference between the luminance average values and the sum of the differences between the luminance average values. An extracting means for extracting a pixel larger than a threshold value by comparing the value with a value;
JP28988698A 1998-10-12 1998-10-12 Facial feature extraction device Expired - Fee Related JP3319408B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28988698A JP3319408B2 (en) 1998-10-12 1998-10-12 Facial feature extraction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28988698A JP3319408B2 (en) 1998-10-12 1998-10-12 Facial feature extraction device

Publications (2)

Publication Number Publication Date
JP2000123148A JP2000123148A (en) 2000-04-28
JP3319408B2 true JP3319408B2 (en) 2002-09-03

Family

ID=17749054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28988698A Expired - Fee Related JP3319408B2 (en) 1998-10-12 1998-10-12 Facial feature extraction device

Country Status (1)

Country Link
JP (1) JP3319408B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007188407A (en) * 2006-01-16 2007-07-26 Toshiba Corp Image processing device and image processing program

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3414331B2 (en) * 1998-10-19 2003-06-09 株式会社豊田中央研究所 Eye position detector
JP4469476B2 (en) 2000-08-09 2010-05-26 パナソニック株式会社 Eye position detection method and eye position detection apparatus
CN100405388C (en) * 2004-05-14 2008-07-23 欧姆龙株式会社 Detector for special shooted objects
JP4309928B2 (en) 2007-03-15 2009-08-05 アイシン精機株式会社 Wrinkle detection device, wrinkle detection method, and program
CN101470802B (en) * 2007-12-28 2012-05-09 清华大学 Object detection apparatus and method thereof
CN104463921A (en) * 2015-01-09 2015-03-25 厦门美图之家科技有限公司 Image processing method for positioning center of eyeball
JP6058722B2 (en) * 2015-03-17 2017-01-11 株式会社ジェイメック Skin image analysis apparatus, image processing apparatus, and computer program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007188407A (en) * 2006-01-16 2007-07-26 Toshiba Corp Image processing device and image processing program
JP4533849B2 (en) * 2006-01-16 2010-09-01 株式会社東芝 Image processing apparatus and image processing program

Also Published As

Publication number Publication date
JP2000123148A (en) 2000-04-28

Similar Documents

Publication Publication Date Title
KR100480781B1 (en) Method of extracting teeth area from teeth image and personal identification method and apparatus using teeth image
US7035461B2 (en) Method for detecting objects in digital images
US9922238B2 (en) Apparatuses, systems, and methods for confirming identity
TWI619080B (en) Method for calculating fingerprint overlapping region and electronic device
US7920725B2 (en) Apparatus, method, and program for discriminating subjects
US6885766B2 (en) Automatic color defect correction
US7197166B2 (en) Iris extraction method capable of precisely determining positions and sizes of irises in a digital face image
US6512846B1 (en) Determining orientation of images containing blue sky
US7215798B2 (en) Method for forgery recognition in fingerprint recognition by using a texture classification of gray scale differential images
JP3695990B2 (en) Face image processing device
EP1255225A2 (en) Method for detecting eye and mouth positions in a digital image
KR101632912B1 (en) Method for User Authentication using Fingerprint Recognition
JPH11149559A (en) Automatic human eye detecting method in digital picture
JP2000105829A (en) Method and device for face parts image detection
JP2009237669A (en) Face recognition apparatus
KR100347058B1 (en) Method for photographing and recognizing a face
JP3319408B2 (en) Facial feature extraction device
KR100664956B1 (en) Method and apparatus for eye detection
KR20050090840A (en) Fingerprint recognition method
CN111539980B (en) Multi-target tracking method based on visible light
CN117115117B (en) Pathological image recognition method based on small sample, electronic equipment and storage medium
KR20070088982A (en) Deformation-resilient iris recognition methods
JP2006285959A (en) Learning method of face recognition device, and method, device and program for face recognition
KR100391182B1 (en) The method of a fingerprint minutia extraction using direct valley following
JP2006244385A (en) Face-discriminating apparatus, program and learning method for the apparatus

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees