JP3089605B2 - Face reference point extraction method - Google Patents

Face reference point extraction method

Info

Publication number
JP3089605B2
JP3089605B2 JP03144540A JP14454091A JP3089605B2 JP 3089605 B2 JP3089605 B2 JP 3089605B2 JP 03144540 A JP03144540 A JP 03144540A JP 14454091 A JP14454091 A JP 14454091A JP 3089605 B2 JP3089605 B2 JP 3089605B2
Authority
JP
Japan
Prior art keywords
face
reference point
extracted
area
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP03144540A
Other languages
Japanese (ja)
Other versions
JPH0644365A (en
Inventor
努 佐々木
茂 赤松
康仁 末永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP03144540A priority Critical patent/JP3089605B2/en
Publication of JPH0644365A publication Critical patent/JPH0644365A/en
Application granted granted Critical
Publication of JP3089605B2 publication Critical patent/JP3089605B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、画像中の顔の位置合わ
せなどに用いる基準点を、画像中から抽出する方法に関
するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for extracting, from an image, a reference point used for aligning a face in the image.

【0002】[0002]

【従来の技術】従来、二次元顔画像を用いた個人の認識
・分類は、対象とする顔画像から抽出した特徴点を用い
て位置合わせと正規化を行った後、パタン照合法などを
用いて行われている。このとき、位置合わせと正規化の
際に必要な特徴の抽出は、二値化や各種オペレータを作
用させてエッジ情報を求め、このエッジ情報を解析する
ことにより行われている。
2. Description of the Related Art Conventionally, recognition and classification of an individual using a two-dimensional face image is performed by using a feature point extracted from a target face image, performing registration and normalization, and then using a pattern matching method or the like. Has been done. At this time, extraction of features necessary for alignment and normalization is performed by obtaining edge information by binarization or by applying various operators, and analyzing the edge information.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来法
では、必要な特徴の抽出は、二値化や各種オペレータを
作用させてエッジ情報を求め、そのエッジ情報を解析す
ることにより行っているため、特徴抽出が安定に行うこ
とができない。特徴抽出を安定に行わないまま位置合わ
せと、正規化が正確に行えなくなり、その結果、認識・
分類がうまく行えなくなるという問題があった。
However, according to the conventional method, necessary features are extracted by binarizing or obtaining edge information by applying various operators and analyzing the edge information. Feature extraction cannot be performed stably. Positioning and normalization cannot be performed accurately without performing stable feature extraction.
There was a problem that classification could not be performed well.

【0004】本発明は、前記問題点を解決するためにな
されたものであり、本発明の目的は、画像中の顔の位置
合わせなどに用いる基準点を、画像中から抽出する方法
において、画像による基準点抽出を安定に行うことが可
能な技術を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and an object of the present invention is to provide a method for extracting a reference point used for aligning a face in an image from the image. It is an object of the present invention to provide a technique capable of stably extracting a reference point by using the method.

【0005】本発明の前記ならびにその他の目的と新規
な特徴は、本明細書の記述及び添付図面によって明らか
にする。
The above and other objects and novel features of the present invention will become apparent from the description of the present specification and the accompanying drawings.

【0006】[0006]

【課題を解決するための手段】前記目的を達成するため
に、本発明顔基準点抽出方法、入力画像から色情報
として、YIQ表示系のI成分およびQ成分、並びにH
VS表示系のH成分を抽出する過程(1)と、前記過程
(1)で抽出されたI成分を用いて、前記入力画像から
顔領域を抽出する過程(2)と、前記過程(2)で抽出
された顔領域から、顔マスク領域を生成する過程(3)
と、前記過程(3)で生成された顔マスク領域と、前記
過程(1)で抽出されたH成分とを用いて、顔の唇候補
領域を抽出する過程(4)と、前記過程(4)で抽出さ
れた唇候補領域から、前記過程(1)で抽出されたQ成
分を用いて、唇領域を抽出し、口基準点を抽出する過程
(5)と、前記過程(3)で生成された顔マスク領域
と、前記過程(2)で抽出された顔領域、あるいは前記
過程(1)で抽出されたH成分とを用いて、顔の目候補
領域を抽出する過程(6)と、前記過程(6)で抽出さ
れた目候補領域から、前記過程(5)で抽出された唇領
域を基に、目基準点候補を抽出する過程(7)と、前記
過程(7)で抽出された目基準点候補が正しい基準点で
あるかどうかを検定し、目基準点を抽出する過程(8)
とを備えることを特徴とする。
To SUMMARY OF THE INVENTION To achieve the above object, a face reference point extraction method of the present invention, the color information from the input image
As the I and Q components of the YIQ display system, and H
Extracting the H component of the VS display system (1);
Using the I component extracted in (1), from the input image
Step (2) of extracting a face region and extraction in the step (2)
Generating a face mask area from the extracted face area (3)
And the face mask area generated in the step (3);
Using the H component extracted in the process (1), a lip candidate of the face
Step (4) of extracting an area, and the area extracted in the step (4).
From the extracted lip candidate area, the Q component extracted in the step (1).
The process of extracting the lip region and extracting the mouth reference point using the minute
(5) and the face mask area generated in the step (3)
And the face area extracted in the step (2), or
Using the H component extracted in step (1), face eye candidates
Step (6) of extracting an area, and the area extracted in the step (6).
Lip region extracted in step (5) from the selected eye candidate region
Extracting eye reference point candidates based on the area (7);
Step (8) of examining whether the eye reference point candidate extracted in step (7) is a correct reference point, and extracting an eye reference point
And characterized in that:

【0007】つまり、顔画像中から安定に基準点抽出を
行うために、目や口の造作を表すエッジ情報ではなく色
情報に着目し、この色情報によって領域分割を行い得る
べき造作の候補を抽出する。抽出された候補領域とテン
プレートとを照合することにより、候補領域中から正し
い候補を選択するものである。
In other words, in order to stably extract a reference point from a face image, attention is paid not to edge information indicating the features of the eyes and mouth but to color information. Extract. The correct candidate is selected from the candidate regions by comparing the extracted candidate region with the template.

【0008】[0008]

【作用】前述の手段によれば、人物顔画像を用いた個人
識別を行う際、位置と大きさの正規化のために必要な顔
の基準点の抽出に、従来用いられていたエッジ情報を基
にした特徴点抽出によるのではなく、より安定に抽出す
ることが可能となった目、口等の顔の造作に対応する領
域から求めることにより、位置と大きさの正規化を安定
に行うことができる。
According to the above-mentioned means, when performing personal identification using a human face image, edge information conventionally used for extracting a face reference point required for normalization of position and size is used. Performs stable position and size normalization by obtaining from areas corresponding to facial features, such as eyes and mouth, which can be extracted more stably, rather than based on feature point extraction based on them. be able to.

【0009】[0009]

【実施例】以下、本発明の一実施例を図面を用いて詳細
に説明する。なお、ここでは、人物の顔を認識対象とす
る画像認識システムの一例として参考文献〔1〕《佐々
木,赤松,末永,「顔画像照合装置」,特願平2−21
9675,平成2年8月20日出願》を想定し、この顔
画像認識システムの基準点抽出部に用いることを例にあ
げて説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below in detail with reference to the drawings. Here, as an example of an image recognition system for recognizing a person's face, reference [1] << Sasaki, Akamatsu, Suenaga, "Face Image Collation Device", Japanese Patent Application No. 2-21
9675, filed on Aug. 20, 1990 >>, and using the reference point extraction unit of the face image recognition system as an example.

【0010】図1は、本発明の一実施例の概略機能構成
を示すブロック図であり、1は基準点抽出を行おうとす
る対象顔画像、2は濃度変換処理部、3は表色系変換処
理部、4は基準点候補抽出処理部、5は検定処理部、6
は処理結果の出力、7は全体の処理の進行を管理する制
御部である。なお、ここで、前記2,3,4,・・・7
は同一計算機内に構築することも可能な構成要素であ
る。
FIG. 1 is a block diagram showing a schematic functional configuration of an embodiment of the present invention. Reference numeral 1 denotes a target face image whose reference point is to be extracted, 2 denotes a density conversion processing unit, and 3 denotes a color system conversion. Processing unit, 4 a reference point candidate extraction processing unit, 5 a test processing unit, 6
Denotes a processing result output, and 7 denotes a control unit that manages the progress of the entire processing. Here, the above-mentioned 2,3,4, ... 7
Is a component that can be constructed in the same computer.

【0011】まず、テレビカメラなどによってカラーで
撮影された人物の対象顔画像1は濃度変換処理部2へ送
られる。
First, a target face image 1 of a person photographed in color by a television camera or the like is sent to a density conversion processing unit 2.

【0012】濃度変換処理部2では、対象顔画像に対し
て、輝度値の補正(輝度値の正規化)などの濃度変換処
理や、ノイズ除去や、事前に蓄えられている背景との差
分をとって背景分離などの処理を施す。
The density conversion processing unit 2 performs density conversion processing such as luminance value correction (luminance value normalization), noise removal, and difference with a previously stored background on the target face image. Then, processing such as background separation is performed.

【0013】表色変換処理部3では、濃度変換処理部
2を経て送られてきたカラー顔画像から、色相成分と色
差成分を表色系を変換処理することにより求める。色相
成分(Hue:以後H成分と呼ぶ)は、例えばHVS表色
系のH成分が利用できる。また、色差成分は、例えばY
IQ表色系のI成分、Q成分が利用できる。ここでは、
一般的なHVS表色系とYIQ表色系を用いた場合につ
いて述べるが、色相成分と色差成分を持つ表色系であれ
ば適用できることは言うまでもない。HSV表色系とY
IQ表色系に変換する変換方法は、文献〔2〕《A.R.Sm
ith,"Color Gamut Transform Pairs,”Computer Graphi
cs,Vol.12,pp.12-19,1978(Proc.SIGGRAPH78)》などに
記載された方法により簡単に求められる。また、ここで
は、HSVとYIQ表色系の各成分を次の入力があるま
で蓄積し、必要に応じて蓄積した情報を提供する。
The color system conversion processor 3 obtains hue components and color difference components from the color face image sent through the density converter 2 by converting the color system. As the hue component (Hue: hereinafter referred to as H component), for example, the H component of the HVS color system can be used. The color difference component is, for example, Y
I and Q components of the IQ color system can be used. here,
A description will be given of a case where a general HVS color system and a YIQ color system are used, but it goes without saying that any color system having a hue component and a color difference component can be applied. HSV color system and Y
For the conversion method for converting to the IQ color system, see [2] << ARSm
ith, "Color Gamut Transform Pairs," Computer Graphi
cs, Vol. 12, pp. 12-19, 1978 (Proc. SIGGRAPH78)> and the like. Here, the HSV and YIQ color components are accumulated until the next input, and the accumulated information is provided as needed.

【0014】次に、基準点候補抽出処理部4では、具体
例として、3つの表色系変換処理部で求められたH成分
と、I成分に対して処理を施し、Q成分を参照しながら
基準点の候補を抽出する処理について述べる。しかし、
I成分を除いたH成分とQ成分で構成することもでき、
ここでI成分を用いているのは相補的効果を高め、処理
結果を確実なものにするためである。ここでの処理は、
図2に従って説明する。
Next, as a specific example, the reference point candidate extraction processing section 4 processes the H component and the I component obtained by the three color system conversion processing sections, and refers to the Q component while referring to the Q component. The process of extracting a reference point candidate will be described. But,
It can be composed of the H component and the Q component excluding the I component,
The reason why the I component is used here is to enhance the complementary effect and ensure the processing result. The process here is
This will be described with reference to FIG.

【0015】図2は、基準点候補抽出処理部4の機能構
成を示すブロック図であり、41はI成分処理部、42
はH成分処理部、43はQ成分蓄積メモリ、44は顔マ
スク作成部、45は口唇領域抽出部、46は目領域候補
抽出部である。
FIG. 2 is a block diagram showing a functional configuration of the reference point candidate extraction processing unit 4, wherein reference numeral 41 denotes an I component processing unit;
Is an H component processing unit, 43 is a Q component storage memory, 44 is a face mask creating unit, 45 is a lip region extracting unit, and 46 is an eye region candidate extracting unit.

【0016】I成分処理部41では、I成分の人の肌に
対して強いピークを持つ性質を利用して、例えば、大津
の手法(文献〔4〕《大津,「判別および最小2乗基準
に基づく自動しきい値選定法」,信学論(D),Vol.J6
3-D,pp.349-356,(1980-4)》)などで得られる閾値で
二値化を施し顔領域を求める。この得られた領域が複数
の場合でも、人の顔の形状を利用したり、領域の面積を
比較したりすることにより容易に顔領域が求められる。
求めた顔領域は、顔マスク作成部44へ送られる。ここ
では、この顔領域のことを便宜的にF0とする。処理例
を図3に示す。
The I component processing unit 41 utilizes the property of the I component having a strong peak with respect to human skin, for example, using the method of Otsu (reference [4] << Otsu, " Automatic Threshold Selection Method Based on Information Technology, ”IEICE (D), Vol.J6
3-D, pp. 349-356, (1980-4) >>) and the like, and binarization is performed to obtain a face area. Even when there are a plurality of obtained regions, a face region can be easily obtained by using the shape of a person's face or by comparing the areas of the regions.
The obtained face area is sent to the face mask creating unit 44. Here, the convenience F 0 that of the face region. FIG. 3 shows a processing example.

【0017】H成分処理部42では、人の肌色が存在す
る範囲の値、すなわち、肌領域を閾値処理によって求め
て口唇領域抽出部45へ送る。この肌領域を便宜的にF
3とする。なお、処理の際の閾値は、対象とする人種な
どによって異なってくるが、ニューラルネットワークを
用いて学習的に求めたり、統計的に求めたりできる値で
あるし、文献〔3〕《池田,「色彩工学の基礎」,朝倉
書店.》による1.3YR〜7.4YRの範囲にある値
を用いても良い。処理例を図4に示す。
The H component processing section 42 obtains a value in a range where a human skin color exists, that is, a skin area by threshold processing, and sends it to the lip area extracting section 45. This skin area is referred to as F for convenience.
Assume 3 . The threshold value at the time of processing varies depending on the target race, etc., but is a value that can be obtained by learning or statistically using a neural network. "Basics of Color Engineering", Asakura Shoten. >, A value in the range of 1.3 YR to 7.4 YR may be used. FIG. 4 shows a processing example.

【0018】Q成分蓄積メモリ43は、表色系変換処理
部3で得られた顔画像のQ成分を蓄えているところであ
り、口唇領域抽出部45での処理が行われる際に参照さ
れる。
The Q component storage memory 43 stores a color system conversion process.
This is where the Q component of the face image obtained by the unit 3 is stored, and is referred to when the lip region extracting unit 45 performs processing.

【0019】顔マスク作成部44では、I成分処理部4
1から送られてきたF0領域の内部を、例えば領域の境
界追跡を行い、境界内を塗りつぶしたりすることにより
顔マスク領域Fmを得る。処理例を図5に示す。
In the face mask creating section 44, the I component processing section 4
The face mask area Fm is obtained by performing, for example, the boundary tracking of the area inside the F 0 area sent from 1 and painting the inside of the boundary. FIG. 5 shows a processing example.

【0020】口唇領域抽出部45では、H成分処理部4
2で得られたFsと顔マスク作成部44で得られたFm
の領域間で
In the lip region extraction unit 45, the H component processing unit 4
2 and the Fm obtained by the face mask creation unit 44
Between the regions

【0021】[0021]

【数1】 (Equation 1)

【0022】の演算により、口唇候補領域45を算出す
る(図6参照)。
The lip candidate area 45 is calculated by the above operation (see FIG. 6).

【0023】次に、口唇候補領域群の中から、Q成分蓄
積メモリ43を参照することにより、Q成分強度のもっ
とも高い領域を口唇領域として選択する(図7参照)。
また、Q成分の強度の他に領域の面積や偏平率を考慮し
たり、評価への重み付けなどを行うことも考えられる。
Next, a region having the highest Q component intensity is selected as a lip region from the lip candidate region group by referring to the Q component storage memory 43 (see FIG. 7).
It is also conceivable to consider the area and flatness of the region in addition to the intensity of the Q component, or to weight the evaluation.

【0024】次に、選択された口唇領域の重心を求める
ことで、または、領域の両端点を求めた後その中点を求
めることで、口基準点を得る。
Next, the mouth reference point is obtained by finding the center of gravity of the selected lip region, or by finding both end points of the region and then finding the middle point.

【0025】目領域候補抽出部46では、I成分処理部
41で得られたF0領域と顔マスク作成部44で得られ
たFm領域の間で、
In the eye region candidate extraction unit 46, between the F 0 region obtained by the I component processing unit 41 and the Fm region obtained by the face mask creation unit 44,

【0026】[0026]

【数2】 (Equation 2)

【0027】なる演算を行うことにより目領域候補を得
る(図8参照)。なお、このとき、F0ではなく、H成
分処理部42で得られたFsを用いても同様の結果が得
られるため、適宜、都合の良い方を選べば良い。
An eye area candidate is obtained by performing the following operation (see FIG. 8). At this time, since the same result can be obtained by using Fs obtained by the H component processing unit 42 instead of F 0 , a convenient one may be appropriately selected.

【0028】次に、目候補領域の中で、口唇領域抽出部
45で得られた口唇領域より頭頂方向にある領域で、例
えば、目候補領域全体でモーメント主軸などで得られる
軸を求め、これを顔の対称軸とする。この対称軸をはさ
んで面積がほぼ等しく、対称軸とのなす角があまり大き
くない領域をさがし、これを目候補ペア領域(図9参
照)とし、一つの目候補として、得られた領域の重心を
求めたり、または、領域の両端点を求めた後その中点を
求めることで、目の基準点候補を得て、これに口の基準
点を加えて検定処理部5へ送られる。図9の例では、目
候補として2つ得られており、顔の基準点候補は、2組
得られたことになる。
Next, in the eye candidate area, an axis obtained from the lip area obtained by the lip area extraction unit 45 toward the vertex, for example, an axis obtained as the main moment axis in the entire eye candidate area is determined. Is the symmetry axis of the face. A region having almost the same area across the axis of symmetry and having a small angle with the axis of symmetry is searched for, and this region is referred to as an eye candidate pair region (see FIG. 9). By finding the center of gravity or finding both end points of the area and then finding the middle point, a reference point candidate for the eye is obtained, and the reference point of the mouth is added to the candidate. In the example of FIG. 9, two eye candidates are obtained, and two sets of face reference point candidates are obtained.

【0029】なお、この時評価される面積には、例え
ば、着目領域間の面積比率として0.5程度が考えられ
るが、装置の処理速度に余裕があればもっと小さな値で
も構わない。対称軸となす角度の評価も同様であり、例
えば、各目候補領域のモーメント主軸間の角度の分散の
整数倍などが考えられる。
The area evaluated at this time may be, for example, about 0.5 as an area ratio between the target areas, but may be smaller if the processing speed of the apparatus has a margin. The same applies to the evaluation of the angle formed with the axis of symmetry. For example, an integer multiple of the variance of the angle between the principal moment axes of the eye candidate regions can be considered.

【0030】顔の基準点候補が唯一つの場合、検定処理
部5では何も行われず、そのまま出力部6に送られる。
図9のように複数の基準点候補が得られた場合、検定処
理部5では、顔の構造知識を用いて作成した顔のテンプ
レートと基準点候補抽出処理部4で得られた基準点候補
による顔画像を正規化して得られたパタン群を比較し、
もっとも差の小さいパタンを与えた基準点候補を求める
基準点とし、出力部6に送る。
If there is only one reference point candidate for the face, the test processing section 5 does nothing and sends it to the output section 6 as it is.
When a plurality of reference point candidates are obtained as shown in FIG. 9, the test processing unit 5 uses the face template created using the structural knowledge of the face and the reference point candidates obtained by the reference point candidate extraction processing unit 4. Compare pattern groups obtained by normalizing face images,
The reference point candidate to which the pattern with the smallest difference is given is set as a reference point to be obtained and sent to the output unit 6.

【0031】検定処理の具体的な実施例を、図10によ
り説明する。図10は、前記検定処理部5の機能構成を
示すブロック図であり、51は顔画像切り出し部、52
はパタン照合部、53は照合用テンプレート蓄積メモリ
である。
A specific example of the test processing will be described with reference to FIG. FIG. 10 is a block diagram showing a functional configuration of the test processing unit 5.
Denotes a pattern matching unit, and 53 denotes a template storing memory for matching.

【0032】顔画像切り出し部51では、基準点候補抽
出部4から送られてきたn組の基準点候補の右目点、左
目点、口点をそれぞれEr,El,M点とし、図11
(顔画像の正規化例)に示すように、以下の手順で対象
顔画像1を正規化する。 (1)ErとElを結ぶ直線にMからおろした垂線の足
をOとする。 (2)線分OMが画面の垂線と一致し、その一定内分点
が一定位置に来るよう、平行・回転移動を行う。 (3)線分OMの長さが一定値となるよう、画像を等方
的に拡大・縮小する。正規化された顔画像から、例え
ば、図11の中で枠で囲んだような領域を照合用パタン
として切り出す。これを基準点候補の数n組分行い、n
個の照合用パタンを得る。
The face image cutout section 51 sets the right eye point, left eye point, and mouth point of the n sets of reference point candidates sent from the reference point candidate extraction section 4 to Er, El, and M points, respectively, as shown in FIG.
As shown in (Example of Normalization of Face Image), the target face image 1 is normalized by the following procedure. (1) Let O be a foot of a perpendicular drawn from M to a straight line connecting Er and El. (2) Parallel / rotational movement is performed so that the line segment OM coincides with the vertical line of the screen, and a fixed subdivision point of the line OM is located at a fixed position. (3) The image is isotropically enlarged or reduced so that the length of the line segment OM becomes a constant value. For example, an area surrounded by a frame in FIG. 11 is cut out from the normalized face image as a pattern for comparison. This is performed for n sets of reference point candidates, and n
Get matching patterns.

【0033】パタン照合部52では、顔画像切り出し部
51で得られたn個の照合用パタンと照合用テンプレー
ト蓄積メモリ53のパタンと比較し、もっとも差の少な
いものを与えた基準点候補を正しい基準点として、出力
部6へ送る。
The pattern matching unit 52 compares the n matching patterns obtained by the face image cutout unit 51 with the patterns in the matching template storage memory 53, and determines the reference point candidate that has given the least difference. It is sent to the output unit 6 as a reference point.

【0034】比較の仕方として、例えば以下のような方
法がある。照合用パタンをXi(i=1,2,…,n)
とし、照合用テンプレートをMとすると、
As a comparison method, for example, there is the following method. The matching pattern is Xi (i = 1, 2,..., N)
And the matching template is M,

【0035】[0035]

【数3】 (Equation 3)

【0036】で誤差Eiが得られ、あとは、Emin=m
in(E1,E2,…,En)を与える基準点候補を正し
い基準点とする方法である。
The error Ei is obtained by Emin = m
In this method, a reference point candidate giving in (E 1 , E 2 ,..., En) is set as a correct reference point.

【0037】照合用テンプレート蓄積メモリ53は、パ
タン照合部52で参照されるパタンを蓄えているところ
である。
The collation template accumulation memory 53 is storing a pattern referred to by the pattern collation unit 52.

【0038】この照合用テンプレートの作成例として
は、基準点が正しく抽出されている多数の顔画像を、顔
画像切り出し部51と同じ手法により顔パタンとして切
り出し、加算し平均する方法がある。
As an example of creating the collation template, there is a method in which a large number of face images from which reference points have been correctly extracted are cut out as face patterns by the same method as the face image cutout unit 51, and are added and averaged.

【0039】また、別の方法として、パタン照合部52
で得られた照合用パタンXiを、KL展開による固有顔
により展開した後、その展開係数を用いてすべての固有
顔の加重和として復元される画像X'iを照合用テンプレ
ートMとする方法もある(文献〔5〕《赤松,佐々木,
深町,末永,「KL展開によるパタン記述法の顔画像識
別への応用の評価」,信学技報,PRU90-152,(1991
-3)》)。
As another method, a pattern matching unit 52
After the matching pattern Xi obtained in the above is developed by the unique face by KL expansion, an image X′i restored as a weighted sum of all unique faces using the expansion coefficient is used as the matching template M. (Reference [5] << Akamatsu, Sasaki,
Fukamachi and Suenaga, "Evaluation of Application of Pattern Description Method by KL Expansion to Face Image Discrimination," IEICE Technical Report, PRU90-152, (1991
-3) >>).

【0040】出力部6では、検定処理部5で求められた
基準点を受け、出力する。
The output unit 6 receives and outputs the reference points obtained by the test processing unit 5.

【0041】以上の説明からわかるように、本実施例に
よれば、人物顔画像を用いた個人識別を行う際、位置と
大きさの正規化のために必要な顔の基準点の抽出に、従
来用いられていたエッジ情報を基にした特徴点抽出によ
るのではなく、入力画像から処理に必要な色情報を抽出
し、当該色情報に基づいて、顔の目基準点および口基準
点の存在する領域を抽出した後その領域から顔の目基
準点候補および口基準点候補を取り出し、該基準点候補
を基にそれが正しい基準点であるかどうかを検定する。
具体的には、初めに、入力画像から色情報として、YI
Q表示系のI成分およびQ成分、並びにHVS表示系の
H成分を抽出した後、前記抽出されたI成分を用いて、
前記入力画像から顔領域を抽出し、当該抽出された顔領
域から顔マスク領域を生成する。 そして、前記生成され
た顔マスク領域と、前記抽出されたH成分とを用いて、
顔の唇候補領域を抽出した後、当該抽出された唇候補領
域から前記抽出されたQ成分を用いて、唇領域を抽出
し、口基準点を抽出する。 また、前記生成された顔マス
ク領域と、前記抽出された顔領域、あるいはH成分とを
用いて、顔の目候補領域を抽出した後、当該抽出された
目候補領域から前記抽出された唇領域を基に、目基準点
候補を抽出し、当該抽出された目基準点候補が正しい基
準点であるかどうかを検定し、目基準点を抽出する。
実施の形態によれば、正面から入力された顔画像につい
て、その位置、大きさの正規化を安定に行うことがで
き、その結果、顔画像による個人識別を安定に行うこと
ができる。
As can be understood from the above description, according to the present embodiment, when performing personal identification using a human face image, extraction of a face reference point required for normalization of position and size is performed. Extracts color information required for processing from input images instead of using feature points based on edge information, which has been used in the past
And, based on the color information, after extracting the existence region of the eye reference point and the mouth reference point of the face, eye groups of the face from the area
A reference point candidate and a mouth reference point candidate are taken out, and based on the reference point candidates, it is tested whether or not they are correct reference points .
Specifically, first, YI is used as color information from an input image.
The I and Q components of the Q display system and the HVS display system
After extracting the H component, using the extracted I component,
A face area is extracted from the input image, and the extracted face area is extracted.
A face mask area is generated from the area. And the generated
Using the extracted face mask region and the extracted H component,
After extracting the lip candidate area of the face, the extracted lip candidate area
Extract lip region from the area using the extracted Q component
Then, the mouth reference point is extracted. In addition, the generated face cell
And the extracted face area or H component
After extracting the eye candidate area using the face, the extracted
Based on the lip region extracted from the eye candidate region, an eye reference point
Candidates are extracted, and the extracted eye reference point candidates are
It tests whether it is a reference point and extracts an eye reference point. Book
According to the embodiment, it is possible to stably normalize the position and size of a face image input from the front, and as a result, it is possible to stably perform personal identification based on the face image.

【0042】以上、本発明を実施例に基づき具体的に説
明したが、本発明は、前記実施例に限定されるものでは
なく、その要旨を逸脱しない範囲において種々変更可能
であることは言うまでもない。例えば、頭部三次元表面
情報と表面色情報を得ることができれば、三次元への拡
張も容易である。
Although the present invention has been described in detail with reference to the embodiments, it is needless to say that the present invention is not limited to the above-described embodiments, and various changes can be made without departing from the scope of the invention. . For example, if head three-dimensional surface information and surface color information can be obtained, extension to three-dimensional is easy.

【0043】[0043]

【発明の効果】以上述べたように、本発明によれば、正
面から入力された顔画像について、その位置、大きさの
正規化を安定に行うことができ、その結果、顔画像によ
る個人識別を安定に行うことができる。
As described above, according to the present invention, it is possible to stably normalize the position and size of a face image input from the front, and as a result, individual identification based on the face image Can be performed stably.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の一実施例の概略機能構成を示すブロ
ック図、
FIG. 1 is a block diagram showing a schematic functional configuration of an embodiment of the present invention;

【図2】 本実施例の基準点候補抽出処理部の機能構成
を示すブロック図、
FIG. 2 is a block diagram illustrating a functional configuration of a reference point candidate extraction processing unit according to the embodiment;

【図3】 本実施例のI成分処理部の処理例を示す図、FIG. 3 is a diagram illustrating a processing example of an I component processing unit according to the embodiment;

【図4】 本実施例のH成分処理部の処理例を示す図、FIG. 4 is a diagram illustrating a processing example of an H component processing unit according to the embodiment;

【図5】 本実施例の処理例を示す図、FIG. 5 is a diagram showing a processing example of the embodiment;

【図6】 本実施例の口唇候補領域を示す図、FIG. 6 is a diagram illustrating a lip candidate region according to the present embodiment;

【図7】 本実施例の口唇領域を示す図、FIG. 7 is a diagram showing a lip region according to the present embodiment;

【図8】 本実施例の目領域候補を示す図、FIG. 8 is a diagram showing eye region candidates according to the present embodiment;

【図9】 本実施例の目候補ペア領域を示す図、FIG. 9 is a diagram showing an eye candidate pair area according to the present embodiment;

【図10】 本実施例の検定処理部の機能構成を示すブ
ロック図、
FIG. 10 is a block diagram illustrating a functional configuration of a test processing unit according to the present embodiment;

【図11】 本実施例の顔基準点抽出方法を説明するた
めの説明図である。
FIG. 11 is an explanatory diagram for describing a face reference point extraction method according to the present embodiment.

【符号の説明】[Explanation of symbols]

1…対象顔画像、2…濃度変換処理部、3…表色系変換
処理部、4…基準点候補抽出処理部、5…検定処理部、
6…出力部、7…制御部、41…I成分処理部、42…
H成分処理部、43…Q成分蓄積メモリ、44…顔マス
ク作成部、45…口唇領域抽出部、46…目領域候補抽
出部、51…顔画像切り出し部、52…パタン照合部、
53…照合用テンプレート蓄積メモリ。
DESCRIPTION OF SYMBOLS 1 ... Target face image, 2 ... Density conversion processing part, 3 ... Color system conversion processing part, 4 ... Reference point candidate extraction processing part, 5 ... Test processing part,
6 output unit 7 control unit 41 I component processing unit 42
H component processing unit, 43 Q component storage memory, 44 face mask creation unit, 45 lip region extraction unit, 46 eye region candidate extraction unit, 51 face image cutout unit, 52 pattern match unit,
53: collation template storage memory

フロントページの続き (56)参考文献 特開 平1−314385(JP,A) 特開 昭63−223974(JP,A) 小林誠司、「顔面像からの唇の特徴点 抽出法」、電子情報通信学会全国大会講 演論文集、1990年発行、1990、春期、P t.7、p−7.26 (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 G06T 7/00 JICSTファイル(JOIS)Continuation of the front page (56) References JP-A-1-314385 (JP, A) JP-A-63-223974 (JP, A) Seiji Kobayashi, "Method for extracting feature points of lips from facial image", Electronic Information Communication Proceedings of the National Convention of the Society, Published in 1990, 1990, Spring, Pt. 7, p-7.26 (58) Field surveyed (Int. Cl. 7 , DB name) G06T 1/00 G06T 7/00 JICST file (JOIS)

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力画像から色情報として、YIQ表示
系のI成分およびQ成分、並びにHVS表示系のH成分
を抽出する過程(1)と、 前記過程(1)で抽出されたI成分を用いて、前記入力
画像から顔領域を抽出する過程(2)と、 前記過程(2)で抽出された顔領域から、顔マスク領域
を生成する過程(3)と、 前記過程(3)で生成された顔マスク領域と、前記過程
(1)で抽出されたH成分とを用いて、顔の唇候補領域
を抽出する過程(4)と、 前記過程(4)で抽出された唇候補領域から、前記過程
(1)で抽出されたQ成分を用いて、唇領域を抽出し、
口基準点を抽出する過程(5)と、 前記過程(3)で生成された顔マスク領域と、前記過程
(2)で抽出された顔領域、あるいは前記過程(1)で
抽出されたH成分とを用いて、顔の目候補領域を抽出す
る過程(6)と、 前記過程(6)で抽出された目候補領域から、前記過程
(5)で抽出された唇領域を基に、目基準点候補を抽出
する過程(7)と、 前記過程(7)で抽出された目基準点候補が 正しい基準
点であるかどうかを検定し、目基準点を抽出する過程
(8)とを備えることを特徴とする顔基準点抽出方法。
1. YIQ display as color information from an input image
I and Q components of the system, and H component of the HVS display system
A process for extracting (1), using the I component extracted by said step (1), the input
Extracting a face area from the image (2), and extracting a face mask area from the face area extracted in the step (2).
Generating (3), the face mask area generated in step (3),
Using the H component extracted in (1), the lip candidate area of the face
A process of extracting (4), the lip candidate region extracted in the step (4), said process
Using the Q component extracted in (1), a lip region is extracted,
Extracting a mouth reference point (5), the face mask area generated in the step (3),
The face area extracted in (2) or in the above-mentioned process (1)
Extract eye candidate area of face using extracted H component
Step (6), and extracting the eye candidate area from the eye candidate area extracted in the step (6).
Extract eye reference point candidates based on the lip region extracted in (5)
Process and step (7), to test whether the eye reference point candidates extracted by the above process (7) is the correct reference point, it extracts the eye reference point
(8) A face reference point extracting method characterized by comprising:
JP03144540A 1991-06-17 1991-06-17 Face reference point extraction method Expired - Fee Related JP3089605B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03144540A JP3089605B2 (en) 1991-06-17 1991-06-17 Face reference point extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03144540A JP3089605B2 (en) 1991-06-17 1991-06-17 Face reference point extraction method

Publications (2)

Publication Number Publication Date
JPH0644365A JPH0644365A (en) 1994-02-18
JP3089605B2 true JP3089605B2 (en) 2000-09-18

Family

ID=15364683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03144540A Expired - Fee Related JP3089605B2 (en) 1991-06-17 1991-06-17 Face reference point extraction method

Country Status (1)

Country Link
JP (1) JP3089605B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3461626B2 (en) * 1995-07-28 2003-10-27 シャープ株式会社 Specific image region extraction method and specific image region extraction device
EP1788348A4 (en) 2004-08-12 2008-10-22 A4 Vision S A Device for biometrically controlling a face surface
EP1783453A4 (en) 2004-08-12 2012-05-30 A4 Vision S A Device for contactlessly controlling the surface profile of objects

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小林誠司、「顔面像からの唇の特徴点抽出法」、電子情報通信学会全国大会講演論文集、1990年発行、1990、春期、Pt.7、p−7.26

Also Published As

Publication number Publication date
JPH0644365A (en) 1994-02-18

Similar Documents

Publication Publication Date Title
KR100474848B1 (en) System and method for detecting and tracking a plurality of faces in real-time by integrating the visual ques
Jesorsky et al. Robust face detection using the hausdorff distance
US7376270B2 (en) Detecting human faces and detecting red eyes
KR100734849B1 (en) Method for recognizing face and apparatus thereof
US6404900B1 (en) Method for robust human face tracking in presence of multiple persons
US7127086B2 (en) Image processing apparatus and method
US6108437A (en) Face recognition apparatus, method, system and computer readable medium thereof
JPH1021406A (en) Object recognition method/device
JP2007025900A (en) Image processor and image processing method
JPH04101280A (en) Face picture collating device
US20060126939A1 (en) Apparatus and method for recognizing an image
CN112185515A (en) Patient auxiliary system based on action recognition
US6915022B2 (en) Image preprocessing method capable of increasing the accuracy of face detection
KR20200119425A (en) Apparatus and method for domain adaptation-based object recognition
Rohini et al. Attendance monitoring system design based on face segmentation and recognition
JP3089605B2 (en) Face reference point extraction method
Al-Qayedi et al. An algorithm for face and facial-feature location based on grey-scale information and facial geometry
JP3980464B2 (en) Method for extracting nose position, program for causing computer to execute method for extracting nose position, and nose position extracting apparatus
JPH05108804A (en) Identifying method and executing device for three-dimensional object
JP2007026308A (en) Image processing method and image processor
Peng et al. A robust and efficient algorithm for eye detection on gray intensity face
Chuang et al. χ2 test for feature detection
JP3401511B2 (en) Computer-readable recording medium and image characteristic point extracting apparatus, in which a program for causing a computer to execute the method for extracting characteristic points of an image and the method for extracting the characteristic points of the image are recorded.
Naba et al. Haar-like feature based real-time neuro car detection system
Canedo et al. AI-Powered Management of Identity Photos for Institutional Staff Directories.

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070721

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080721

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080721

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090721

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees