JPH08315133A - Person's face image collation device - Google Patents

Person's face image collation device

Info

Publication number
JPH08315133A
JPH08315133A JP11433295A JP11433295A JPH08315133A JP H08315133 A JPH08315133 A JP H08315133A JP 11433295 A JP11433295 A JP 11433295A JP 11433295 A JP11433295 A JP 11433295A JP H08315133 A JPH08315133 A JP H08315133A
Authority
JP
Japan
Prior art keywords
face
person
point
image
shaped edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11433295A
Other languages
Japanese (ja)
Other versions
JP2735028B2 (en
Inventor
Shizuo Sakamoto
靜生 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP11433295A priority Critical patent/JP2735028B2/en
Publication of JPH08315133A publication Critical patent/JPH08315133A/en
Application granted granted Critical
Publication of JP2735028B2 publication Critical patent/JP2735028B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

PURPOSE: To automatically extract the structure of a face with ease and obtain a discrimination result which is stable against the change in lighting conditions and the change with time, etc. CONSTITUTION: An input image signal 31 showing the face is inputted to 1st and 2nd V-shaped edge extracting devices 33 and 34 in the person's face image collation device 32, and V-shaped edges which have minimum luminance value in mutually different directions are extracted. The obtained signal 35 and 36 are ANDed by an AND part 37 and structure points which are viewed as a V shape in both the directions are found. The structure point signal 38 is inputted to a cost calculation part 39 to obtain data regarding the structure points of the images of person's faces as candidates from a data base storage part 41, and the distances between the structure points are calculated by those faces. The obtained distance signal 44 is inputted to a minimum cost selecting means 45 to select the person whose distance between the structure points is shortest.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は顔面像から個人識別を行
う人物顔画像照合装置に係わり、詳細には照明の変動や
経年変化に対しても安定した識別結果を得ることのでき
る人物顔画像照合装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a person face image collating apparatus for identifying a person from a face image, and more specifically, a person face image capable of obtaining a stable identification result even with changes in illumination and aging. Regarding a collating device.

【0002】[0002]

【従来の技術】顔画像を用いて人物を識別することは、
暗証番号を用いて人物を特定する手法と同様に人物を特
定するための各種用途に有意義である。そこで、このた
めの人物顔画像照合装置が従来から提案されている。従
来のこのような装置は、大まかに次の2つの手法のいず
れかを使用していた。
2. Description of the Related Art Identifying a person using a face image is
This is useful for various uses for identifying a person as well as a method for identifying a person using a personal identification number. Therefore, a human face image matching device for this purpose has been conventionally proposed. Prior art such devices generally used one of two approaches:

【0003】(1)目等の基準点を元にして画像から切
り出した顔の部分の画像そのものの濃淡値を用いる手
法。 (2)目尻点や鼻、唇の端点や輪郭線等に代表される顔
の構造点や線情報を用いる手法。
(1) A method of using the gray value of the image itself of the face portion cut out from the image based on the reference points such as the eyes. (2) A method that uses facial structure points and line information represented by the corners of the eyes, nose, end points of lips, contour lines, and the like.

【0004】次に、この二つの代表例について説明す
る。ここでは、文献「正面顔画像の自動識別法の検討
(佐々木努、赤松茂、深町映夫、末永康仁、電子情報通
信学会画像工学研究会誌IE−91−50pp.1−8
(1991))」に基づいて顔画像を用いて人物を識別
する従来の手法を説明する。
Next, these two representative examples will be described. Here, the document “Study on Automatic Identification Method of Frontal Face Image (Tsutomu Sasaki, Shigeru Akamatsu, Eio Fukamachi, Yasuhito Suenaga, IEICE Transactions on Image Engineering IE-91-50pp.1-8
(1991)) ”, a conventional method for identifying a person using a face image will be described.

【0005】図6は、3つの基準点を使用して照合パタ
ンの切り出しの処理を行う様子を表わしたものである。
顔画像から左右の目領域と口領域の代表点を抽出し、顔
照合パタン画像を切り出すには、まず、顔入力画像1
1から、右目領域の代表点12と左目領域の代表点13
ならびに口唇領域の代表点14を抽出する。この抽出処
理自体は本発明と直接関連がないので説明を省略する。
これら左右の目領域と口唇領域の代表点を基準に用い、
顔入力画像11からアフィン変換15を施して、顔照合
パタン16を128×128画素の大きさになるように
切り出す。このときパラメータC1 ,C2 ,C3 ,C4
およびDが事前に与えた値になるように変換している。
FIG. 6 shows a state in which a collation pattern is cut out using three reference points.
To extract the representative points of the left and right eye regions and the mouth region from the face image and cut out the face matching pattern image, first, the face input image 1
From 1, the representative point 12 of the right eye region and the representative point 13 of the left eye region
Also, the representative point 14 of the lip region is extracted. This extraction process itself is not directly related to the present invention, and therefore its explanation is omitted.
Using the representative points of the left and right eye areas and lip area as a reference,
An affine transformation 15 is applied to the face input image 11 to cut out a face matching pattern 16 to have a size of 128 × 128 pixels. At this time, the parameters C 1 , C 2 , C 3 , C 4
And D are converted to have values given in advance.

【0006】切り出しの基準となる左右の目領域と口唇
領域の代表点12、13、14は、照明条件が悪化した
りすると位置ずれを起こすことがある。そこで、この位
置ずれによるこれらの代表点12、13、14の変動を
吸収するために、顔照合パタンを二次元フーリエ変換し
て、周波数特徴パタンに変換するようにしている。
The representative points 12, 13, and 14 of the left and right eye regions and the lip region, which are the reference for cutting out, may be displaced when the illumination condition is deteriorated. Therefore, in order to absorb the fluctuations of the representative points 12, 13, and 14 due to this positional shift, the face matching pattern is subjected to a two-dimensional Fourier transform to be converted into a frequency feature pattern.

【0007】照合のためのデータベースとする複数名に
ついての顔画像群から、すでに説明した手法によって各
々の周波数照合パタンが生成される。これらの周波数照
合パタンから共分散行列を計算した後、KL(Karh
unen Lo‘eve)展開を施して固有値の大きな
順からL個の固有べクトルを取り出す。結局、これらL
個の固有ベクトルではられるL次元空間におけるユーク
リッド距離により、データベースと未知の入力パタンと
の距離を計測することで、人物の照合を行うことにな
る。
Each frequency matching pattern is generated from the face image group for a plurality of names as a database for matching by the method already described. After calculating the covariance matrix from these frequency matching patterns, KL (Kah
unen Lo'eve) expansion is performed to extract L eigenvectors in descending order of eigenvalue. After all, these L
The person is collated by measuring the distance between the database and the unknown input pattern by the Euclidean distance in the L-dimensional space defined by the individual eigenvectors.

【0008】なお、(1)の技術としては、顔の画像を
入力してこの一次画像を縮小して顔の特徴を際立たせる
ようにした技術(特開平3−34075号公報)も存在
している。
As the technique (1), there is also a technique (Japanese Patent Laid-Open No. 3-34075) in which an image of a face is input and the primary image is reduced to make the features of the face stand out. There is.

【0009】次に、顔画像を用いて人物の識別を行うも
う一つの例を、文献『Analyse undKlassifikation von
Gesichtsbildern (R.Buhr, ntzArchiv Bd.8 pp.245-156
(1986) 』に基づいて大まかに説明する。
Next, another example of identifying a person using a face image will be described in the document "Analyse und Klassifikation von".
Gesichtsbildern (R.Buhr, ntzArchiv Bd.8 pp.245-156
(1986) ”.

【0010】まず、眉輪郭・上瞼線・口唇輪郭線・顔輪
郭線等の顔の構造線や、目頭点・目尻点・鼻翼点・鼻下
点等の顔の構造点を、顔画像から抽出する。これらの構
造点の抽出については、目や鼻など、固有の形状に適応
したエッジ画像を採用し、エッジ追跡等の画像処理手法
を適用して求めることにしている。
First, face structural lines such as eyebrow contours, upper eyelid lines, lip contour lines, face contour lines, and facial structure points such as inner corner points, outer corner points of the eyes, nasal wing points, and lower nose points are extracted from the face image. Extract. Regarding the extraction of these structural points, an edge image adapted to a unique shape such as eyes and nose is adopted, and an image processing method such as edge tracking is applied to obtain them.

【0011】図7を基にして、この提案による目頭点と
目尻点の抽出方法を説明する。まず、同図(a)に示す
ように目の部分の画像21と、瞳の中心位置を適当な手
法で抽出したとする。この目の部分の画像に、ラプラシ
アンガウシアンオベレータを適用し“0”で二値化し
て、同図(b)に示すように目エッジ画像22を生成す
る。この目エッジ画像22から次の処理を行って、同図
(c)に示す目エッジ画像23を生成する。
The method of extracting the inner and outer canthus points according to this proposal will be described with reference to FIG. First, it is assumed that the image 21 of the eye part and the center position of the pupil are extracted by an appropriate method as shown in FIG. A Laplacian-Gaussian obvlator is applied to the image of this eye portion and binarized by "0" to generate an eye edge image 22 as shown in FIG. The following processing is performed from this eye edge image 22 to generate an eye edge image 23 shown in FIG.

【0012】照明が瞳表面で反射してできる明るい領
域に起因するエッジを消去する。 同図(b)に示すx軸24とy軸25を、瞳を中心に
して図7中に示した通り設定する。これらx軸24とy
軸25によって、目エッジ画像が4つの象限に分割され
る。各象限内で、以下の処理を行う。
Eliminate edges caused by bright areas of illumination reflected from the pupil surface. The x-axis 24 and the y-axis 25 shown in FIG. 7B are set as shown in FIG. 7 with the pupil as the center. These x-axis 24 and y
The axis 25 divides the eye edge image into four quadrants. The following processing is performed in each quadrant.

【0013】(イ)左上の象限内では、x軸方向に明か
ら暗に明るさの変化を伴うエッジと、y軸方向に明から
暗に明るさの変化を伴うエッジを求め、これら以外のエ
ッジを全て消去する。 (ロ)左下の象限内では、x軸方向に明から暗に明るさ
変化を伴うエッジと、y軸方向に暗から明に明るさの変
化を伴うエッジを求め、これら以外のエッジを全て消去
する。 (ハ)右上の象限内では、x軸方向に暗から明に明るさ
の変化を伴うエッジと、y軸方向に明から暗に明るさ変
化を伴うエッジを求め、これら以外のエッジを全て消去
する。 (ニ)右下の象限内では、x軸方向に暗から明に明るさ
の変化を伴うエッジと、y軸方向に暗から明に明るさの
変化を伴うエッジを求め、これら以外のエッジを全て消
去する。
(A) In the upper left quadrant, an edge with a change in brightness from bright to dark in the x-axis direction and an edge with a change in brightness from bright to dark in the y-axis direction are obtained. Erase all edges. (B) In the lower left quadrant, find the edge with brightness change from bright to dark in the x-axis direction and the edge with brightness change from dark to light in the y-axis direction, and erase all other edges. To do. (C) In the upper right quadrant, find the edge with a change in brightness from dark to bright in the x-axis direction and the edge with a change in brightness from bright to dark in the y-axis direction, and erase all other edges. To do. (D) In the lower right quadrant, find an edge with a change in brightness from dark to bright in the x-axis direction and an edge with a change in brightness from dark to bright in the y-axis direction, and find the other edges. Erase everything.

【0014】同図(c)に示す目のエッジ画像23から
瞳の上のエッジ曲線をまず抽出すると、左右にエッジ線
を追跡する。このエッジ線の曲率としてのエッジ曲率が
ある値以上になる等の条件を用いて端点を判定し、これ
らを目頭点と目尻点とする。これによって得られた顔の
構造点あるいは構造線は左右の瞳中心位置によって正規
化される。そして、照合に用いるための、左右の目尻間
距離等の複数の特徴量に変換される。これら特徴量空間
における距離により、同様に人物照合処理が行われる。
When the edge curve on the pupil is first extracted from the edge image 23 of the eye shown in FIG. 3C, the edge lines are traced to the left and right. The end points are determined under the condition that the edge curvature as the curvature of the edge line becomes a certain value or more, and these are set as the inner corner point and the outer corner point of the eye. The face structure points or structure lines thus obtained are normalized by the left and right pupil center positions. Then, it is converted into a plurality of feature amounts such as the distance between the left and right outer corners of the eye for use in matching. The person matching process is similarly performed based on the distances in these feature amount spaces.

【0015】(2)に示す他の技術としては、特開昭6
1−100872号公報に開示されたものがある。ここ
では、判別対象となる個体の顔に含まれる所定の不動点
を抽出し、その相対位置データを、予め記憶されたデー
タと照合して個体の判別を行うようになっている。この
技術では、例えば人間の目に着目した場合に、その目尻
や目頭については、顔の表情を変化させても、位置が変
わらないという不動点であることに着目している。
As another technique shown in (2), Japanese Patent Laid-Open No.
There is one disclosed in Japanese Patent Publication No. 1-100872. Here, a predetermined fixed point included in the face of the individual to be discriminated is extracted, and the relative position data is collated with prestored data to discriminate the individual. This technique focuses on the fact that, for example, when focusing on the eyes of the human eye, the positions of the outer corners and the inner corners of the eyes do not change even if the facial expression is changed.

【0016】この技術ではCCDカメラと発光器を用い
て、画像をフレームメモリに記憶させ、コンピュータを
用いて一般的な手法で目尻等の不動点を抽出する。そし
て、これら不動点の間の距離を測定して個体の判別を行
う。発光器は、コントラストの良い静止画像を得るため
のものである。
In this technique, an image is stored in a frame memory by using a CCD camera and a light emitter, and a fixed point such as the corner of the eye is extracted by a general method using a computer. Then, the distance between these fixed points is measured to discriminate the individual. The light emitter is for obtaining a still image with good contrast.

【0017】[0017]

【発明が解決しようとする課題】以上説明した従来の人
物顔画像照合処理のうち、濃淡値を特徴とする手法で
は、この特徴を自動的に抽出するのは簡単であり、また
照明条件が安定な場合には非常に良い照合性能を示すこ
とがわかっている。しかし照明条件が変動した場合には
全く照合できなくなってしまうという問題が存在する。
Among the conventional human face image matching processes described above, in the method that uses the gray value as a feature, it is easy to automatically extract this feature, and the illumination condition is stable. It has been found that in such cases, very good matching performance is exhibited. However, there is a problem that the collation cannot be performed at all when the illumination condition changes.

【0018】これに対して、先に説明した顔の構造点あ
るいは線を用いると、もともとの構造自体は照明条件に
よらず安定する。しかしながら、顔のこれらの構造を安
定して自動抽出することが非常に困難である。また、特
開昭61−100872号公報に開示された技術では、
コントラストの良い静止画像を得るために発光器を必要
とし、このような条件が整わなければ人物顔画像の照合
を良好に行うことができない。
On the other hand, if the face structure points or lines described above are used, the original structure itself is stable regardless of the illumination conditions. However, it is very difficult to stably and automatically extract these structures of the face. Further, in the technique disclosed in Japanese Patent Laid-Open No. 61-100872,
A light emitting device is required to obtain a still image with good contrast, and if such conditions are not satisfied, it is not possible to perform good collation of the human face image.

【0019】そこで本発明の目的は、顔の構造を簡単に
自動抽出することができ、しかも照明条件の変動やその
経年変化等に対しても安定した識別結果を得ることので
きる人物顔画像照合装置を提供することにある。
Therefore, an object of the present invention is to perform human face image collation in which the structure of a face can be easily and automatically extracted and a stable identification result can be obtained even with respect to fluctuations in illumination conditions and changes over time. To provide a device.

【0020】[0020]

【課題を解決するための手段】請求項1記載の発明で
は、(イ)照合対象となる人物の顔の画像について異な
った2以上の方向に沿ってそれぞれ輝度が極小をなすV
字エッジを個別に抽出するV字エッジ抽出手段と、
(ロ)このV字エッジ抽出手段のそれぞれが抽出したV
字エッジの論理積をとり、いずれの方向に対してもV字
エッジに見える構造点または構造点の連続を求める論理
積手段と、(ハ)候補となる人物の顔ごとの構造点のデ
ータを出力する構造点データ出力手段と、(ニ)論理積
手段で求められた顔の構造点と構造点データ出力手段か
ら出力される顔の構造点との構造点間距離を候補となる
人物の顔ごとに計算する構造点間距離計算手段と、
(ホ)構造点データベース記憶手段に記憶された候補と
なる人物の中で構造点間距離計算手段によって計算した
構造点間距離が最小となる者を照合対象となる人物とし
て選択する人物選択手段とを人物顔画像照合装置に具備
させる。
According to a first aspect of the present invention, (a) V of which the luminance is minimized along two or more different directions in the face image of the person to be collated.
V-shaped edge extracting means for individually extracting the character edges,
(B) V extracted by each of the V-shaped edge extracting means
The logical product of the character edges, and the logical product means for obtaining the structural points or the continuation of the structural points that look like V-shaped edges in any direction, and (c) the data of the structural points for each face of the candidate person. Structure point data output means for outputting, and (d) Face distance between the structure points of the face obtained by the AND means and the structure points of the face output from the structure point data output means A distance calculation means between the structure points for each
(E) A person selecting means for selecting, as a person to be collated, a person having the smallest distance between the structure points calculated by the distance between structure points calculation means out of the candidates who are stored in the structure point database storage means. Is provided in the human face image collation device.

【0021】すなわち請求項1記載の発明では、照合対
象となる人物の顔の画像について異なった2以上の方向
に沿ってそれぞれ輝度が極小をなすV字エッジを個別に
抽出することにし、これらの論理積をとっていずれの方
向に対してもV字エッジに見える構造点または構造点の
連続を求めることにしている。これが照明の変動や経年
変化に対して人物の顔画像の判別を安定して行う原因と
なる。すなわち、照明の変動や経年変化に強い構造と
は、次に述べる2つの特徴を有するものである。 (a)表面反射率の変化が著しいこと。 (b)表面の形状変化が著しいこと。
That is, according to the first aspect of the present invention, the V-shaped edges having the minimum brightness are individually extracted along two or more different directions in the image of the face of the person to be collated. The logical product is taken to determine the structure points or the continuation of the structure points that appear as V-shaped edges in any direction. This causes stable discrimination of a person's face image against variations in lighting and aging. That is, a structure that is resistant to illumination fluctuations and secular changes has the following two characteristics. (A) The surface reflectance changes significantly. (B) The shape of the surface changes significantly.

【0022】すでに説明した従来の手法で用いられた顔
構造点あるいはこれらの顔構造点の集合としての顔構造
線は、このような特徴を持つ箇所を含んでいるが、ほく
ろや傷等の人によっては大きな特徴となる構造を含んで
はいなかった。またこれらの顔構造点あるいは顔構造線
は、「目尻点」や「目頭点」等のように人間が判別して
命名したものであって、画像処理による抽出しやすさを
考慮したものではない。請求項1記載の発明では、照明
変動や経年変化に強く、画像処理により容易に抽出でき
る構造を得るために、2以上の方向について輝度値変化
が共通して極小となる構造点を使用することにした。こ
のような構造点は、画像の一次微分が0であり、二次微
分が正である条件により抽出可能である。
The face structure points used in the above-described conventional method or the face structure line as a set of these face structure points includes a portion having such a feature, but a person such as a mole or a scratch. Some did not include a featured structure. In addition, these face structure points or face structure lines are those that humans discriminate and name, such as "eye corner points" and "eye corner points", and do not consider the ease of extraction by image processing. . According to the first aspect of the present invention, in order to obtain a structure that is resistant to illumination variation and secular change and can be easily extracted by image processing, use is made of a structure point in which the brightness value change is locally minimum in two or more directions. I chose Such structure points can be extracted under the condition that the first derivative of the image is 0 and the second derivative is positive.

【0023】検出した構造点分布を、予め候補となる人
物の顔について用意された構造点分布と比較することに
より、人物の照合を行う。このとき構造点間各点を、対
応が重複せず、かつ次の(1)式で表わされるコストが
最も小さくなるように対応付けを行う。 コスト=(対応する構造点座標間距離の総和) ……(1)
A person is collated by comparing the detected structure point distribution with a structure point distribution prepared for a candidate person's face in advance. At this time, the respective points between the structural points are associated so that the correspondences do not overlap and the cost represented by the following formula (1) is minimized. Cost = (sum of distances between corresponding structural point coordinates) (1)

【0024】請求項2記載の発明では、請求項1記載の
発明における構造点データ出力手段が、候補となる人物
の顔の画像を記憶しており、これから顔ごとの構造点の
データを作成して出力することを特徴としている。すな
わち、各人物の顔構造点分布をデータベースとして備え
るようにしてもよいし、顔の画像を記憶し、必要に応じ
てこれから顔ごとの構造点のデータを作成するようにし
てもよい。
According to the second aspect of the invention, the structure point data output means in the first aspect of the invention stores the image of the face of the candidate person, and from this, the structure point data for each face is created. It is characterized by outputting as. That is, the face structure point distribution of each person may be provided as a database, or the face image may be stored and the structure point data for each face may be created if necessary.

【0025】請求項3記載の発明では、(イ)照合対象
となる人物の顔の画像について第1の方向に沿って輝度
が極小をなすV字エッジを抽出する第1のV字エッジ抽
出手段と、(ロ)この照合対象となる人物の顔の画像に
ついて第1の方向とは異なる第2の方向に沿って輝度が
極小をなすV字エッジを抽出する第2のV字エッジ抽出
手段と、(ハ)第1および第2のV字エッジ抽出手段の
論理積をとり、第1および第2の方向に対してV字エッ
ジに見える構造点または構造点の連続を求める論理積手
段と、(ニ)候補となる人物の顔ごとの構造点のデータ
ベースを保存した構造点データベース記憶手段と、
(ホ)論理積手段で求められた顔の構造点と構造点デー
タベース記憶手段に記憶された顔の構造点との構造点間
距離を候補となる人物の顔ごとに計算する構造点間距離
計算手段と、(ヘ)構造点データベース記憶手段に記憶
された候補となる人物の中で構造点間距離計算手段によ
って計算した構造点間距離が最小となる者を照合対象と
なる人物として選択する人物選択手段とを人物顔画像照
合装置に具備させる。
According to the third aspect of the invention, (a) a first V-shaped edge extracting means for extracting a V-shaped edge having a minimum brightness along the first direction in the image of the face of the person to be collated. And (b) second V-shaped edge extraction means for extracting a V-shaped edge having a minimum brightness along a second direction different from the first direction in the image of the face of the person to be collated. (C) A logical product means for obtaining a logical product of the first and second V-shaped edge extraction means to obtain a structural point or a series of structural points that appear as a V-shaped edge in the first and second directions. (D) Structure point database storage means that stores a database of structure points for each face of a candidate person,
(E) Calculation of inter-structure-point distance for each face of candidate person by calculating the inter-structure-point distance between the facial structure points obtained by the logical product means and the facial structure points stored in the structural point database storage means And (f) a person who selects the person having the smallest inter-structure-point distance calculated by the inter-structure-point distance calculating means from among the candidate persons stored in the structure-point database storage means as the person to be collated. The person face image collation device is provided with a selection means.

【0026】すなわち請求項3記載の発明では、第1お
よび第2のV字エッジ抽出手段を用意し、2つの異なっ
た方向からV字エッジの抽出を行っている。また、候補
となる人物の顔ごとの構造点のデータベースを保存した
構造点データベース記憶手段を用意し、論理積手段で求
められた顔の構造点と構造点データベース記憶手段に記
憶された顔の構造点との構造点間距離を候補となる人物
の顔ごとに計算するようにしている。人物選択手段は、
構造点データベース記憶手段に記憶された候補となる人
物の中で構造点間距離計算手段によって計算した構造点
間距離が最小となる者を照合対象となる人物として選択
する。
That is, according to the third aspect of the present invention, the first and second V-shaped edge extracting means are prepared and the V-shaped edge is extracted from two different directions. In addition, a structure point database storage means for storing a database of structure points for each face of the candidate person is prepared, and the face structure points obtained by the logical product means and the face structure stored in the structure point database storage means are prepared. The distance between the points and the structure is calculated for each face of the candidate person. The person selection means is
Among the candidates who are stored in the structure point database storage means, the person having the smallest distance between the structure points calculated by the distance between structure points calculation means is selected as the person to be collated.

【0027】請求項4記載の発明では、(イ)照合対象
となる人物の顔の画像について第1の方向に沿って輝度
が極小をなすV字エッジを抽出する第1のV字エッジ抽
出手段と、(ロ)この照合対象となる人物の顔の画像に
ついて第1の方向とは異なる第2の方向に沿って輝度が
極小をなすV字エッジを抽出する第2のV字エッジ抽出
手段と、(ハ)第1および第2のV字エッジ抽出手段の
論理積をとり、第1および第2の方向に対してV字エッ
ジに見える構造点または構造点の連続を求める論理積手
段と、(ニ)照合対象となる人物の顔の画像から画素そ
れぞれに対応するテクスチャ特徴を抽出する特徴抽出手
段と、(ホ)候補となる人物の顔ごとの構造点のデータ
ベースを保存した構造点データベース記憶手段と、
(ヘ)候補となる人物の顔ごとのテクスチャ特徴のデー
タベースを保存したテクスチャ特徴データベース記憶手
段と、(ト)論理積手段で求められた顔の構造点とデー
タベースに存在する顔の構造点との構造点間距離を候補
となる人物の顔ごとに計算する構造点間距離計算手段
と、(チ)論理積手段で求められた顔の構造点と対応す
るテクスチャ特徴データベース記憶手段に記憶された顔
の構造点とのテクスチャ特徴間距離を候補となる人物の
顔ごとに計算するテクスチャ特徴間距離計算手段と、
(リ)構造点間距離計算手段とテクスチャ特徴間距離計
算手段の計算結果の和を候補となる人物の顔ごと求める
コスト計算手段と、(ヌ)コスト計算手段によって最小
となった者を照合対象となる人物として選択する人物選
択手段とを人物顔画像照合装置に具備させる。
According to the fourth aspect of the invention, (a) first V-shaped edge extracting means for extracting a V-shaped edge having a minimum brightness along the first direction in the image of the face of the person to be collated. And (b) second V-shaped edge extraction means for extracting a V-shaped edge having a minimum brightness along a second direction different from the first direction in the image of the face of the person to be collated. (C) A logical product means for obtaining a logical product of the first and second V-shaped edge extraction means to obtain a structural point or a series of structural points that appear as a V-shaped edge in the first and second directions. (D) Feature extracting means for extracting texture features corresponding to each pixel from the image of the face of the person to be collated, and (e) Structure point database storage storing a database of structure points for each face of the candidate person. Means and
(F) a texture feature database storing means that stores a database of texture features for each face of a candidate person; and (g) face structure points obtained by the ANDing means and face structure points existing in the database. The inter-structure-point distance calculating means for calculating the inter-structure-point distance for each face of the candidate person, and the face stored in the texture feature database storing means corresponding to the face structural points obtained by the (h) ANDing means. An inter-texture-feature distance calculation means for calculating the inter-texture-feature distance with respect to the structural point for each face of a candidate person,
(I) Cost calculation means for obtaining the sum of the calculation results of the structure point distance calculation means and the texture feature distance calculation means for each face of a candidate person; The person face image matching device is provided with a person selecting means for selecting a person as

【0028】すなわち請求項4記載の発明では、人物顔
画像の照合に新たにテクスチャ特徴を使用することにし
ている。この理由を説明する。構造点は例えばその地点
での二次偏微分値というような、テクスチャ情報を持っ
ている。文献「人工知能・コンピュータビジョンのため
の画像認識と画像理解(R.Nevatia著、南敏監訳)、
pp.161−175、啓学出版(1986)」では、
テクスチャ特徴について一次測度として輝度平均、分
散、ヒストグラム分布、テクスチャエネルギ測度として
種々のフィルタテンプレートの畳み込み出力、フーリエ
測度として周波数特徴・二次測度その他が与えられてい
る。構造点におけるテクスチャ情報を、構造点を含む部
分画像におけるテクスチャ特徴とし、構造点間の対応付
けをより確実にするために、次の(2)式で表わされる
のコストが最も小さくなるように対応付けするようにな
っている。 コスト=(対応する構造点座標間距離の総和) +(対応する構造点テクスチャ情報間距離の総和) …… (2) 請求項4記載の発明では、入力顔画像と、コストが最も
小さかったデータベース中の顔両像を選ぶことで人物照
合を行う手法となっている。
That is, according to the invention described in claim 4, the texture feature is newly used for collation of the human face image. The reason for this will be explained. The structure point has texture information such as the second partial differential value at that point. Document "Image recognition and image understanding for artificial intelligence and computer vision (R. Nevatia, translated by Satoshi Minami),
pp. 161-175, Keigaku Shuppan (1986) ”,
Regarding the texture feature, luminance average, variance, and histogram distribution are given as primary measures, convolution outputs of various filter templates are given as texture energy measures, and frequency feature / secondary measure etc. are given as Fourier measures. The texture information at the structure points is used as the texture feature in the partial image including the structure points, and in order to ensure the correspondence between the structure points, the cost represented by the following equation (2) is minimized. It is designed to be attached. Cost = (sum of distances between corresponding structure point coordinates) + (sum of distances between corresponding structure point texture information) (2) In the invention according to claim 4, the input face image and the database having the smallest cost It is a method to perform person verification by selecting both images in the face.

【0029】請求項5記載の発明では、テクスチャ特徴
として、部分画像におけるヒストグラム分布等の既知の
テクスチャ情報を使用することを特徴としている。
The invention according to claim 5 is characterized in that known texture information such as a histogram distribution in the partial image is used as the texture feature.

【0030】[0030]

【実施例】以下実施例につき本発明を詳細に説明する。DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described in detail below with reference to embodiments.

【0031】第1の実施例 First embodiment

【0032】図1は本発明の第1の実施例における人物
顔画像照合装置の構成を表わしたものである。図示しな
い画像入力装置から得られた入力画像信号31は、人物
顔画像照合装置32内の第1および第2のV字エッジ抽
出装置33、34に入力され、それぞれ異なった第1あ
るいは第2の方向で輝度値が極小をなすV字エッジの抽
出が行われるようになっている。ここで入力画像信号3
1は、図6の右側の図形として示したように、すでに顔
が切り出されて、その位置、大きさおよび角度が補正さ
れたものである。第1のV字エッジ抽出装置33から出
力される第1のV字エッジ信号35と、第2のV字エッ
ジ抽出装置34から出力される第1のV字エッジ信号3
6は論理積部37に入力され、両者の論理積がとられ、
第1および第2の方向に対してV字エッジに見える構造
点または構造点の連続が求められる。これらを表わした
構造点信号38は、コスト計算部39に入力されるよう
になっている。
FIG. 1 shows the configuration of a human face image collating apparatus according to the first embodiment of the present invention. An input image signal 31 obtained from an image input device (not shown) is input to the first and second V-shaped edge extraction devices 33 and 34 in the human face image matching device 32, and different first or second V-shaped edge extraction devices 33 and 34, respectively. The V-shaped edge having the minimum luminance value in the direction is extracted. Input image signal 3 here
In No. 1, the face is already cut out and its position, size, and angle are corrected, as shown as the figure on the right side of FIG. The first V-shaped edge signal 35 output from the first V-shaped edge extraction device 33 and the first V-shaped edge signal 3 output from the second V-shaped edge extraction device 34.
6 is input to the logical product unit 37, the logical product of both is taken,
Structural points or a series of structural points that appear as V-edges in the first and second directions are determined. The structure point signal 38 representing these is input to the cost calculation unit 39.

【0033】コスト計算部39は、照合を行う候補とな
る人物の顔の画像の構造点についてのデータベースを記
憶したデータベース記憶部41と接続されている。デー
タベース記憶部41は、データベース構造点信号42を
コスト計算部39に供給し、候補となる人物の顔ごとに
構造点間距離が計算される。この結果としての距離信号
44は最小コスト選択手段45に入力され、構造点間距
離が最小となる人物の選択が行われる。この結果は、人
物照合信号46として人物顔画像照合装置32から出力
されることになる。
The cost calculation unit 39 is connected to a database storage unit 41 that stores a database of structural points of the face image of the person who is a candidate for collation. The database storage unit 41 supplies the database structure point signal 42 to the cost calculation unit 39, and the distance between structure points is calculated for each face of the candidate person. The distance signal 44 as a result of this is input to the minimum cost selecting means 45, and the person having the minimum distance between structural points is selected. This result is output as the person collation signal 46 from the person face image collation device 32.

【0034】照合を行おうとする人物の顔が撮影された
画像である入力画像信号31は、第1のV字エッジ抽出
装置33に入力され、ある方向に輝度値が極小をなすV
字エッジが検出される。本実施例では図7で説明したx
軸24方向の輝度値が極小をなすV字エッジが検出され
る。これは第1のV字エッジ信号35として出力され
る。また、第2のV字エッジ抽出装置34は、他の方向
に輝度値が極小をなすV字エッジが検出される。本実施
例では図7で説明したy軸25方向の輝度値が極小をな
すV字エッジが検出される。これは第2のV字エッジ信
号36として出力される。
An input image signal 31, which is an image of a face of a person to be collated, is input to the first V-shaped edge extraction device 33, and V having a minimum luminance value in a certain direction.
Character edges are detected. In this embodiment, x described in FIG.
A V-shaped edge having a minimum brightness value in the direction of the axis 24 is detected. This is output as the first V-shaped edge signal 35. Further, the second V-shaped edge extracting device 34 detects a V-shaped edge having a minimum brightness value in the other direction. In this embodiment, the V-shaped edge having the minimum brightness value in the y-axis 25 direction described in FIG. 7 is detected. This is output as the second V-shaped edge signal 36.

【0035】図2は、第1のV字エッジ抽出装置の回路
構成を表わしたものである。なお、第2のV字エッジ抽
出装置34の回路構成は第1のV字エッジ抽出装置33
のそれと全く同じであり、単に輝度値の極小を求める方
向が相違するだけなので、この回路の説明は省略する。
なお、本実施例のV字エッジ抽出装置33、34と同様
のものは、例えば特願平5−189566号に開示があ
る。
FIG. 2 shows a circuit configuration of the first V-shaped edge extraction device. The circuit configuration of the second V-shaped edge extraction device 34 is the same as that of the first V-shaped edge extraction device 33.
Since it is exactly the same as that of the above, and only the direction of obtaining the minimum of the luminance value is different, the description of this circuit is omitted.
Note that the same devices as the V-shaped edge extracting devices 33 and 34 of this embodiment are disclosed in, for example, Japanese Patent Application No. 5-189566.

【0036】第1のV字エッジ抽出装置33は、前記し
た入力画像信号31を一次偏微分計算部51と二次偏微
分計算部52の双方に入力する。一次偏微分計算部51
から出力される一次微分信号55は0地点検出部56に
入力され、一次偏微分された画像の値が0となる地点の
検出が行われる。これによる極値エッジ信号57は論理
積計算部58の一方の入力となるようになっている。ま
た、二次偏微分計算部52から出力される二次微分信号
59は正領域検出部61に入力され、二次偏微分された
画像の値が正である領域(正領域)の検出が行われる。
これによる正領域信号62は論理積計算部58の他方の
入力となる。論理積計算部58はこれら極値エッジ信号
57と正領域信号62の論理積をとり、第1のV字エッ
ジ信号35を出力することになる。
The first V-shaped edge extracting device 33 inputs the above-mentioned input image signal 31 to both the primary partial differential calculating section 51 and the secondary partial differential calculating section 52. First partial differential calculator 51
The primary differential signal 55 output from is input to the zero point detection unit 56, and the point where the value of the image subjected to the primary partial differential is 0 is detected. The extreme value edge signal 57 thus obtained is input to one of the logical product calculation sections 58. Further, the secondary differential signal 59 output from the secondary partial differential calculating section 52 is input to the positive area detecting section 61, and the area (positive area) in which the value of the second partial differential image is positive is detected. Be seen.
The positive region signal 62 resulting from this becomes the other input of the logical product calculation unit 58. The logical product calculation unit 58 calculates the logical product of the extreme value edge signal 57 and the positive region signal 62 and outputs the first V-shaped edge signal 35.

【0037】このように第1の実施例による人物顔画像
照合装置では、第1のV字エッジ抽出装置33と第2の
V字エッジ抽出装置34を用いて、人物の顔が撮影され
た画像の輝度の変化を2つの方向からそれぞれ求め、第
1のV字エッジ信号35と第2のV字エッジ信号36を
得るようにしている。そして、論理積部37でこれらの
論理積をとるようにしているので、どちらの方向でもV
字エッジに見える構造点信号38が得られることにな
り、照明条件に依らないV字エッジが得られることにな
る。したがって、これ以降のコスト計算部39、データ
ベース記憶部41および最小コスト選択手段45で候補
となる人物の中から該当する人物を信頼性よく選択する
ことができることになる。
As described above, in the human face image collating apparatus according to the first embodiment, an image of a human face is photographed by using the first V-shaped edge extracting device 33 and the second V-shaped edge extracting device 34. The change in the luminance of is obtained from each of the two directions, and the first V-shaped edge signal 35 and the second V-shaped edge signal 36 are obtained. Since the logical product unit 37 takes these logical products, V in either direction
The structure point signal 38 that looks like a V-shaped edge is obtained, and a V-shaped edge that does not depend on the illumination condition is obtained. Therefore, the cost calculation unit 39, the database storage unit 41, and the minimum cost selection unit 45 thereafter can select the corresponding person with reliability from the candidate persons.

【0038】なお、この第1の実施例では2つのV字エ
ッジ抽出装置33、34を組み合わせて顔の構造点を抽
出しているが、3つ以上組み合わせてもよいことは当然
である。また、第1の実施例でデータベース記憶部41
は顔の構造点を保持することにしたが、候補となる人物
の顔の画像を直接保持しておき、必要な時点でこれらの
画像から顔の構造点を抽出し、比較のための作業を行う
ようにしてもよいことは言うまでもない。
In the first embodiment, the two V-shaped edge extracting devices 33 and 34 are combined to extract the structural points of the face, but it goes without saying that three or more may be combined. In addition, in the first embodiment, the database storage unit 41
Decided to keep the structure points of the face.However, the images of the face of the candidate person are directly held, and the structure points of the face are extracted from these images at the required time, and the work for comparison is performed. It goes without saying that you may do so.

【0039】第2の実施例 Second embodiment

【0040】図3は本発明の第2の実施例における人物
顔画像照合装置の構成を表わしたものである。この図で
図1と同一部分には同一の符号を付している。この第2
の実施例の人物顔画像照合装置71では、図示しない画
像入力装置から得られた入力画像信号31を、第1およ
び第2のV字エッジ抽出装置33、34に入力する他、
輝度分散特徴抽出部72にも入力するようになってい
る。第1および第2のV字エッジ抽出装置33、34
は、入力画像信号31を基にしてそれぞれ異なった方向
に画像の輝度値が極小をなすV字エッジをそれぞれ抽出
する。第1のV字エッジ抽出装置33から出力される第
1のV字エッジ信号35と、第2のV字エッジ抽出装置
34から出力される第1のV字エッジ信号36は論理積
部37に入力され、両者の論理積がとられ、第1および
第2の方向に対してV字エッジに見える構造点または構
造点の連続が求められる。これらを表わした構造点信号
38は、コスト計算部73に入力されるようになってい
る。
FIG. 3 shows the configuration of a human face image collating apparatus according to the second embodiment of the present invention. In this figure, the same parts as those in FIG. 1 are designated by the same reference numerals. This second
In the human face image collation device 71 of the embodiment, the input image signal 31 obtained from an image input device (not shown) is input to the first and second V-shaped edge extraction devices 33 and 34.
The luminance distribution feature extraction unit 72 is also input. First and second V-shaped edge extraction devices 33, 34
Extracts the V-shaped edges having the minimum brightness value of the image in different directions based on the input image signal 31. The first V-shaped edge signal 35 output from the first V-shaped edge extraction device 33 and the first V-shaped edge signal 36 output from the second V-shaped edge extraction device 34 are supplied to the logical product section 37. It is input, the logical product of both is taken, and the structural points or the series of structural points that appear as V-shaped edges in the first and second directions are obtained. The structure point signal 38 representing these is input to the cost calculation unit 73.

【0041】一方、輝度分散特徴抽出部72は、人物の
顔画像から画素各点を含む部分画像における輝度分散が
計算されて輝度分散テクスチャ特徴が抽出されるように
なっている。輝度分散特徴抽出部72から出力される特
徴信号74もコスト計算部73に入力される。
On the other hand, the brightness distribution feature extraction unit 72 is adapted to calculate the brightness distribution in the partial image including each pixel point from the human face image and extract the brightness distribution texture feature. The feature signal 74 output from the brightness distribution feature extraction unit 72 is also input to the cost calculation unit 73.

【0042】コスト計算部73はデータベース記憶部7
5と接続されている。データベース記憶部75は、照合
対象となる顔構造点と対応する輝度分散テクスチャ特徴
を保存している。これら保存した顔ごとの顔構造点を表
わしたデータベース構造点信号76と、構造点に対応す
るテクスチャ特徴であるデータベース特徴信号77は、
データベース記憶部75からコスト計算部73に送出さ
れる。コスト計算部73は、構造点信号38および特徴
信号74と、候補としてのある顔の構造点であるデータ
ベース構造点信号76と、対応するデータベース特徴信
号77との間を、前記した(2)式に基づいて、最も距
離が小さくなるように対応付けて計算を行う。そして、
最小距離を距離信号78として出力する。この距離信号
78は最小コスト選択部79に入力され、データベース
中の顔の中で最も距離が小さくなった人物が選択され
る。選択結果は、人物照合信号81として人物顔画像照
合装置71から出力される。
The cost calculation section 73 is a database storage section 7.
5 is connected. The database storage unit 75 stores the brightness distribution texture feature corresponding to the face structure point to be matched. The database structure point signal 76 representing the face structure points for each face stored and the database feature signal 77 which is the texture feature corresponding to the structure point are
It is sent from the database storage unit 75 to the cost calculation unit 73. The cost calculation unit 73 performs the above-mentioned expression (2) between the structure point signal 38 and the feature signal 74, the database structure point signal 76 that is the structure point of a certain face as a candidate, and the corresponding database feature signal 77. Based on, the calculation is performed in association with each other so that the distance becomes smallest. And
The minimum distance is output as the distance signal 78. This distance signal 78 is input to the minimum cost selection unit 79, and the person with the smallest distance is selected from the faces in the database. The selection result is output from the human face image matching apparatus 71 as a person matching signal 81.

【0043】以上説明した第2の実施例では、データベ
ース記憶部75が顔構造点と、対応するテクスチャ特徴
を保持することにした。これについても、第1の実施例
で説明したように顔画像自体を保持しておき、随時、顔
構造点を計算するようにしてもよい。また、第2の実施
例でも2つのV字エッジ抽出装置33、34を組み合わ
せて顔の構造点を抽出しているが、3つ以上組み合わせ
てもよいことは当然である。更に、第2の実施例では各
画素におけるテクスチャ特徴として、部分画像での輝度
分散値を用いることにしたが、既知のテクスチャ特徴を
用いることも可能である。
In the second embodiment described above, the database storage unit 75 holds face structure points and corresponding texture features. Also in this case, the face image itself may be held as described in the first embodiment, and the face structure points may be calculated at any time. Further, in the second embodiment as well, the two V-shaped edge extraction devices 33 and 34 are combined to extract the facial structure points, but it is natural that three or more may be combined. Further, in the second embodiment, the brightness distribution value in the partial image is used as the texture feature in each pixel, but it is also possible to use a known texture feature.

【0044】第2の実施例の変形例 Modification of the second embodiment

【0045】図4は、第2の実施例の変形例として、既
知のテクスチャ特徴を用いたテクスチャ特徴抽出装置の
部分についての回路構成を表わしたものである。テクス
チャ特徴抽出部90は、入力画像信号31の供給を受け
輝度値の累積ヒストグラムを作成する累積分布作成部9
1と、同じく入力画像信号31の供給を受け入力された
部分画像における輝度の平均値を計算する輝度平均計算
部92を備えている。累積分布作成部91から出力され
る累積分布信号93と輝度平均計算部92から出力され
る輝度平均信号94は、累積分布正規化部95に入力さ
れる。累積分布正規化部95は、累積分布を輝度平均値
がある値になるように平行移動して正規化するようにな
っている。累積分布正規化部95からは、正規化累積分
布信号96が出力され、図3に示したコスト計算部73
に構造点信号38と共に入力されることになる。
FIG. 4 shows, as a modification of the second embodiment, a circuit configuration of a portion of a texture feature extraction device using known texture features. The texture feature extraction unit 90 receives the input image signal 31 and creates a cumulative histogram of brightness values.
1 and a brightness average calculator 92 that calculates the average value of the brightness of the input partial image, which is also supplied with the input image signal 31. The cumulative distribution signal 93 output from the cumulative distribution creating unit 91 and the brightness average signal 94 output from the brightness average calculating unit 92 are input to the cumulative distribution normalizing unit 95. The cumulative distribution normalization unit 95 is adapted to parallelize and normalize the cumulative distribution so that the brightness average value becomes a certain value. The cumulative distribution normalization unit 95 outputs a normalized cumulative distribution signal 96, and the cost calculation unit 73 shown in FIG.
Will be input together with the structure point signal 38.

【0046】この変形例のテクスチャ特徴抽出装置90
は、文献「NUMERICAL RECIPES in C〔日本語版〕(Will
iam H.Press, Saul A. Teukolsky, William T. Vetterl
ing,Brian P. Flannery著、丹慶勝市、奥村晴彦、佐藤
俊郎、小林誠訳)技術評論社PP.460-463(1993)」
のコルモゴロフ−スミルノフ(Kolmogonov-Smirnov)検
定に基づくものである。このテクスチャ特徴抽出装置9
0では、入力画像上の部分画像におけるテクスチャを計
算するものである。
Texture feature extraction apparatus 90 of this modification
Is a document "NUMERICAL RECIPES in C (Japanese version) (Will
iam H. Press, Saul A. Teukolsky, William T. Vetterl
ing, Brian P. Flannery, Katsuichi Dankei, Haruhiko Okumura, Toshiro Sato, Makoto Kobayashi) Technical Review, PP.460-463 (1993) "
Based on the Kolmogonov-Smirnov test. This texture feature extraction device 9
At 0, the texture in the partial image on the input image is calculated.

【0047】このテクスチャ特徴抽出装置90を更にク
ロック大敵に説明する。入力画像信号31は累積分布作
成部91に入力され、入力画像上の部分画像における輝
度値の累積分布に変換されて、累積分布信号93が得ら
れる。累積分布とは、ある輝度値xにおける値P(x)
を次の(3)式で与えたものである。 P(x)=(輝度値が−∞〜xである部分画像中の画素数) ……(3) 入力画像信号31は輝度平均計算部92にも入力され、
入力画像上の部分画像における輝度値の平均値に変換さ
れて、輝度平均信号94が得られる。
The texture feature extraction device 90 will be described as a clock enemy. The input image signal 31 is input to the cumulative distribution creating unit 91, converted into a cumulative distribution of luminance values in a partial image on the input image, and a cumulative distribution signal 93 is obtained. The cumulative distribution is a value P (x) at a certain brightness value x.
Is given by the following equation (3). P (x) = (number of pixels in partial image whose brightness value is −∞ to x) (3) The input image signal 31 is also input to the brightness average calculation unit 92,
The brightness average signal 94 is obtained by converting the brightness value in the partial image on the input image into the average value.

【0048】図5は、累積分布を説明するためのもので
ある。この図で横軸は輝度値を、縦軸は画素数を表わし
ている。採りうる輝度の最小値KMIN を座標の原点と
し、採りうる最大値をKMAX とすると、これらの間に曲
線101で表わした累積分布得られる。
FIG. 5 is for explaining the cumulative distribution. In this figure, the horizontal axis represents the luminance value and the vertical axis represents the number of pixels. If the minimum value K MIN of brightness that can be taken is the origin of the coordinates and the maximum value that can be taken is K MAX , the cumulative distribution represented by the curve 101 is obtained therebetween.

【0049】図4における累積分布信号93と輝度平均
信号94は累積分布正規化部95に入力され、輝度の平
均値が“0”となるように分布信号を平均移動して、輝
度値の変動に対応するための正規化処理を行い、正規化
累積分布信号96を得る。
The cumulative distribution signal 93 and the luminance average signal 94 in FIG. 4 are input to the cumulative distribution normalization unit 95, and the distribution signal is averaged so that the average luminance value becomes "0", and the luminance value changes. Is performed to obtain a normalized cumulative distribution signal 96.

【0050】図5でこの平行移動操作を説明する。輝度
の平均値KAVE を基準にして、これが0値となるように
平行移動103を施し、部分画像内の輝度平均に依存し
ない正規化累積分布104を得ることができる。正規化
累積分布信号96をテクスチャ特徴として利用すること
で、本発明を実現することができる。他にも文献「人工
知能・コンピュータビジョンのための画像認識と画像理
解(R. Nevatia著、南敏訳)、pp.161−17
5、啓学出版(1986)」で紹介されている既知のテ
クスチャ情報、例えば部分画像におけるヒストグラム分
布や種々のフィルターテンプレート出力、周波数成分等
を用いることでも本発明を実現することができる。
This parallel movement operation will be described with reference to FIG. By using the average value K AVE of luminance as a reference, the parallel movement 103 is performed so that the value becomes 0, and the normalized cumulative distribution 104 that does not depend on the average luminance is obtained in the partial image. The present invention can be realized by using the normalized cumulative distribution signal 96 as a texture feature. In addition, reference "Image Recognition and Image Understanding for Artificial Intelligence / Computer Vision (R. Nevatia, Translated by Minami Satoshi), pp.161-17
The present invention can also be realized by using known texture information introduced in 5, Keigaku Shuppan (1986), for example, histogram distribution in partial images, various filter template outputs, frequency components, and the like.

【0051】[0051]

【発明の効果】以上説明したように請求項1〜請求項5
記載の発明によれば、2以上の方向について輝度値変化
が共通して極小となる構造点を使用することにしたの
で、簡潔な画像処理により照明変動や経年変化に強い人
物顔画像照合装置を実現することができる。
As described above, claims 1 to 5 are as follows.
According to the invention described above, since the structure point in which the change in the brightness value is commonly minimized in two or more directions is used, a human face image collation device that is resistant to illumination variation and aging variation can be provided by simple image processing. Can be realized.

【0052】また、請求項2記載の発明によれば、構造
点データ出力手段が、候補となる人物の顔の画像自体か
ら顔の構造点のデータを作成することにしたので、顔の
画像を追加することで、照合する人物を容易に追加する
ことができる。
According to the second aspect of the invention, the structure point data output means decides to create the structure point data of the face from the image itself of the face of the candidate person. By adding, the person to be collated can be easily added.

【0053】更に請求項4記載の発明では、照合対象と
なる人物の顔の画像から画素それぞれに対応するテクス
チャ特徴を抽出する特徴抽出手段を更に使用したので、
照合対象となる人物をより正確に識別することができる
という利点がある。
Further, according to the invention described in claim 4, since the feature extracting means for extracting the texture feature corresponding to each pixel from the image of the face of the person to be collated is further used,
There is an advantage that the person to be collated can be identified more accurately.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例における人物顔画像照合
装置の構成を表わしたブロック図である。
FIG. 1 is a block diagram showing a configuration of a human face image matching apparatus according to a first exemplary embodiment of the present invention.

【図2】第1の実施例における第1のV字エッジ抽出装
置の回路構成を表わしたブロック図である。
FIG. 2 is a block diagram showing a circuit configuration of a first V-shaped edge extraction device in the first embodiment.

【図3】本発明の第2の実施例における人物顔画像照合
装置の構成を表わしたブロック図である。
FIG. 3 is a block diagram showing a configuration of a human face image matching apparatus according to a second embodiment of the present invention.

【図4】第2の実施例における輝度分散特徴抽出部を具
体的に表わしたブロック図である。
FIG. 4 is a block diagram specifically showing a luminance dispersion feature extraction unit in the second embodiment.

【図5】第2の実施例の変形例における累積分布を説明
するための特性図である。
FIG. 5 is a characteristic diagram for explaining a cumulative distribution in a modification of the second embodiment.

【図6】顔画像を用いて人物を識別する従来の第1の手
法を示した説明図である。
FIG. 6 is an explanatory diagram showing a first conventional method for identifying a person using a face image.

【図7】顔画像を用いて人物を識別する従来の第2の手
法を示した説明図である。
FIG. 7 is an explanatory diagram showing a second conventional method for identifying a person using a face image.

【符号の説明】[Explanation of symbols]

31 入力画像信号 32、71 人物顔画像照合装置 33 第1のV字エッジ抽出装置 34 第2のV字エッジ抽出装置 37 論理積部 39、73 コスト計算部 41、75 データベース記憶部 45、79 最小コスト選択手段 51 一次偏微分計算部 52 二次偏微分計算部 56 0地点検出部 61 正領域検出部 58 論理積計算部 72 輝度分散特徴抽出部 90 テクスチャ特徴抽出部 91 累積分布作成部 92 輝度平均計算部 95 累積分布正規化部 31 input image signal 32, 71 human face image collation device 33 first V-shaped edge extraction device 34 second V-shaped edge extraction device 37 logical AND section 39, 73 cost calculation section 41, 75 database storage section 45, 79 minimum Cost selection means 51 First partial differential calculation unit 52 Second partial differential calculation unit 56 0 Point detection unit 61 Positive area detection unit 58 Logical product calculation unit 72 Luminance variance feature extraction unit 90 Texture feature extraction unit 91 Cumulative distribution creation unit 92 Luminance average Calculation unit 95 Cumulative distribution normalization unit

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 照合対象となる人物の顔の画像について
異なった2以上の方向に沿ってそれぞれ輝度が極小をな
すV字エッジを個別に抽出するV字エッジ抽出手段と、 このV字エッジ抽出手段のそれぞれが抽出したV字エッ
ジの論理積をとり、いずれの方向に対してもV字エッジ
に見える構造点または構造点の連続を求める論理積手段
と、 候補となる人物の顔ごとの構造点のデータを出力する構
造点データ出力手段と、 前記論理積手段で求められた顔の構造点と構造点データ
出力手段から出力される顔の構造点との構造点間距離を
前記候補となる人物の顔ごとに計算する構造点間距離計
算手段と、 前記構造点データベース記憶手段に記憶された候補とな
る人物の中で構造点間距離計算手段によって計算した構
造点間距離が最小となる者を前記照合対象となる人物と
して選択する人物選択手段とを具備することを特徴とす
る人物顔画像照合装置。
1. A V-shaped edge extracting means for individually extracting V-shaped edges having minimum brightness along two or more different directions of a face image of a person to be collated, and the V-shaped edge extraction. The logical product of the V-shaped edges extracted by each of the means, and the logical product means for obtaining the structural points or the continuation of the structural points that look like the V-shaped edges in any direction, and the structure for each face of the candidate person Structure point data output means for outputting point data, and the inter-structure point distance between the face structure points obtained by the AND means and the face structure points output from the structure point data output means are the candidates. An inter-structure-point distance calculation means for calculating each face of a person, and a person who has the smallest inter-structure-point distance calculated by the inter-structure-point distance calculation means among candidate persons stored in the structure point database storage means In front Human Face image collation apparatus characterized by comprising a person selecting unit configured to select as a person being a target for verification.
【請求項2】 構造点データ出力手段は、候補となる人
物の顔の画像を記憶しており、これから顔ごとの構造点
のデータを作成して出力することを特徴とする請求項1
記載の人物顔画像照合装置。
2. The structure point data output means stores an image of a face of a candidate person, and creates and outputs data of a structure point for each face from the image.
The described human face image matching device.
【請求項3】 照合対象となる人物の顔の画像について
第1の方向に沿って輝度が極小をなすV字エッジを抽出
する第1のV字エッジ抽出手段と、 この照合対象となる人物の顔の画像について前記第1の
方向とは異なる第2の方向に沿って輝度が極小をなすV
字エッジを抽出する第2のV字エッジ抽出手段と、 前記第1および第2のV字エッジ抽出手段の論理積をと
り、第1および第2の方向に対してV字エッジに見える
構造点または構造点の連続を求める論理積手段と、 候補となる人物の顔ごとの構造点のデータベースを保存
した構造点データベース記憶手段と、 前記論理積手段で求められた顔の構造点と構造点データ
ベース記憶手段に記憶された顔の構造点との構造点間距
離を前記候補となる人物の顔ごとに計算する構造点間距
離計算手段と、 前記構造点データベース記憶手段に記憶された候補とな
る人物の中で構造点間距離計算手段によって計算した構
造点間距離が最小となる者を前記照合対象となる人物と
して選択する人物選択手段とを具備することを特徴とす
る人物顔画像照合装置。
3. A first V-shaped edge extracting means for extracting a V-shaped edge having a minimum brightness along a first direction in an image of a face of a person to be collated, and a person to be collated. For the face image, the brightness V has a minimum value along the second direction different from the first direction.
A structure point that looks like a V-shaped edge in the first and second directions by taking the logical product of the second V-shaped edge extraction means for extracting the V-shaped edge and the first and second V-shaped edge extraction means. Alternatively, a logical product means for obtaining a sequence of structural points, a structural point database storage means for storing a database of structural points for each face of a candidate person, and a structural point for a face and a structural point database obtained by the logical product means An inter-structure-point distance calculating means for calculating the inter-structure-point distance from the structural points of the face stored in the storage means for each face of the candidate person, and a candidate person stored in the structure-point database storage means A person face image collation device, comprising: person selecting means for selecting a person having a minimum inter-structure point distance calculated by the inter-structure point distance calculating means as the person to be collated.
【請求項4】 照合対象となる人物の顔の画像について
第1の方向に沿って輝度が極小をなすV字エッジを抽出
する第1のV字エッジ抽出手段と、 この照合対象となる人物の顔の画像について前記第1の
方向とは異なる第2の方向に沿って輝度が極小をなすV
字エッジを抽出する第2のV字エッジ抽出手段と、 前記第1および第2のV字エッジ抽出手段の論理積をと
り、第1および第2の方向に対してV字エッジに見える
構造点または構造点の連続を求める論理積手段と、 前記照合対象となる人物の顔の画像から画素それぞれに
対応するテクスチャ特徴を抽出する特徴抽出手段と、 候補となる人物の顔ごとの構造点のデータベースを保存
した構造点データベース記憶手段と、 前記候補となる人物の顔ごとのテクスチャ特徴のデータ
ベースを保存したテクスチャ特徴データベース記憶手段
と、 前記論理積手段で求められた顔の構造点とデータベース
に存在する顔の構造点との構造点間距離を前記候補とな
る人物の顔ごとに計算する構造点間距離計算手段と、 前記論理積手段で求められた顔の構造点と対応する前記
テクスチャ特徴データベース記憶手段に記憶された顔の
構造点とのテクスチャ特徴間距離を前記候補となる人物
の顔ごとに計算するテクスチャ特徴間距離計算手段と、 前記構造点間距離計算手段とテクスチャ特徴間距離計算
手段の計算結果の和を前記候補となる人物の顔ごと求め
るコスト計算手段と、 コスト計算手段によって最小となった者を前記照合対象
となる人物として選択する人物選択手段とを具備するこ
とを特徴とする人物顔画像照合装置。
4. A first V-shaped edge extracting means for extracting a V-shaped edge having a minimum brightness along a first direction in an image of a face of a person to be collated, and a person to be collated. For the face image, the brightness V has a minimum value along the second direction different from the first direction.
A structure point that looks like a V-shaped edge in the first and second directions by taking the logical product of the second V-shaped edge extraction means for extracting the V-shaped edge and the first and second V-shaped edge extraction means. Alternatively, a logical product means for obtaining the continuity of structure points, a feature extraction means for extracting texture features corresponding to each pixel from the image of the face of the person to be collated, and a database of structure points for each face of the candidate person Existing in the database, the texture point database storage means that stores the database of texture features for each face of the candidate person, and the face structure points obtained by the logical product means. A structure point distance calculating means for calculating a distance between a structure point of a face and a structure point for each face of the candidate person; and a face structure point obtained by the ANDing means An inter-texture-feature distance calculating means for calculating, for each face of the candidate person, an inter-texture-feature distance with respect to a face structure point stored in the corresponding texture feature database storage means; Cost calculation means for obtaining the sum of the calculation results of the inter-texture feature distance calculation means for each face of the candidate person, and person selection means for selecting the person who has become the minimum by the cost calculation means as the person to be collated. A person's face image collation device comprising.
【請求項5】 前記テクスチャ特徴として、部分画像に
おけるヒストグラム分布等の既知のテクスチャ情報を使
用することを特徴とする請求項4記載の人物顔画像照合
装置。
5. The human face image matching device according to claim 4, wherein known texture information such as a histogram distribution in a partial image is used as the texture feature.
JP11433295A 1995-05-12 1995-05-12 Human face image matching device Expired - Lifetime JP2735028B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11433295A JP2735028B2 (en) 1995-05-12 1995-05-12 Human face image matching device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11433295A JP2735028B2 (en) 1995-05-12 1995-05-12 Human face image matching device

Publications (2)

Publication Number Publication Date
JPH08315133A true JPH08315133A (en) 1996-11-29
JP2735028B2 JP2735028B2 (en) 1998-04-02

Family

ID=14635164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11433295A Expired - Lifetime JP2735028B2 (en) 1995-05-12 1995-05-12 Human face image matching device

Country Status (1)

Country Link
JP (1) JP2735028B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056387A (en) * 2003-07-18 2005-03-03 Canon Inc Image processor, imaging apparatus and image processing method
US8515136B2 (en) 2003-07-18 2013-08-20 Canon Kabushiki Kaisha Image processing device, image device, image processing method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006011635A1 (en) 2004-07-30 2006-02-02 Canon Kabushiki Kaisha Image processing method and apparatus, image sensing apparatus, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056387A (en) * 2003-07-18 2005-03-03 Canon Inc Image processor, imaging apparatus and image processing method
US8515136B2 (en) 2003-07-18 2013-08-20 Canon Kabushiki Kaisha Image processing device, image device, image processing method
US8942436B2 (en) 2003-07-18 2015-01-27 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method

Also Published As

Publication number Publication date
JP2735028B2 (en) 1998-04-02

Similar Documents

Publication Publication Date Title
Huang et al. Face detection and precise eyes location
KR0158038B1 (en) Apparatus for identifying person
US6118887A (en) Robust multi-modal method for recognizing objects
Heo et al. Fusion of visual and thermal signatures with eyeglass removal for robust face recognition
JP3279913B2 (en) Person authentication device, feature point extraction device, and feature point extraction method
US7197166B2 (en) Iris extraction method capable of precisely determining positions and sizes of irises in a digital face image
Sun et al. Face detection based on color and local symmetry information
US8620036B2 (en) System and method for controlling image quality
US20060147094A1 (en) Pupil detection method and shape descriptor extraction method for a iris recognition, iris feature extraction apparatus and method, and iris recognition system and method using its
US20070189582A1 (en) Approaches and apparatus for eye detection in a digital image
JP2004133889A (en) Method and system for recognizing image object
KR102005150B1 (en) Facial expression recognition system and method using machine learning
Lu et al. Multimodal facial feature extraction for automatic 3D face recognition
CN110647955A (en) Identity authentication method
Bhanu et al. Human ear recognition by computer
Luettin et al. Locating and tracking facial speech features
Graf et al. Robust recognition of faces and facial features with a multi-modal system
JPH1185988A (en) Face image recognition system
Xu et al. Robust shape-feature-vector-based face recognition system
JP2735028B2 (en) Human face image matching device
JPH05108804A (en) Identifying method and executing device for three-dimensional object
JP2861014B2 (en) Object recognition device
JPH09305743A (en) Human face motion detecting system
JPH07311833A (en) Human face detecting device
KR20030012193A (en) Method of eye position detection for the image with various background