JP2000090191A - Device and method for face recognition - Google Patents

Device and method for face recognition

Info

Publication number
JP2000090191A
JP2000090191A JP10261311A JP26131198A JP2000090191A JP 2000090191 A JP2000090191 A JP 2000090191A JP 10261311 A JP10261311 A JP 10261311A JP 26131198 A JP26131198 A JP 26131198A JP 2000090191 A JP2000090191 A JP 2000090191A
Authority
JP
Japan
Prior art keywords
face
deformation
pattern
inverse
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10261311A
Other languages
Japanese (ja)
Inventor
Naoki Nakayama
直樹 中山
Satoshi Haruyama
智 春山
Ei Sakano
鋭 坂野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Data Group Corp
Original Assignee
NTT Data Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Data Corp filed Critical NTT Data Corp
Priority to JP10261311A priority Critical patent/JP2000090191A/en
Publication of JP2000090191A publication Critical patent/JP2000090191A/en
Pending legal-status Critical Current

Links

Landscapes

  • Collating Specific Patterns (AREA)
  • Character Discrimination (AREA)

Abstract

PROBLEM TO BE SOLVED: To precisely identify a person from an image obtained by photographing the face. SOLUTION: Deformation is removed from the face image by applying a perturbation method. Namely, combinations of parameters based upon affine transformation of deformation factors of the face images such as the position shift, tilt, up/down direction, and right/left direction of the face are prepared as many as all assumed variations of deformation. For the inputted face image, reverse transformation 31 of deformation using many combinations of parameters is performed at the same time in parallel. Then each discriminator 33 compares a normalized face pattern obtained by the reverse transformation 31 with the various prepared face patterns to calculate similarities. Lastly, the discrimination results of respective discriminators 33 are put together and the person having the largest similarity is selected (37).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、顔画像を用いた個
人認証などに利用される顔画像認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a face image recognition apparatus used for personal authentication using a face image.

【0002】[0002]

【従来の技術】カメラから人問の顔部分を撮影した 画
像データを入力し、コンピュータによって個人の認証を
行う顔画像認識技術が知られている。この認繊方法の一
般的流れを図1に示す。すなわち、(1)入力:カメラ
で顔を撮影し顔画像データを得る。(2)前処理:入力
画像から顔の正確な位置をを決めて、顔パターンを抽出
し(切り出し)、顔パターンの大きさを正規化する。
(3)特徴抽出:見え方に基づく情報を利用して、それ
ぞれの顔パターンから特徴を抽出する。(4)識別:入
力された画像から得られた顔パターシとあらかじめ用意
しておいた顔パターンを比較し、個人を特定する。
2. Description of the Related Art There is known a face image recognition technique in which image data obtained by photographing a human face part from a camera is input and a personal authentication is performed by a computer. FIG. 1 shows a general flow of this fiber recognition method. That is, (1) input: a face is photographed by a camera to obtain face image data. (2) Preprocessing: Determine the exact position of the face from the input image, extract (cut out) the face pattern, and normalize the size of the face pattern.
(3) Feature extraction: Features are extracted from each face pattern using information based on appearance. (4) Identification: An individual is identified by comparing a face pattern obtained from an input image with a previously prepared face pattern.

【0003】上述の前処理では、顔パターンをただ検出
し切り出すだけでは不十分であり、顔パターンについて
正確な位置と大きさの正規化を行う必要がある。これ
は、撮影時に微小な顔の向きや顔の傾きの変化や表情の
変化などが生じ、その結果として顔パターンが変化して
しまうからである。従来の顔パターン認識技術として
は、標準的な顔パターンを用意し、二乗誤差などの何ら
かの類似度で画像の部分領域と比較し、予め定められた
閾値を超えた領域を顔と決定する方法、及びその改良手
法が一般的に用いられてきた。本明細書ではこのような
手法を「標準マッチング法」と呼ぶ。
In the pre-processing described above, it is not sufficient to simply detect and cut out a face pattern, and it is necessary to perform accurate position and size normalization on the face pattern. This is because, at the time of photographing, a minute change in the direction of the face, a change in the inclination of the face, a change in the expression, and the like occur, and as a result, the face pattern changes. As a conventional face pattern recognition technology, a standard face pattern is prepared, compared with a partial region of an image with some similarity such as a square error, and a region that exceeds a predetermined threshold is determined as a face. And improved techniques thereof have been commonly used. In this specification, such a method is referred to as a “standard matching method”.

【0004】[0004]

【発明が解決しようとする課題】従来用いられている顔
画像切り出し方法では、平均的な顔を用いて一般画像中
の顔の位置や大きさの正規化を行うが、一般的には顔に
は個人差が存在するため、平均的な顔とは目鼻の位置が
ずれていることが多い。また、人間の顔は必ずしも一定
の一定の方向を向いでいるわけではない。このため、従
来の標準顔マッチング法では必ずしも正確な顔の位置や
大きさの検出が可能ではないという問題がある。
In the conventional face image clipping method, the position and size of a face in a general image are normalized using an average face. Because there are individual differences, the positions of the eyes and nose are often shifted from the average face. In addition, a human face does not always face a certain direction. For this reason, the conventional standard face matching method has a problem that it is not always possible to accurately detect the position and size of a face.

【0005】また、標準顔マッチング法以外の顔検出方
法としては、顔部品の位置を平均眼などのテンプレート
で検出し、その相対位置関係から顔の大きさや位置など
を検出する技術がある。しかし、眼、鼻などのテンプレ
ートは小さな画像となるため背景の雑多な対象と混乱し
やすいという問題がある。
As a face detection method other than the standard face matching method, there is a technique of detecting the position of a face part using a template such as an average eye and detecting the size and position of the face from the relative positional relationship. However, there is a problem that a template such as an eye or a nose becomes a small image and is easily confused with a variety of background objects.

【0006】したがって、本発明の目的は、コンピュー
タによる顔認識において従来よりも高精度な認識を可能
とすることにある。
Accordingly, it is an object of the present invention to enable more accurate face recognition by a computer than in the past.

【0007】本発明の別の目的は、顔画像から変形を除
去し標準的な顔パターンを精度良く抽出できるようにす
ることにある。
It is another object of the present invention to remove a deformation from a face image so that a standard face pattern can be accurately extracted.

【0008】[0008]

【課題を解決するための手段】本発明は、摂動法(Pert
urbation法)と呼ばれる技術を顔画像に応用した顔認識
方法を提供する。そもそも摂動法は、文字認識に用いら
れる手法であり、予め想定された変形に対する逆変換を
入力文字に施すことにより、種々の変形を吸収する技術
である(例えば「Thien M.HA and Horst BUNKE, "Handw
ritten NumeralRecognition by Perturbation Method",
Proc. Of the Fourth Int. Workshopon Frontiers of
Handwriting Recognition, Taipei, Taiwan, Dec. 7-9,
1994,pp.97-106」を参照されたい)。この摂動法は、
従来あくまで文字認識のための技術としてのみ知られて
いる。
SUMMARY OF THE INVENTION The present invention relates to a perturbation method (Pert method).
The present invention provides a face recognition method that applies a technique called urbation method to a face image. Originally, the perturbation method is a technique used for character recognition, and is a technique for absorbing various deformations by applying an inverse transformation to a previously assumed deformation to an input character (for example, “Thien M. HA and Horst BUNKE, "Handw
ritten NumeralRecognition by Perturbation Method ",
Proc. Of the Fourth Int. Workshopon Frontiers of
Handwriting Recognition, Taipei, Taiwan, Dec. 7-9,
1994, pp. 97-106). This perturbation method is
Conventionally, it is only known as a technique for character recognition.

【0009】文字と顔とでは、その変形の原因及び態様
が大いに異なる。特に、文字は2次元物体であるが、顔
は3次元物体でありその姿勢は3次元空間内で複雑に変
化する。また、顔の変形には表情という面倒な要素も含
まれている。このような文字と顔では変形の態様が大い
に相違するため、文字認識の分野の摂動法を顔認識に応
用しようという発想は極めて斬新なものである。本発明
は、この斬新な発想の下で、摂動法を顔画像に応用する
ための新規な手法を提供するものである。
[0009] Characters and faces have greatly different causes and modes of deformation. In particular, while a character is a two-dimensional object, a face is a three-dimensional object, and its posture varies in a complicated manner in a three-dimensional space. In addition, the deformation of the face includes a troublesome element called expression. Since such a character and a face have greatly different modes of deformation, the idea of applying the perturbation method in the field of character recognition to face recognition is extremely novel. The present invention provides a novel method for applying the perturbation method to a face image under this novel idea.

【0010】本発明に従えば、摂動法を用いた顔画像の
変形除去の過程で、画面に平行な軸回りの顔の回転によ
る変形要素を含む逆変換を顔画像を適用する操作を行
う。これにより、3次元的な顔の向きの違いによる変形
要素を除去することができる。例えば、顔画像を上又は
下側に偏って拡大又は縮小する変形要素(つまり、画面
に平行な鉛直軸回りの回転による変形要素)と、右又は
左側に偏って拡大又は縮小する変形要素(つまり、画面
に平行な水平軸回りの回転による変形要素)とを含んだ
逆変換操作を行うことにより、顔の上下向きの違いによ
る変形要素と、左右の向きの違いによる変形要素とを除
去することができる。
According to the present invention, in the process of removing the deformation of the face image using the perturbation method, an operation of applying the inverse transformation including the deformation element due to the rotation of the face about an axis parallel to the screen to the face image is performed. As a result, it is possible to remove a deformation element due to a three-dimensional difference in face direction. For example, a deformation element for enlarging or reducing the face image upward or downward (that is, a deformation element due to rotation about a vertical axis parallel to the screen) and a deformation element for enlarging or reducing right or left (i.e., , A transformation element due to the rotation of the face about the horizontal axis parallel to the screen) to remove the transformation element due to the difference in the vertical direction of the face and the transformation element due to the difference in the horizontal direction. Can be.

【0011】顔画像の変形を原因別の要素に分類する
と、(1)顔の位置ずれによるもの、(2)顔のカメラに
映り込む大きさの違いによるもの、(3)顔の向き(上
下左右向き)の違いによるもの、(4)顔の傾きの違い
によるもの、(5)表情の違いによるものに分類でき
る。そして、顔を例えば長方形の領域で切り出すものと
すると、(5)以外の顔画像の変形要素は、次のような
逆変換操作で除去することができる。(1)の場合は、
長方形領域の平行移動を考慮して、標準の位置から平行
移動させた長方形領域を切り出す。(2)の場合は、長
方形領域の拡大・縮小を考慮し、標準の大きさより拡大
・縮小させた長方形領域を切り出し、この長方形領域を
標準の大きさに変換する。(3)の場合は、長方形領域
の画面に平行な軸回りの回転を考慮し、遠近法に基づき
変形させた例えば台形の領域を切り出し、この台形領域
を長方形に変換する。(4)の場合は、長方形領域の画
面の垂直な軸回りの回転を考慮し、標準の方向から回転
させた長方形領域を切り出し、これを回転してない長方
形領域に変換する。実際の画像の変形は(1)〜(4)の変形
要素の合成と考えらることができる。そこで、好適な実
施形態では、(1)〜(4)の変形要素をそれぞれ除去する逆
変換の組み合わせを顔画像に施す。
The deformation of a face image can be classified into factors according to causes: (1) a difference in face position, (2) a difference in size of a face reflected on a camera, and (3) a face orientation (up and down). (4) due to differences in face inclination, and (5) due to differences in facial expressions. Then, assuming that the face is cut out, for example, in a rectangular area, deformation elements of the face image other than (5) can be removed by the following inverse transformation operation. In case (1),
Taking into account the parallel movement of the rectangular area, a rectangular area translated from the standard position is cut out. In the case of (2), taking into account the enlargement / reduction of the rectangular area, a rectangular area enlarged / reduced from the standard size is cut out, and this rectangular area is converted into the standard size. In the case of (3), taking into account the rotation of the rectangular area around an axis parallel to the screen, for example, a trapezoidal area deformed based on perspective is cut out, and this trapezoidal area is converted into a rectangle. In the case of (4), taking into account the rotation of the rectangular area around the vertical axis of the screen, a rectangular area rotated from a standard direction is cut out and converted into a non-rotated rectangular area. The actual deformation of the image can be considered as a combination of the deformation elements (1) to (4). Thus, in a preferred embodiment, a combination of inverse transforms for removing the deformed elements (1) to (4) is applied to the face image.

【0012】また、本発明に従えば、顔画像に対して異
なる変形を施す複数の逆変換操作をそれぞれ独立して行
ない、各逆変換よって得られたパターンを用いて識別を
行い、それら複数の識別結果に基づいて、(例えば最も
高い類似度を示した個人を選択するというようにして)
最終的な識別結果を決める。この方法によると、表情の
変化、特に撮影時に眼を閉じてしまうこと(これは、従
来技術での誤認識の主原因である)に起因する誤認識率
を低下させることができる。すなわち、予想される異な
る変形をそれぞれ除去して得た複数の顔パターンの中か
ら、参照パターンと肌の濃淡パターンが最も合うパター
ンを選択するため、眼を閉じるという局所的なパターン
の変化にあまり影響されずに認識できるからである。
Further, according to the present invention, a plurality of inverse transformation operations for applying different transformations to a face image are performed independently, identification is performed using a pattern obtained by each inverse transformation, and the plurality of inverse transformation operations are performed. Based on the result of the identification (for example, selecting the individual with the highest similarity)
Determine the final identification result. According to this method, it is possible to reduce an erroneous recognition rate caused by a change in facial expression, particularly, the fact that the eyes are closed at the time of photographing (this is the main cause of erroneous recognition in the related art). In other words, from among a plurality of face patterns obtained by removing different expected deformations, the pattern that best matches the reference pattern and the light and shade pattern of the skin is selected. This is because they can be recognized without being affected.

【0013】好適な実施形態では、上記(1)〜(4)の変形
要素を定義するアフィン変換のパラメータの組み合わせ
を、想定し得る変形の全バリエーション分だけ予め用意
しておき、それら多数のパラメータの組み合わせを用い
た逆変換を同時並行的に実行する。
In a preferred embodiment, a combination of affine transformation parameters that define the deformation elements (1) to (4) is prepared in advance for all possible variations of the deformation, and a large number of parameters are prepared. Are performed simultaneously and in parallel using the combination of.

【0014】本発明の手法は典型的にはコンピュータに
より実施することができるが、そのためのコンピュータ
プログラムは、ディスク型ストレージ、半導体メモリお
よび通信ネットワークなどの各種の媒体を通じてコンピ
ュータにインストールまたはロードすることができる。
本発明の認識方法の一部又は全部は、コンピュータを用
いずに専用ハードウェアによって実施することも可能で
ある。
Although the technique of the present invention can be typically implemented by a computer, a computer program for this can be installed or loaded into the computer through various media such as a disk storage, a semiconductor memory, and a communication network. it can.
Part or all of the recognition method of the present invention can be implemented by dedicated hardware without using a computer.

【0015】[0015]

【発明の実施の形態】図2は、本発明を一実施形態の全
体的な構成を示す。
FIG. 2 shows an overall configuration of an embodiment of the present invention.

【0016】図1において、外部装置1は例えばCCD
カメラであり、顔画像データを顔画像認識装置2に入力
する。顔画像認識装置2は、外部装置1から入力された
画像から顔パターンを切り出し、特徴を抽出し、個人の
識別を行うものである。顔認識で使用する顔画像は、文
字認識のような白黒2値画像ではなく、肌の濃淡を表現
した例えば256階調のグレースケール画像である。出
力装置3は、例えばCRT又はプリンタ等であり、識別
結果を表示する。
In FIG. 1, an external device 1 is, for example, a CCD.
It is a camera and inputs face image data to the face image recognition device 2. The face image recognition device 2 cuts out a face pattern from an image input from the external device 1, extracts features, and identifies an individual. The face image used in the face recognition is not a black and white binary image as in the case of character recognition but a gray scale image of, for example, 256 gradations expressing the shade of the skin. The output device 3 is, for example, a CRT or a printer, and displays the identification result.

【0017】顔画像認識装置2において、外部装置1か
らの画像データは画像読込部21に読み込まれ、前処理
部22に送られる。前処理部22では、本発明の教示に
したがって顔パターンが切り出され、正規化される。正
規化された顔パターンは特徴抽出部23に送られる。特
徴抽出部23では、顔パターンが、異なる人物の顔の遠
いを十分表現するとともに見え方の変動の影響ができる
だけ吸収されるような低次元の特徴ベクトルに次元圧縮
される。この特徴抽出の方法としては、例えば「M.Turk
and A.Pentland, "Eigenfaces for recognition", J.C
ognitive Neurosci, vol.3, no.1,pp.71‐86, March 1
991」に記載された技術を使うことができる。特徴抽出
部23で得られた特徴ベクトルは識別部24へ送られ
る。識別部24では、特徴記憶部25に保存されている
種々の人物の特徴ベクトルの各々と入力画像から得られ
た特徴ベクトルとが比較され、入力画像の個人が特定さ
れる。この識別の方法としては、例えば2つの特徴ベク
トルのなす角度か最小であるものを選択する択する方法
などが採用できる。
In the face image recognition device 2, image data from the external device 1 is read by the image reading unit 21 and sent to the preprocessing unit 22. In the preprocessing unit 22, a face pattern is cut out and normalized according to the teaching of the present invention. The normalized face pattern is sent to the feature extraction unit 23. In the feature extraction unit 23, the face pattern is dimensionally compressed into a low-dimensional feature vector that sufficiently expresses the distant face of a different person and absorbs the influence of a change in appearance as much as possible. As a method of this feature extraction, for example, “M.Turk
and A. Pentland, "Eigenfaces for recognition", JC
ognitive Neurosci, vol.3, no.1, pp.71-86, March 1
The technology described in "991" can be used. The feature vector obtained by the feature extraction unit 23 is sent to the identification unit 24. The identification unit 24 compares each of the feature vectors of various persons stored in the feature storage unit 25 with the feature vectors obtained from the input image, and specifies the individual of the input image. As a method of this identification, for example, a method of selecting a feature angle or the smallest one between two feature vectors can be adopted.

【0018】次に、顔画像認識装置2の具体的な処理を
流れを図3に沿って説明する。
Next, the specific processing of the face image recognition device 2 will be described with reference to FIG.

【0019】図3に示すように、最初に、顔を撮影した
グレースケール顔画像を入力する(入力処理30)。次
に、予想される全ての変形を考慮したアフィン変換に基
づく多数の変形パラメータを予め用意しておき、それら
の変形パラメータをそれぞれ用いて入力画像から顔パタ
ーンを切り出し、切り出した顔パターンを逆変換し、正
方形の正規化パターンにする(逆変換31)。次に、各
逆変換31で得た正規化された顔パターンから特徴ベク
トルを抽出し、予め用意した種々の個人の参照特徴ベク
トルと比較して類似度を計算し、識別結果(例えば、最
も類似度の高かった個人のIDとその類似度)を出力す
る(識別器33)。次に、各識別器33から出力される
類似度に、対応する各逆変換31で除去した変形の発生
頻度に基づく重み係数を乗算する(乗算35)。
As shown in FIG. 3, first, a grayscale face image of a face is input (input processing 30). Next, a large number of deformation parameters based on the affine transformation in consideration of all expected deformations are prepared in advance, and a face pattern is cut out from the input image using each of the deformation parameters, and the cut out face pattern is inversely transformed. Then, a square normalized pattern is obtained (inverse transformation 31). Next, a feature vector is extracted from the normalized face pattern obtained by each of the inverse transforms 31 and compared with reference feature vectors of various individuals prepared in advance to calculate a similarity. The ID of the individual having the highest degree and the similarity thereof are output (identifier 33). Next, the similarity output from each discriminator 33 is multiplied by a weight coefficient based on the frequency of occurrence of the deformation removed by the corresponding inverse transform 31 (multiplication 35).

【0020】乗算35の意義は次の通りである。すなわ
ち、予想される全ての変形が同じ頻度で実際に発生する
わけではなく、一般に、変形度合いの小さいもの(例え
ば、僅かに上向き、僅かに右に傾くなど)は発生頻度が
高いが、変形度合いの大きいもの(例えば、大きく上向
き、大きく右に傾くなど)の発生頻度は低い。よって、
変形度合いの大きい逆変換を顔画像に施すことによっ
て、かえって別人に近い顔に変形してしまい別人と誤識
別してしまう可能性は、変形度合いの小さい逆変換を行
う場合よりも高い。そこで、予想される全ての変形につ
いて、それぞれの変形パラメータと共にそれぞれの発生
頻度に基づいた重み係数(発生頻度が低いほど係数値が
小さい)を予め用意しておき、各識別器33から出力さ
れた最も類似した個人の類似度に、その前段の逆変換3
1で除去した変形の発生頻度に基づく重み係数を乗算す
ることにより、別人に誤識別している識別結果の影響を
減らして、最終的な認識精度を高めることができる。
The significance of the multiplication 35 is as follows. That is, not all expected deformations actually occur at the same frequency. Generally, a deformation having a small degree of deformation (for example, slightly upward or slightly tilting right) has a high frequency of occurrence, but has a high degree of deformation. (For example, large upwards, large inclination to the right, etc.) are low in occurrence frequency. Therefore,
By applying an inverse transformation with a large degree of deformation to a face image, the possibility that the face is transformed into a face close to another person and erroneously identified as another person is higher than in the case of performing an inverse transformation with a small degree of deformation. Therefore, for all the expected deformations, a weighting coefficient based on each occurrence frequency (a coefficient value is smaller as the occurrence frequency is lower) is prepared in advance together with each deformation parameter, and is output from each discriminator 33. The similarity of the most similar individual is calculated using the inverse transformation 3
By multiplying by the weight coefficient based on the frequency of occurrence of the deformation removed in step 1, the influence of the identification result erroneously identified by another person can be reduced, and the final recognition accuracy can be improved.

【0021】上記の各変形毎の逆変換31と識別33と
乗算35は、図示のように同時並行的に実行する。な
お、図中の中央部に示すように、変形が無い場合を想定
して逆変換を行わないルーチンも同時に行う。
The inverse transformation 31, the identification 33, and the multiplication 35 for each of the above-described modifications are performed simultaneously and in parallel as shown in the figure. Note that, as shown in the center of the figure, a routine that does not perform inverse conversion is also performed at the same time assuming that there is no deformation.

【0022】最後に、これらの識別結果を集めて、総合
的な結果として特定の個人か、そうでないかを決定する
(結合37)。ここでの決定方法には様々なバリエーシ
ョンが考えられる。例えば、上述した複数の乗算器35
から集めた識別結果の中から最も高い類似度を示した個
人を選ぶ方法、或いは、複数の乗算器35から集めた識
別結果の多数決により、最も多数の識別結果に現われた
個人を選ぶ方法、或いは、これも多数決の一種であろう
が、複数の乗算器35から集めた識別結果に含まれる類
似度を各個人別に集計し、集計した類似度が最も高かっ
た個人を選び、一方、所定値以上の類似度を得た個人が
一人もいなければ該当者無しとする方法などが考えられ
る。尚、乗算35を省略して、乗算35で用いた重み係
数を結合37で考慮に入れるようにしてもよい。
Finally, these identification results are collected to determine whether the result is a specific individual or not as an overall result (combination 37). Various variations are conceivable for the determination method here. For example, the plurality of multipliers 35 described above
From the identification results collected from the plurality of multipliers 35, or a method of selecting the individual who appeared in the largest number of identification results by majority decision of the identification results collected from the plurality of multipliers 35, or Although this is also a kind of majority decision, the similarities included in the identification results collected from the plurality of multipliers 35 are totaled for each individual, and the individual with the highest total similarity is selected, while the predetermined value or more is selected. If there is no individual who has obtained the similarity of, there is a method of determining that there is no corresponding person. Note that the multiplication 35 may be omitted, and the weight coefficient used in the multiplication 35 may be taken into account in the combination 37.

【0023】なお、図3の処理ステップを図2の構成と
対応させると、入力処理30は図2の画像読込部21
に、逆変換31は図2の前処理部22に、識別33と乗
算35と結合37は図2の特徴抽出部23と識別部24
に対応する。
When the processing steps of FIG. 3 correspond to the configuration of FIG. 2, the input processing 30 is performed by the image reading unit 21 of FIG.
The inverse transform 31 is provided to the pre-processing unit 22 shown in FIG.
Corresponding to

【0024】次に、前処理部22が行う逆変換31につ
いて具体的に説明する。
Next, the inverse transformation 31 performed by the preprocessing unit 22 will be specifically described.

【0025】顔画像の変形を原因別に要素に分解する
と、(1)顔の位置ずれによるもの、(2)顔のカメラに
映り込む大きさの違いによるもの、(3)顔の向き(上
下左右向き)の違いによるもの、(4)顔の傾きの違い
によるもの、(5)表情の違いによるものに分解でき
る。いま、入力画像から顔を長方形の領域で切り出そう
とした場合、(5)以外の顔画像の変形要素は以下の方
法によって取り除くことができる。すなわち、(1)の
場合は、長方形領域の平行移動を考慮して、標準位置か
ら平行移動させた長方形領域を切り出す。(2)の場合
は、長方形領域の拡大・縮小を考慮し、標準の大きさよ
り拡大・縮小させた長方形領域を切り出し、この長方形
領域を標準の大きさに変換する。(3)の場合は、長方
形領域の画面に平行な軸回りの回転を考量して、遠近法
に基づき変形させた例えば台形領域を切り出し、この台
形領域を長方形に変換する。(4)の場合は、長方形領
域の画面に垂直な軸回りの回転を考慮し、標準の方向か
ら回転させた長方形領域を切り出し、これを回転してな
い長方形領域に変換する。
When the deformation of the face image is decomposed into elements according to the causes, (1) the face displacement, (2) the difference in the size of the face reflected on the camera, (3) the face orientation (up, down, left, right) Orientation), (4) differences in facial inclination, and (5) differences in facial expressions. Now, when trying to cut out the face from the input image in a rectangular area, the deformation elements of the face image other than (5) can be removed by the following method. That is, in the case of (1), taking into account the parallel movement of the rectangular area, the rectangular area translated from the standard position is cut out. In the case of (2), taking into account the enlargement / reduction of the rectangular area, a rectangular area enlarged / reduced from the standard size is cut out, and this rectangular area is converted into the standard size. In the case of (3), taking into account the rotation of the rectangular area around the axis parallel to the screen, for example, a trapezoidal area deformed based on perspective is cut out, and this trapezoidal area is converted into a rectangle. In the case of (4), taking into account the rotation of the rectangular area around the axis perpendicular to the screen, a rectangular area rotated from a standard direction is cut out and converted into a non-rotated rectangular area.

【0026】図4は、この原理をより具体的に示してい
る。図4左側に示すパターン41は、変形の無い正方形
領域として切り出せる標準の顔パターンである。図4右
側の(a)に示す変形パターン51A、51Bは、顔の左
右への傾きを考慮したものであり、標準パターン41に
対して画面に垂直な軸(z軸)周りに所定角度だけ回転
している。(b)の変形パターン53A,53Bは、顔の
映り込みの大きさを考慮したもので、標準パターンに対
して横方向又は縦方向に拡大又は縮小されている。(c)
の変形パターン55A、55Bは顔の左右への回転(右
向き、左向き)を考慮したもので、標準パターン41に
対して、これを画面に平行な鉛直軸(y軸)回りに回転
させたときの変形、つまり、右側又は左側へ偏った縮小
又は拡大を施したものである。(d)の変形パターン57
A、57Bは顔の上下方向の回転(上向き、下向き)を
考慮したもので、標準パターン41に対して、これを画
面に平行な水平軸(x軸)回りに回転させたときの変
形、つまり、上側又は下側へ偏った縮小又は拡大を施し
たものである。また、図4には示してないが、顔の位置
ずれを考慮した変形パターンは、標準パターン41を上
下左右(y、x方向)に平行移動させたものである。
FIG. 4 shows this principle more specifically. The pattern 41 shown on the left side of FIG. 4 is a standard face pattern that can be cut out as a square area without deformation. The deformed patterns 51A and 51B shown in (a) on the right side of FIG. 4 take into account the inclination of the face to the left and right, and rotate by a predetermined angle around the axis (z axis) perpendicular to the screen with respect to the standard pattern 41. are doing. The deformation patterns 53A and 53B in (b) take into account the size of the reflection of the face, and are enlarged or reduced in the horizontal or vertical direction with respect to the standard pattern. (c)
The deformation patterns 55A and 55B take into account the rotation of the face to the left and right (to the right and to the left). Deformation, that is, reduction or enlargement biased rightward or leftward. (d) deformation pattern 57
A and 57B consider the vertical rotation (upward and downward) of the face, and the deformation when the standard pattern 41 is rotated around a horizontal axis (x-axis) parallel to the screen, that is, , Or a reduction or enlargement biased upward or downward. Although not shown in FIG. 4, the deformed pattern in consideration of the face misalignment is obtained by translating the standard pattern 41 in the vertical and horizontal directions (y and x directions).

【0027】このような変形要素別の変形パターンは、
アフィン変換のパラメータを用いて定義することができ
る。実際の画像の変形は上述した(1)〜(4)の変形要素の
合成である。そこで、図4に示した(a)〜(d)(及び図示
省略した位置ずれ)の変形要素のパターンを合成したア
フィン変換のパラメータのセットを、想定される変形の
全てバリエーション分だけ用意する。例えば、x、y、
z軸回りの回転角度をα、β、γとし、x、y、z軸方
向の平行移動量をx、y、zとし、縦横の比率をrとす
るならば、α、β、γ、x、y、z、rの各パラメータ
について変動範囲を設定し、その変動範囲内で各パラメ
ータを少しづつ変化させることによって、予想される全
ての変形バリエーションにそれぞれ対応した多数のパラ
メータセット{α、β、γ、x、y、z、r}を用意す
る。そして、図3に示したように、それら多数のパラメ
ータセットの各々を用いた多数の逆変換31を同時並行
的に実施することで、予想される全ての変形の各々を除
去した多数の正規化された顔パターンを求める。そし
て、それらの正規化パターンの各々を、各識別器33に
て、種々の人物のパターンと比較して類似度を計算す
る。最後に、それら多数の識別結果を集め、その中で例
えば最大の類似度を得た人物を最終的な識別結果として
選択する。
Such a deformation pattern for each deformation element is as follows:
It can be defined using affine transformation parameters. The actual deformation of the image is a combination of the deformation elements (1) to (4) described above. Therefore, a set of affine transformation parameters obtained by synthesizing the patterns of the deformation elements (a) to (d) shown in FIG. For example, x, y,
If the rotation angles around the z-axis are α, β, γ, the amounts of parallel movement in the x, y, and z-axis directions are x, y, z, and the length-to-width ratio is r, α, β, γ, x , Y, z, and r, a variable range is set, and each parameter is gradually changed within the variable range, so that a large number of parameter sets {α, β respectively corresponding to all expected deformation variations. , Γ, x, y, z, r} are prepared. Then, as shown in FIG. 3, by performing a number of inverse transformations 31 using each of the number of parameter sets simultaneously and in parallel, a number of normalizations removing each of the expected deformations are performed. For the completed face pattern. Then, each of the normalized patterns is compared with the pattern of various persons by each discriminator 33 to calculate the similarity. Finally, a large number of the identification results are collected, and a person who obtains, for example, the highest similarity is selected as a final identification result.

【0028】以上の方法により、顔の向き傾き、及び表
情(特に眼の開閉)による微妙なパターンの変化に左右
されることなく一定の顔パターンを切り出せるため、認
識精度を向上させることができる。
According to the above method, a constant face pattern can be cut out without being influenced by subtle changes in the pattern due to the direction and inclination of the face and the expression (particularly the opening and closing of the eyes), so that the recognition accuracy can be improved. .

【0029】以上、本発明の一実施形態を説明したが、
この実施形態はあくまで本発明の説明のための例示であ
り、本発明をこれら実施形態にのみ限定する趣旨ではな
い。従って、本発明は、上記実施形態以外の様々な形態
でも実施することができる。
The embodiment of the present invention has been described above.
This embodiment is merely an example for explaining the present invention, and is not intended to limit the present invention to only these embodiments. Therefore, the present invention can be implemented in various modes other than the above-described embodiment.

【図面の簡単な説明】[Brief description of the drawings]

【図1】顔認識の一般的流れを示すフローチャート。FIG. 1 is a flowchart showing a general flow of face recognition.

【図2】本発明の一実施形態の構成を示すブロック図。FIG. 2 is a block diagram showing the configuration of an embodiment of the present invention.

【図3】顔画像認識装置の処理流れを示したフローチャ
ート。
FIG. 3 is a flowchart illustrating a processing flow of the face image recognition device.

【図4】顔パターンの変形を除去する原理を説明するた
めの説明図。
FIG. 4 is an explanatory diagram for explaining a principle of removing deformation of a face pattern.

【符号の説明】[Explanation of symbols]

1 外部装置 2 顔画像認識装置 3 出力装置 21 画像読込部 22 前処理部 23 特徴抽出部 24 識別部 25 特徴記憶部 30 入力 31 逆変換 33 識別器 DESCRIPTION OF SYMBOLS 1 External device 2 Face image recognition device 3 Output device 21 Image reading part 22 Preprocessing part 23 Feature extraction part 24 Identification part 25 Feature storage part 30 Input 31 Inverse transformation 33 Classifier

───────────────────────────────────────────────────── フロントページの続き (72)発明者 坂野 鋭 東京都江東区豊洲三丁目3番3号 株式会 社エヌ・ティ・ティ・データ内 Fターム(参考) 5B043 AA09 BA04 CA01 EA05 EA12 EA13 EA15 GA02 5B064 AA10 CA05 CA07 CA11 DA10 EA30  ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Akira Sakano 3-3-3 Toyosu, Koto-ku, Tokyo F-term in NTT Data Corporation (reference) 5B043 AA09 BA04 CA01 EA05 EA12 EA13 EA15 GA02 5B064 AA10 CA05 CA07 CA11 DA10 EA30

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 それぞれ同じ顔画像を入力し、この顔画
像に対しそれぞれ異なる変形を除去するための逆変換を
施して正規化された顔パターンを出力する、互いに独立
して動作可能な複数の逆変換部と、 前記複数の逆変換部の各々から出力された正規化された
各顔パターンを入力し、各顔パターンを予め用意された
複数の人物の参照パターンと比較して類似度を計算する
識別部と、 前記複数の逆変換部からの顔パターンについての前記識
別部による識別結果を集め、それらの識別結果に基づい
て前記顔画像に対応する人物を特定する結合部とを備
え、 前記各逆変換部が除去しようとする変形は、複数種類の
変形要素の組み合わせからなり、前記複数種類の変形要
素には、画面に平行な軸回りの顔の回転による変形要素
が含まれている顔認識装置。
A plurality of operable independently of each other, each of which receives the same face image and outputs a normalized face pattern by performing inverse transformation for removing different deformations on the face image. An inverse transform unit, and inputs the normalized face patterns output from each of the plurality of inverse transform units, and calculates the similarity by comparing each face pattern with a reference pattern of a plurality of persons prepared in advance. An identification unit, and a combining unit that collects identification results of the face patterns from the plurality of inverse conversion units by the identification unit, and specifies a person corresponding to the face image based on the identification results, The transformation that each inverse transform unit intends to remove is composed of a combination of a plurality of kinds of transformation elements, and the plurality of kinds of transformation elements include a transformation element due to rotation of the face around an axis parallel to the screen. Recognition equipment Place.
【請求項2】 複数種類の変形要素には、さらに、顔の
位置ずれ、傾きの違い、及びカメラに映り込む大きさの
違いによる変形要素が含まれている請求項1記載の顔認
識装置。
2. The face recognition device according to claim 1, wherein the plurality of types of deformation elements further include a deformation element due to a position shift, a difference in inclination of the face, and a difference in size reflected on a camera.
【請求項3】 前記画面に平行な軸回りの顔の回転によ
る変形要素には、画面に平行な鉛直軸回りの変形要素
と、画面に平行な水平軸回りの変形要素が含まれている
請求項1記載の顔認識装置。
3. The deformation element due to the rotation of the face about an axis parallel to the screen includes a deformation element about a vertical axis parallel to the screen and a deformation element about a horizontal axis parallel to the screen. Item 3. The face recognition device according to item 1.
【請求項4】 前記各逆変換部は、前記複数の変形要素
の組み合わせに対応したアフィン変換のパラメータのセ
ットであってそれぞれ異なるパラメータセットを有し、
このパラメータセットを用いて前記顔画像から変形した
顔パターンを切り出して逆変換を行う請求項1記載の顔
認識装置。
4. Each of the inverse transform units has a set of affine transformation parameters corresponding to a combination of the plurality of deformation elements, each having a different parameter set,
2. The face recognition apparatus according to claim 1, wherein a deformed face pattern is cut out from the face image using the parameter set and inverse transformation is performed.
【請求項5】 前記複数の逆変換部は、同時並行的に動
作する請求項1記載の顔認識装置。
5. The face recognition device according to claim 1, wherein the plurality of inverse transform units operate simultaneously and in parallel.
【請求項6】 前記複数の逆変換部にそれぞれ対応した
複数の前記識別部を備え、それらの識別部は同時並行的
に動作する請求項5記載の顔認識装置。
6. The face recognition apparatus according to claim 5, further comprising a plurality of identification units respectively corresponding to the plurality of inverse conversion units, wherein the identification units operate simultaneously and in parallel.
【請求項7】 前記結合部は、前記集めた識別結果に基
づいて、最も高い類似度を得た人物を特定する請求項1
記載の顔認識装置。
7. The combination unit according to claim 1, wherein a person having the highest similarity is specified based on the collected identification results.
The face recognition device according to the above.
【請求項8】 前記結合部は、前記集めた識別結果に基
づいて、多数決の方法で人物を特定する請求項1記載の
顔認識装置。
8. The face recognition apparatus according to claim 1, wherein the combining unit specifies a person by a majority decision method based on the collected identification results.
【請求項9】 前記識別部が、各逆変換部が除去しよう
とする変形について予め用意した発生頻度に基づく重み
係数を用いて、各逆変換部からの正規化された顔パター
ンに関して計算した類似度を修正する請求項1記載の顔
認識装置。
9. The similarity calculated for the normalized face pattern from each of the inverse transform units by using a weighting factor based on the occurrence frequency prepared in advance for the deformation to be removed by each of the inverse transform units. The face recognition device according to claim 1, wherein the degree is corrected.
【請求項10】 それぞれ同じ顔画像を入力し、この顔
画像に対しそれぞれ異なる変形を除去するための逆変換
を施して正規化された顔パターンを出力する、互いに独
立して行われる複数の逆変換ステップと、 前記複数の逆変換ステップの各々から出力された正規化
された各顔パターンを入力し、各顔パターンを予め用意
された複数の人物の参照パターンと比較して類似度を計
算する識別ステップと、 前記複数の逆変換ステップからの顔パターンについての
前記識別ステップによる識別結果を集め、それらの識別
結果に基づいて前記顔画像に対応する人物を特定する結
合ステップとを有し、 前記各逆変換ステップで除去しようとする変形は、複数
種類の変形要素の組み合わせからなり、前記複数種類の
変形要素には、画面に平行な軸回りの顔の回転による変
形要素が含まれている顔認識方法。
10. A plurality of independent face images each of which receives the same face image and outputs a normalized face pattern by subjecting the face image to inverse transformation for removing different deformations. A conversion step, and inputting each of the normalized face patterns output from each of the plurality of inverse conversion steps, and comparing each face pattern with a reference pattern of a plurality of persons prepared in advance to calculate a similarity. An identification step, and a combination step of collecting identification results of the identification step for the face pattern from the plurality of inverse transformation steps and identifying a person corresponding to the face image based on the identification results, The deformation to be removed in each inverse transformation step consists of a combination of a plurality of types of deformation elements, and the plurality of types of deformation elements include a face around an axis parallel to the screen. A face recognition method that includes a deformation element due to the rotation of.
【請求項11】 複数種類の変形要素には、さらに、顔
の位置ずれ、傾きの違い、及びカメラに映り込む大きさ
の違いによる変形要素が含まれている請求項10記載の
顔認識方法。
11. The face recognition method according to claim 10, wherein the plurality of types of deformation elements further include a deformation element due to a positional shift of the face, a difference in inclination, and a difference in size reflected on a camera.
【請求項12】 前記複数の逆変換ステップは、同時並
行的に行われる請求項10記載の顔認識方法。
12. The face recognition method according to claim 10, wherein the plurality of inverse transformation steps are performed simultaneously and in parallel.
【請求項13】 それぞれ同じ顔画像を入力し、この顔
画像に対しそれぞれ異なる変形を除去するための逆変換
を施して正規化された顔パターンを出力する、互いに独
立して行われる複数の逆変換ステップと、 前記複数の逆変換ステップの各々から出力された正規化
された各顔パターンを入力し、各顔パターンを予め用意
された複数の人物の参照パターンと比較して類似度を計
算する識別ステップと、 前記複数の逆変換ステップからの顔パターンについての
前記識別ステップによる識別結果を集め、それらの識別
結果に基づいて前記顔画像に対応する人物を特定する結
合ステップとを有し、 前記各逆変換ステップで除去しようとする変形は、複数
種類の変形要素の組み合わせからなり、前記複数種類の
変形要素には、画面に平行な軸回りの顔の回転による変
形要素が含まれている顔認識方法を、コンピュータに実
行させるためのプログラムを担持したコンピュータ読み
取り可能な記録媒体。
13. A plurality of independent face images each of which receives the same face image and outputs a normalized face pattern by subjecting the face image to inverse transformation for removing different deformations. A conversion step, and inputting each of the normalized face patterns output from each of the plurality of inverse conversion steps, and comparing each face pattern with a reference pattern of a plurality of persons prepared in advance to calculate a similarity. An identification step, and a combination step of collecting identification results of the identification step for the face pattern from the plurality of inverse transformation steps and identifying a person corresponding to the face image based on the identification results, The deformation to be removed in each inverse transformation step consists of a combination of a plurality of types of deformation elements, and the plurality of types of deformation elements include a face around an axis parallel to the screen. A computer-readable recording medium carrying a program for causing a computer to execute a face recognition method including a deformation element due to rotation of a computer.
JP10261311A 1998-09-16 1998-09-16 Device and method for face recognition Pending JP2000090191A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10261311A JP2000090191A (en) 1998-09-16 1998-09-16 Device and method for face recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10261311A JP2000090191A (en) 1998-09-16 1998-09-16 Device and method for face recognition

Publications (1)

Publication Number Publication Date
JP2000090191A true JP2000090191A (en) 2000-03-31

Family

ID=17360039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10261311A Pending JP2000090191A (en) 1998-09-16 1998-09-16 Device and method for face recognition

Country Status (1)

Country Link
JP (1) JP2000090191A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100745981B1 (en) 2006-01-13 2007-08-06 삼성전자주식회사 Method and apparatus scalable face recognition based on complementary features
CN100440246C (en) * 2006-04-13 2008-12-03 北京中星微电子有限公司 Positioning method for human face characteristic point
JP2011022994A (en) * 2009-06-16 2011-02-03 Canon Inc Pattern processing device, method therefor, and program
US7986808B2 (en) 2004-09-30 2011-07-26 Canon Kabushiki Kaisha Image-capturing device, image-processing device, method for controlling image-capturing device, and program for causing computer to execute the method
US8072612B2 (en) 2006-12-22 2011-12-06 Canon Kabushiki Kaisha Method and apparatus for detecting a feature of an input pattern using a plurality of feature detectors, each of which corresponds to a respective specific variation type and outputs a higher value when variation received by the input pattern roughly matches the respective specific variation type
US9092662B2 (en) 2009-12-24 2015-07-28 Canon Kabushiki Kaisha Pattern recognition method and pattern recognition apparatus
JP2017049676A (en) * 2015-08-31 2017-03-09 セコム株式会社 Posture discrimination device and object detection device
CN107292275A (en) * 2017-06-28 2017-10-24 北京飞搜科技有限公司 Face characteristic recognition methods and system that a kind of frequency domain is divided
US10628947B2 (en) 2016-11-22 2020-04-21 Samsung Electronics Co., Ltd. Method and apparatus for tracking eyes of user and method of generating inverse-transform image

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7986808B2 (en) 2004-09-30 2011-07-26 Canon Kabushiki Kaisha Image-capturing device, image-processing device, method for controlling image-capturing device, and program for causing computer to execute the method
KR100745981B1 (en) 2006-01-13 2007-08-06 삼성전자주식회사 Method and apparatus scalable face recognition based on complementary features
CN100440246C (en) * 2006-04-13 2008-12-03 北京中星微电子有限公司 Positioning method for human face characteristic point
US8072612B2 (en) 2006-12-22 2011-12-06 Canon Kabushiki Kaisha Method and apparatus for detecting a feature of an input pattern using a plurality of feature detectors, each of which corresponds to a respective specific variation type and outputs a higher value when variation received by the input pattern roughly matches the respective specific variation type
JP2011022994A (en) * 2009-06-16 2011-02-03 Canon Inc Pattern processing device, method therefor, and program
US9117111B2 (en) 2009-06-16 2015-08-25 Canon Kabushiki Kaisha Pattern processing apparatus and method, and program
US9092662B2 (en) 2009-12-24 2015-07-28 Canon Kabushiki Kaisha Pattern recognition method and pattern recognition apparatus
JP2017049676A (en) * 2015-08-31 2017-03-09 セコム株式会社 Posture discrimination device and object detection device
US10628947B2 (en) 2016-11-22 2020-04-21 Samsung Electronics Co., Ltd. Method and apparatus for tracking eyes of user and method of generating inverse-transform image
US11417003B2 (en) 2016-11-22 2022-08-16 Samsung Electronics Co., Ltd. Method and apparatus for tracking eyes of user and method of generating inverse-transform image
CN107292275A (en) * 2017-06-28 2017-10-24 北京飞搜科技有限公司 Face characteristic recognition methods and system that a kind of frequency domain is divided
CN107292275B (en) * 2017-06-28 2020-04-10 北京飞搜科技有限公司 Frequency domain division human face feature recognition method and system

Similar Documents

Publication Publication Date Title
US7058209B2 (en) Method and computer program product for locating facial features
US6430307B1 (en) Feature extraction system and face image recognition system
US5642431A (en) Network-based system and method for detection of faces and the like
JP5121506B2 (en) Image processing apparatus, image processing method, program, and storage medium
US7593551B2 (en) Face meta-data generation and face similarity calculation
US8184914B2 (en) Method and system of person identification by facial image
US7430315B2 (en) Face recognition system
US6681032B2 (en) Real-time facial recognition and verification system
US7092554B2 (en) Method for detecting eye and mouth positions in a digital image
US8401250B2 (en) Detecting objects of interest in still images
US7672482B2 (en) Shape detection using coherent appearance modeling
US6628811B1 (en) Method and apparatus for recognizing image pattern, method and apparatus for judging identity of image patterns, recording medium for recording the pattern recognizing method and recording medium for recording the pattern identity judging method
US20080279424A1 (en) Method of Identifying Faces from Face Images and Corresponding Device and Computer Program
US20030059124A1 (en) Real-time facial recognition and verification system
US20050169520A1 (en) Detecting human faces and detecting red eyes
US20030113002A1 (en) Identification of people using video and audio eigen features
US7224835B2 (en) Three-dimensional object recognizing apparatus, method and computer program product
JP2008102611A (en) Image processor
JP2000090191A (en) Device and method for face recognition
JP2001250121A (en) Image recognition device and recording medium
JP4816874B2 (en) Parameter learning apparatus, parameter learning method, and program
JP2003168113A (en) System, method and program of image recognition
JP2003216935A (en) Face extracting device and method, and storage medium with those stored therein
JP2007025899A (en) Image processor and image processing method
Lv et al. Real-time face detection based on skin-color model and morphology filters