JP2000194849A - Individual identification device - Google Patents

Individual identification device

Info

Publication number
JP2000194849A
JP2000194849A JP10373805A JP37380598A JP2000194849A JP 2000194849 A JP2000194849 A JP 2000194849A JP 10373805 A JP10373805 A JP 10373805A JP 37380598 A JP37380598 A JP 37380598A JP 2000194849 A JP2000194849 A JP 2000194849A
Authority
JP
Japan
Prior art keywords
face image
face
unit
compressed
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP10373805A
Other languages
Japanese (ja)
Inventor
Taro Watanabe
太郎 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP10373805A priority Critical patent/JP2000194849A/en
Publication of JP2000194849A publication Critical patent/JP2000194849A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an individual identification device high in robustness to the change of the direction and expression of a face and capable of enhancing an identification ratio. SOLUTION: This device is provided with an affine transformation part 230 for detecting the positions of eyes and a mouth from the face area of an input image and then affine-transforming the positions of the eyes and the mouth so as to bring them to preset positions, a sample set 250 composed by registering the samples of a face image vector to be the reference of respective persons beforehand, a nonlinear main component analysis part 240 for performing the dimensional compression of the face image vector based on the learning of 5-layer perceptron using the sample set and outputting a compressed face image vector, a reference face image database part 260 for registering a set transformed to the compressed face image vector dimensionally compressed by using 3-layer perceptron in the nonlinear main component analysis part and a face image identification part 270 for outputting an identified result at the time of inputting the compressed face image vector to be identified based on the learning using the compressed face image vector included in the reference face image database part consisting of the three-layer perceptron.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、顔画像を用いて個
人の識別を行う個人識別装置に関し、特に、コンピュー
タヘの自動ログインなどへの利用に適用可能なものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a personal identification device for identifying an individual using a face image, and more particularly, to a personal identification device applicable to automatic login to a computer.

【0002】[0002]

【従来の技術】インターネットの普及によりコンピュー
タが情報端末として用いられるようになり、キーボード
操作に不慣れな人も扱うように成ってきている。したが
って、コンピュータと人間とのより自然なインターフェ
イスの必要性が増大しており、人間と人間とのインター
フェイスをモデルとしたマンマシンインターフェイスの
研究が行われている。
2. Description of the Related Art With the spread of the Internet, computers have been used as information terminals, and people who are unfamiliar with keyboard operations have been treated. Therefore, the need for a more natural interface between a computer and a human has been increasing, and research on a man-machine interface modeled on the interface between a human and a human has been conducted.

【0003】図5は従来例に係る個人識別装置の構成を
示すブロック図である。図5に示す個人識別装置は、ビ
デオカメラなどで顔を含んだ画像を取り込む画像入力部
100、画像入力部100で取り込まれた顔画像に対し
て、大きさ、傾き、明るさなどのパラメータを一定にす
る正規化部110、正規化された多数の顔画像に対して
主成分分析を行って次元圧縮による特徴抽出を行いその
基底を求める主成分分析部120、正規化部110で正
規化された顔画像を主成分分析部120で求めた基底を
用いてベクトルで表現するKL(Karhunen-Loeve)変換
部130、あらかじめ識別したい人物の基準となる顔画
像ベクトルを登録しておくデータべースとしての基準顔
画像辞書部140、及び基準顔画像辞書部140に登録
されているベクトルの中からKL変換部130で求めた
顔画像ベクトルと最も距離の短いベクトルを検出してそ
のベクトルの人物を識別結果とする最小距離判別部15
0を備えている。
FIG. 5 is a block diagram showing a configuration of a personal identification device according to a conventional example. The personal identification device illustrated in FIG. 5 includes an image input unit 100 that captures an image including a face by a video camera or the like, and parameters such as size, inclination, and brightness for the face image captured by the image input unit 100. A normalization unit 110 for making constant, a principal component analysis for a large number of normalized face images, a feature extraction by dimensional compression to obtain a base, and a principal component analysis unit 120 for obtaining a basis thereof. (Karhunen-Loeve) conversion unit 130 that expresses the face image as a vector using the basis obtained by the principal component analysis unit 120, and a database in which a face image vector serving as a reference of a person to be identified in advance is registered. From the reference face image dictionary 140 as a reference and the vectors registered in the reference face image dictionary 140, the vector having the shortest distance from the face image vector obtained by the KL conversion unit 130 is detected. Minimum distance discriminating section 15, the identification result of a person of that vector with
0 is provided.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上述し
た構成の従来の個人識別装置において、主成分分析部1
20による処理には、表情・顔の向きなどの変化のある
画像に対して、線形処理による次元圧縮のために特徴抽
出に限界があり、したがって、識別率が低下するという
問題点があった。
However, in the conventional personal identification device having the above-described configuration, the principal component analyzing section 1
The processing by the method 20 has a problem that the feature extraction is limited due to the dimensional compression by the linear processing with respect to the image having the change of the expression, the direction of the face, and the like, so that the recognition rate is reduced.

【0005】そこで、本発明は上述した従来例に係る問
題点を解消するためになされたもので、顔の向きや表情
の変化に対するロバスト性が大きく識別率を向上させる
ことができる個人識別装置を提供することを目的とする
ものである。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems of the prior art, and has a personal identification device which has high robustness to changes in the face direction and facial expressions and can improve the identification rate. It is intended to provide.

【0006】[0006]

【課題を解決するための手段】前記目的を達成するため
に、本発明に係る個人識別装置は、顔画像を含む画像を
入力するための画像入力手段と、前記画像入力手段によ
り入力された画像から標準的な顔画像とのテンプレート
マッチングにより顔領域を抽出する顔領域抽出手段と、
前記顔領域抽出部で抽出された顔領域から目、口の位置
を検出する目、口検出手段と、前記目、口検出手段で検
出された目、口の位置をあらかじめ設定した位置に来る
ようにアフィン変換を行い、アフィン変換後の画像デー
タより画素数と等しい次元を持つ顔画像ベクトルを構成
するアフィン変換手段と、各人物の基準とする顔画像か
ら作成した顔画像ベクトルの標本をあらかじめ登録して
ある標本集合と、5層パーセプトロンの恒等写像器で構
成され、前記標本集合を用いた5層パーセプトロンの学
習に基づいて前記アフィン変換部からの顔画像ベクトル
の次元圧縮を行い圧縮顔画像ベクトルを出力する非線型
主成分分析手段と、前記標本集合に含まれる顔画像ベク
トルを前記非線型主成分分析手段の3層パーセプトロン
を用いて次元圧縮した圧縮顔画像ベクトルに変換した集
合を登録する基準顔画像データベース部と、前記3層パ
ーセプトロンで構成され、前記基準顔画像データベース
部に含まれる圧縮顔画像ベクトルを用いた学習に基づい
て前記非線型主成分分析手段からの識別したい圧縮顔画
像ベクトルを入力したときの識別結果を出力する顔画像
識別手段とを、有するものである。
In order to achieve the above object, a personal identification device according to the present invention comprises an image input means for inputting an image including a face image, and an image input by the image input means. A face area extracting means for extracting a face area by template matching with a standard face image from
The eyes and mouth detecting means for detecting the position of the eyes and the mouth from the face area extracted by the face area extracting unit, and the positions of the eyes and the mouth detected by the eyes and the mouth detecting means are set to the preset positions. Affine transformation means, and affine transformation means for constructing a face image vector having a dimension equal to the number of pixels from the affine transformed image data, and a sample of a face image vector created from a face image used as a reference for each person are registered in advance. A compressed face image comprising a sample set and a five-layer perceptron identity mapper, performing dimension compression of the face image vector from the affine transformation unit based on learning of the five-layer perceptron using the sample set. Non-linear principal component analysis means for outputting a vector, and dimensional compression of a face image vector included in the sample set using the three-layer perceptron of the non-linear principal component analysis means A reference face image database unit for registering a set converted into the compressed face image vector, and the three-layer perceptron, and the nonlinear face based on learning using a compressed face image vector included in the reference face image database unit. Face image identification means for outputting an identification result when a compressed face image vector to be identified is input from the principal component analysis means.

【0007】[0007]

【発明の実施の形態】図1は本発明の実施の形態に係る
個人識別装置の構成を示すブロック図である。図示構成
の個人識別装置は、ビデオカメラなどから顔画像を含む
入力画像を取り込む画像入力部200、画像入力部20
0でビデオカメラなどから取り込まれた顔画像から標準
顔画像とのテンプレートマッチングにより顔領域を抽出
する顔領域抽出部210、顔領域抽出部210で抽出さ
れた顔領域における輪郭抽出、2値化処理などにより目
と口の中心位置を検出する目、口検出部220、目、口
検出部220で検出された目、口の中心位置があらかじ
め設定した位置に来るように顔画像にアフィン変換を行
い、アフィン変換後の画像データより画素数と等しい次
元を持つ顔画像ベクトルを構成するアフィン変換部23
0、5層パーセプトロンからなる恒等写像器で構成さ
れ、標本集合250を用いた5層パーセプトロンの学習
に基づいてアフィン変換部230からの顔画像ベクトル
の次元圧縮を行い圧縮顔画像ベクトルを出力する非線型
主成分分析部240、各人物の基準とする顔画像から作
成した顔画像ベクトルの標本をあらかじめ登録してある
標本集合250、標本集合250に含まれる顔画像ベク
トルを非線型主成分分析部240の3層パーセプトロン
を用いて次元圧縮した圧縮顔画像ベクトルに変換した集
合を登録する基準顔画像データベース部260、及び3
層パーセプトロンで構成され、基準顔画像データベース
部に含まれる圧縮顔画像ベクトルを用いた学習に基づい
て識別したい非線型主成分分析部240からの圧縮顔画
像ベクトルを入力したときの識別結果を出力する顔画像
識別部270を備えている。
FIG. 1 is a block diagram showing a configuration of a personal identification device according to an embodiment of the present invention. The personal identification device having the illustrated configuration includes an image input unit 200 and an image input unit 20 that capture an input image including a face image from a video camera or the like.
0, a face area extraction unit 210 that extracts a face area from a face image captured from a video camera or the like by template matching with a standard face image, contour extraction in the face area extracted by the face area extraction unit 210, and binarization processing The affine transformation is performed on the face image such that the center position of the eye and the mouth is detected by the eye, the mouth detection unit 220, the eye, the eye detected by the mouth detection unit 220, and the center position of the mouth come to a preset position. , An affine transformation unit 23 forming a face image vector having a dimension equal to the number of pixels from the affine-transformed image data
It is composed of an identity mapper composed of a 0-layer and 5-layer perceptron. Based on the learning of the 5-layer perceptron using the sample set 250, the face image vector from the affine transformation unit 230 is dimensionally compressed and a compressed face image vector is output. A non-linear principal component analysis unit 240, a sample set 250 in which samples of face image vectors created from face images used as references for each person are registered in advance, and a face image vector included in the sample set 250 is converted to a non-linear principal component analysis unit. Reference face image database units 260 and 3 for registering sets converted into compressed face image vectors that have been dimensionally compressed using a three-layer perceptron 240
The identification result when the compressed face image vector is input from the non-linear principal component analysis unit 240, which is composed of a layer perceptron and is desired to be identified based on learning using the compressed face image vector included in the reference face image database unit A face image identification unit 270 is provided.

【0008】次に、前述した構成の個人識別装置の動作
について、図2ないし図4を参照して説明する。ここ
で、図2は図1の画像入力部200と目、口検出部22
0及びアフィン変換部230の処理説明図であり、
(a)は図1の画像入力部200で入力された画像例と
顔領域抽出部210で抽出された顔画像領域例、(b)
は目、口検出部220で検出した目、口の中心位置検出
結果例、(c)はアフィン変換部230によるアフィン
変換後の顔画像例をそれぞれ示している。また、図3は
図1の非線型主成分分析部240と顔画像識別部270
における処理説明図であり、(a)は非線型主成分分析
部240における5層パーセプトロン、(b)は非線型
主成分分析部240における圧縮画像ベクトル生成のた
めの3層パーセプトロン、(c)は顔画像識別部270
における3層パーセプトロンをそれぞれ説明している。
さらに、図4は図1の顔画像識別部270における3層
パーセプトロンの学習時の出力の教師データ例を示して
いる。
Next, the operation of the personal identification device having the above-described configuration will be described with reference to FIGS. Here, FIG. 2 shows the image input unit 200 and the eye / mouth detection unit 22 of FIG.
FIG. 7 is a diagram for explaining processing of 0 and an affine transformation unit 230;
(A) is an example of an image input by the image input unit 200 and an example of a face image area extracted by the face area extraction unit 210 in FIG. 1, (b)
Shows an example of the result of detecting the center position of the eye and the mouth detected by the eye and mouth detecting unit 220, and FIG. FIG. 3 shows the non-linear principal component analysis unit 240 and the face image identification unit 270 of FIG.
FIGS. 7A and 7B are explanatory diagrams of the processing in FIG. 7A, wherein FIG. 7A is a five-layer perceptron in the nonlinear principal component analysis unit 240, FIG. Face image identification unit 270
Describes the three-layer perceptron.
Further, FIG. 4 shows an example of teacher data of an output at the time of learning of the three-layer perceptron in the face image identification unit 270 of FIG.

【0009】図1に示す構成において、画像入力部20
0は、ビデオカメラなどから顔画像を含む図2(a)に
示す如く入力画像を取り込む。画像入力部200でビデ
オカメラなどから取り込まれた顔画像は顔領域抽出部2
10に入力され、その顔画像から標準顔画像とのテンプ
レートマッチングにより図2(a)に示す如く顔領域が
抽出される。目、口検出部220は、前記顔領域抽出部
210で抽出された顔領域における輪郭抽出、2値化処
理などにより図2(b)に示す如く目と口の中心位置を
検出する。
In the configuration shown in FIG.
0 captures an input image including a face image from a video camera or the like as shown in FIG. The face image captured from the video camera or the like by the image input unit 200 is a face area extraction unit 2
10, a face area is extracted from the face image by template matching with a standard face image as shown in FIG. The eye / mouth detection unit 220 detects the center position of the eyes and mouth as shown in FIG. 2B by performing contour extraction, binarization processing, and the like on the face region extracted by the face region extraction unit 210.

【0010】前記目、口検出部220で検出された目、
口の中心位置はアフィン変換部230に与えられ、当該
アフィン変換部230は、検出された目、口の中心位置
が図2(c)に示す如くあらかじめ設定した位置に来る
ように顔画像にアフィン変換を行う。そして、アフィン
変換後の画像データより、画素数と等しい次元を持つ顔
画像ベクトルを構成する。
[0010] The eye, the eye detected by the mouth detection unit 220,
The center position of the mouth is provided to the affine transformation unit 230. The affine transformation unit 230 affine transforms the face image such that the detected center position of the eyes and the mouth is at a preset position as shown in FIG. Perform the conversion. Then, a face image vector having a dimension equal to the number of pixels is formed from the affine-transformed image data.

【0011】次に、非線型主成分分析部240は、図3
(a)に示す如く5層パーセプトロンからなる恒等写像
器で構成され、第1層と最終層の第5層、第2層と第4
層のニューロン数は等しく、かつ、第3層のニューロン
数は第1層のニューロン数より小さく設定されている。
また、標本集合250には、各人物の基準とする顔画像
から作成した顔画像ベクトルがあらかじめ登録されてい
る。非線型主成分分析部240は、標本集合250の各
要素を用いて5層パーセプトロンの学習を行う。学習は
誤差逆伝播法を用いて第1層に画像ベクトルを入力する
と第5層出力に同じ値が出力されるように学習を行う。
学習終了後、5層のうちから第1層から第3層までの3
層パーセプトロンを用いて、その3層出力を用いること
により顔画像ベクトルの次元圧縮を行い圧縮顔画像ベク
トルを作成する(図3(b)参照)。
Next, the nonlinear principal component analysis unit 240
As shown in FIG. 3A, it is composed of an identity mapper composed of a five-layer perceptron.
The number of neurons in the layer is equal, and the number of neurons in the third layer is set smaller than the number of neurons in the first layer.
In the sample set 250, a face image vector created from a face image used as a reference for each person is registered in advance. The nonlinear principal component analysis unit 240 performs learning of the 5-layer perceptron using each element of the sample set 250. Learning is performed such that when an image vector is input to the first layer using the error back propagation method, the same value is output to the fifth layer output.
After learning is completed, 3 of the first to third layers out of the five layers
Using a layer perceptron, the face image vector is dimensionally compressed by using the three-layer output to create a compressed face image vector (see FIG. 3B).

【0012】一方、基準顔画像データベース部260に
は、標本集合250に含まれる顔画像ベクトルを非線型
主成分分析部240の3層パーセプトロンを用いて次元
圧縮した圧縮顔画像ベクトルに変換した集合が格納され
ている。
On the other hand, in the reference face image database section 260, a set obtained by converting face image vectors included in the sample set 250 into compressed face image vectors obtained by dimensionally compressing the face image vectors using the three-layer perceptron of the non-linear principal component analysis section 240. Is stored.

【0013】さらに、顔画像識別部270は、図3
(c)に示す如く3層パーセプトロンで構成されてお
り、第1層のニューロン数は非線型主成分分析部240
の第3層のニューロン数と等しく、第3層のニューロン
数は登録されている人数に等しい。また、第2層のニュ
ーロン数は第1,3層より大きい値に設定する。学習
は、入力データとして基準顔画像データベース部260
に含まれる圧縮顔画像ベクトルを用い、出力データは、
各人物に第3層のニューロンをそれぞれ1個対応させ
て、その対応させたニューロンの出力が1もしくは1に
近い数(例えば0.9)となり、その他のニューロンが
0もしくは0に近い数(例えば0.1)になるように誤
差逆伝播法を用いて学習を行う(図4参照)。学習終了
後は、識別したい圧縮顔画像ベクトルを入力したときの
第3層のニューロンの出力のうち最も大きい値のニュー
ロンに対応する人物を識別結果として出力する。
Further, the face image identification unit 270 is provided with a
As shown in FIG. 9C, the number of neurons in the first layer is determined by the nonlinear principal component analyzer 240.
The number of neurons in the third layer is equal to the number of registered neurons. The number of neurons in the second layer is set to a value larger than the first and third layers. In the learning, the reference face image database 260
Using the compressed face image vector included in
One neuron of the third layer is associated with each person, and the output of the corresponding neuron is 1 or a number close to 1 (for example, 0.9), and the other neurons are 0 or a number close to 0 (for example, 0.9). The learning is performed using the error back propagation method so as to be 0.1) (see FIG. 4). After the learning is completed, a person corresponding to the neuron having the largest value among the outputs of the neurons of the third layer when the compressed face image vector to be identified is input is output as the identification result.

【0014】したがって、本実施の形態によれば、顔画
像を用いて個人識別を行う際に、5層パーセプトロンか
らなる恒等写像器を用いて次元圧縮を行う非線型主成分
分析部240と、あらかじめ識別する人物の基準画像の
圧縮されたデータ群を用いて学習させた3層パーセプト
ロンとからなる顔画像識別部270を有し、非線型な処
理を行うようにしたので、顔の向きや表情の変化に対す
るロバスト性が大きくなる。
Therefore, according to the present embodiment, when performing personal identification using a face image, a nonlinear principal component analysis unit 240 that performs dimension reduction using an identity mapper composed of a five-layer perceptron, It has a face image identification unit 270 consisting of a three-layer perceptron that has been trained using a compressed data group of a reference image of a person to be identified in advance, and performs non-linear processing. The robustness to the change in is increased.

【0015】[0015]

【発明の効果】上述したように、本発明によれば、顔画
像を用いて個人識別を行う際に、顔画像に対し5層パー
セプトロンからなる恒等写像器を用いて次元圧縮を行
い、あらかじめ識別する人物の基準画像の圧縮されたデ
ータ群を用いて学習させた3層パーセプトロンにより顔
画像を識別することで、非線型な処理を行うようにした
ので、顔の向きや表情の変化に対するロバスト性が大き
くすることができ、識別率を向上させることができる。
As described above, according to the present invention, when performing personal identification using a face image, the face image is subjected to dimensional compression using an identity mapper composed of a five-layer perceptron, and Non-linear processing is performed by identifying face images using a three-layer perceptron that has been trained using the compressed data group of the reference image of the person to be identified, so that it is robust against changes in face direction and facial expressions. Performance can be increased, and the identification rate can be improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態に係る個人識別装置の構成
を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a personal identification device according to an embodiment of the present invention.

【図2】図1の画像入力部200で入力された画像例と
顔領域抽出部210で抽出された顔画像領域例、目、口
検出部220で検出した目、口の中心位置検出結果例、
アフィン変換部230によるアフィン変換後の顔画像例
をそれぞれ示す各部処理説明図である。
FIG. 2 shows an example of an image input by the image input unit 200 and an example of a face image area extracted by the face area extraction unit 210, an example of an eye / mouth center position detection result detected by the eye / mouth detection unit 220 in FIG. ,
FIG. 9 is an explanatory diagram of each unit process showing an example of a face image after affine transformation by the affine transformation unit 230;

【図3】図1の非線型主成分分析部240における5層
パーセプトロン、非線型主成分分析部240における圧
縮画像ベクトル生成のための3層パーセプトロン、顔画
像識別部270における3層パーセプトロンをそれぞれ
説明する処理説明図である。
FIG. 3 illustrates a five-layer perceptron in the nonlinear principal component analyzer 240, a three-layer perceptron for generating a compressed image vector in the nonlinear principal component analyzer 240, and a three-layer perceptron in the face image identification unit 270, respectively. FIG.

【図4】図1の顔画像識別部270における3層パーセ
プトロンの学習時の出力となる教師データ例の説明図で
ある。
FIG. 4 is an explanatory diagram of an example of teacher data serving as an output when learning a three-layer perceptron in the face image identification unit 270 of FIG. 1;

【図5】従来例に係る個人識別装置の構成を示すブロッ
ク図である。
FIG. 5 is a block diagram showing a configuration of a personal identification device according to a conventional example.

【符号の説明】[Explanation of symbols]

200 画像入力部(画像入力手段) 210 顔領域抽出部(顔領域抽出手段) 220 目、口検出部(目、口検出手段) 230 アフィン変換部(アフィン変換手段) 240 非線型主成分分析部(非線型主成分分析手段) 250 標本集合 260 顔画像識別部(顔画像識別手段) 270 基準顔画像データベース部 200 image input unit (image input unit) 210 face region extraction unit (face region extraction unit) 220 eyes, mouth detection unit (eye and mouth detection unit) 230 affine transformation unit (affine transformation unit) 240 nonlinear principal component analysis unit ( Non-linear principal component analysis means) 250 sample set 260 face image identification unit (face image identification means) 270 reference face image database unit

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 顔画像を含む画像を入力するための画像
入力手段と、 前記画像入力手段により入力された画像から標準的な顔
画像とのテンプレートマッチングにより顔領域を抽出す
る顔領域抽出手段と、 前記顔領域抽出部で抽出された顔領域から目、口の位置
を検出する目、口検出手段と、 前記目、口検出手段で検出された目、口の位置をあらか
じめ設定した位置に来るようにアフィン変換を行い、ア
フィン変換後の画像データより画素数と等しい次元を持
つ顔画像ベクトルを構成するアフィン変換手段と、 各人物の基準とする顔画像から作成した顔画像ベクトル
の標本をあらかじめ登録してある標本集合と、 5層パーセプトロンの恒等写像器で構成され、前記標本
集合を用いた5層パーセプトロンの学習に基づいて前記
アフィン変換部からの顔画像ベクトルの次元圧縮を行い
圧縮顔画像ベクトルを出力する非線型主成分分析手段
と、 前記標本集合に含まれる顔画像ベクトルを前記非線型主
成分分析手段の3層パーセプトロンを用いて次元圧縮し
た圧縮顔画像ベクトルに変換した集合を登録する基準顔
画像データベース部と、 前記3層パーセプトロンで構成され、前記基準顔画像デ
ータベース部に含まれる圧縮顔画像ベクトルを用いた学
習に基づいて前記非線型主成分分析手段からの識別した
い圧縮顔画像ベクトルを入力したときの識別結果を出力
する顔画像識別手段とを、 有する個人識別装置。
An image input unit for inputting an image including a face image; a face area extracting unit for extracting a face region from the image input by the image input unit by template matching with a standard face image; An eye and mouth detecting means for detecting an eye and a mouth position from the face area extracted by the face area extracting unit; and an eye and a mouth position detected by the eye and the mouth detecting means come to a preset position. Affine transformation means for performing a affine transformation in such a manner as to form a face image vector having a dimension equal to the number of pixels from the affine transformed image data, and a face image vector sample created from the face image used as a reference for each person. A registered sample set and a five-layer perceptron identity mapper. Based on learning of the five-layer perceptron using the sample set, the affine transformation unit Non-linear principal component analysis means for performing dimensional compression of the face image vector and outputting a compressed face image vector, and dimensional compression of the face image vector included in the sample set using the three-layer perceptron of the non-linear principal component analysis means A reference face image database unit for registering a set converted into the compressed face image vector, and the three-layer perceptron, wherein the nonlinear face is formed based on learning using the compressed face image vector included in the reference face image database unit. A face image identification unit that outputs an identification result when a compressed face image vector to be identified is input from the principal component analysis unit.
JP10373805A 1998-12-28 1998-12-28 Individual identification device Withdrawn JP2000194849A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10373805A JP2000194849A (en) 1998-12-28 1998-12-28 Individual identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10373805A JP2000194849A (en) 1998-12-28 1998-12-28 Individual identification device

Publications (1)

Publication Number Publication Date
JP2000194849A true JP2000194849A (en) 2000-07-14

Family

ID=18502791

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10373805A Withdrawn JP2000194849A (en) 1998-12-28 1998-12-28 Individual identification device

Country Status (1)

Country Link
JP (1) JP2000194849A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2372168A (en) * 2000-12-27 2002-08-14 Hewlett Packard Co Automatic enhancement of facial features in images
KR100577745B1 (en) * 2004-09-23 2006-05-10 전자부품연구원 Method for authenticating human face
KR101479384B1 (en) 2010-01-29 2015-01-05 노키아 코포레이션 Methods and apparatuses for facilitating object recognition

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2372168A (en) * 2000-12-27 2002-08-14 Hewlett Packard Co Automatic enhancement of facial features in images
GB2372168B (en) * 2000-12-27 2005-07-06 Hewlett Packard Co System and method for automatically enhancing graphical images
KR100577745B1 (en) * 2004-09-23 2006-05-10 전자부품연구원 Method for authenticating human face
KR101479384B1 (en) 2010-01-29 2015-01-05 노키아 코포레이션 Methods and apparatuses for facilitating object recognition

Similar Documents

Publication Publication Date Title
Oloyede et al. Unimodal and multimodal biometric sensing systems: a review
González-Briones et al. A multi-agent system for the classification of gender and age from images
JP7386545B2 (en) Method for identifying objects in images and mobile device for implementing the method
Gosavi et al. Facial expression recognition using principal component analysis
Anand et al. An improved local binary patterns histograms techniques for face recognition for real time application
Datcu et al. Facial expression recognition in still pictures and videos using active appearance models: a comparison approach
Gómez et al. Biometric identification system by lip shape
Liu et al. Micro-expression recognition using advanced genetic algorithm
Raheja et al. Android based portable hand sign recognition system
Sonare et al. Video-based sign language translation system using machine learning
CN114218543A (en) Encryption and unlocking system and method based on multi-scene expression recognition
Bussey et al. Convolutional neural network transfer learning for robust face recognition in NAO humanoid robot
JP2000194849A (en) Individual identification device
Jagadeesh et al. DBC based Face Recognition using DWT
TWI620076B (en) Analysis system of humanity action
Kadhim et al. A multimodal biometric database and case study for face recognition based deep learning
Soliman et al. Arabic sign language recognition system: using an image-based hand gesture detection method to help deaf and dump children to engage in education
Choras Facial feature detection for face authentication
Rajab et al. An automatic lip reading for short sentences using deep learning nets.
Aldelfy et al. Feature extraction of dynamic sign language based on dct
Jalal et al. Facial Mole Detection Approach for Suspect Face Identification using ResNeXt-50
Belo et al. Facial recognition experiments on a robotic system using one-shot learning
Narayan et al. Sign Language Recognition Using Deep Learning
Sharma et al. Emotional Recognition Through Facial Expression Using Support Vector Machine
Sharma et al. Lip Detection and Recognition-A Review1

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060307