JPH10171988A - Pattern recognizing/collating device - Google Patents

Pattern recognizing/collating device

Info

Publication number
JPH10171988A
JPH10171988A JP33911496A JP33911496A JPH10171988A JP H10171988 A JPH10171988 A JP H10171988A JP 33911496 A JP33911496 A JP 33911496A JP 33911496 A JP33911496 A JP 33911496A JP H10171988 A JPH10171988 A JP H10171988A
Authority
JP
Japan
Prior art keywords
model
matrix
input
pattern
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP33911496A
Other languages
Japanese (ja)
Other versions
JP3729581B2 (en
Inventor
Kenji Nagao
健司 長尾
Masayoshi Soma
正宜 相馬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP33911496A priority Critical patent/JP3729581B2/en
Priority to US08/984,061 priority patent/US6345109B1/en
Publication of JPH10171988A publication Critical patent/JPH10171988A/en
Application granted granted Critical
Publication of JP3729581B2 publication Critical patent/JP3729581B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately perform a collation to a person even about any face photograph by previously obtaining a conversion to make a model and a fluctuation amount be orthogonal to each other from many face pictures and face photographs, extracting a characteristic using this conversion and collating a face not attaching to any group of models to a photograph. SOLUTION: A covariance calculating unit 3 fetches picture data from an input pattern input means 1 and a model pattern input means 1, and calculates a covariance matrix as regarding one picture data as a vector. A characteristic extracting unit 4 calculates a conversion matrix from the covariance matrix, and at the same time, performs a vector conversion as regarding one picture data as a vector and calculates a characteristic vector. Then, the selection of a characteristic space in that the space of the model pattern and the space of model-input varied vector are orthogonal is performed, and the collating processing of the face picture and the face photograph by the input pattern input means 1, the model pattern input means 2, the covariance calculating unit 3 and the determination unit 5.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、顔写真等を用いた
ユーザ同定や低ビットレート通信の情報圧縮に用いられ
るパターン認識・照合装置に関するものであり、特に、
人物顔を用いたIDシステム、免許証携帯者の認証、マ
ンマシンインターフェースやセキュリティーのためのパ
ターン認識・照合装置において、変動成分をモデル成分
と直交するように変換した空間で認識・判定するパター
ン認識・照合装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pattern recognition / collation apparatus used for user identification using a face photograph or the like and information compression for low bit rate communication.
Pattern recognition / identification using human faces for ID recognition, license carrier authentication, man-machine interface, and pattern recognition / matching devices for security. -It relates to a collation device.

【0002】[0002]

【従来の技術】パターン認識(例えば顔画像認識や音声
認識)の技術分野において最近注目を集めている方式
は、データベースに登録されたモデル集合から計算され
る2次の統計量(共分散)をもとにパターンの分布、即
ち、上述したデータ空間内にパターンの集合が占める部
分を推定し、これをもとに、パターンからの特徴抽出を
行なうものである。例えば、よく知られたKL(Karhune
n-Loeve)展開方式は、KL展開によって特徴抽出を行な
うもので文献 M.Turk & A.Pentland:“Face Recogniti
on Using Eigenfaces" Proceedings of IEEE, CVPR91.
に詳しく述べられており、他の方法もこれに準じたも
のが多い。
2. Description of the Related Art A method that has recently attracted attention in the technical field of pattern recognition (for example, face image recognition and voice recognition) uses a secondary statistic (covariance) calculated from a set of models registered in a database. Based on the distribution of the pattern, that is, the portion occupied by the set of patterns in the data space, the feature is extracted from the pattern. For example, the well-known KL (Karhune
The n-Loeve) expansion method uses KL expansion to extract features. Reference M.Turk & A.Pentland: “Face Recogniti
on Using Eigenfaces "Proceedings of IEEE, CVPR91.
, And many other methods are in accordance with this.

【0003】KL法では、モデル画像Mおよび入力パタ
ーンIを M=Σγii 、 I=Σγi'Ei ・・・(8) (γiはMのi成分、γi'はIのi成分) (和は、i=1...pについてとる)に示す通り、p
個の基底ベクトルEi(i=1...p)の線形結合で近
似し、近似データ間で照合をとるものである。
In the KL method, a model image M and an input pattern I are represented by M = Σγ i E i , I = Σγ i 'E i (8) (γ i is the i component of M, γ i ′ is the i component) (the sum is taken for i = 1.
Is approximated by a linear combination of the plurality of basis vectors E i (i = 1... P), and collation is performed between the approximate data.

【0004】KL法は、この基底ベクトルとして、w個
の教示パターンデータから得られる共分散行列の固有値
の大きいものからp個(例えば100個程度)のものに対
応する固有ベクトルを用いる。その基底ベクトルによっ
て空間を構成すれば、 (1)射影された教示データが最もよく分離される、即
ち、区別しやすくなる。 (2)パターンに含まれるノイズ等、不規則に現れる成
分(変動)をとり除くことができる。 という利点を有すると考えられている。このKL法にお
いて注意すべき点は、モデルパターン集合から得られる
統計量に基づいて推定されるパターンベクトルの分布が
一般性を持っていること、即ち、それが入力のパターン
においてもおおよそあてはまっていることを仮定してい
る点である。
In the KL method, eigenvectors corresponding to p (for example, about 100) eigenvalues of the covariance matrix obtained from w pieces of teaching pattern data are used as the basis vectors. If the space is constituted by the basis vectors, (1) the projected teaching data is separated best, that is, it is easy to distinguish. (2) Irregular components (fluctuations) such as noise included in the pattern can be removed. It is believed to have the advantage of: A point to be noted in this KL method is that the distribution of the pattern vector estimated based on the statistic obtained from the model pattern set has generality, that is, it is roughly applied to the input pattern. It is assumed that

【0005】実際、例えば顔画像認識において、入力パ
ターンのモデルからの変動がそれほど大きくない場合に
は非常に精度の高い認識率を達成されることが実験的に
も確認されている。
In fact, it has been experimentally confirmed that, for example, in face image recognition, when the variation of the input pattern from the model is not so large, a very accurate recognition rate can be achieved.

【0006】[0006]

【発明が解決しようとする課題】しかし、以上のような
従来法では入力パターンとモデルの違いが大きくなる場
合には十分な認識率を提供することができないという問
題があった。これは、例えば画像認識において入力画像
とモデル画像とで撮影時の照明条件など環境が大きく変
化する場合等に発生するもので、現実にはしばしば発生
する深刻な問題である。
However, the above conventional method has a problem that a sufficient recognition rate cannot be provided when the difference between the input pattern and the model is large. This occurs, for example, when the environment such as the lighting conditions at the time of shooting changes greatly between an input image and a model image in image recognition, and is a serious problem that often occurs in reality.

【0007】従来法における上記問題の原因は、それ
が、パターンの一般的な分布を、データベースに含まれ
るモデルパターンの統計量のみを用いて推定できると仮
定していることに由来する。
The cause of the above problem in the conventional method is that it is assumed that the general distribution of the pattern can be estimated using only the statistics of the model pattern included in the database.

【0008】[0008]

【課題を解決するための手段】この問題を解決するため
に、本発明では、モデル集合から得られる統計量に加え
て、入力パターンのモデルからの変化を捉えた統計量も
予め学習させ利用する。そのため、本発明では、モデル
パターンの共分散行列Cm(パターンの統計的性質の推
定)を入力するモデルベクトル共分散入力手段と、個々
のモデルパターンから対応する入力パターンへの変動の
共分散行列Cp(変化の性質を示す統計的情報)を予め
学習させ入力するモデル−入力変動共分散入力手段と、
モデルベクトル共分散行列とモデル−入力変動共分散行
列との加重平均を Cs≡αCm+(1−α)Cp (αは0<α<1の実数) ・・・(1) に従ってとり、新たに行列Csを生成する共分散加重平
均生成手段と、Csを Cs=(AQ1/2)(Q1/2T) ・・・(2) (Q1/2はQの平方根行列、ATはAの転置行列) (AはCsの正規化固有ベクトル行列) (Qは対応する固有値よりなる対角行列)のようにスペ
クトル分解し行列Q-1/2Tを得る第一の対角化手段
と、モデルベクトル共分散行列Cmを、行列D≡Q-1/2
Tを用いて変換した行列DCmTを DCmT=BPBT ・・・(3) (BはDCmTの正規化固有ベクトル行列) (Pは対応する固有値よりなる対角行列)のようにスペ
クトル分解し行列Bを得る第2の対角化手段と、これら
の行列Q-1/2T、Bを用いて H≡WBT-1/2T ・・・(4) (W≡diag(α1,α2,・・・αn)、(αiは適当な非
負の数))に従って行列Hを生成・保持し、ランタイム
にモデルパターンMと入力パターンIから M'≡HM、I'≡HI ・・・(5) に従って特徴ベクトルを抽出する特徴抽出手段を備え
る。
In order to solve this problem, in the present invention, in addition to the statistic obtained from the model set, a statistic capturing a change of the input pattern from the model is learned in advance and used. . Therefore, in the present invention, the model vector covariance input means for inputting the covariance matrix C m of the model pattern (estimation of the statistical properties of the pattern), and the covariance matrix of the variation from each model pattern to the corresponding input pattern A model-input variation covariance input means for learning and inputting C p (statistical information indicating the nature of change) in advance;
The weighted average of the model vector covariance matrix and the model-input variation covariance matrix is calculated according to C s ≡αC m + (1−α) C p (α is a real number of 0 <α <1) (1) , A covariance weighted average generating means for newly generating a matrix C s , and C s as C s = (AQ 1/2 ) (Q 1/2 A T ) (2) (Q 1/2 is Q Where A T is the transposed matrix of A) (A is the normalized eigenvector matrix of C s ) (Q is the diagonal matrix of the corresponding eigenvalues) and the matrix Q -1/2 A T The first diagonalizing means to be obtained and the model vector covariance matrix C m are converted into a matrix D≡Q −1/2
The matrix DC m D T obtained by conversion using the A T DC m D T = BPB T ··· (3) (B is DC m D T normalized eigenvector matrix) (P consists corresponding eigenvalues diagonal matrix a second diagonalization means for obtaining a spectral decomposition matrix B as), these matrices Q -1/2 a T, using the B H≡WB T Q -1/2 a T ··· ( 4) Generate and hold a matrix H according to (W≡diag (α 1 , α 2 ,..., Α n ), (α i is an appropriate nonnegative number)). M′≡HM, I′≡HI (5).

【0009】請求項1のパターン認識・照合装置におい
ては、さらに、入力顔の特徴ベクトルに対して ‖M'−I'‖ (‖*‖はユークリッド距離) ・・・(6) の評価値が最も小さい特徴ベクトルを持つモデルを認識
結果として選出する判定手段を有する。
In the pattern recognition / collation apparatus of the first aspect, the evaluation value of {M′−I ′} (‖ * ‖ is a Euclidean distance) with respect to the feature vector of the input face is There is a determination means for selecting a model having the smallest feature vector as a recognition result.

【0010】また、請求項2のパターン認識・照合装置
は、さらに、モデルと入力パターンの特徴ベクトルの類
似性を (M'・I')/(|M'||I'|) ・・・(7) ((*・*)はベクトルの内積、|*|はベクトルの大
きさ)に従って評価し、この値が一定値以上かどうかに
よって、入力パターンがそのモデルに対応するものであ
るかどうかを判定する判定手段を有する。
Further, the pattern recognition / collation apparatus according to claim 2 further determines the similarity of the feature vector between the model and the input pattern by (M ′ · I ′) / (| M ′ || I ′ |) (7) ((* ・ *) is the inner product of vectors, | * | is the size of the vector) and whether or not the input pattern corresponds to the model depends on whether or not this value is a certain value or more Is determined.

【0011】以上において、加重平均化された共分散C
s及び、モデルベクトル共分散Cmを対角化手段1及び2
を用いて対角化し、得られた行列Hによって特徴抽出を
行なうことにより、モデルパターンからの入力パターン
の変化が、モデル集合が占める空間に直交するように制
御することができる。これによって、モデルと入力パタ
ーンの違いが大きい場合でも、認識・照合の最終過程に
おいてモデルの占める空間に直交するような方向の特徴
を無視することで入力に対応するモデルが正しくマッチ
される。以下、この詳細なメカニズムを説明する。
In the above, the weighted averaged covariance C
s and the model vector covariance C m are converted to diagonalizing means 1 and 2
By performing diagonalization using, and performing feature extraction using the obtained matrix H, it is possible to control the change of the input pattern from the model pattern so as to be orthogonal to the space occupied by the model set. As a result, even when the difference between the model and the input pattern is large, the model corresponding to the input can be correctly matched by ignoring features in a direction orthogonal to the space occupied by the model in the final process of recognition and matching. Hereinafter, the detailed mechanism will be described.

【0012】[0012]

【発明の実施の形態】本発明の請求項1に記載した発明
は、モデルパターンM(モデルべクトルとも呼ぶ)を入
力するモデルパターン入力手段と、認識対象の入力パタ
ーンI(入力ベクトルとも呼ぶ)を入力する入力パター
ン入力手段と、モデルベクトルの共分散行列Cmを入力
するモデルベクトル共分散入力手段と、個々のモデルパ
ターンから対応する入力パターンへの変動の共分散行列
pを予め学習させ入力するモデル−入力変動共分散入
力手段と、前記モデルベクトル共分散入力手段から入力
されたモデルベクトル共分散行列と前記モデル−入力変
動共分散入力手段から入力されたモデル−入力変動共分
散行列との加重平均を Cs≡αCm+(1−α)Cp (αは0<α<1の実数) ・・・(1) に従ってとり、新たに行列Csを生成する共分散加重平
均生成手段と、前記共分散加重平均生成手段の出力の行
列Csを Cs=(AQ1/2)(Q1/2T) ・・・(2) (AはCsの正規化固有ベクトル行列) (Qは対応する固有値よりなる対角行列) (Q1/2はQの平方根行列、ATはAの転置行列)のよう
にスペクトル分解し、これより行列 D≡Q-1/2T (Q-1/2は行列Qの平方根行列の逆行
列) を得る第1の対角化手段と、モデルパターン共分散行列
mを行列Dによって変換した行列DCmTを DCmT=BPBT ・・・(3) (BはDCmTの正規化固有ベクトル行列) (Pは対応する固有値よりなる対角行列)のようにスペ
クトル分解し、行列Bを得る第2の対角化手段と、前記
第1及び第2の対角化手段の出力Q-1/2T、Bを用い
て H≡WBT-1/2T ・・・(4) (W≡diag(α1,α2,・・・αn)、(αiは適当な非
負の数))に従って行列Hを生成・保持し、認識のラン
タイムにモデルパターンMと入力パターンIから M'≡HM、I'≡HI ・・・(5) に従ってそれぞれの特徴ベクトルM'、I'を抽出する特
徴抽出手段と、前記特徴抽出手段が抽出した入力パター
ンIの特徴ベクトルI'とモデルパターンMの特徴ベク
トルM'との距離 ‖M'−I'‖ (‖*‖はユークリッド距離) ・・・(6) が最も小さい特徴ベクトルを有するモデルパターンを見
い出し、これによって入力パターンがどのモデルに対応
するかを判定(認識)する判定手段とを具備するもので
あり、モデル空間と変動空間を直交させることにより、
入力パターンの変動分を除いてモデルパターンと比較し
て認識することができるという作用を有するものであ
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS According to the first aspect of the present invention, there is provided a model pattern input means for inputting a model pattern M (also referred to as a model vector), and an input pattern I to be recognized (also referred to as an input vector). , An input pattern input means for inputting a covariance matrix C m of model vectors, and a covariance matrix C p of variation from an individual model pattern to a corresponding input pattern. The input model-input variation covariance input means, the model vector covariance matrix input from the model vector covariance input means, and the model-input variation covariance matrix input from the model-input variation covariance input means; weighted average C s ≡αC m + (1- α) ( the α 0 <α <1 real number) C p taken according (1), generates a new matrix C s of And covariance weighted average generating means that, the matrix C s a C s = (AQ 1/2) ( Q 1/2 A T) ··· (2) (A output of the covariance weighted average generating means C s normalized eigenvector matrix) (Q is a diagonal matrix consisting of corresponding eigenvalues) (Q 1/2 the Q of the square root matrix, a T is the spectral decomposed as transposed matrix of a), than this matrix D≡ First diagonalization means for obtaining Q -1/2 A T (Q -1/2 is the inverse matrix of the square root matrix of the matrix Q), and a matrix DC m obtained by transforming the model pattern covariance matrix C m by the matrix D the D T spectrally decomposed as DC m D T = BPB T ··· (3) (B normalized eigenvector matrix of DC m D T) (P consists corresponding eigenvalues diagonal matrix), the matrix B using a second diagonalization means of obtaining, output Q -1/2 a T of the first and second diagonalization means, the B H≡WB T Q -1/2 a T ·· (4) (W≡diag (α 1, α 2, ··· α n), (α i is the number) of suitable non-negative) generates and holds the matrix H in accordance with the model pattern M runtime recognition From the input pattern I and M ′ 抽出 HM, I′≡HI... (5), and a feature of the input pattern I extracted by the feature extracting means. The distance {M′−I ′} (‖ * ‖ is the Euclidean distance) between the vector I ′ and the feature vector M ′ of the model pattern M (6) finds the model pattern having the smallest feature vector. A determination unit for determining (recognizing) which model the input pattern corresponds to, by orthogonalizing the model space and the variation space,
This has the effect that it can be recognized by comparing with the model pattern except for the variation of the input pattern.

【0013】本発明の請求項2に記載の発明は、モデル
パターンと入力パターンの特徴ベクトルの類似性を (M'・I')/(|M'||I'|) ・・・(7) ((*・*)はベクトルの内積、|*|はベクトルの大
きさ)に従って評価し、この値が一定値以上かどうかに
よって、その入力パターンとモデルが同一のものである
かを判定する判定手段を具備するものであり、モデル空
間と変動空間を直交させることにより、入力パターンの
変動分を除いてモデルパターンと照合することができる
という作用を有するものである。
According to the second aspect of the present invention, the similarity between the feature vector of the model pattern and the feature vector of the input pattern is determined by (M ′ · I ′) / (| M ′ || I ′ |) (7) ((* · *) Is the inner product of the vectors, | * | is the size of the vector), and it is determined whether the input pattern and the model are the same depending on whether or not this value is a certain value or more. It is provided with a judging means, and has an effect that by making the model space and the variation space orthogonal, it is possible to collate with the model pattern except for the variation of the input pattern.

【0014】(第1の実施の形態)本発明の第1の実施
の形態は、ビデオカメラなどから入力した入力顔画像に
一致する顔画像をモデル画像写真のデータベースから選
出する顔画像認識装置である。以下、本発明のパターン
認識・照合装置を顔画像認識に適用した場合について第
1図を用いて説明する。
(First Embodiment) A first embodiment of the present invention relates to a face image recognition apparatus for selecting a face image that matches an input face image input from a video camera or the like from a model image photograph database. is there. Hereinafter, a case where the pattern recognition / collation apparatus of the present invention is applied to face image recognition will be described with reference to FIG.

【0015】入力パターン入力手段1は、入力顔を撮影
するビデオカメラと、ビデオカメラのアナログ映像信号
をデジタル信号に変換するデジタイザと、デジタル映像
信号を記憶する画像メモリにより構成される。モデルパ
ターン入力手段2は、モデル画像写真をスキャンして入
力するイメージスキャナと、イメージスキャナから入力
されたモデル画像写真をデジタル画像ファイルとして格
納するデータベースにより構成される。共分散計算ユニ
ット3は、入力パターン入力手段1とモデルパターン入
力手段2から画像データを入力し、1つの画像データを
ベクトルとみなして共分散行列を計算する計算装置であ
る。特徴抽出ユニット4は、共分散行列から変換行列を
計算するとともに、1つの画像データをベクトルとみな
して変換行列によりベクトル変換して特徴ベクトルを計
算する計算装置である。判定ユニット5は、特徴ベクト
ル間の距離や角度を計算する計算装置である。これらの
計算装置は、汎用のプロセッサを用いて構成してもよい
し、DSPなどの専用のプロセッサを用いて構成しても
よい。
The input pattern input means 1 comprises a video camera for photographing an input face, a digitizer for converting an analog video signal of the video camera into a digital signal, and an image memory for storing the digital video signal. The model pattern input means 2 includes an image scanner for scanning and inputting a model image photograph, and a database for storing the model image photograph input from the image scanner as a digital image file. The covariance calculation unit 3 is a calculation device that inputs image data from the input pattern input unit 1 and the model pattern input unit 2 and calculates a covariance matrix by regarding one image data as a vector. The feature extraction unit 4 is a calculation device that calculates a transformation matrix from a covariance matrix, and also converts one image data as a vector and performs a vector transformation using the transformation matrix to calculate a feature vector. The determination unit 5 is a calculation device that calculates a distance and an angle between feature vectors. These computing devices may be configured using a general-purpose processor, or may be configured using a dedicated processor such as a DSP.

【0016】入力パターン入力手段1とモデルパターン
入力手段2と共分散計算ユニット3と特徴抽出ユニット
4により、オフラインのプロセスとして、モデルパター
ンの空間とモデル−入力変動ベクトルの空間を直交化さ
せるような特徴空間の選定を行ない、入力パターン入力
手段1とモデルパターン入力手段2と共分散計算ユニッ
ト3と判定ユニット5により、オンラインで認識処理を
行なう。
The input pattern input means 1, the model pattern input means 2, the covariance calculation unit 3 and the feature extraction unit 4 perform an off-line process such as orthogonalizing the space of the model pattern and the space of the model-input variation vector. A feature space is selected, and an input pattern input unit 1, a model pattern input unit 2, a covariance calculation unit 3, and a determination unit 5 perform online recognition processing.

【0017】最初に、オフラインの処理について説明す
る。一般にパターンがデータ空間の中で占める空間の次
元(例えば顔画像が画像空間全体の中に占める部分の次
元)は、もとの空間の次元(例えばピクセル数が10万で
あれば10万次元)に比べかなり小さく(例えば100次
元)なっている場合が多い。同様に、モデル−入力の変
動ベクトルもデータ空間においては低次元の空間を占め
る。まず、モデルパターンの統計的傾向を示す共分散行
列Cmを、モデルベクトル共分散入力手段から入力す
る。この共分散行列Cmは、モデルパターン入力手段か
ら入力されたモデルパターンを用いて Cm≡ΣMMT ・・・(9) (MTは行列Mの転置行列、和は全ての標本モデル
{M}についてとる。)に従って直接計算できるが、他
の方法で得られたものであっても問題はない。モデルパ
ターンの分布(共分散)を示すものであればよい。この
実施形態では、モデルパターン共分散Cmはモデルパタ
ーン入力手段2であるイメージスキャナ装備のデータベ
ースに入力されたモデル人物顔画像集合{M}を用いて
計算する。ここで、簡単のためにモデルベクトルの平均
ベクトルは0としている。そうでない場合はMを(M−
a)(Maは集合{M}の平均)を用いる。
First, the offline processing will be described. Generally, the dimension of the space occupied by the pattern in the data space (for example, the dimension of the portion occupied by the face image in the entire image space) is the original dimension of the space (for example, 100,000 if the number of pixels is 100,000) Is often much smaller (eg, 100 dimensions). Similarly, the model-input variation vector also occupies a low dimensional space in the data space. First, the covariance matrix C m indicating a statistical trend of the model patterns, and inputs from the model vector covariance input means. The covariance matrix C m is, C m ≡ΣMM T ··· (9 ) using a model pattern input from the model pattern input means (M T is the transpose matrix of the matrix M, sum all specimens models {M Can be calculated directly according to}, but there is no problem if it is obtained by another method. What is necessary is just to show the distribution (covariance) of the model pattern. In this embodiment, the model pattern covariance C m is calculated using a model human face image set which has been entered into the database of the image scanner equipped {M} is a model pattern input unit 2. Here, the average vector of the model vectors is set to 0 for simplicity. Otherwise, set M to (M-
M a ) (M a is the average of the set {M}).

【0018】また、入力パターンと対応するモデルの差
(M−I)の統計的性質を示す共分散行列Cpを、モデ
ル−入力変動共分散入力手段から入力し、入力の変動傾
向を学習させる。この共分散Cpは入力パターン入力手
段から入力される入力パターンのサンプル群と対応する
モデルの差を用いて Cp≡Σ(M−I)(M−I)T ・・・(10) ((M−I)Tは行列(M−I)の転置行列) (和は得られた全ての(M,I)のペアについてと
る。)に従って直接計算できるが、他の方法で得られた
ものであってもよい。差ベクトルの分布(共分散)を示
すものであればよい。この実施形態では、モデル−入力
変動ベクトル共分散Cpは、入力顔ベクトル{I}(入
力パターン)を実際に入力し、対応するモデル顔パター
ンとの差から式10に従って計算される。
Further, a covariance matrix C p indicating the statistical property of the difference (M−I) between the input pattern and the corresponding model is input from the model-input fluctuation covariance input means to learn the input fluctuation tendency. . The covariance C p is calculated using the difference between a sample group of the input pattern input from the input pattern input unit and the corresponding model, C p ≡Σ (MI) (MI) T (10) ( (M−I) T is the transpose of the matrix (M−I) (the sum is taken over all obtained (M, I) pairs), but can be calculated directly but obtained by other methods It may be. What is necessary is just to show the distribution (covariance) of the difference vector. In this embodiment, the model-input variation vector covariance C p is calculated according to Equation 10 from the actual input of the input face vector {I} (input pattern) and the difference from the corresponding model face pattern.

【0019】以上の2つの共分散CmとCpの計算は、共
通の共分散計算ユニット3によって実施される。これら
の共分散の情報は、特徴抽出ユニット4に送られる。
The calculation of the two covariances C m and C p is performed by a common covariance calculation unit 3. These pieces of covariance information are sent to the feature extraction unit 4.

【0020】特徴抽出ユニット4では、まず、2つの共
分散の加重平均Csを式1に従って計算し、Cs、Cm
同時対角化を経て、特徴抽出行列Hを生成し保持する。
画像認識装置の場合は、モデル画像ベクトル{M}から
特徴ベクトル{M'}を抽出し特徴抽出ユニットがこれ
を保持しておく。
The feature extraction unit 4 first calculates a weighted average C s of the two covariances according to Equation 1, and generates and holds a feature extraction matrix H through simultaneous diagonalization of C s and C m .
In the case of the image recognition device, a feature vector {M ′} is extracted from the model image vector {M}, and the feature extraction unit holds the feature vector.

【0021】特徴抽出ユニット4の中の共分散加重平均
生成手段が、得られた2つの共分散、即ち、モデルベク
トル共分散Cmとモデル−入力変動共分散Cpの加重平均
を Cs≡αCm+(1−α)Cp ・・・(1) (αは0<α<1の実数)に従って計算し、行列Cs
生成する。αは、ビデオカメラやイメージスキャナの特
性に応じて値を決める必要があるし、モデル画像の画質
などにも従って最適値を決める必要があるので、実際に
認識の試行を行なって値を求める。例えば、αの初期値
を0.5として、認識率が向上するように少しずつ変化さ
せて値を決めればよい。
The covariance weighted average generation means included in the feature extraction unit 4, two obtained covariance, i.e., the model vector covariance C m and models - a weighted average of the input variation covariance C p C s ≡ αC m + (1−α) C p (1) (α is a real number of 0 <α <1) to generate a matrix C s . α needs to be determined according to the characteristics of the video camera or the image scanner, and it is necessary to determine the optimum value in accordance with the image quality of the model image. For example, the initial value of α may be set to 0.5, and the value may be changed little by little so as to improve the recognition rate.

【0022】次に、これらの共分散を用いてパターンの
認識に適した特徴空間の選定、即ち、特徴抽出の具体的
メカニズムを決定する。ここで、パターンからの特徴抽
出とは、もとのパターン(N次元とする)をより低い次
元の空間(例えばK次元、K<N)に射影することをさ
す。したがって、特徴空間を選ぶことは、そのようなK
次元の空間を構成するK個の直交する座標軸(ベクト
ル)を選ぶことであり、よって特徴抽出とはそのような
ベクトルによって構成される線形変換(行列)を適用す
ることにあたる。このために、行列Csとモデルベクト
ル共分散Cmを同時に対角化する変換によって、モデル
パターンの空間と変動ベクトルの空間を直交化する。こ
の原理は以下の通りである。
Next, a feature space suitable for pattern recognition is selected using these covariances, that is, a specific mechanism of feature extraction is determined. Here, feature extraction from a pattern refers to projecting an original pattern (N-dimensional) into a lower-dimensional space (for example, K-dimensional, K <N). Therefore, choosing a feature space is such a K
This is to select K orthogonal coordinate axes (vectors) constituting a dimensional space, and thus feature extraction is to apply a linear transformation (matrix) composed of such vectors. Therefore, the conversion simultaneously diagonalizing the matrix C s and model vector covariance C m, orthogonalizing the spatial area as the variation vector of the model patterns. The principle is as follows.

【0023】行列Csは第一の対角化手段によって Cs=(AQ1/2)(Q1/2T) ・・・(2) (AはCsの正規化固有ベクトル行列) (Qは対応する固有値よりなる対角行列) (Q1/2はQの平方根行列、ATはAの転置行列)のよう
にスペクトル分解され、行列D≡Q-1/2Tが出力され
る。
The matrix C s is obtained by the first diagonalization means as C s = (AQ 1/2 ) (Q 1/2 A T ) (2) (A is a normalized eigenvector matrix of C s ) ( Q is a diagonal matrix composed of the corresponding eigenvalues (Q 1/2 is a square root matrix of Q, A T is a transposed matrix of A), and a matrix D≡Q -1/2 AT is output. You.

【0024】一方、共分散Cmは変換DによってDCm
Tに写された後、第2の対角化手段によって DCmT=BPBT ・・・(3) (BはDCmTの正規化固有ベクトル行列) (Pは対応する固有値よりなる対角行列)のようにスペ
クトル分解され、行列Bが出力される。
On the other hand, the covariance C m conversion D DC m D
After being mapped to T , DC m D T = BP B T (3) (B is a normalized eigen vector matrix of DC m D T ) (P is a pair of corresponding eigenvalues) (Angular matrix), and a matrix B is output.

【0025】特徴抽出手段は、これらの出力の行列Q
-1/2T、Bをもとに H≡WBT-1/2T ・・・(4) (W≡diag(α1,α2,・・・αN)、αiは適当な非負
の数)に従って行列Hを生成しこれを保持する。この行
列Hが特徴抽出を行なう行列である。αiは、特徴に重
みづけする係数であり、認識率が向上するように試行し
ながら最適値を求める方法で決定する。
The feature extracting means calculates a matrix Q of these outputs.
Based on -1/2 A T and B, H≡WB T Q -1/2 A T (4) (W≡diag (α 1 , α 2 ,... Α N ), α i is Generate a matrix H according to an appropriate non-negative number) and hold it. This matrix H is a matrix for performing feature extraction. α i is a coefficient for weighting the feature, and is determined by a method of obtaining an optimum value while trying to improve the recognition rate.

【0026】ここで、行列Lを L≡BT-1/2T ・・・(11) と定義する。Here, the matrix L is defined as L≡B T Q -1/2 A T (11)

【0027】行列Hは、行列Lの適用後各成分に対して
定数倍の変換をほどこすものである。今、行列Lをモデ
ルベクトルM、及び、入力ベクトルIに対して M'≡LM、I'≡LI ・・・(12) に従って適用、即ち、特徴抽出を行なうと、この変換L
によって、行列Cs、モデルベクトル共分散Cmはそれぞ
れ L Cs→Cs'=αCm'+(1−α)Cp' =αΣ(LM)(LM)T +(1−α)Σ(L(M−I))(L(M−I))T =αΣ(LMMTT) +(1−α)Σ(L(M−I)(M−I)TT) =αLCmT+(1−α)LCpT =L(αCm+(1−α)Cp)LT =LCsT =BT-1/2TAQATAQ-1/2B =E (Eは単位行列) ・・・(13) L Cm→Cm'=Σ(LM)(LM)T =Σ(BTDM)(MTTB) =BTDCmTB =BTBPBTB =P ・・・(14) のように単位行列E、対角行列Pに変換される。
The matrix H is obtained by performing a constant multiple conversion on each component after the application of the matrix L. Now, when the matrix L is applied to the model vector M and the input vector I according to M′≡LM, I′≡LI (12), that is, feature extraction is performed,
, The matrix C s and the model vector covariance C m are respectively LC s → C s ′ = αC m ′ + (1−α) C p ′ = α {(LM) (LM) T + (1−α)} (L (M−I)) (L (M−I)) T = αΣ (LMM T L T ) + (1−α) Σ (L (M−I) (M−I) T L T ) = αLC m L T + (1-α ) LC p L T = L (αC m + (1-α) C p) L T = LC s L T = B T Q -1/2 A T AQA T AQ -1 / 2 B = E (E is a unit matrix) ··· (13) L C m → C m '= Σ (LM) (LM) T = Σ (B T DM) (M T D T B) = B T DC m D T B = B T BPB T B = P ··· unit matrix E as (14), is converted to a diagonal matrix P.

【0028】同時に、式1からモデル−入力変動共分散
pも E=LCsT =αLCmT+(1−α)LCpT =αP+(1−α)Cp' Cp'=(E−αP)/(1−α) ・・・(15) (Pは対角行列、αは0<α<1の実数、Eは単位行
列)のように対角化される。
[0028] At the same time, the model from equation 1 - Input variation covariance C p be E = LC s L T = αLC m L T + (1-α) LC p L T = αP + (1-α) C p 'C p '= (E−αP) / (1−α) (15) (P is a diagonal matrix, α is a real number of 0 <α <1, and E is a unit matrix).

【0029】式15のステップより明らかに、式12による
変換によって、モデルベクトル共分散Cm'とモデル−入
力変動共分散Cp'は、固有ベクトルを共通に持つことが
わかる。さらに式15から、前者の固有値を降順にx1
2>x3>...>xN(全て非負)とすると、後者の
対応する軸の固有値は y1=(1−αx1)/(1−α)、 y2=(1−αx2)/(1−α)、 ・・・ yN=(1−αxN)/(1−α) となるので、降順にyN>yN-1>...>y1となり、
固有値の順位が完全に逆転する。
It is apparent from the step of equation 15 that the model vector covariance C m ′ and the model-input variation covariance C p ′ have a common eigenvector by the transformation according to equation 12. Further, from Equation 15, the former eigenvalues are arranged in descending order by x 1 >
x 2> x 3>. . . > X N (all non-negative), the eigenvalues of the corresponding axes are y 1 = (1−αx 1 ) / (1−α), y 2 = (1−αx 2 ) / (1−α), ... y N = (1−αx N ) / (1−α), so that y N > y N−1 >. . . > Y 1
The order of the eigenvalues is completely reversed.

【0030】共分散行列の固有値は、対応する固有ベク
トルの方向での分散、即ち、分布の広がり(の2乗)を
示すものであるから、モデルパターンとモデル−入力変
動ベクトルの占める空間は式12の変換によって、分布の
軸を全て共有し、かつ、軸方向での広がりの大きさの順
位が逆転することになる。即ち、モデルパターンの空間
とモデル入力変動ベクトルの空間は直交すると言える。
行列Hは行列Lの変換後、各軸方向で分布の広がりの差
をさらに拡大することで、この直交化を強調したもので
ある。
Since the eigenvalue of the covariance matrix indicates the variance in the direction of the corresponding eigenvector, that is, the spread (square) of the distribution, the space occupied by the model pattern and the model-input variation vector is expressed by the following equation (12). Will share all axes of the distribution and reverse the order of magnitude of spread in the axial direction. That is, it can be said that the space of the model pattern and the space of the model input variation vector are orthogonal.
The matrix H emphasizes this orthogonalization by further expanding the difference in distribution spread in each axis direction after the transformation of the matrix L.

【0031】以上がオフラインのプロセスであり、これ
によって、入力パターンのモデルからの平均的な変動傾
向を捉え、認識に適した特徴抽出の具体的メカニズムが
決定される。パターン認識(登録済みのモデルとのマッ
チング)の場合はモデルパターンの入力もデータベース
機能を含むモデルパターン入力手段2を通してオフライ
ンで予め入力されている。
The above is the off-line process, whereby the average fluctuation tendency of the input pattern from the model is grasped, and the specific feature extraction mechanism suitable for recognition is determined. In the case of pattern recognition (matching with a registered model), the input of the model pattern is also input in advance offline through the model pattern input means 2 including a database function.

【0032】パターン認識の実行時には、ビデオカメラ
から取り込まれ、所定の処理を施された新しい入力顔画
像Iに対して特徴抽出ユニットが、 I'≡HI に従って特徴ベクトルI'を計算する。判定ユニットは ‖M'−I'‖ (‖*‖はユークリッド距離) ・・・(6) を最小にする特徴ベクトルを持つモデル顔を、特徴抽出
ユニットが保持しているモデル画像の特徴ベクトル
{M'}の中から選び、認識結果として出力する。
When executing pattern recognition, the feature extraction unit calculates a feature vector I 'according to I'≡HI for a new input face image I which is taken in from the video camera and subjected to predetermined processing. The determination unit is {M′−I ′} (‖ * ‖ is the Euclidean distance) (6) A model face having a feature vector that minimizes M ′}, and output as a recognition result.

【0033】(第2の実施の形態)本発明の第2の実施
形態は、ビデオカメラなどから入力した入力顔画像と、
イメージスキャナなどから入力した入力画像写真を照合
して、一致するか否かを判定する顔画像照合装置であ
る。以下、本発明のパターン認識・照合装置を顔画像照
合に適用した場合について、第1図を用いて説明する。
(Second Embodiment) A second embodiment of the present invention relates to an input face image input from a video camera or the like,
This is a face image collation device that collates input image photographs input from an image scanner or the like and determines whether they match. Hereinafter, a case where the pattern recognition / collation apparatus of the present invention is applied to face image collation will be described with reference to FIG.

【0034】モデルパターン共分散Cmはモデルパター
ン入力手段2であるイメージスキャナ装備のデータベー
スに入力されたモデル人物顔画像集合{M}を用いて計
算する。Cmの計算方法は Cm≡ΣMMT ・・・(9) (MTは行列Mの転置行列、和は全ての標本モデル
{M}についてとる。)に従う。
The model pattern covariance C m is calculated using a model human face image set which has been entered into the database of the image scanner equipped {M} is a model pattern input unit 2. Calculation of C m is according to C m ≡ΣMM T ··· (9) (M T is the transpose matrix of the matrix M, the sum is taken for all of the specimens models {M}.).

【0035】入力パターン入力手段1は、ビデオカメラ
とデジタイザと画像メモリにより構成される。モデル−
入力変動ベクトル共分散Cpは入力顔ベクトル{I}
(入力パターン)を実際に入力し、対応するモデル顔パ
ターンとの差から式10により計算される。以上2つの共
分散CmとCpの計算は共通の共分散計算ユニット3によ
って実施される。これらの共分散の情報は、特徴抽出ユ
ニット4に送られる。特徴抽出ユニット4では、まず、
2つの共分散の加重平均Csを式1に従って計算し、先
に詳述した通りCs、Cmの同時対角化を経て特徴抽出行
列Hを生成し保持する。以上がオフライン処理である。
The input pattern input means 1 comprises a video camera, a digitizer and an image memory. Model-
The input variation vector covariance C p is the input face vector {I}
(Input pattern) is actually input, and is calculated by Expression 10 from the difference from the corresponding model face pattern. Or calculation of the two covariance C m and C p is carried out by a common covariance calculation unit 3. These pieces of covariance information are sent to the feature extraction unit 4. In the feature extraction unit 4, first,
A weighted average C s of the two covariances is calculated according to Equation 1, and a feature extraction matrix H is generated and held through simultaneous diagonalization of C s and C m as described in detail above. The above is the offline processing.

【0036】照合実行時には、ビデオカメラから取り込
まれ、所定の処理を施された新しい入力顔画像Iに対し
て、特徴抽出ユニット4が I'≡HI に従って特徴ベクトルI'を計算する。入力顔画像は、
照明などを十分に制御して、最良の画像を撮影できるよ
うにする。
At the time of matching, the feature extraction unit 4 calculates a feature vector I 'according to I'≡HI for a new input face image I which has been taken in from the video camera and subjected to predetermined processing. The input face image is
The lighting and the like are sufficiently controlled so that the best image can be captured.

【0037】顔画像照合装置では、モデル顔ベクトルM
も実行時にイメージスキャナから入力されるので、実行
時に特徴抽出ユニット4が M'≡HM に従って特徴ベクトルM'の抽出を行なう。モデル画像
は、写真をスキャナで入力するので、写真の撮影条件の
差による変動分はそのまま入力される。
In the face image matching device, the model face vector M
At the time of execution, the feature extraction unit 4 extracts the feature vector M ′ according to M ′ 実 行 HM at the time of execution. As for the model image, a photograph is input by a scanner, and therefore, a variation due to a difference in photographing conditions of the photograph is directly input.

【0038】判定ユニット5では、M'とI'から (M'・I')/(|M'||I'|) ・・・(7) ((*・*)はベクトルの内積、|*|はベクトルの大
きさ)で定義された値を計算し、その値が予め定めた一
定値以上か否かによって、照合が正しいどうかを出力す
る。
In the determination unit 5, (M ′ · I ′) / (| M ′ || I ′ |) (7) ((* · *) is the inner product of the vectors, | * | Is the size of the vector), and outputs whether the collation is correct based on whether the value is equal to or greater than a predetermined value.

【0039】その場で撮影した最良の画像と、変動分を
含む写真の画像を入力し、それらをモデルと変動分が分
離した空間に写像し、2つのベクトルの間の角度の余弦
に対応する量を求めて、人物と写真が一致するか否かを
判定することになる。変換Hを決める際のWの重みを適
当に調節することにより、判別のつきやすい特徴を選ん
で照合することができる。
The best image taken on the spot and the image of the photograph containing the variation are input, and they are mapped to a space where the model and the variation are separated, and correspond to the cosine of the angle between the two vectors. The amount is determined to determine whether the person and the photograph match. By appropriately adjusting the weight of W when determining the transformation H, it is possible to select and collate features that are easily distinguishable.

【0040】[0040]

【発明の効果】以上のように本発明では、モデルパター
ンが占める空間と、モデル−入力変動ベクトルが占める
空間を直交させるような変換を求めて、顔画像認識・照
合に適用する。モデル−入力変動ベクトルは、入力パタ
ーンの対応するモデルパターンからのずれであるから、
変換後にモデルパターンの存在する空間で入力とモデル
を照合すれば、このずれをとり除くことができる。ま
た、多数の顔画像と顔写真から、モデルと変動分を直交
させる変換をあらかじめ求めて、この変換を使って特徴
抽出して、モデルの集合に属さない顔を写真と照合する
ことにより、どのような顔写真でも高い精度で人物と照
合することができる。
As described above, according to the present invention, a transform that makes the space occupied by the model pattern and the space occupied by the model-input variation vector orthogonal to each other is obtained and applied to face image recognition and collation. Since the model-input variation vector is the deviation of the input pattern from the corresponding model pattern,
If the input and the model are collated in the space where the model pattern exists after the conversion, this shift can be removed. Also, from a large number of face images and face photographs, a transform that orthogonalizes the model and the variation is obtained in advance, features are extracted using this transform, and faces that do not belong to the model set are compared with the photos, Such a face photograph can be compared with a person with high accuracy.

【0041】したがって、従来法に比べ格段に高精度な
顔画像認識・照合が実現でき、その効果は非常に大き
い。
Therefore, face image recognition and collation can be realized with much higher accuracy than the conventional method, and the effect is very large.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明による顔画像認識・照合装置の構成を示
す図である。
FIG. 1 is a diagram showing a configuration of a face image recognition / collation device according to the present invention.

【符号の説明】[Explanation of symbols]

1 入力パターン入力手段 2 モデルパターン入力手段 3 共分散計算ユニット 4 特徴抽出ユニット 5 判定ユニット DESCRIPTION OF SYMBOLS 1 Input pattern input means 2 Model pattern input means 3 Covariance calculation unit 4 Feature extraction unit 5 Judgment unit

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 モデルパターンM(モデルべクトルとも
呼ぶ)を入力するモデルパターン入力手段と、認識対象
の入力パターンI(入力ベクトルとも呼ぶ)を入力する
入力パターン入力手段と、モデルベクトルの共分散行列
mを入力するモデルベクトル共分散入力手段と、個々
のモデルパターンから対応する入力パターンへの変動の
共分散行列Cpを予め学習させ入力するモデル−入力変
動共分散入力手段と、前記モデルベクトル共分散入力手
段から入力されたモデルベクトル共分散行列と前記モデ
ル−入力変動共分散入力手段から入力されたモデル−入
力変動共分散行列との加重平均を Cs≡αCm+(1−α)Cp (αは0<α<1の実数) ・・・(1) に従ってとり、新たに行列Csを生成する共分散加重平
均生成手段と、 前記共分散加重平均生成手段の出力の行列Csを Cs=(AQ1/2)(Q1/2T) ・・・(2) (AはCsの正規化固有ベクトル行列) (Qは対応する固有値よりなる対角行列) (Q1/2はQの平方根行列、ATはAの転置行列)のよう
にスペクトル分解し、これより行列 D≡Q-1/2T (Q-1/2は行列Qの平方根行列の逆行
列) を得る第1の対角化手段と、 モデルパターン共分散行列Cmを行列Dによって変換し
た行列DCmTを DCmT=BPBT ・・・(3) (BはDCmTの正規化固有ベクトル行列) (Pは対応する固有値よりなる対角行列)のようにスペ
クトル分解し、行列Bを得る第2の対角化手段と、 前記第1及び第2の対角化手段の出力Q-1/2T、Bを
用いて H≡WBT-1/2T ・・・(4) (W≡diag(α1,α2,・・・αn)、(αiは適当な非
負の数))に従って行列Hを生成・保持し、認識のラン
タイムにモデルパターンMと入力パターンIから M'≡HM、I'≡HI ・・・(5) に従ってそれぞれの特徴ベクトルM’、I’を抽出する
特徴抽出手段と、 前記特徴抽出手段が抽出した入力パターンIの特徴ベク
トルI'とモデルパターンMの特徴ベクトルM'との距離 ‖M'−I'‖ (‖*‖はユークリッド距離) ・・・(6) が最も小さい特徴ベクトルを有するモデルパターンを見
い出し、これによって入力パターンがどのモデルに対応
するかを判定(認識)する判定手段とを具備することを
特徴とするパターン認識・照合装置。
1. A model pattern input means for inputting a model pattern M (also referred to as a model vector), an input pattern input means for inputting an input pattern I to be recognized (also referred to as an input vector), and a covariance of the model vector Model-vector covariance input means for inputting a matrix C m , model-input fluctuation covariance input means for previously learning and inputting a covariance matrix C p of variation from an individual model pattern to a corresponding input pattern, and the model the vector covariance input means input from model vector covariance matrix model - from the input variation covariance input means model - a weighted average of the input variation covariance matrix C s ≡αC m + (1- α ) C p (α is a real number of 0 <α <1) (1), and a covariance weighted average generating means for newly generating a matrix C s ; The matrix C s of the output of the weighted average generation means is represented by C s = (AQ 1/2 ) (Q 1/2 A T ) (2) (A is a normalized eigenvector matrix of C s ) A diagonal matrix composed of eigenvalues (Q 1/2 is a square root matrix of Q, A T is a transposed matrix of A), and a matrix D≡Q -1/2 A T (Q -1 / 2 is the inverse matrix of the square root matrix of the matrix Q), and a matrix DC m D T obtained by transforming the model pattern covariance matrix C m by the matrix D is DC m D T = BPB T. (3) second diagonalization means for performing spectral decomposition to obtain a matrix B as (B is a normalized eigenvector matrix of DC m D T ) (P is a diagonal matrix composed of corresponding eigenvalues), Using the outputs Q -1/2 A T and B of the first and second diagonalizing means, H≡WB T Q -1/2 A T (4) (W≡diag (α 1 , α 2, ... n), (alpha i is generated and holds the matrix H according to the number)) suitable nonnegative, M'≡HM from the model pattern M and the input pattern I runtime recognition, I'≡HI ··· (5) A feature extracting means for extracting respective feature vectors M ′ and I ′ according to the following formula: A distance 距離 M′−I between the feature vector I ′ of the input pattern I and the feature vector M ′ of the model pattern M extracted by the feature extracting means '‖ (‖ * ‖ Is the Euclidean distance) (6) is provided with a judging means for finding a model pattern having the smallest feature vector and judging (recognizing) which model the input pattern corresponds to. And a pattern recognition / collation device.
【請求項2】 モデルパターンと入力パターンの特徴ベ
クトルの類似性を (M'・I')/(|M'||I'|) ・・・(7) ((*・*)はベクトルの内積、|*|はベクトルの大
きさ)に従って評価し、この値が一定値以上かどうかに
よって、その入力パターンとモデルが同一のものである
かを判定する判定手段を具備することを特徴とする請求
項1記載のパターン認識・照合装置。
2. The similarity between a feature vector of a model pattern and a feature vector of an input pattern is expressed by (M ′ · I ′) / (| M ′ || I ′ |) (7) ((* · *) (Inner product, | * | is the magnitude of a vector), and determining whether or not the input pattern and the model are the same based on whether or not this value is a certain value or more. The pattern recognition / collation device according to claim 1.
JP33911496A 1996-12-05 1996-12-05 Pattern recognition / collation device Expired - Fee Related JP3729581B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP33911496A JP3729581B2 (en) 1996-12-05 1996-12-05 Pattern recognition / collation device
US08/984,061 US6345109B1 (en) 1996-12-05 1997-12-03 Face recognition-matching system effective to images obtained in different imaging conditions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33911496A JP3729581B2 (en) 1996-12-05 1996-12-05 Pattern recognition / collation device

Publications (2)

Publication Number Publication Date
JPH10171988A true JPH10171988A (en) 1998-06-26
JP3729581B2 JP3729581B2 (en) 2005-12-21

Family

ID=18324396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33911496A Expired - Fee Related JP3729581B2 (en) 1996-12-05 1996-12-05 Pattern recognition / collation device

Country Status (1)

Country Link
JP (1) JP3729581B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118068A (en) * 1999-10-18 2001-04-27 Matsushita Electric Ind Co Ltd Method and device for pattern recognition and method and device for pattern collating
KR20010044393A (en) * 2001-02-16 2001-06-05 김영익 Pass and security method using human face information
JP2002073818A (en) * 2000-08-28 2002-03-12 Matsushita Electric Works Ltd Diet control supporting system, and diet control supporting method
KR100345245B1 (en) * 1999-09-22 2002-07-20 주식회사 드림미르 Method of Processing Face Recognition Robust to Illumination Change, Facial Expression or Eyewear
US6628811B1 (en) * 1998-03-19 2003-09-30 Matsushita Electric Industrial Co. Ltd. Method and apparatus for recognizing image pattern, method and apparatus for judging identity of image patterns, recording medium for recording the pattern recognizing method and recording medium for recording the pattern identity judging method
JP2007102825A (en) * 2007-01-24 2007-04-19 Matsushita Electric Works Ltd Diet management support system
JP2007102824A (en) * 2007-01-24 2007-04-19 Matsushita Electric Works Ltd Diet management support system
KR100716422B1 (en) * 2005-01-06 2007-05-08 에스케이 텔레콤주식회사 System and method for matching service using pattern recognition
JP2008521109A (en) * 2004-11-16 2008-06-19 インターナショナル・ビジネス・マシーンズ・コーポレーション Apparatus, method, program storage device, and computer program (fingerprint biometric machine) for representing biometrics
CN100421127C (en) * 2002-07-16 2008-09-24 日本电气株式会社 Pattern characteristic extraction method and device for the same
WO2009047983A1 (en) 2007-10-10 2009-04-16 Toshibainformationsystems(Japan)Corporation Data processing device

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6628811B1 (en) * 1998-03-19 2003-09-30 Matsushita Electric Industrial Co. Ltd. Method and apparatus for recognizing image pattern, method and apparatus for judging identity of image patterns, recording medium for recording the pattern recognizing method and recording medium for recording the pattern identity judging method
KR100345245B1 (en) * 1999-09-22 2002-07-20 주식회사 드림미르 Method of Processing Face Recognition Robust to Illumination Change, Facial Expression or Eyewear
JP2001118068A (en) * 1999-10-18 2001-04-27 Matsushita Electric Ind Co Ltd Method and device for pattern recognition and method and device for pattern collating
JP4543455B2 (en) * 1999-10-18 2010-09-15 パナソニック株式会社 Pattern recognition method, pattern recognition device, pattern matching method, and pattern matching device
JP2002073818A (en) * 2000-08-28 2002-03-12 Matsushita Electric Works Ltd Diet control supporting system, and diet control supporting method
JP4496624B2 (en) * 2000-08-28 2010-07-07 パナソニック電工株式会社 Meal management support system and meal management support method
KR20010044393A (en) * 2001-02-16 2001-06-05 김영익 Pass and security method using human face information
CN100421127C (en) * 2002-07-16 2008-09-24 日本电气株式会社 Pattern characteristic extraction method and device for the same
JP2008521109A (en) * 2004-11-16 2008-06-19 インターナショナル・ビジネス・マシーンズ・コーポレーション Apparatus, method, program storage device, and computer program (fingerprint biometric machine) for representing biometrics
KR100716422B1 (en) * 2005-01-06 2007-05-08 에스케이 텔레콤주식회사 System and method for matching service using pattern recognition
JP2007102824A (en) * 2007-01-24 2007-04-19 Matsushita Electric Works Ltd Diet management support system
JP2007102825A (en) * 2007-01-24 2007-04-19 Matsushita Electric Works Ltd Diet management support system
WO2009047983A1 (en) 2007-10-10 2009-04-16 Toshibainformationsystems(Japan)Corporation Data processing device
JP2009093500A (en) * 2007-10-10 2009-04-30 Toshiba Information Systems (Japan) Corp Data processing apparatus
US8396911B2 (en) 2007-10-10 2013-03-12 Toshiba Information Systems (Japan) Corporation Data processing device

Also Published As

Publication number Publication date
JP3729581B2 (en) 2005-12-21

Similar Documents

Publication Publication Date Title
EP1760635B1 (en) Image processing apparatus and method and program
US5901244A (en) Feature extraction system and face image recognition system
Li et al. Overview of principal component analysis algorithm
Shan et al. Face recognition robust to head pose from one sample image
Yuan et al. Ear recognition using improved non-negative matrix factorization
WO2005111936A1 (en) Parameter estimation method, parameter estimation device, and correlation method
JP4511135B2 (en) Method for representing data distribution, method for representing data element, descriptor for data element, method for collating or classifying query data element, apparatus set to perform the method, computer program and computer-readable storage medium
JPH10171988A (en) Pattern recognizing/collating device
Matin et al. Recognition of an individual using the unique features of human face
CN111242078A (en) Face-righting generation method based on self-attention mechanism
JP4816874B2 (en) Parameter learning apparatus, parameter learning method, and program
Ouanan et al. Gabor-zernike features based face recognition scheme
JP2008020963A (en) Pattern recognition device and method
Iwai et al. Gesture recognition based on subspace method and hidden Markov model
Kaymak et al. Illumination Invariant Face Recognition Using Principal Component Analysis–An Overview
Zafeiriou et al. Learning discriminant person-specific facial models using expandable graphs
KR100612865B1 (en) Apparatus and method for view-robust face identification
JP3995614B2 (en) Pattern recognition dictionary generation apparatus and method, pattern recognition apparatus and method
JP3322208B2 (en) Pattern recognition method, pattern recognition device, pattern matching method, and pattern matching device
Kim Active visual learning and recognition using incremental kernel PCA
Shivashankar et al. Emotion sensing using facial recognition
González-Jiménez et al. Automatic pose correction for local feature-based face authentication
Shiwani et al. PCA Based Improved Algorithm for Face Recognition
JP2004038937A (en) Method and device for face description and recognition using high-order eigen-component
Zhang et al. Pose insensitive face recognition using feature transformation

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050726

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051004

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091014

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091014

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101014

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111014

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121014

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131014

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees