JP2008020963A - Pattern recognition device and method - Google Patents

Pattern recognition device and method Download PDF

Info

Publication number
JP2008020963A
JP2008020963A JP2006189895A JP2006189895A JP2008020963A JP 2008020963 A JP2008020963 A JP 2008020963A JP 2006189895 A JP2006189895 A JP 2006189895A JP 2006189895 A JP2006189895 A JP 2006189895A JP 2008020963 A JP2008020963 A JP 2008020963A
Authority
JP
Japan
Prior art keywords
subspace
dictionary
kernel
input
orthogonalization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006189895A
Other languages
Japanese (ja)
Inventor
Kazuhiro Fukui
和広 福井
Osamu Yamaguchi
修 山口
Tomokazu Kawahara
智一 河原
Masashi Nishiyama
正志 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2006189895A priority Critical patent/JP2008020963A/en
Publication of JP2008020963A publication Critical patent/JP2008020963A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • G06F18/21355Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis nonlinear criteria, e.g. embedding a manifold in a Euclidean space

Abstract

<P>PROBLEM TO BE SOLVED: To provide a pattern recognition device for performing accurate pattern recognition by extracting features effective for identification from patterns. <P>SOLUTION: A face image recognition device comprises a face input part, a kernel orthogonal conversion data storage part, a kernel orthogonal conversion part, an input partial space generating part, a dictionary partial space storage part, a partial space similarity calculating part, and a face determining part. The face image recognition device extracts a nonlinear feature from a plurality of input patterns acquired from an identified object, and calculates the similarity between the generated input partial space and a predetermined registered dictionary partial space. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

パターンから識別に有効な非線形な特徴を抽出することで、パターン認識の精度を高めるパターン認識装置及びその方法に関する。   The present invention relates to a pattern recognition apparatus and method for improving the accuracy of pattern recognition by extracting non-linear features effective for identification from a pattern.

パターン認識の手法として相互部分空間法(特許文献1)がある。相互部分空間法では、辞書パターン分布の部分空間である辞書部分空間と認識対象の入力パターン分布の部分空間である入力部分空間とのなす最小正準角を求め、認識対象は最小正準角が最小となる辞書部分空間に対応するカテゴリに属すると判定する。なお、部分空間の生成は基底ベクトルを求めれば良い。   There is a mutual subspace method (Patent Document 1) as a pattern recognition method. In the mutual subspace method, the minimum canonical angle between the dictionary subspace, which is the subspace of the dictionary pattern distribution, and the input subspace, which is the subspace of the input pattern distribution to be recognized, is obtained. It determines with belonging to the category corresponding to the dictionary subspace which becomes the minimum. The generation of the partial space may be performed by obtaining a basis vector.

カテゴリに属するとは、例えば画像を用いた人間の顔の認識であれば「現在認識を受けている人は当該辞書に登録された人である」ということである。相互部分空間法では入力側、辞書側双方が部分空間で表現されているため、部分空間法に比べるとパターンの変形の吸収能力が優れているが、他のカテゴリとの関係を考慮していないために、例えば顔の認識の場合、照明条件などの影響を受け易いという問題があった。   For example, belonging to a category means that if a human face is recognized using an image, “the person currently receiving recognition is a person registered in the dictionary”. In the mutual subspace method, both the input side and the dictionary side are expressed in the subspace, so the pattern deformation absorption ability is better than the subspace method, but the relationship with other categories is not considered. Therefore, for example, in the case of face recognition, there is a problem that it is easily influenced by illumination conditions.

相互部分空間法を改良した手法として、例えば、制約相互部分空間法(特許文献2)、カーネル非線形制約相互部分空間法(特許文献3)、および、直交相互部分空間法(特許文献4)が提案されている。   For example, a constrained mutual subspace method (Patent Literature 2), a kernel nonlinear constraint mutual subspace method (Patent Literature 3), and an orthogonal mutual subspace method (Patent Literature 4) are proposed as improved methods of the mutual subspace method. Has been.

制約相互部分空間法では、識別に必要な本質的な特徴から構成される「制約部分空間」を予め用意し、比較すべき部分空間を制約部分空間に射影した上で相互部分空間法を適用する。   In the constrained mutual subspace method, a “constrained subspace” consisting of essential features necessary for identification is prepared in advance, and the subspace method is applied after projecting the subspaces to be compared to the constrained subspace. .

カーネル非線形制約相互部分空間法は、対象とするパターンをカーネル非線形主成分分析を用いて原空間に比べて高い次元の非線形特徴空間に写像することで、各クラスのパターン分布を重なりのない部分空間で表現する。   The kernel nonlinear constraint mutual subspace method uses the kernel nonlinear principal component analysis to map the target pattern into a higher-dimensional nonlinear feature space than the original space, thereby subdividing the pattern distribution of each class into a non-overlapping subspace. It expresses with.

直交相互部分空間法は、直交化行列を用いて明示的に各クラス部分空間の関係を直交化し、相互部分空間法を適用する方法である。各クラス部分空間の直交化は、直交部分空間法で使われている直交化行列に似た変換を用いた方法であるが,直交化行列を求めるために用いる学習パターンが異なる。   The orthogonal mutual subspace method is a method in which the mutual subspace method is applied by explicitly orthogonalizing the relationship between the class subspaces using an orthogonalization matrix. The orthogonalization of each class subspace is a method using a transformation similar to the orthogonal matrix used in the orthogonal subspace method, but the learning pattern used to obtain the orthogonal matrix is different.

直交部分空間法では、各クラス部分空間を直交するために,各クラスの学習パターンから計算される自己相関行列を用いている。これに対して。OMSMでは各クラス部分空間を張る基底ベクトルから計算される射影行列を用いている。つまり直交部分空間法では全学習パターンを用いて直交化を行うのに対して、直交相互部分空間法では,各クラス部分空間を張る基底ベクトルを学習データとみなして直交化する。   In the orthogonal subspace method, an autocorrelation matrix calculated from a learning pattern of each class is used to orthogonalize each class subspace. On the contrary. OMSM uses a projection matrix calculated from the basis vectors that span each class subspace. That is, in the orthogonal subspace method, orthogonalization is performed using all learning patterns, whereas in the orthogonal mutual subspace method, the basis vectors spanning each class subspace are regarded as learning data and orthogonalized.

直交化行列O(アルファベットの「オー」)は射影行列の総和行列Pの固有値をすべて1にする白色化変換を表す行列として、次式で与えられる。
The orthogonalization matrix O (alphabet “O”) is given by the following equation as a matrix representing a whitening conversion in which the eigenvalues of the sum matrix P of the projection matrix are all 1.

ただし、行列Λ−1/2は行列Pの固有値の平方根の逆数を並べた対角行列であり、行列Hは総和行列Pの固有ベクトルを並べた行列であり、右上のtはその転置である。式(2)により、直交化行列Oによる変換で、固有値がすべて1になることが分かる。ただし、行列Iは単位行列とする。
However, the matrix Λ− 1 / 2 is a diagonal matrix in which the reciprocals of square roots of eigenvalues of the matrix P are arranged, the matrix H is a matrix in which eigenvectors of the summation matrix P are arranged, and t in the upper right is the transpose. It can be seen from equation (2) that the eigenvalues are all 1 by the transformation using the orthogonalization matrix O. However, the matrix I is a unit matrix.

複数のパターンから生成した入力と辞書部分空間に対して、部分空間を張るN本の基底ベクトルを直交化行列Oにより変換し、更に変換後のN本のベクトルにグラム−シュミット(Gram-Schmidt)の直交化を施す。最終的にこれらの直交化されたN本のベクトルをそれぞれ直交化行列で変換した入力と辞書部分空間の基底ベクトルとする。
特開平11−265452号公報 特開2000−30065公報 特開2003−39192公報 特開2005−35300公報
For the input and dictionary subspace generated from a plurality of patterns, N basis vectors extending the subspace are transformed by the orthogonalization matrix O, and further converted to N vectors after conversion to Gram-Schmidt. Is orthogonalized. Finally, these orthogonalized N vectors are respectively converted into an orthogonal matrix and a dictionary subspace basis vector.
JP-A-11-265542 JP 2000-30065 JP 2003-39192 A JP-A-2005-35300

しかしながら、先に述べたように線形部分空間で表現される各部分空間の表現能力には限界があり、さらなる性能向上を図るためには、非線形部分空間の導入が必要となる。   However, as described above, there is a limit to the expression capability of each subspace expressed in the linear subspace, and in order to further improve the performance, it is necessary to introduce a nonlinear subspace.

本発明では、直交相互部分空間法にカーネル非線形主成分分析を適用することで、さらに複雑なパターンの識別を可能にする方法を提案する。   The present invention proposes a method that enables identification of more complex patterns by applying kernel nonlinear principal component analysis to the orthogonal mutual subspace method.

上記課題を解決するために、本発明の一実施形態に関するパターン認識装置は、複数の識別対象の各々にそれぞれ属する複数の辞書パターンを用いて、各辞書パターンに対応する部分空間同士の正準角を直交に近づけるカーネル直交化変換を計算するためのデータセットを求めるカーネル直交化変換生成部と、前記辞書パターンの各々に対して、前記データセットを用いたカーネル直交化変換を行うことにより、前記各辞書パターンに対応する辞書部分空間を生成する辞書部分空間生成部と、入力されたパターンに対して、前記データセットを用いたカーネル直交化変換を行って入力部分空間を生成する入力部分空間生成部と、前記入力部分空間と前記辞書部分空間との類似度を算出する類似度算出部と、前記類似度算出部で算出された類似度を用いて、前記入力されたパターンが属する前記識別対象を求める認識部とを備える。   In order to solve the above problem, a pattern recognition apparatus according to an embodiment of the present invention uses a plurality of dictionary patterns belonging to each of a plurality of identification objects, and canonical angles between subspaces corresponding to each dictionary pattern. By performing a kernel orthogonalization transformation using the data set for each of the dictionary patterns, and a kernel orthogonalization transformation generating unit for obtaining a data set for calculating a kernel orthogonalization transformation that approximates the orthogonality A dictionary subspace generation unit that generates a dictionary subspace corresponding to each dictionary pattern, and an input subspace generation that generates an input subspace by performing kernel orthogonalization transformation using the data set on the input pattern A similarity calculation unit that calculates a similarity between the input subspace and the dictionary subspace, and a similarity calculated by the similarity calculation unit Using, and a recognition unit for determining the identification object which the input pattern belongs.

また、本発明の一実施形態に関するパターン認識方法は、上記装置により行われるパターン認識処理の方法に関するものである。   In addition, a pattern recognition method according to an embodiment of the present invention relates to a pattern recognition processing method performed by the above apparatus.

また、本発明の一実施形態に関するプログラムは、上記装置により行われるパターン認識処理をコンピュータに実行させるためのプログラムである。   Moreover, the program regarding one Embodiment of this invention is a program for making a computer perform the pattern recognition process performed by the said apparatus.

登録されている各カテゴリの辞書部分空間を非線形特徴空間において類似しないような部分空間で識別を行うことができるため、従来法に比べて高精度なパターン認識を行うことができる。   Since the registered dictionary subspace of each category can be identified by a subspace that is not similar in the nonlinear feature space, pattern recognition can be performed with higher accuracy than in the conventional method.

本発明の一実施形態のパターン認識装置について説明する。 まず、本実施形態のパターン認識装置によって行われる、カーネル直交化行列を求めて、非線形特徴量を抽出し、辞書部分空間を直交化して互いに非類似の部分空間にする変換行列Oφを求める、カーネル直交相互部分空間法の一連の処理について説明する。 A pattern recognition apparatus according to an embodiment of the present invention will be described. First, a kernel orthogonalization matrix obtained by the pattern recognition apparatus of the present embodiment is obtained, nonlinear feature amounts are extracted, and a transformation matrix is obtained by orthogonalizing the dictionary subspaces into mutually dissimilar subspaces. A series of processes in the kernel orthogonal mutual subspace method will be described.

[A カーネル非線形主成分分析]
非線形特徴空間F上で直交相互部分空間法(カーネル直交相互部分空間法(KOMSM))を実現するための準備として、カーネル非線形主成分分析について説明する。 f次元のパターンx=(x,x,…,xを非線形線形変換φにより、原空間に比べて遥かに高い次元fφの非線形特徴空間Fに写像することにより、線形識別不可な問題を線形識別可能な問題に変換する。
[A kernel nonlinear principal component analysis]
As preparation for realizing the orthogonal mutual subspace method (kernel orthogonal mutual subspace method (KOMSM)) on the nonlinear feature space F, kernel nonlinear principal component analysis will be described. Linear identification by mapping the f-dimensional pattern x = (x 1 , x 2 ,..., x f ) T to the nonlinear feature space F of dimension f φ that is much higher than the original space by the nonlinear linear transformation φ. Transform impossible problems into linearly distinguishable problems.

空間F上の写像に対して主成分分析や非線形部分空間への射影を行うためには、写像φ(x)と写像 φ(y)の内積(φ(x)・φ(y))を計算する必要がある。しかし、空間F上において、この内積を直接計算することは、対象とするベクトルの次元が極めて高いために計算困難(無限次元空間では不可能)となる。 図3では、原空間Aでは原パターンx1とy1とは線形分離不能であるが、高次元空間Bに写像した写像パターンφ(x1)と写像パターンφ(y1)とは線形分離可能となっている。このことを顔パターンと顔に極めて類似した非顔パターンとの識別に応用すると、顔パターンと非顔パターンとにそれぞれ非線形変換を施すことで、識別することができるようになる。しかし、非線形空間B上において、写像パターンφ(x1)と写像パターンφ(y1)との内積(φ(x1)、φ(y1))を直接計算するのは計算量が膨大なため実用的ではない。まして、非線形空間Bが無限次元の場合は計算不可能である。   Calculate the inner product (φ (x) · φ (y)) of mapping φ (x) and mapping φ (y) to perform principal component analysis and projection to nonlinear subspace for the mapping in space F There is a need to. However, it is difficult to directly calculate this inner product on the space F because the dimension of the target vector is extremely high (impossible in an infinite dimensional space). In FIG. 3, in the original space A, the original patterns x1 and y1 cannot be linearly separated, but the mapped pattern φ (x1) mapped to the high-dimensional space B and the mapped pattern φ (y1) can be linearly separated. Yes. When this is applied to the discrimination between a face pattern and a non-face pattern that is very similar to the face, the face pattern and the non-face pattern can be discriminated by performing nonlinear transformation respectively. However, in the non-linear space B, it is not practical to directly calculate the inner product (φ (x1), φ (y1)) of the mapping pattern φ (x1) and the mapping pattern φ (y1) because the calculation amount is enormous. Absent. In addition, calculation is impossible when the nonlinear space B is infinite.

ところが、非線形変換φをカーネル関数k(x、y)を介して定義すると、内積(φ(x1)、φ(y1))はx1、y1から計算することができる。   However, if the nonlinear transformation φ is defined via the kernel function k (x, y), the inner product (φ (x1), φ (y1)) can be calculated from x1, y1.

これが「カーネルトリック」と呼ばれる計算技法である。具体的な非線形変換φが存在するためには、カーネル関数k(x,y)がMercerの条件を満足する必要があり、例えば以下のような関数が存在する。
This is a calculation technique called “kernel trick”. In order for a specific nonlinear transformation φ to exist, the kernel function k (x, y) needs to satisfy Mercer's condition. For example, the following function exists.

このガウシアン関数を適用した場合には、パターンは無限次元空間へ写像されることになる。 カーネルトリックを用いた非線形特徴空間F上の主成分分析がカーネル非線形主成分分析法である。m個のパターンx(i=1〜m)に対する非線形主成分分析は、カーネル関数を介して得られる以下のm×mの行列K(カーネル行列)の固有値問題に帰着される。
When this Gaussian function is applied, the pattern is mapped to an infinite dimensional space. The principal component analysis on the nonlinear feature space F using the kernel trick is a kernel nonlinear principal component analysis method. The nonlinear principal component analysis for m patterns x i (i = 1 to m) results in the following eigenvalue problem of an m × m matrix K (kernel matrix) obtained through a kernel function.

写像されたベクトルφ(x)の第i非線形主成分ベクトルeへの射影成分は次式で計算される。
The projection component of the mapped vector φ (x) onto the i- th nonlinear principal component vector ei is calculated by the following equation.

ここでaijは行列Kの第i番目に大きい固有値λに対応する固有ベクトルaの第j成分である。ただしaはλ(a, a)=1.0を満足するように基準化されている。 [B カーネル直交化行列の生成]
直交化行列Oの生成は内積により実行されるので,非線形特徴空間F上でも直交化行列が定義でき、これをカーネル直交化行列Oφと呼ぶ。Oφと任意ベクトルxの写像φ(x)との内積は計算可能なので、非線形特徴空間上で直交相互部分空間法が実現できる。これをカーネル直交相互部分空間法と呼ぶ。
Here, a ij is the j-th component of the eigenvector a i corresponding to the i-th largest eigenvalue λ i of the matrix K. However, a i is normalized so as to satisfy λ (a i , a i ) = 1.0. [B Kernel orthogonalization matrix generation]
Since the generation of the orthogonalization matrix O is executed by an inner product, an orthogonalization matrix can be defined on the nonlinear feature space F, and this is called a kernel orthogonalization matrix . Since the inner product of O φ and the map φ (x) of the arbitrary vector x can be calculated, the orthogonal mutual subspace method can be realized on the nonlinear feature space. This is called the kernel orthogonal mutual subspace method.

カーネル直交化行列Oφの基本的な生成の流れは直交化行列の生成と同様であり、線形クラス部分空間を非線形クラス部分空間に置き換えれば良い。以下では、r個のd次元非線形クラス部分空間V(k=1〜r)からn次元の直交化行列Oφを求める手順を述べる。 クラスkの非線形クラス部分空間Vがm個の学習パターンx (i=1〜m)から生成されているとすると、空間Vを張るd個の基底ベクトルe (i=1〜d)は次式で表される。
The basic flow of generating the kernel orthogonalization matrix Oφ is the same as the generation of the orthogonalization matrix, and the linear class subspace may be replaced with a nonlinear class subspace. Hereinafter, we describe a r pieces of d-dimensional non-linear class subspace V k (k = 1~r) Procedure for obtaining the n k orthogonal matrix O phi dimensions from. If a nonlinear class subspace V k of class k is generated from m learning patterns x i k (i = 1 to m), d basis vectors e i k (i = 1) spanning the space V k. -D) is represented by the following equation.

ここでaij は式(6)で示した係数である。同様に他のクラスに対しても非線形クラス部分空間を生成する。 次にr個のd次元非線形クラス部分空間の全ての基底ベクトル、つまり、合計(r×d)個の基底ベクトルからカーネル直交化行列Oφの各行ベクトルOを求める。これは全ての基底ベクトルをデータと見なしてKL展開を行なうことに相当する。ここで全ての基底ベクトルを列として並べた行列をEとする。
Here, a ij k is a coefficient shown in Expression (6). Similarly, nonlinear class subspaces are generated for other classes. Next, each row vector O i of the kernel orthogonalization matrix O φ is obtained from all the basis vectors of the r d-dimensional nonlinear class subspaces, that is, the total (r × d) basis vectors. This is equivalent to performing KL expansion by regarding all base vectors as data. Here, E is a matrix in which all the basis vectors are arranged as columns.

以下で定義される行列Qの固有値問題を解く。
Solve the eigenvalue problem of the matrix Q defined below.

ここでE[i]は行列Eの第i列成分を意味する。   Here, E [i] means the i-th column component of the matrix E.

上式におけるクラスkの第i基底ベクトルE とクラスkの第j基底ベクトルE k*との内積は、以下のように変形することで、xとxk*のカーネル関数値k(x,xk*)の線形和として実際に計算できる。
The inner product of the i-th basis vector E i k of class k and the j-th basis vector E j k * of class k * in the above equation is transformed as follows to obtain the kernel function values of x k and x k * It can actually be calculated as a linear sum of k (x k , x k * ).

カーネル直交化行列Oφの第i行ベクトルOは、固有値βに対応する固有ベクトルbを重み係数として、以下のように基底ベクトルE[j](j=1〜r×d)の線形和で表される。
The i-th row vector O i of the kernel orthogonalization matrix O φ uses the eigenvector b i corresponding to the eigenvalue β i as a weighting coefficient, and the linearity of the basis vector E [j] (j = 1 to r × d) as follows: Expressed in sum.

ここでベクトルbはβ(b・b)=1.0を満足するように基準化されている。 Here, the vector b i is normalized so as to satisfy β i (b i · b i ) = 1.0.

更にE[j]はクラスζの第η(j)基底ベクトルとすると、上式は以下のように変形できる。
Further, if E [j] is the η (j) basis vector of class ζ j , the above equation can be modified as follows.

このベクトルOは実際には計算できないが、写像ベクトルφ(x)との内積は計算できる。 This vector O i cannot actually be calculated, but the inner product with the mapping vector φ (x) can be calculated.

[C 写像パターンの直交化変換]
写像ベクトルφ(x)を先に求めたカーネル直交化行列Oφを用いて直交化変換して、変換された学習パターンから辞書部分空間を生成する方法について説明する。
[C Orthogonal transformation of mapping pattern]
A method for generating a dictionary subspace from the learned pattern obtained by orthogonalizing the mapping vector φ (x) using the previously obtained kernel orthogonalization matrix will be described.

写像ベクトルφ(x)のカーネル直交化行列を用いて直交化変換する。これは、入力ベクトルxと(r×m)個の全学習ベクトルxS(S=1〜m,k=1〜r)を用いて次式で計算できる。
An orthogonal transformation is performed using a kernel orthogonalization matrix of the mapping vector φ (x). This can be calculated by the following equation using the input vector x and (r × m) total learning vectors xS k (S = 1 to m, k = 1 to r).

したがって、写像φ(x)を直交化変換したベクトルχ(φ(x))の各成分は以下で表される。
Therefore, each component of the vector χ (φ (x)) obtained by orthogonally transforming the mapping φ (x) is expressed as follows.

[D カーネル直交相互部分空間法のアルゴリズム]
直交化変換されたパターンχ(φ(x))に相互部分空間法を適用すれば、カーネル直交相互部分空間法(KOMSM)が構築できる。図4にその流れを示す。 クラスkに属する全パターンx (i=1〜m)の非線形写像φ(x )をカーネル直交化行列Oφを用いて変換する(ステップ401)。
[D Kernel Orthogonal Mutual Subspace Algorithm]
The kernel orthogonal mutual subspace method (KOMSM) can be constructed by applying the mutual subspace method to the orthogonally transformed pattern χ (φ (x)). FIG. 4 shows the flow. The nonlinear mapping φ (x i k ) of all patterns x i k (i = 1 to m) belonging to the class k is transformed using the kernel orthogonalization matrix O φ (step 401).

変換されたパターンのセットχ(φ(x )),…, χ(φ(x ))にKL展開を適用して線形クラス部分空間P Dφを生成する。具体的には射影パターンのセットから自己相関行列を求め、この固有ベクトルで固有値が大きい方からn個を、n次元線形クラスk部分空間P Dφの基底とする。(ステップ402)
同様に他のクラス部分空間も求める。(ステップ403)
識別処理を行う場合は、入力パターンのセット{x in,…, x in}のカーネル直交化変換したパターン(ステップ404)から線形入力部分空間Pin Dφを求める(ステップ405)。
A linear class subspace P k is generated by applying the KL expansion to the set of transformed patterns χ (φ (x 1 k )),..., Χ (φ (x m k )). Specifically, an autocorrelation matrix is obtained from a set of projection patterns, and n of the eigenvectors having the largest eigenvalues are used as the basis of the n-dimensional linear class k subspace P k . (Step 402)
Similarly, other class subspaces are obtained. (Step 403)
When performing the identification process, the linear input subspace P in is obtained from the pattern obtained by kernel orthogonal transformation (step 404) of the set of input patterns {x 1 in ,..., X m in } (step 405).

in Dφと各クラス部分空間P Dφの成す正準角を類似度として求める(ステップ406)。全ての類似度の中で、しきい値以上で最も高い類似度に該当するクラス部分空間のクラスを入力パターン分布のクラスとする(ステップ407)。 なお、これらの計算手順に限らず、先に学習パターンから各非線形クラス部分空間の基底ベクトル(式(7))を求めておいて、これらの基底ベクトルを直交化変換し、Gram-Schmidtの直交化を適用することにより、クラス部分空間を生成することも可能である。 [第1の実施例]
本実施例は、上述したカーネル直交部分空間法を用いた顔画像認識装置の実施例に関する。本実施例の顔画像認識装置は、顔画像が入力された時に、上記のカーネル直交相互部分空間法により個人認証を行う。本実施例による処理の流れを図1に示し、図2に本実施例の顔画像認識装置200の構成を示す。
A canonical angle formed by P in and each class subspace P k is obtained as a similarity (step 406). Among all the similarities, the class of the class subspace corresponding to the highest similarity equal to or higher than the threshold is set as the input pattern distribution class (step 407). In addition to these calculation procedures, the basis vectors (formula (7)) of each nonlinear class subspace are first obtained from the learning pattern, and these basis vectors are orthogonally transformed to obtain the Gram-Schmidt orthogonality. It is also possible to generate a class subspace by applying the optimization. [First embodiment]
The present embodiment relates to an embodiment of a face image recognition apparatus using the kernel orthogonal subspace method described above. The face image recognition apparatus according to the present embodiment performs personal authentication by the kernel orthogonal mutual subspace method when a face image is input. FIG. 1 shows the flow of processing according to this embodiment, and FIG. 2 shows the configuration of the face image recognition apparatus 200 according to this embodiment.

顔画像認識装置200は、顔入力部201、カーネル直交化行列データ格納部202、カーネル直交化変換部203、入力部分空間生成部204、辞書部分空間格納部205、部分空間間類似度計算部206、顔判定部207からなる。   The face image recognition apparatus 200 includes a face input unit 201, a kernel orthogonalization matrix data storage unit 202, a kernel orthogonalization conversion unit 203, an input subspace generation unit 204, a dictionary subspace storage unit 205, and an intersubspace similarity calculation unit 206. And a face determination unit 207.

顔入力部201は、認識対象とする人物の顔画像をカメラを用いて撮影し(ステップ101)、画像中から顔領域パターンを切り出し(ステップ102)、顔領域パターンをラスタスキャンすることでベクトルへ変換する(ステップ103)。顔領域パターンは、例えば、瞳や鼻孔などの顔の特徴点を抽出し、これらの点の位置関係を基に決定できる。また、時間的に連続に顔画像を獲得することで、認識対象のパターンを常時得ることができる。   The face input unit 201 captures a face image of a person to be recognized using a camera (step 101), extracts a face area pattern from the image (step 102), and raster scans the face area pattern into a vector. Conversion is performed (step 103). The face area pattern can be determined based on the positional relationship between facial features such as pupils and nostrils, for example. In addition, a pattern to be recognized can always be obtained by acquiring face images continuously in time.

カーネル直交化行列データ格納部202は、[B カーネル直交化行列の生成]で述べたように、複数のカテゴリの学習セットからカーネル直交化行列の計算を行うデータセットを、一つないしは複数のセットを保持する。   As described in [B Kernel orthogonalization matrix generation], the kernel orthogonalization matrix data storage unit 202 stores one or a plurality of data sets for calculating a kernel orthogonalization matrix from a plurality of categories of learning sets. Hold the set.

カーネル直交化変換部203は、先に[C 写像パターンの直交化変換]で述べた変換を各入力データに対して非線形変換を行う。予め規定された本数のベクトルが獲得されたら(ステップ104)、そのベクトルに対してカーネル直交化行列による変換を行う(ステップ105)。   The kernel orthogonal transformation unit 203 performs nonlinear transformation on each input data for the transformation described above in [C Mapping Pattern Orthogonalization Transformation]. When a predetermined number of vectors have been acquired (step 104), the vector is converted by a kernel orthogonalization matrix (step 105).

入力部分空間生成部204は、変換されたベクトルに対して主成分分析により入力部分空間を求める(ステップ106)。   The input subspace generation unit 204 obtains an input subspace by principal component analysis for the converted vector (step 106).

辞書部分空間格納部205は、R個の辞書部分空間が格納されている。1個の辞書部分空間は、1人の顔の見え方による個人性を表す。辞書部分空間格納部205は、予め登録された人物の辞書部分空間を記憶する。   The dictionary subspace storage unit 205 stores R dictionary subspaces. One dictionary subspace represents individuality depending on how one person looks. The dictionary subspace storage unit 205 stores a dictionary subspace of a person registered in advance.

部分空間間類似度計算部206は、線形変換されたR個の辞書部分空間と入力部分空間との類似度を、相互部分空間法によりR個算出する(ステップ107)。部分空間線形変換部205において直交化行列で線形変換された入力部分空間をAとし、同様に変換された辞書部分空間をBとする。AとBとの類似度Sは、先も述べたが相互部分空間法により、正準角と呼ばれる二つの部分空間がなす角度θで式(12)において決定される。 The inter-subspace similarity calculation unit 206 calculates R similarities between the linearly converted R dictionary subspaces and the input subspace by the mutual subspace method (step 107). An input subspace linearly transformed by the orthogonal matrix in the subspace linear transformation unit 205 is A, and a dictionary subspace transformed in the same manner is B. As described above, the similarity S between A and B is determined in the equation (12) by an angle θ 1 formed by two subspaces called canonical angles by the mutual subspace method.

類似度Sは、図5の特徴空間501上における入力部分空間502と辞書部分空間503とのなす角度504より決定される。図5において、505は特徴空間の原点を表す。
The similarity S is determined from an angle 504 formed by the input subspace 502 and the dictionary subspace 503 on the feature space 501 in FIG. In FIG. 5, 505 represents the origin of the feature space.

cosθは、以下の行列Xの固有値λの中で最大固有値λmaxとなる。
cos 2 θ 1 is the maximum eigenvalue λ max among eigenvalues λ of the following matrix X.

ここでΨ、φは部分空間A,Bのm、l番目の正規直交基底ベクトル、(Ψ,φ)はΨとφの内積、Nは部分空間の基底ベクトルの本数を表す。 Here, Ψ m and φ l are m of the subspaces A and B, the l-th orthonormal basis vector, (Ψ m , φ l ) is the inner product of Ψ m and φ l , and N is the number of base vectors of the subspace. To express.

顔判定部207は、部分空間間類似度計算部206で算出されたR個の類似度の中でも最も高く、その値が予め設定されたしきい値より大きい場合、その類似度が算出された辞書部分空間に対応する人物を、入力された顔画像が属する人物と出力する。それ以外の場合は、辞書部分空間格納部205に登録されていない人物と出力する。   The face determination unit 207 has the highest similarity among the R similarities calculated by the inter-subspace similarity calculation unit 206, and when the value is larger than a preset threshold, the dictionary in which the similarity is calculated The person corresponding to the partial space is output as the person to which the input face image belongs. In other cases, a person who is not registered in the dictionary subspace storage unit 205 is output.

[第2の実施例]
図7はカーネル直交化変換を行うカーネル直交化変換部700のブロック図である。図6は、直交化行列生成部700による処理のフローチャートである。 カーネル直交化変換部700は、辞書部分空間を生成するためのデータを格納する辞書部分空間データ格納部701と、上述の式(18)の射影計算を行う入力変換部702と、入力変換部702で生成されたデータに対してKL展開を行って固有値および固有ベクトルを計算するKL展開計算部703と、上位n個の固有ベクトルを格納する部分空間格納部704とを有する。
[Second Embodiment]
FIG. 7 is a block diagram of a kernel orthogonal transformation unit 700 that performs kernel orthogonal transformation. FIG. 6 is a flowchart of processing performed by the orthogonalization matrix generation unit 700. The kernel orthogonal transformation unit 700 includes a dictionary subspace data storage unit 701 that stores data for generating a dictionary subspace, an input conversion unit 702 that performs the projection calculation of the above equation (18), and an input conversion unit 702. KL expansion calculation unit 703 for calculating eigenvalues and eigenvectors by performing KL expansion on the data generated in (1), and a partial space storage unit 704 for storing the top n eigenvectors.

以下、カーネル直交化変換部700の処理を図6を用いて説明する。   Hereinafter, the process of the kernel orthogonal transform unit 700 will be described with reference to FIG.

辞書部分空間データ格納部701からR個のデータを抽出する(ステップ601)
入力変換部702は、辞書部分空間格納データ部701のデータと入力データに対して式(18)の射影計算を行い、式(19)の形式に変換する(ステップ602)。
R pieces of data are extracted from the dictionary subspace data storage unit 701 (step 601).
The input conversion unit 702 performs projection calculation of Expression (18) on the data of the dictionary subspace storage data part 701 and input data, and converts the data into the form of Expression (19) (Step 602).

KL展開計算部703は、まず、入力変換部702で生成されたデータに対してKL展開を行い、固有値、固有ベクトルを求める(ステップ603)。   The KL expansion calculation unit 703 first performs KL expansion on the data generated by the input conversion unit 702 to obtain eigenvalues and eigenvectors (step 603).

上位n個の固有ベクトルを部分空間格納部704へ格納する(ステップ604)。 次に、複数のカーネル直交化行列の利用法について述べる。カーネル直交相互部分空間法の汎化能力(未知パターンに対する識別能力)を高めるために、複数の特徴量を組み合わせて識別を行う方法をカーネル直交相互部分空間法に導入する。   The upper n eigenvectors are stored in the subspace storage unit 704 (step 604). Next, how to use a plurality of kernel orthogonalization matrices will be described. In order to enhance the generalization ability (discriminating ability for unknown patterns) of the kernel orthogonal mutual subspace method, a method of identifying by combining a plurality of feature quantities is introduced into the kernel orthogonal mutual subspace method.

直交化変換を複数併用する手法を多重カーネル直交相互部分空間法と呼ぶ。例えば、顔画像認識において、顔全体領域から求められる特徴量と、目の周辺領域から求められる特徴量とを組み合わせて識別を行う場合、上述のカーネル直交化変換部700を用いて各部分領域のみの特徴量の直交化変換を用いるか、あるいは、上述のカーネル直交化変換部700を用いて同じ特徴量に対して異なるR個のカテゴリ集合からなる直交化変換を生成し、その直交化変換を複数行って類似度を求め、その複数の類似度を統合することで実現される。   A method using a plurality of orthogonal transforms together is called a multi-kernel orthogonal mutual subspace method. For example, in the face image recognition, when performing identification by combining a feature amount obtained from the entire face region and a feature amount obtained from the peripheral region of the eye, only the partial regions are used by using the kernel orthogonalization transform unit 700 described above. Or the above-mentioned kernel orthogonalization transform unit 700 is used to generate orthogonal transformations composed of different R category sets for the same feature quantity, and the orthogonal transformation is performed. This is realized by performing a plurality of similarities to obtain a similarity and integrating the plurality of similarities.

本実施例の流れを図8に示し、図9に顔画像認識装置900の構成を示す。顔画像認識装置900は、顔入力部901、入力部分空間データ生成部902、辞書部分空間データ格納部903、カーネル直交化変換データ格納部904、部分空間線形変換部905、部分空間間類似度計算部906、類似度結合部907、顔判定部908からなる。 顔入力部901は顔入力部201と同じ構成でよい。また、入力部分空間データ生成部902は入力部分空間を生成するのに必要なデータを蓄える。辞書部分空間データ格納部903はR個のカテゴリの辞書部分空間を生成するためのデータを格納する。 直交化変化データ格納部904は、類似度計算に用いるM個のカーネル直交化変換を行うためのデータ格納されている。   The flow of this embodiment is shown in FIG. 8, and the configuration of the face image recognition apparatus 900 is shown in FIG. The face image recognition apparatus 900 includes a face input unit 901, an input subspace data generation unit 902, a dictionary subspace data storage unit 903, a kernel orthogonal transformation data storage unit 904, a subspace linear transformation unit 905, and a subspace similarity calculation. A unit 906, a similarity combining unit 907, and a face determination unit 908. The face input unit 901 may have the same configuration as the face input unit 201. The input subspace data generation unit 902 stores data necessary for generating the input subspace. A dictionary subspace data storage unit 903 stores data for generating a dictionary subspace of R categories. The orthogonalization change data storage unit 904 stores data for performing M kernel orthogonalization transforms used for similarity calculation.

顔入力部901においてパターンをベクトルに変換する際には本実施例ではラスタースキャンを用いるものとする。 部分空間非線形変換部905は、直交化変換データ部904に格納されているカーネル直交化変換を実現する一つのセットに対し、辞書部分空間データ格納部903に格納されているR人の辞書部分空間のデータと入力部分空間のデータを用いて変換し、それぞれの部分空間を求める(図8のステップ806)。なお、辞書部分空間の計算はそれぞれ一度行っておいて、保持しておいてもよい。 部分空間間類似度計算部906は、カーネル直交化変換データ格納部905に格納されている1つのカーネル直交化変換で変換された辞書部分空間と入力部分空間の類似度を、第1の実施例と同様に相互部分空間法を用いて算出する(図8のステップ807)。なお、部分空間非線形変換部905、および、部分空間間類似度計算部906は、カーネル直交化変換データ格納部904に格納されているカーネル直交化変換の個数Mだけ存在し独立に計算を行う。 類似度結合部907は、1個の辞書部分空間と入力部分空間に対して、M個のカーネル直交化変換を用いて得られたM個の類似度から、平均、加重平均、最小値、最大値をとることなどで最終的な類似度を出力する(図8のステップ809)。 顔判定部908は上述の顔判定部207と同じ機能を有する。 [変更例]
本発明は上記各実施例に限らず、その主旨を逸脱しない限り種々に変更することができる。例えば、本発明は、顔画像に限らず文字、音声、指紋などをパターンとして用いることもできる。またそれぞれのメディアに応じて、そのままのデータでもよいし、そのデータを加工した特徴量としても、様々なものを用いることができる。
In the present embodiment, raster scanning is used when the face input unit 901 converts a pattern into a vector. The subspace nonlinear transform unit 905 performs the R person dictionary subspace stored in the dictionary subspace data storage unit 903 for one set for realizing the kernel orthogonalization transform stored in the orthogonalization transform data unit 904. And the data of the input subspace are converted to obtain each subspace (step 806 in FIG. 8). Note that the calculation of the dictionary subspace may be performed once and retained. The similarity calculation unit 906 between subspaces calculates the similarity between the dictionary subspace and the input subspace converted by one kernel orthogonalization transformation stored in the kernel orthogonalization transformation data storage unit 905 according to the first embodiment. The calculation is performed using the mutual subspace method as in (Step 807 in FIG. 8). Note that the subspace nonlinear transform unit 905 and the subspace similarity calculation unit 906 exist independently by the number M of kernel orthogonalization transformations stored in the kernel orthogonalization transformation data storage unit 904 and perform calculations independently. The similarity combining unit 907 calculates an average, a weighted average, a minimum value, and a maximum from M similarities obtained by using M kernel orthogonal transformations for one dictionary subspace and an input subspace. The final similarity is output by taking a value or the like (step 809 in FIG. 8). The face determination unit 908 has the same function as the face determination unit 207 described above. [Example of change]
The present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist thereof. For example, the present invention can use not only a face image but also a character, voice, fingerprint, etc. as a pattern. Moreover, the data as it is may be used according to each medium, and various features can be used as the feature amount obtained by processing the data.

また、上記各実施例における構成・処理の一部または全体は、コンピュータにプログラムを実行させることにより実現されても構わない。   In addition, a part or all of the configuration / process in each of the above embodiments may be realized by causing a computer to execute a program.

本発明の第1の実施例の顔画像認識の流れを示す図である。It is a figure which shows the flow of the face image recognition of 1st Example of this invention. 顔画像認識装置200の構成図である。1 is a configuration diagram of a face image recognition device 200. FIG. 非線形変換の概念を示した図である。It is the figure which showed the concept of nonlinear transformation. カーネル直交相互部分空間法の流れを示す図である。It is a figure which shows the flow of a kernel orthogonal mutual subspace method. 部分空間同士の正準角の概念を示した図である。It is the figure which showed the concept of the canonical angle between subspaces. カーネル直交化変換された部分空間の生成の流れを示す図である。It is a figure which shows the flow of the production | generation of the partial space by which the kernel orthogonalization conversion was carried out. 第2の実施例のカーネル直交化変換部700の構成図である。It is a block diagram of the kernel orthogonalization transformation part 700 of a 2nd Example. 顔画像認識の流れを示す図である。It is a figure which shows the flow of face image recognition. 第2の実施例の顔画像認識装置900の構成図である。It is a block diagram of the face image recognition apparatus 900 of 2nd Example.

符号の説明Explanation of symbols

201 顔入力部
202 カーネル直交化行列データ格納部
203 カーネル直交化変換部
204 辞書部分空間格納部
205 部分空間線形変換部
206 部分空間間類似度計算部
207 顔判定部
701 辞書部分空間データ格納部
702 入力変換部
703 KL展開計算部
704 部分空間格納部
901 顔入力部
902 入力部分空間データ生成部
903 辞書部分空間データ格納部
904 カーネル直交化変換データ格納部
905 部分空間非線形変換部
906 部分空間間類似度計算部
907 類似度結合部
908 顔判定部
DESCRIPTION OF SYMBOLS 201 Face input part 202 Kernel orthogonalization matrix data storage part 203 Kernel orthogonalization transformation part 204 Dictionary subspace storage part 205 Subspace linear transformation part 206 Subspace similarity calculation part 207 Face determination part 701 Dictionary subspace data storage part 702 Input transformation unit 703 KL expansion calculation unit 704 Subspace storage unit 901 Face input unit 902 Input subspace data generation unit 903 Dictionary subspace data storage unit 904 Kernel orthogonalization transformation data storage unit 905 Subspace nonlinear transformation unit 906 Similarity between subspaces Degree calculation unit 907 Similarity combination unit 908 Face determination unit

Claims (2)

複数の識別対象の各々にそれぞれ属する複数の辞書パターンを用いて、各辞書パターンに対応する部分空間同士の正準角を直交に近づけるカーネル直交化変換を計算するためのデータセットを求めるカーネル直交化変換生成部と、
前記辞書パターンの各々に対して、前記データセットを用いたカーネル直交化変換を行うことにより、前記各辞書パターンに対応する辞書部分空間を生成する辞書部分空間生成部と、
入力されたパターンに対して、前記データセットを用いたカーネル直交化変換を行って入力部分空間を生成する入力部分空間生成部と、
前記入力部分空間と前記辞書部分空間との類似度を算出する類似度算出部と、
前記類似度算出部で算出された類似度を用いて、前記入力されたパターンが属する前記識別対象を求める認識部と、
を備えるパターン認識装置。
Kernel orthogonalization for obtaining a data set for calculating a kernel orthogonalization transform that approximates the canonical angles of subspaces corresponding to each dictionary pattern by using a plurality of dictionary patterns belonging to each of a plurality of identification objects A conversion generator;
A dictionary subspace generation unit that generates a dictionary subspace corresponding to each dictionary pattern by performing kernel orthogonalization transformation using the data set for each of the dictionary patterns;
An input subspace generation unit that generates an input subspace by performing kernel orthogonalization transformation using the data set for the input pattern;
A similarity calculator that calculates the similarity between the input subspace and the dictionary subspace;
A recognition unit for obtaining the identification target to which the input pattern belongs, using the similarity calculated by the similarity calculation unit;
A pattern recognition apparatus comprising:
複数の識別対象の各々にそれぞれ属する複数の辞書パターンを用いて、各辞書パターンに対応する部分空間同士の正準角を直交に近づけるカーネル直交化変換を計算するためのデータセットを求めるカーネル直交化変換生成ステップと、
前記辞書パターンの各々に対して、前記データセットを用いたカーネル直交化変換を行うことにより、前記各辞書パターンに対応する辞書部分空間を生成する辞書部分空間生成ステップと、
入力されたパターンに対して、前記データセットを用いたカーネル直交化変換を行って入力部分空間を生成する入力部分空間生成ステップと、
前記入力部分空間と前記辞書部分空間との類似度を算出する類似度算出部と、
算出された前記類似度を用いて、前記入力されたパターンが属する前記識別対象を求める認識ステップと、
を備えるパターン認識方法。
Kernel orthogonalization for obtaining a data set for calculating a kernel orthogonalization transform that approximates the canonical angles of subspaces corresponding to each dictionary pattern by using a plurality of dictionary patterns belonging to each of a plurality of identification objects A transformation generation step;
A dictionary subspace generation step for generating a dictionary subspace corresponding to each dictionary pattern by performing kernel orthogonalization transformation using the data set for each of the dictionary patterns;
An input subspace generation step for generating an input subspace by performing kernel orthogonalization transformation using the data set for the input pattern;
A similarity calculator that calculates the similarity between the input subspace and the dictionary subspace;
A recognition step for obtaining the identification target to which the input pattern belongs, using the calculated similarity;
A pattern recognition method comprising:
JP2006189895A 2006-07-10 2006-07-10 Pattern recognition device and method Pending JP2008020963A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006189895A JP2008020963A (en) 2006-07-10 2006-07-10 Pattern recognition device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006189895A JP2008020963A (en) 2006-07-10 2006-07-10 Pattern recognition device and method

Publications (1)

Publication Number Publication Date
JP2008020963A true JP2008020963A (en) 2008-01-31

Family

ID=39076861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006189895A Pending JP2008020963A (en) 2006-07-10 2006-07-10 Pattern recognition device and method

Country Status (1)

Country Link
JP (1) JP2008020963A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010055325A (en) * 2008-08-27 2010-03-11 Univ Of Tsukuba Pattern recognition device and pattern recognition method
JP2010123959A (en) * 2008-11-24 2010-06-03 Brion Technologies Inc Harmonic resist model for use in lithographic apparatus, and device manufacturing method
WO2011018823A1 (en) * 2009-08-12 2011-02-17 株式会社 東芝 Pattern recognition device, method, and program
JP2011096135A (en) * 2009-10-30 2011-05-12 Canon Inc Image processing apparatus and image processing method
JP2019040503A (en) * 2017-08-28 2019-03-14 沖電気工業株式会社 Authentication device, program, and authentication method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010055325A (en) * 2008-08-27 2010-03-11 Univ Of Tsukuba Pattern recognition device and pattern recognition method
JP2010123959A (en) * 2008-11-24 2010-06-03 Brion Technologies Inc Harmonic resist model for use in lithographic apparatus, and device manufacturing method
US8447095B2 (en) 2008-11-24 2013-05-21 Asml Netherlands B.V. Harmonic resist model for use in a lithographic apparatus and a device manufacturing method
US8682059B2 (en) 2008-11-24 2014-03-25 Asml Netherlands B.V. Harmonic resist model for use in a lithographic apparatus and a device manufacturing method
US8942463B2 (en) 2008-11-24 2015-01-27 Asml Netherlands B.V. Harmonic resist model for use in a lithographic apparatus and a device manufacturing method
WO2011018823A1 (en) * 2009-08-12 2011-02-17 株式会社 東芝 Pattern recognition device, method, and program
JP2011096135A (en) * 2009-10-30 2011-05-12 Canon Inc Image processing apparatus and image processing method
JP2019040503A (en) * 2017-08-28 2019-03-14 沖電気工業株式会社 Authentication device, program, and authentication method

Similar Documents

Publication Publication Date Title
Krisshna et al. Face recognition using transform domain feature extraction and PSO-based feature selection
JP3872778B2 (en) Face search method and apparatus using combined component descriptors
JP4483334B2 (en) Image processing device
Li et al. Overview of principal component analysis algorithm
JP5505409B2 (en) Feature point generation system, feature point generation method, and feature point generation program
Smeets et al. Isometric deformation modelling for object recognition
JP4881230B2 (en) Pattern recognition apparatus and method
JP4343125B2 (en) Pattern recognition apparatus and method
Laparra et al. Principal polynomial analysis
JP2008020963A (en) Pattern recognition device and method
Mignon et al. Reconstructing faces from their signatures using RBF regression
Lionnie et al. Biometric identification system based on Principal Component Analysis
Farmanbar et al. A hybrid approach for person identification using palmprint and face biometrics
Omaia et al. 2D-DCT distance based face recognition using a reduced number of coefficients
Elgarrai et al. Face recognition system using Gabor features and HTK toolkit
Jagadeesh et al. DBC based Face Recognition using DWT
Yashavanth et al. Performance analysis of multimodal biometric system using LBP and PCA
Mattar Principal components analysis based iris recognition and identification system
JP5030235B2 (en) Pattern recognition apparatus and pattern recognition method
Arif et al. Pre-image problem in manifold learning and dimensional reduction methods
Kumar et al. Two-dimensional exponential discriminant analysis for small sample size in face recognition
Niyi et al. Performance assessment of principal component analysis and kernel principal component analysis using TOAM Database
JP4514680B2 (en) Pattern recognition apparatus and method
Sajja et al. Face recognition using local binary pattern and Gabor-Kernel Fisher analysis
El-Emary et al. On the application of genetic algorithms in finger prints registration