JP5238580B2 - Feature extraction device and pattern recognition device - Google Patents

Feature extraction device and pattern recognition device Download PDF

Info

Publication number
JP5238580B2
JP5238580B2 JP2009087990A JP2009087990A JP5238580B2 JP 5238580 B2 JP5238580 B2 JP 5238580B2 JP 2009087990 A JP2009087990 A JP 2009087990A JP 2009087990 A JP2009087990 A JP 2009087990A JP 5238580 B2 JP5238580 B2 JP 5238580B2
Authority
JP
Japan
Prior art keywords
matrix
category
feature extraction
unit
subspace
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009087990A
Other languages
Japanese (ja)
Other versions
JP2010238149A (en
Inventor
智一 河原
修 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009087990A priority Critical patent/JP5238580B2/en
Publication of JP2010238149A publication Critical patent/JP2010238149A/en
Application granted granted Critical
Publication of JP5238580B2 publication Critical patent/JP5238580B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、特徴抽出装置及びパターン認識装置に関する。   The present invention relates to a feature extraction device and a pattern recognition device.

特許文献1及び非特許文献1に示す顔認識等の分野で使われているパターン認識手法では、認識するカテゴリ間の差を強調する処理を施すことで、認識性能を向上させている。この手法では、2つのパターンの集合の類似性をパターンの集合から主成分分析により生成した線型部分空間同士の角度で定義している。そのため、カテゴリ間の差は認識するカテゴリ間の部分空間同士の角度で測っており、これらの角度を広げる線型変換によってカテゴリ間の差を強調する処理を行う。  In the pattern recognition methods used in the fields of face recognition and the like shown in Patent Document 1 and Non-Patent Document 1, recognition performance is improved by performing processing that emphasizes the difference between categories to be recognized. In this method, the similarity between two sets of patterns is defined by the angle between linear subspaces generated from the set of patterns by principal component analysis. Therefore, the difference between categories is measured by the angle between the recognized subspaces, and processing for emphasizing the difference between categories is performed by linear transformation that widens these angles.

一方、非特許文献2に示す線型判別分析では、カテゴリ間の差を強調するだけでなく、カテゴリ内の変動を抑える射影により、認識性能を向上させている。この手法では、カテゴリ間の差及びカテゴリ内の変動はパターン間のベクトル空間上の距離で測っている。   On the other hand, in the linear discriminant analysis shown in Non-Patent Document 2, the recognition performance is improved not only by emphasizing the difference between categories but also by projecting to suppress variation within the category. In this method, the difference between categories and the variation within the category are measured by the distance in the vector space between patterns.

特開2006−221479号公報JP 2006-221479 A

Tomokazu Kawahara, Masashi Nishiyama, Tatsuo Kozakaya, Osamu Yamaguchi,: “Face Recognition based on Whitening transformation of Distribution of Subspaces,” Subspace2007 (8th Asian Conference on Computer Vision Workshop) pp. 97-103Tomokazu Kawahara, Masashi Nishiyama, Tatsuo Kozakaya, Osamu Yamaguchi ,: “Face Recognition based on Whitening transformation of Distribution of Subspaces,” Subspace2007 (8th Asian Conference on Computer Vision Workshop) pp. 97-103 “パターン識別”、Richard O. Duda, Peter E. Hart, David G. Stork著、尾上守夫監訳、新技術コミュニケーションズ“Pattern Identification”, by Richard O. Duda, Peter E. Hart, David G. Stork, directed by Morio Onoe, New Technology Communications

特許文献1及び非特許文献1に示す手法では、部分空間の間の角度を基準として使用しているが、カテゴリ間の差のみを強調し、カテゴリ内の変動を抑える処理が全くないため、認識するカテゴリ間の部分空間同士の角度を広げる際、同時に同一カテゴリに属する部分空間の間の角度も広げてしまうという問題があった。  In the methods shown in Patent Document 1 and Non-Patent Document 1, the angle between subspaces is used as a reference. However, since there is no processing that emphasizes only the difference between categories and suppresses variation within the category, When the angle between the partial spaces between the categories to be expanded is increased, the angle between the partial spaces belonging to the same category is also increased at the same time.

また、カテゴリ間の差の強調とカテゴリ内の変動の抑制を同時に行う非特許文献2に示す手法は、カテゴリ間の差及びカテゴリ内の変動を測る基準が部分空間の間の角度ではなく、パターンの間のベクトル空間上の距離であるため、2つのパターンの集合の類似性をパターンの集合から主成分分析により生成した線型部分空間同士の角度で定義する手法では基準が異なり、使用することができなかった。  In addition, the method shown in Non-Patent Document 2 that simultaneously emphasizes the difference between categories and suppresses the variation within the category is based on the fact that the reference for measuring the difference between the categories and the variation within the category is not an angle between the subspaces. Since the distance in the vector space is defined by the angle between the linear subspaces generated by principal component analysis from the set of patterns, the standard is different and can be used. could not.

本発明は、上記の問題点に鑑みてなされたものであり、異なるカテゴリの部分空間同士の角度を広げつつ、同じカテゴリに属する部分空間の間の角度は狭めることを目的とする。   The present invention has been made in view of the above-described problems, and an object thereof is to narrow the angle between partial spaces belonging to the same category while widening the angle between the partial spaces of different categories.

上記目的を達成するために、本発明の特徴抽出装置は、複数の部分空間と前記複数の部分空間の各々が属するカテゴリとを取得する取得部と、前記部分空間から射影行列を生成する射影行列生成部と、前記カテゴリのうち同じカテゴリに属する部分空間を複数用いて、カテゴリ内変動行列を生成するカテゴリ内変動行列生成部と、前記カテゴリのうち異なるカテゴリに属する部分空間を複数用いて、カテゴリ間変動行列を生成するカテゴリ内変動行列生成部と、前記カテゴリ内変動行列と前記カテゴリ間変動行列とから定義される固有値問題から得られる固有値と固有ベクトルとを計算する固有値問題計算部と、前記固有値と前記固有ベクトルとから特徴抽出で使用される特徴抽出行列を計算する特徴抽出計算部と、を備え、前記カテゴリ内変動行列は、前記同じカテゴリに属する部分空間から前記射影行列生成部により生成された射影行列の積の線型和により計算され、前記カテゴリ間変動行列は、前記異なるカテゴリに属する部分空間から前記射影行列生成部により生成された射影行列の積の線型和により計算されることを特徴とする。  To achieve the above object, the feature extraction apparatus of the present invention includes an acquisition unit that acquires a plurality of partial spaces and a category to which each of the plurality of partial spaces belongs, and a projection matrix that generates a projection matrix from the partial spaces. A plurality of subspaces belonging to the same category among the categories, a variation matrix generation unit within category that generates an intra-category variation matrix, and a plurality of subspaces belonging to different categories among the categories, An intra-category variation matrix generating unit that generates an inter-variation matrix, an eigenvalue problem calculating unit that calculates an eigenvalue and an eigenvector obtained from an eigenvalue problem defined from the intra-category variation matrix and the inter-category variation matrix, and the eigenvalue And a feature extraction calculation unit for calculating a feature extraction matrix used in feature extraction from the eigenvector, The dynamic matrix is calculated by a linear sum of products of the projection matrices generated by the projection matrix generation unit from the subspaces belonging to the same category, and the inter-category variation matrix is calculated from the subspaces belonging to the different categories. It is calculated by a linear sum of products of projection matrices generated by the generation unit.

異なるカテゴリの部分空間同士の角度を広げつつ、同じカテゴリに属する部分空間の間の角度は狭めることができるため、認識性能を向上させることができる。   Since the angles between the partial spaces belonging to the same category can be narrowed while widening the angles between the partial spaces of different categories, the recognition performance can be improved.

パターン認識装置の構成図である。It is a block diagram of a pattern recognition apparatus. 特徴抽出部の構成図である。It is a block diagram of a feature extraction part. パターン認識部の構成図である。It is a block diagram of a pattern recognition part. 特徴抽出部の動作を表したフローチャートを示す図である。It is a figure which shows the flowchart showing operation | movement of the feature extraction part. パターン認識部の動作を表したフローチャートを示す図である。It is a figure which shows the flowchart showing operation | movement of the pattern recognition part.

本発明の実施形態に係る特徴抽出装置及びパターン認識装置は、画像をはじめ、音声など、特徴量をベクトルとして扱う様々な分野のパターン認識に適用可能である。以下、本発明の実施形態について、図1、図2及び図3を用いて説明する。  The feature extraction device and the pattern recognition device according to the embodiment of the present invention can be applied to pattern recognition in various fields in which feature amounts are treated as vectors, such as images and sounds. Hereinafter, embodiments of the present invention will be described with reference to FIGS. 1, 2, and 3.

図1は、本発明の実施形態に係るパターン認識装置10の構成図である。パターン認識装置10は、パターン、特徴ベクトル又は特徴抽出行列などのデータを取得する取得部101と、制御部102と、演算結果を出力する出力部103と、取得部101で取得したデータなどを記憶する記憶部104と、を備える。制御部102はまた、特徴抽出部105と、パターン認識部106と、を有する。  FIG. 1 is a configuration diagram of a pattern recognition apparatus 10 according to an embodiment of the present invention. The pattern recognition apparatus 10 stores an acquisition unit 101 that acquires data such as a pattern, a feature vector, or a feature extraction matrix, a control unit 102, an output unit 103 that outputs a calculation result, and data acquired by the acquisition unit 101. Storage unit 104. The control unit 102 also includes a feature extraction unit 105 and a pattern recognition unit 106.

図2は、特徴抽出部105の構成図である。特徴抽出部105は、学習用パターン取得部201と、特徴ベクトル生成部202と、学習用部分空間生成部203と、射影行列生成部204と、カテゴリ内変動行列生成部205と、カテゴリ間変動行列生成部206と、固有値問題計算部207と、特徴抽出行列出力部208と、を備える。特徴抽出部105は、特徴抽出装置として機能する。  FIG. 2 is a configuration diagram of the feature extraction unit 105. The feature extraction unit 105 includes a learning pattern acquisition unit 201, a feature vector generation unit 202, a learning subspace generation unit 203, a projection matrix generation unit 204, an intra-category variation matrix generation unit 205, and an inter-category variation matrix. A generation unit 206, an eigenvalue problem calculation unit 207, and a feature extraction matrix output unit 208 are provided. The feature extraction unit 105 functions as a feature extraction device.

図3は、パターン認識部106の構成図である。パターン認識部106は、パターン取得部301と、特徴ベクトル生成部302と、部分空間生成部303と、特徴抽出適用部304と、類似度計算部305と、判定部306と、を備える。  FIG. 3 is a configuration diagram of the pattern recognition unit 106. The pattern recognition unit 106 includes a pattern acquisition unit 301, a feature vector generation unit 302, a subspace generation unit 303, a feature extraction application unit 304, a similarity calculation unit 305, and a determination unit 306.

図4は、特徴抽出部105の動作を表したフローチャートを示す図である。  FIG. 4 is a flowchart illustrating the operation of the feature extraction unit 105.

ステップS201では、学習用パターン取得部201は、取得部101で取得した認識対象となるパターンとそのパターンが属するカテゴリを記憶部104に送り、記憶部104に記憶させる。入力されるパターン及びカテゴリは、予めハードディスクやメモリカードなどの記憶媒体に記憶されたものや、パターンが画像の場合は、例えばパソコンに接続したカメラなどで実現できる。パターンが音声の場合は、例えばパソコンに接続したマイクなどで実現できる。   In step S <b> 201, the learning pattern acquisition unit 201 sends the pattern to be recognized acquired by the acquisition unit 101 and the category to which the pattern belongs to the storage unit 104 and causes the storage unit 104 to store the pattern. The pattern and category to be input can be realized in advance by being stored in a storage medium such as a hard disk or a memory card, or when the pattern is an image, for example, by a camera connected to a personal computer. When the pattern is voice, it can be realized by a microphone connected to a personal computer, for example.

ステップS202では、特徴ベクトル生成部202は、記憶部104に記憶された1つ以上のパターンを処理することによって、1つ以上の特徴ベクトルを生成し、記憶部104に記憶させる。以下、この処理によって生成されたベクトルを「特徴ベクトル」と呼ぶ。入力されたパターンが画像の場合は、例えば、ラスタスキャンによりベクトルに変換する。入力されたパターンが音声の場合は、例えば、一定時間内の音声の周波数成分を並べたベクトルを使用する。  In step S <b> 202, the feature vector generation unit 202 generates one or more feature vectors by processing one or more patterns stored in the storage unit 104 and stores the one or more feature vectors in the storage unit 104. Hereinafter, a vector generated by this process is referred to as a “feature vector”. When the input pattern is an image, it is converted into a vector by raster scanning, for example. When the input pattern is speech, for example, a vector in which the frequency components of speech within a certain time are arranged is used.

ステップS203では、学習用部分空間生成部203は、記憶部104に記憶されているカテゴリ情報に基づいて、同じカテゴリに属する1つ以上の特徴ベクトルから、以下の計算を行うことで得られる部分空間の基底を計算し、記憶部104に記憶させる。特徴ベクトルが1つの場合は、そのベクトルの長さを1に正規化し、特徴抽出部105へ出力する。複数の場合は、非特許文献1の方法で、部分空間の基底を計算し、特徴抽出部105へ出力する。非特許文献1の方法は、複数の特徴ベクトルをx…xとしたとき、(数式1)で定義される自己相関行列を計算し、予め定めた数だけ固有値の大きい固有ベクトルを選び部分空間の基底とする。ただし、xはベクトルxの転置である。

Figure 0005238580
In step S203, the learning subspace generation unit 203 performs a subspace obtained by performing the following calculation from one or more feature vectors belonging to the same category based on the category information stored in the storage unit 104. Is calculated and stored in the storage unit 104. When there is one feature vector, the length of the vector is normalized to 1 and output to the feature extraction unit 105. In the case of a plurality, the base of the partial space is calculated by the method of Non-Patent Document 1 and output to the feature extraction unit 105. In the method of Non-Patent Document 1, when a plurality of feature vectors are x 1 ... X n , the autocorrelation matrix defined by (Formula 1) is calculated, eigenvectors having a large eigenvalue by a predetermined number are selected, and the subspace is selected. The base of. However, x T is the transpose of the vector x.
Figure 0005238580

以下、この処理によって生成された部分空間の基底を学習用部分空間の基底と呼ぶ。また、この基底が属するカテゴリは、生成に使用した特徴ベクトルが属するカテゴリと同じものとする。   Hereinafter, the base of the subspace generated by this process is referred to as the base of the learning subspace. The category to which the base belongs is the same as the category to which the feature vector used for generation belongs.

ステップS204では、射影行列生成部204は、学習用部分空間の基底から射影行列を生成する。   In step S204, the projection matrix generation unit 204 generates a projection matrix from the basis of the learning subspace.

ステップS205では、カテゴリ内変動行列生成部205は、記憶部104に記憶されている学習用部分空間の基底とその基底が属するカテゴリを用いて、以下に定義及び計算方法を記述するカテゴリ内変動行列W(数式10)を計算する。また、カテゴリ内変動行列生成部205は、計算結果を記憶部104に記憶させる。  In step S205, the intra-category variation matrix generation unit 205 uses the bases of the learning subspace stored in the storage unit 104 and the categories to which the bases belong, and the intra-category variation matrix that describes the definition and calculation method below. W (Formula 10) is calculated. In addition, the intra-category variation matrix generation unit 205 stores the calculation result in the storage unit 104.

まず、記号を設定する。特徴空間の次元をC、カテゴリ数をN、学習用部分空間の次元を d、各カテゴリi(i=1,…,N)に属するL個の部分空間をVi1,…,iLi、各部分空間への射影行列をPi1,…,iLiとする。ただし、正規直交基底Ψ1…Ψで張られる部分空間への射影行列Pを(数式2)と定義する。

Figure 0005238580
First, set the symbol. The dimensionality of the feature space C, and the number of category N, the dimension of learning subspace d, each category i (i = 1, ..., N) belongs to L i-number of the subspace V i1, ..., V iLi, Let P i1,..., P iLi be the projection matrix onto each subspace. However, a projection matrix P onto a subspace spanned by orthonormal basis Ψ 1... Ψ d is defined as (Equation 2).
Figure 0005238580

次に各カテゴリiの平均部分空間Mを定義する。(数式3)で定義される行列の固有ベクトルをφi1,…,φiC、対応する固有値をμi1≧μiCとすると、固有値が大きいd’の固有ベクトルφi1,…,φid’を基底とする部分空間を各カテゴリiのd’次元平均部分空間Mと定義する。平均部分空間Mの次元d’は、実験により適切な値を求めてもよい。また、学習用部分空間の次元と同じdにしてもよい。

Figure 0005238580
Next, define the average subspace M i of each category i. I1 eigenvectors defined by the matrix in (Equation 3) φ, ..., φ iC , when the corresponding eigenvalues and μ i1 ≧ ... ≧ μ iC, ' eigenvectors phi i1 of, ..., φ id' eigenvalues greater d an A base subspace is defined as a d′-dimensional average subspace M i of each category i. For the dimension d ′ of the average subspace M i, an appropriate value may be obtained by experiment. Alternatively, d may be the same as the dimension of the learning subspace.
Figure 0005238580

ここで、各カテゴリiの平均部分空間Mについて説明する。各カテゴリiの平均部分空間Mの定義は、平均ベクトルを角度に基づいて拡張したものである。まず、平均ベクトルを特徴付ける性質について述べる。n個のベクトルx1…xの平均ベクトルx−(xバー)=x+…+x/nは、各ベクトルからの距離の2乗和が最小となるベクトルと特徴付けられる。すなわち、平均ベクトルx−(xバー)は、以下の ベクトルxに関する関数(数式4)の最小値を与えるベクトルである。ただし、||○||は特徴空間のノルムとする。

Figure 0005238580
Here, the average subspace Mi of each category i will be described. The definition of the average subspace M i for each category i is an extension of the average vector based on the angle. First, the characteristics that characterize the average vector will be described. mean vector x- (x bar) = x 1 + ... + x n / n of n vectors x 1 ... x n are characterized as vector sum of squares of distances from each vector is minimized. That is, the average vector x− (x bar) is a vector that gives the minimum value of the following function (equation 4) concerning the vector x. However, || ○ || is the norm of the feature space.
Figure 0005238580

次に、2つの部分空間の間の角度とその射影行列の積との関係について述べる。2つのd次元部分空間をV’、 V’、その射影行列をQ’、 Q’、部分空間V’、 V’の間のd個の正準角をθ(1) ,…,θ(d)、tr を行列のトレースとすると、行列と正準角の間で(数式5)が成り立つ。すなわち、2つの部分空間の間に定義される複数の正準各の余弦の2乗和が射影行列の積のトレースによって計算できる。正準角の定義及び(数式5)の導出等は非特許文献1に詳しい。(数式5)の値は大きいほど部分空間V’、 V’は近くなる。

Figure 0005238580
Next, the relationship between the angle between two subspaces and the product of its projection matrix will be described. Two d-dimensional subspaces V 1 ′, V 2 ′, their projection matrices Q 1 ′, Q 2 ′, d canonical angles between subspaces V 1 ′, V 2 ′ are θ (1) ,..., Θ (d) , tr are matrix traces, Equation 5 is established between the matrix and the canonical angle. That is, the square sum of cosines of each of a plurality of canons defined between two subspaces can be calculated by tracing the product of projection matrices. The definition of the canonical angle and the derivation of (Formula 5) are detailed in Non-Patent Document 1. The larger the value of (Formula 5), the closer the subspaces V 1 ′ and V 2 ′ are.
Figure 0005238580

(数式4)の最小化問題を正準角に基づく距離(数式5)に書き換える。(数式4)のベクトルを部分空間に、特徴空間の距離を正準角に基づいた距離(数式5)に変えると、(数式6)を最大化するd’次元部分空間V’を求める問題となる。ただし、n個の部分空間をV1,…,、その射影行列をQ1,…,、d’次元部分空間V’への射影行列をQとする。

Figure 0005238580
The minimization problem of (Formula 4) is rewritten to a distance based on the canonical angle (Formula 5). When the vector of (Equation 4) is changed to a subspace and the distance of the feature space is changed to a distance (Equation 5) based on the canonical angle, a problem of obtaining a d′-dimensional subspace V ′ that maximizes (Equation 6) Become. Here, n subspaces are denoted by V 1,..., V n , projection matrices thereof are denoted by Q 1,..., Q n , and projection matrices to d′-dimensional subspace V ′ are denoted by Q.
Figure 0005238580

最大化問題を解くために、(数式6)を以下の(数式7)のように変形する。ただし、Φ及びΔはそれぞれ、ΣQ(p=1からp=nまでの和)の固有ベクトルを並べた行列、対角線上に固有値を並べた対角行列で、Xはd’次元部分空間V’の正規直交基底を並べた行列である。

Figure 0005238580
In order to solve the maximization problem, (Equation 6) is transformed into (Equation 7) below. Here, Φ and Δ are respectively a matrix in which eigenvectors of ΣQ p (sum from p = 1 to p = n) are arranged, and a diagonal matrix in which eigenvalues are arranged on a diagonal line, and X is a d′-dimensional subspace V ′. Is a matrix in which orthonormal bases are arranged.
Figure 0005238580

(数式7)は、ΦΔΦが定める2次形式の問題となるため、XにΣQ(p=1からp=nまでの和)=ΦΔΦの固有ベクトルのうち、固有値の大きいd’個を代入したとき、最大となる。これは、前記定義した部分空間V1,…,の平均部分空間が(数式6)の値を最大にする部分空間であることを示している。 (Formula 7) is a problem of the quadratic form defined by ΦΔΦ T. Therefore, among the eigenvectors of ΣQ p (sum of p = 1 to p = n) = ΦΔΦ T , X ′ When substituted, it becomes maximum. This indicates that the average subspace of the defined subspaces V 1,..., V n is a subspace that maximizes the value of (Equation 6).

さて、カテゴリiの平均部分空間Mを使い、カテゴリiのカテゴリ内変動行列Wを(数式8)で定義する。ただし、Pは平均部分空間Mの射影行列とする。

Figure 0005238580
Now, using the average subspace M i of category i, the intra-category variation matrix W i of category i is defined by (Equation 8). Note that P i is a projection matrix of the average subspace M i .
Figure 0005238580

カテゴリiのカテゴリ内変動行列W(数式8)と部分空間の角度の関係について説明する。(数式8)に(数式5)を適用することで、(数式9)が得られる。ただし、θik (1) ,…,θik (d)は部分空間M、Vikの間のd個の正準角とする。

Figure 0005238580
The relationship between the intra-category variation matrix W i (Formula 8) of category i and the angle of the subspace will be described. (Expression 9) is obtained by applying (Expression 5) to (Expression 8). Here, θ ik (1) ,..., Θ ik (d) are d canonical angles between the subspaces M i and V ik .
Figure 0005238580

これにより、カテゴリiのカテゴリ内変動行列W(数式8)のトレースはカテゴリiに属する学習用部分空間とその平均部分空間の間の正準角の余弦の2乗の平均となる。 As a result, the trace of the intra-category variation matrix W i (formula 8) of category i is the average of the cosine squares of the canonical angles between the learning subspace belonging to category i and the average subspace.

カテゴリ内変動行列Wを、各カテゴリiのカテゴリ内変動行列Wの平均として以下のように定義する。

Figure 0005238580
Category fluctuation matrix W, is defined as follows as an average of the category fluctuation matrix W i of each category i.
Figure 0005238580

ステップS206では、カテゴリ間変動行列生成部206は、記憶部104に記憶されている学習用部分空間の基底とその基底が属するカテゴリを用いて、以下に定義及び計算方法を記述するカテゴリ間変動行列B(数式11)を計算する。また、カテゴリ間変動行列生成部206は、その計算結果を記憶部104に記憶させる。カテゴリ間変動行列は、各カテゴリiの平均部分空間Mの射影行列Pを使い、以下の(数式11)で定義する。

Figure 0005238580
In step S206, the inter-category variation matrix generation unit 206 uses the bases of the learning subspace stored in the storage unit 104 and the categories to which the bases belong, and the inter-category variation matrix that describes the definition and calculation method below. B (Formula 11) is calculated. Further, the inter-category variation matrix generation unit 206 stores the calculation result in the storage unit 104. The inter-category variation matrix is defined by the following (Equation 11) using the projection matrix P i of the average subspace M i of each category i.
Figure 0005238580

(数式11)の右辺は、P を使い、式変形することで得られる。カテゴリ間変動行列B(数式11)と部分空間の角度の関係について説明する。(数式11)に(数式5)を適用することで、(数式12)が得られる。ただし、θik (1) ,…,θik (d)は部分空間M、V1kの間のd個の正準角とする。

Figure 0005238580
The right side of (Formula 11) is obtained by transforming the formula using P i 2 = P i . The relationship between the inter-category variation matrix B (Formula 11) and the angle of the subspace will be described. (Formula 12) is obtained by applying (Formula 5) to (Formula 11). Here, θ ik (1) ,..., Θ ik (d) are d canonical angles between the subspaces M i and V 1k .
Figure 0005238580

ただし、τik (1) ,…,τik (d’)はカテゴリiの平均部分空間Mとカテゴリjの平均部分空間Mの間のd’個の正準角とする。これにより、カテゴリ間変動行列B(数式11)のトレースは、各カテゴリの平均部分空間同士の正準角の余弦の2乗の平均となる。 Here, τ ik (1) ,..., Τ ik (d ′) are d ′ canonical angles between the average subspace M i of category i and the average subspace M j of category j. Thus, the trace of the inter-category variation matrix B (Formula 11) is the average of the cosine squares of the canonical angles between the average subspaces of each category.

ステップS207では、固有値問題計算部207は、記憶部104に記憶されたカテゴリ内変動行列Wとカテゴリ間変動行列Bから、以下の行列(数式13)の固有値と固有ベクトルを計算する。また、固有値問題計算部207は、記憶部104に固有値と固有ベクトルを記憶させる。ただし、αは、実験により求める重み係数とする。Λは(数式13)の左辺の行列の固有値を対角線上に並べた対角行列、Hはその固有ベクトルを並べた行列とする。

Figure 0005238580
In step S207, the eigenvalue problem calculation unit 207 calculates eigenvalues and eigenvectors of the following matrix (Formula 13) from the intra-category variation matrix W and the inter-category variation matrix B stored in the storage unit 104. In addition, the eigenvalue problem calculation unit 207 causes the storage unit 104 to store eigenvalues and eigenvectors. Here, α is a weighting coefficient obtained through experiments. Λ is a diagonal matrix in which the eigenvalues of the matrix on the left side of (Equation 13) are arranged diagonally, and H is a matrix in which the eigenvectors are arranged.
Figure 0005238580

(数式13)の行列と部分空間の角度の関係について説明する。(数式13)の行列のトレースは、(数式9)及び(数式12)から、各カテゴリに属する学習用部分空間とその平均部分空間の間の正準角の余弦の2乗の平均から各カテゴリの平均部分空間同士の正準角の余弦の2乗の平均を重み付けして引いたものとなる。これにより、(数式13)の行列の固有値は、対応する固有ベクトル方向の、角度を基準とした、各カテゴリ内の変動成分からカテゴリ間の差の成分を引いた値となる。  The relationship between the matrix of (Formula 13) and the angle of the subspace will be described. The trace of the matrix of (Equation 13) is obtained from (Equation 9) and (Equation 12) from the average of the cosine square of the canonical angle between the learning subspace belonging to each category and the average subspace. The average of the cosine squares of the canonical angles between the average subspaces is weighted and subtracted. Thereby, the eigenvalue of the matrix of (Equation 13) is a value obtained by subtracting the difference component between the categories from the variation component in each category on the basis of the angle in the corresponding eigenvector direction.

ステップS208では、特徴抽出行列出力部208は、記憶部104に記憶された固有値問題計算部207で得られた固有ベクトルのうち、固有値の大きい方からD個から以下に定義する行列H を計算する。また、特徴抽出行列出力部208は、その計算結果を記憶部104に記憶させるか又は出力部103に送る。ただし、Hは、固有値の大きい方からD個選んだ(数式13)の固有ベクトルν1,…,ν(縦ベクトル)を使い(数式14)のように定義する。またTは行列の転置を表す。固有ベクトルの数Dは実験等により定める。

Figure 0005238580
In step S208, the feature extraction matrix output unit 208 calculates the matrix H D T defined below from the D eigenvectors obtained by the eigenvalue problem calculation unit 207 stored in the storage unit 104 in descending order of eigenvalues. To do. The feature extraction matrix output unit 208 stores the calculation result in the storage unit 104 or sends it to the output unit 103. However, H D is, eigenvectors ν 1 chose D pieces from the larger of the eigenvalues (Equation 13), ..., defined as ν D (vertical vector) using the (Equation 14). T represents transposition of the matrix. The number of eigenvectors D is determined by experiments or the like.
Figure 0005238580

図5は、パターン認識部106の動作を表したフローチャートを示す図である。  FIG. 5 is a flowchart illustrating the operation of the pattern recognition unit 106.

ステップS301では、パターン取得部301は、取得部101で取得した認識対象となるパターンを記憶部104に記憶させる。取得するパターンは、予めハードディスクやメモリカードなどの記憶媒体に記憶されたものや、パターンが画像の場合は、例えばパソコンに接続したカメラなどで実現できる。パターンが音声の場合は、例えばパソコンに接続したマイクなどで実現できる。  In step S <b> 301, the pattern acquisition unit 301 stores the pattern to be recognized acquired by the acquisition unit 101 in the storage unit 104. The pattern to be acquired can be realized in advance in a storage medium such as a hard disk or a memory card, or when the pattern is an image, for example, with a camera connected to a personal computer. When the pattern is voice, it can be realized by a microphone connected to a personal computer, for example.

ステップS302では、特徴ベクトル生成部302は、特徴ベクトル生成部202と同様の処理を行う。   In step S <b> 302, the feature vector generation unit 302 performs the same process as the feature vector generation unit 202.

ステップS303では、部分空間生成部303は、記憶部104に記憶された1つ以上の特徴ベクトルから、学習用部分空間生成部203と同様の処理を行い、計算した部分空間の基底を記憶部104に記憶させる。  In step S <b> 303, the subspace generation unit 303 performs processing similar to that of the learning subspace generation unit 203 from one or more feature vectors stored in the storage unit 104, and stores the calculated subspace bases in the storage unit 104. Remember me.

ステップS304では、特徴抽出適用部304は、記憶部104に記憶された特徴抽出行列と部分空間生成部303で得られた部分空間の基底に対して、特徴抽出行列による掛け算を施した後、Gram−Schmidt直交化を施し、得られた部分空間の基底を記憶部104に記憶させる。記憶部104に記憶された特徴抽出行列は、異なる装置から出力されたものを取得部101で取得し、記憶部104に送り、記憶したものを使用しても良い。また、予めハードディスクやメモリカードなどの記憶媒体に記憶されたものを取得部101から記憶部104へ送ったものでも良い。以下、この処理で得られた部分空間を取得部分空間と呼ぶ。  In step S304, the feature extraction application unit 304 multiplies the feature extraction matrix stored in the storage unit 104 and the base of the subspace obtained by the subspace generation unit 303 using the feature extraction matrix, and then Gram. -Perform Schmidt orthogonalization and store the obtained base of the subspace in the storage unit 104. As the feature extraction matrix stored in the storage unit 104, a feature extraction matrix output from a different device may be acquired by the acquisition unit 101, sent to the storage unit 104, and stored. Moreover, what was previously stored in a storage medium such as a hard disk or a memory card may be sent from the acquisition unit 101 to the storage unit 104. Hereinafter, the partial space obtained by this processing is referred to as an acquisition partial space.

ステップS305では、類似度計算部305は、記憶部104に記憶された取得部分空間と、予め認識対象のカテゴリのパターンに対して、パターン取得部301、特徴ベクトル生成部302、部分空間生成部303、特徴抽出適用部304で行われる処理を行う。また、類似度計算部305は、生成した部分空間の基底(以下、この部分空間を「辞書部分空間」と呼ぶ)から、以下に定義する類似度を計算し、その計算結果を記憶部104に記憶させる。記憶部104に記憶された辞書部分空間の基底は、予めハードディスクやメモリカードなどの記憶媒体に記憶されたものを取得部101から記憶部104へ送ったものでも良い。  In step S305, the similarity calculation unit 305 performs a pattern acquisition unit 301, a feature vector generation unit 302, and a partial space generation unit 303 on the acquired partial space stored in the storage unit 104 and the pattern of the category to be recognized in advance. The processing performed by the feature extraction application unit 304 is performed. The similarity calculation unit 305 calculates the similarity defined below from the base of the generated subspace (hereinafter, this subspace is referred to as “dictionary subspace”), and stores the calculation result in the storage unit 104. Remember. The base of the dictionary subspace stored in the storage unit 104 may be the one stored in advance in a storage medium such as a hard disk or a memory card and sent from the acquisition unit 101 to the storage unit 104.

類似度は、非特許文献1にある方法を用いて計算することができる。すなわち、取得部分空間と辞書部分空間のなす角θの余弦の2乗cosθを類似度とし、このcosθを以下のように計算する。取得部分空間と辞書部分空間の正規直交基底をそれぞれφ1,…,φ、Ψ1,…,Ψとし、(数式15)のxijを成分に持つM×M行列X=(xij)について、

Figure 0005238580
The similarity can be calculated using the method described in Non-Patent Document 1. That is, the cosine square cos 2 θ 1 of the angle θ 1 formed by the acquisition subspace and the dictionary subspace is used as the similarity, and this cos 2 θ 1 is calculated as follows. The orthonormal bases of the acquisition subspace and the dictionary subspace are φ 1,..., Φ M , Ψ 1,..., Ψ N , respectively, and an M × M matrix X = (x ij ) having x ij in (Equation 15) as components. )about,
Figure 0005238580

Xの固有値をλ1,…,λ(λ≧λ)とすると、最大固有値λが求める類似度となる(数式16)。

Figure 0005238580
If the eigenvalues of X are λ 1,..., Λ M1... ≧ λ M ), the maximum eigenvalue λ 1 is the similarity obtained (Formula 16).
Figure 0005238580

ステップ306では、判定部306は、記憶部104に記憶された類似度に基づいて、登録されたカテゴリの中で最も類似度が高く、その値が予め設定された閾値より大きい場合、そのカテゴリを入力されたパターンの属するカテゴリとして、それ以外の場合は該当するカテゴリなしと判定する。また、判定部306は、その判定結果を出力部103に出力する。  In step 306, based on the similarity stored in the storage unit 104, the determination unit 306 has the highest similarity among the registered categories, and if the value is greater than a preset threshold, the determination unit 306 Otherwise, it is determined that there is no corresponding category as the category to which the input pattern belongs. Further, the determination unit 306 outputs the determination result to the output unit 103.

(変形例1)
特徴抽出行列出力部208は、特徴抽出行列をΛ −1/2 として出力してもよい。ただし、Λ −1/2は、固有値を大きい方からD個選び、各固有値の平方根の逆数を対角線上に並べた対角行列である。このとき、固有値の大きい方からD個選ぶのではなく、すべての固有値と固有ベクトルを使用してもよい。以後、この変換を白色化変換と呼ぶ。
(Modification 1)
The feature extraction matrix output unit 208 may output the feature extraction matrix as Λ D −1/2 H D T. However, Λ D −1/2 is a diagonal matrix in which D eigenvalues are selected from the larger one and the reciprocal of the square root of each eigenvalue is arranged on a diagonal line. At this time, instead of selecting D from the larger eigenvalues, all eigenvalues and eigenvectors may be used. Hereinafter, this conversion is referred to as whitening conversion.

(変形例2)
カテゴリ内変動行列生成部205で得られる各カテゴリiのカテゴリ内変動行列Wとカテゴリ間変動行列生成部206で得られるカテゴリ間変動行列Bとして、各カテゴリiの平均部分空間Mを使わずに定義する以下のものを用いてもよい。具体的には、各カテゴリiのカテゴリ内変動行列を以下で定義fするW〜(数式17)に、カテゴリ間変動行列をB〜(数式18)に変えても良い。

Figure 0005238580
Figure 0005238580
(Modification 2)
As a category between fluctuation matrix B obtained in the category fluctuation matrix W i and a category variability matrix generator 206 for each category i obtained in the category fluctuation matrix generation unit 205, without using the average subspace M i for each category i The following may be used. Specifically, the intra-category variation matrix of each category i may be changed to W i defined by f to (Equation 17), and the inter-category variation matrix may be changed to B to (Equation 18).
Figure 0005238580
Figure 0005238580

また、このとき、特徴抽出行列出力部208で、出力する特徴抽出行列を(変形例1)のようにしても良い。  At this time, the feature extraction matrix output unit 208 may output the feature extraction matrix as in (Modification 1).

(変形例3)
固有値問題計算部207で、(数式13)の行列の代わりに以下の行列(数式19)の固有値問題を解き、その固有値及び固有ベクトルを用いて特徴抽出行列出力部208で出力する特徴抽出行列を生成してもよい。また、このとき、特徴抽出行列として、(変形例1)の特徴抽出行列を使用してもよい。また、各カテゴリiのカテゴリ内変動行列Wとカテゴリ間変動行列Bをそれぞれ(変形例2)のW〜とB〜ものを用いても良い。

Figure 0005238580
(Modification 3)
The eigenvalue problem calculation unit 207 solves the eigenvalue problem of the following matrix (Equation 19) instead of the matrix of (Equation 13), and generates a feature extraction matrix output by the feature extraction matrix output unit 208 using the eigenvalue and eigenvector. May be. At this time, the feature extraction matrix of (Modification 1) may be used as the feature extraction matrix. It is also possible to use a W i ~ and B~ of the categories in the fluctuation matrix W i and a category between fluctuation matrix B of each category i, respectively (Modification 2).
Figure 0005238580

(変形例4)
固有値問題計算部207で、(数式13)の固有値問題を解く代わりに、以下の一般化固有値問題(数式20)を解き、その固有値及び固有ベクトルを用いて特徴抽出行列出力部208で出力する特徴抽出行列を生成してもよい。

Figure 0005238580
(Modification 4)
Instead of solving the eigenvalue problem of (Equation 13) in the eigenvalue problem calculation unit 207, the following generalized eigenvalue problem (Equation 20) is solved, and the feature extraction matrix output unit 208 outputs the feature value using the eigenvalue and eigenvector. A matrix may be generated.
Figure 0005238580

ただし、λは一般化固有値問題の固有値、νはその固有ベクトルとする。また、このとき、特徴抽出行列として、(変形例1)の特徴抽出行列を使用してもよい。また、各カテゴリiのカテゴリ内変動行列Wとカテゴリ間変動行列Bをそれぞれ(変形例2)のW〜とB〜ものを用いても良い。 Where λ is the eigenvalue of the generalized eigenvalue problem and ν is its eigenvector. At this time, the feature extraction matrix of (Modification 1) may be used as the feature extraction matrix. It is also possible to use a W i ~ and B~ of the categories in the fluctuation matrix W i and a category between fluctuation matrix B of each category i, respectively (Modification 2).

(変形例5)
特徴抽出部105では、特徴抽出行列を複数生成してもよい。複数生成する方法は、学習用パターン取得部201で取得する学習用パターンをいくつかのグループに分割し、それぞれのグループでステップS201〜ステップS207の処理を行えばよい。学習用パターンをいくつかのグループに分ける方法は、予めパターンの変動が分かっている場合には変動ごとに分ければよい。またランダムにサンプリングしてもよい。
(Modification 5)
The feature extraction unit 105 may generate a plurality of feature extraction matrices. In the method of generating a plurality of patterns, the learning pattern acquired by the learning pattern acquisition unit 201 may be divided into several groups, and the processes of steps S201 to S207 may be performed for each group. The method of dividing the learning pattern into several groups may be divided for each variation when the variation of the pattern is known in advance. Moreover, you may sample at random.

特徴抽出行列が複数ある場合には、特徴抽出行列毎に特徴抽出適用部304及び類似度計算部305で処理を行い、各処理で得られた類似度を重み付け加算して判定部306へ出力する。重みは実験により求める。また、重み付け加算の代わりに平均を用いても良い。   When there are a plurality of feature extraction matrices, the feature extraction application unit 304 and the similarity calculation unit 305 perform processing for each feature extraction matrix, and the similarity obtained in each processing is weighted and added to the determination unit 306. . The weight is obtained by experiment. An average may be used instead of weighted addition.

Claims (7)

複数の部分空間と前記複数の部分空間の各々が属するカテゴリとを取得する取得部と、
前記部分空間から射影行列を生成する射影行列生成部と、
前記カテゴリのうち同じカテゴリに属する部分空間を複数用いて、カテゴリ内変動行列を生成するカテゴリ内変動行列生成部と、
前記カテゴリのうち異なるカテゴリに属する部分空間を複数用いて、カテゴリ間変動行列を生成するカテゴリ間変動行列生成部と、
前記カテゴリ内変動行列と前記カテゴリ間変動行列とから定義される固有値問題から得られる固有値と固有ベクトルとを計算する固有値問題計算部と、
前記固有値と前記固有ベクトルとから特徴抽出で使用される特徴抽出行列を計算する特徴抽出計算部と、
を備え、
前記カテゴリ内変動行列は、前記同じカテゴリに属する部分空間から前記射影行列生成部により生成された射影行列の積の線型和により計算され、
前記カテゴリ間変動行列は、前記異なるカテゴリに属する部分空間から前記射影行列生成部により生成された射影行列の積の線型和により計算されることを特徴とする特徴抽出装置。
An acquisition unit for acquiring a plurality of partial spaces and a category to which each of the plurality of partial spaces belongs;
A projection matrix generation unit for generating a projection matrix from the subspace;
Using a plurality of subspaces belonging to the same category among the categories, an intra-category variation matrix generating unit that generates an intra-category variation matrix;
An inter- category variation matrix generating unit that generates an inter-category variation matrix using a plurality of subspaces belonging to different categories among the categories,
An eigenvalue problem calculator for calculating eigenvalues and eigenvectors obtained from eigenvalue problems defined from the intra-category variation matrix and the inter-category variation matrix;
A feature extraction calculation unit for calculating a feature extraction matrix used in feature extraction from the eigenvalue and the eigenvector;
With
The intra-category variation matrix is calculated by a linear sum of products of projection matrices generated by the projection matrix generation unit from subspaces belonging to the same category,
The inter-category variation matrix is calculated by a linear sum of products of projection matrices generated by the projection matrix generation unit from subspaces belonging to the different categories.
前記固有値問題では、前記カテゴリ内変動行列と前記カテゴリ間変動行列との差の行列の固有値と固有ベクトルとを求めることを特徴とする請求項1の特徴抽出装置。  2. The feature extraction apparatus according to claim 1, wherein in the eigenvalue problem, an eigenvalue and an eigenvector of a difference matrix between the intra-category variation matrix and the inter-category variation matrix are obtained. 前記固有値問題では、前記カテゴリ間変動行列の逆行列を左から又は右から前記カテゴリ内変動行列に掛けた積の行列の固有値と固有ベクトルとを求めることを特徴とする請求項1の特徴抽出装置。  The feature extraction apparatus according to claim 1, wherein in the eigenvalue problem, an eigenvalue and an eigenvector of a product matrix obtained by multiplying the inverse matrix of the inter-category variation matrix from the left or the right from the intra-category variation matrix are obtained. 前記固有値問題では、以下の式で表される前記カテゴリ内変動行列と前記カテゴリ間変動行列とで定義される一般化固有値問題から得られる固有値と固有ベクトルとを求めることを特徴とする請求項1の特徴抽出装置。
Figure 0005238580
(式中、Bはカテゴリ間変動行列、Wはカテゴリ内変動行列、λは一般化固有値問題の固有値、νはその固有ベクトルである。)
In the eigenvalue problem, an eigenvalue and an eigenvector obtained from a generalized eigenvalue problem defined by the intra-category variation matrix and the inter-category variation matrix expressed by the following equations are obtained: Feature extraction device.
Figure 0005238580
(Where B is the inter-category variation matrix, W is the intra-category variation matrix, λ is the eigenvalue of the generalized eigenvalue problem, and ν is its eigenvector.)
前記特徴抽出計算部で計算される特徴抽出行列が、前記固有値の大きい順にN個選んだ前記固有ベクトルを基底とする空間への線型写像となる行列であることを特徴とする請求項1乃至請求項4のいずれか1項に記載の特徴抽出装置。  The feature extraction matrix calculated by the feature extraction calculation unit is a matrix that is a linear map to a space based on the eigenvectors selected in order of decreasing eigenvalues. 5. The feature extraction device according to any one of 4 above. 前記特徴抽出計算部で計算される特徴抽出行列が、前記固有値の大きい順にN個選んだ又は全ての固有ベクトルを基底とする空間への線型写像となる行列であり、
前記固有ベクトルの大きさが、対応する固有値の絶対値の平方根の逆数である固有ベクトルであることを特徴とする請求項1乃至請求項4のいずれか1項に記載の特徴抽出装置。
The feature extraction matrix calculated by the feature extraction calculation unit is a matrix that becomes a linear mapping to a space based on N eigenvectors or all eigenvectors in the descending order of the eigenvalues,
5. The feature extraction device according to claim 1, wherein the size of the eigenvector is an eigenvector that is a reciprocal of a square root of an absolute value of a corresponding eigenvalue.
1つ以上の入力パターンから複数の特徴ベクトルを生成する特徴ベクトル生成部と、
前記複数の特徴ベクトルから部分空間を生成する部分空間生成部と、
前記部分空間に対して請求項1乃至請求項6のいずれか1項に記載の特徴抽出装置から求めた特徴抽出行列による線型変換を行う特徴抽出部と、
前記1つ以上のパターンに対して、予め前記特徴ベクトル生成部と前記部分空間生成部と前記特徴抽出部を用いて得られた辞書部分空間をカテゴリごとに格納する辞書部分空間格納部と、
前記特徴抽出部で得られた部分空間と前記辞書部分空間格納部に格納された各カテゴリの辞書部分空間との類似度を計算する類似度計算部と、
前記各カテゴリとの類似度から前記入力パターンの属するカテゴリを判定する判定部と、
を備えることを特徴とするパターン認識装置。
A feature vector generation unit that generates a plurality of feature vectors from one or more input patterns;
A subspace generating unit that generates a subspace from the plurality of feature vectors;
A feature extraction unit that performs linear transformation on the partial space using a feature extraction matrix obtained from the feature extraction device according to any one of claims 1 to 6;
A dictionary subspace storage unit that stores, for each category, a dictionary subspace obtained using the feature vector generation unit, the subspace generation unit, and the feature extraction unit in advance for the one or more patterns;
A similarity calculation unit that calculates the similarity between the partial space obtained by the feature extraction unit and the dictionary partial space of each category stored in the dictionary partial space storage unit;
A determination unit that determines a category to which the input pattern belongs from a similarity to each category;
A pattern recognition apparatus comprising:
JP2009087990A 2009-03-31 2009-03-31 Feature extraction device and pattern recognition device Expired - Fee Related JP5238580B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009087990A JP5238580B2 (en) 2009-03-31 2009-03-31 Feature extraction device and pattern recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009087990A JP5238580B2 (en) 2009-03-31 2009-03-31 Feature extraction device and pattern recognition device

Publications (2)

Publication Number Publication Date
JP2010238149A JP2010238149A (en) 2010-10-21
JP5238580B2 true JP5238580B2 (en) 2013-07-17

Family

ID=43092379

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009087990A Expired - Fee Related JP5238580B2 (en) 2009-03-31 2009-03-31 Feature extraction device and pattern recognition device

Country Status (1)

Country Link
JP (1) JP5238580B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5545889B2 (en) * 2011-07-07 2014-07-09 日本電信電話株式会社 Pattern extraction apparatus, pattern extraction method, and pattern extraction program
KR102230503B1 (en) * 2015-04-14 2021-03-22 삼성전자주식회사 Layout design system, system and method for fabricating mask pattern using the design system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4049288B2 (en) * 1999-08-04 2008-02-20 株式会社リコー Canonical discriminant analyzer, feature extractor and recording medium
JP3873793B2 (en) * 2002-03-29 2007-01-24 日本電気株式会社 Face metadata generation method and face metadata generation apparatus
JP4343125B2 (en) * 2005-02-10 2009-10-14 株式会社東芝 Pattern recognition apparatus and method

Also Published As

Publication number Publication date
JP2010238149A (en) 2010-10-21

Similar Documents

Publication Publication Date Title
Miettinen et al. Fourth moments and independent component analysis
JP6192010B2 (en) Weight setting apparatus and method
Shekar et al. Face recognition using kernel entropy component analysis
JP4881230B2 (en) Pattern recognition apparatus and method
CN101021897A (en) Two-dimensional linear discrimination human face analysis identificating method based on interblock correlation
CN103020640A (en) Facial image dimensionality reduction classification method based on two-dimensional principal component analysis
JP6729804B2 (en) Pattern recognition device, method and program
CN108564061B (en) Image identification method and system based on two-dimensional pivot analysis
CN106096517A (en) A kind of face identification method based on low-rank matrix Yu eigenface
JP4343125B2 (en) Pattern recognition apparatus and method
JP5238580B2 (en) Feature extraction device and pattern recognition device
Putranto et al. Face recognition using eigenface with naive Bayes
JP2008020963A (en) Pattern recognition device and method
Milner et al. Analysing the importance of different visual feature coefficients
Xu et al. Nonlinear component analysis based on correntropy
JPH10171988A (en) Pattern recognizing/collating device
Kekre et al. Transform based face recognition with partial and full feature vector using DCT and Walsh transform
Cawse et al. Using random matrix theory to determine the number of endmembers in a hyperspectral image
Anaraki et al. Efficient recovery of principal components from compressive measurements with application to Gaussian mixture model estimation
Singh et al. Recognizing faces under varying poses with three states hidden Markov model
Qu et al. Similar handwritten Chinese character recognition based on adaptive discriminative locality alignment
KR20120123993A (en) Method for generating standard face graph
CN107451537B (en) Face recognition method based on deep learning multi-layer non-negative matrix decomposition
Okwonu et al. Comparative performance of classical Fisher linear discriminant analysis and robust Fisher linear discriminant analysis
Zhang A high order cumulants based multivariate nonlinear blind source separation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110922

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110922

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111125

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20111205

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120904

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130401

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees