JP5238580B2 - Feature extraction device and pattern recognition device - Google Patents
Feature extraction device and pattern recognition device Download PDFInfo
- Publication number
- JP5238580B2 JP5238580B2 JP2009087990A JP2009087990A JP5238580B2 JP 5238580 B2 JP5238580 B2 JP 5238580B2 JP 2009087990 A JP2009087990 A JP 2009087990A JP 2009087990 A JP2009087990 A JP 2009087990A JP 5238580 B2 JP5238580 B2 JP 5238580B2
- Authority
- JP
- Japan
- Prior art keywords
- matrix
- category
- feature extraction
- unit
- subspace
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、特徴抽出装置及びパターン認識装置に関する。 The present invention relates to a feature extraction device and a pattern recognition device.
特許文献1及び非特許文献1に示す顔認識等の分野で使われているパターン認識手法では、認識するカテゴリ間の差を強調する処理を施すことで、認識性能を向上させている。この手法では、2つのパターンの集合の類似性をパターンの集合から主成分分析により生成した線型部分空間同士の角度で定義している。そのため、カテゴリ間の差は認識するカテゴリ間の部分空間同士の角度で測っており、これらの角度を広げる線型変換によってカテゴリ間の差を強調する処理を行う。 In the pattern recognition methods used in the fields of face recognition and the like shown in Patent Document 1 and Non-Patent Document 1, recognition performance is improved by performing processing that emphasizes the difference between categories to be recognized. In this method, the similarity between two sets of patterns is defined by the angle between linear subspaces generated from the set of patterns by principal component analysis. Therefore, the difference between categories is measured by the angle between the recognized subspaces, and processing for emphasizing the difference between categories is performed by linear transformation that widens these angles.
一方、非特許文献2に示す線型判別分析では、カテゴリ間の差を強調するだけでなく、カテゴリ内の変動を抑える射影により、認識性能を向上させている。この手法では、カテゴリ間の差及びカテゴリ内の変動はパターン間のベクトル空間上の距離で測っている。 On the other hand, in the linear discriminant analysis shown in Non-Patent Document 2, the recognition performance is improved not only by emphasizing the difference between categories but also by projecting to suppress variation within the category. In this method, the difference between categories and the variation within the category are measured by the distance in the vector space between patterns.
特許文献1及び非特許文献1に示す手法では、部分空間の間の角度を基準として使用しているが、カテゴリ間の差のみを強調し、カテゴリ内の変動を抑える処理が全くないため、認識するカテゴリ間の部分空間同士の角度を広げる際、同時に同一カテゴリに属する部分空間の間の角度も広げてしまうという問題があった。 In the methods shown in Patent Document 1 and Non-Patent Document 1, the angle between subspaces is used as a reference. However, since there is no processing that emphasizes only the difference between categories and suppresses variation within the category, When the angle between the partial spaces between the categories to be expanded is increased, the angle between the partial spaces belonging to the same category is also increased at the same time.
また、カテゴリ間の差の強調とカテゴリ内の変動の抑制を同時に行う非特許文献2に示す手法は、カテゴリ間の差及びカテゴリ内の変動を測る基準が部分空間の間の角度ではなく、パターンの間のベクトル空間上の距離であるため、2つのパターンの集合の類似性をパターンの集合から主成分分析により生成した線型部分空間同士の角度で定義する手法では基準が異なり、使用することができなかった。 In addition, the method shown in Non-Patent Document 2 that simultaneously emphasizes the difference between categories and suppresses the variation within the category is based on the fact that the reference for measuring the difference between the categories and the variation within the category is not an angle between the subspaces. Since the distance in the vector space is defined by the angle between the linear subspaces generated by principal component analysis from the set of patterns, the standard is different and can be used. could not.
本発明は、上記の問題点に鑑みてなされたものであり、異なるカテゴリの部分空間同士の角度を広げつつ、同じカテゴリに属する部分空間の間の角度は狭めることを目的とする。 The present invention has been made in view of the above-described problems, and an object thereof is to narrow the angle between partial spaces belonging to the same category while widening the angle between the partial spaces of different categories.
上記目的を達成するために、本発明の特徴抽出装置は、複数の部分空間と前記複数の部分空間の各々が属するカテゴリとを取得する取得部と、前記部分空間から射影行列を生成する射影行列生成部と、前記カテゴリのうち同じカテゴリに属する部分空間を複数用いて、カテゴリ内変動行列を生成するカテゴリ内変動行列生成部と、前記カテゴリのうち異なるカテゴリに属する部分空間を複数用いて、カテゴリ間変動行列を生成するカテゴリ内変動行列生成部と、前記カテゴリ内変動行列と前記カテゴリ間変動行列とから定義される固有値問題から得られる固有値と固有ベクトルとを計算する固有値問題計算部と、前記固有値と前記固有ベクトルとから特徴抽出で使用される特徴抽出行列を計算する特徴抽出計算部と、を備え、前記カテゴリ内変動行列は、前記同じカテゴリに属する部分空間から前記射影行列生成部により生成された射影行列の積の線型和により計算され、前記カテゴリ間変動行列は、前記異なるカテゴリに属する部分空間から前記射影行列生成部により生成された射影行列の積の線型和により計算されることを特徴とする。 To achieve the above object, the feature extraction apparatus of the present invention includes an acquisition unit that acquires a plurality of partial spaces and a category to which each of the plurality of partial spaces belongs, and a projection matrix that generates a projection matrix from the partial spaces. A plurality of subspaces belonging to the same category among the categories, a variation matrix generation unit within category that generates an intra-category variation matrix, and a plurality of subspaces belonging to different categories among the categories, An intra-category variation matrix generating unit that generates an inter-variation matrix, an eigenvalue problem calculating unit that calculates an eigenvalue and an eigenvector obtained from an eigenvalue problem defined from the intra-category variation matrix and the inter-category variation matrix, and the eigenvalue And a feature extraction calculation unit for calculating a feature extraction matrix used in feature extraction from the eigenvector, The dynamic matrix is calculated by a linear sum of products of the projection matrices generated by the projection matrix generation unit from the subspaces belonging to the same category, and the inter-category variation matrix is calculated from the subspaces belonging to the different categories. It is calculated by a linear sum of products of projection matrices generated by the generation unit.
異なるカテゴリの部分空間同士の角度を広げつつ、同じカテゴリに属する部分空間の間の角度は狭めることができるため、認識性能を向上させることができる。 Since the angles between the partial spaces belonging to the same category can be narrowed while widening the angles between the partial spaces of different categories, the recognition performance can be improved.
本発明の実施形態に係る特徴抽出装置及びパターン認識装置は、画像をはじめ、音声など、特徴量をベクトルとして扱う様々な分野のパターン認識に適用可能である。以下、本発明の実施形態について、図1、図2及び図3を用いて説明する。 The feature extraction device and the pattern recognition device according to the embodiment of the present invention can be applied to pattern recognition in various fields in which feature amounts are treated as vectors, such as images and sounds. Hereinafter, embodiments of the present invention will be described with reference to FIGS. 1, 2, and 3.
図1は、本発明の実施形態に係るパターン認識装置10の構成図である。パターン認識装置10は、パターン、特徴ベクトル又は特徴抽出行列などのデータを取得する取得部101と、制御部102と、演算結果を出力する出力部103と、取得部101で取得したデータなどを記憶する記憶部104と、を備える。制御部102はまた、特徴抽出部105と、パターン認識部106と、を有する。
FIG. 1 is a configuration diagram of a
図2は、特徴抽出部105の構成図である。特徴抽出部105は、学習用パターン取得部201と、特徴ベクトル生成部202と、学習用部分空間生成部203と、射影行列生成部204と、カテゴリ内変動行列生成部205と、カテゴリ間変動行列生成部206と、固有値問題計算部207と、特徴抽出行列出力部208と、を備える。特徴抽出部105は、特徴抽出装置として機能する。
FIG. 2 is a configuration diagram of the
図3は、パターン認識部106の構成図である。パターン認識部106は、パターン取得部301と、特徴ベクトル生成部302と、部分空間生成部303と、特徴抽出適用部304と、類似度計算部305と、判定部306と、を備える。
FIG. 3 is a configuration diagram of the
図4は、特徴抽出部105の動作を表したフローチャートを示す図である。
FIG. 4 is a flowchart illustrating the operation of the
ステップS201では、学習用パターン取得部201は、取得部101で取得した認識対象となるパターンとそのパターンが属するカテゴリを記憶部104に送り、記憶部104に記憶させる。入力されるパターン及びカテゴリは、予めハードディスクやメモリカードなどの記憶媒体に記憶されたものや、パターンが画像の場合は、例えばパソコンに接続したカメラなどで実現できる。パターンが音声の場合は、例えばパソコンに接続したマイクなどで実現できる。
In step S <b> 201, the learning
ステップS202では、特徴ベクトル生成部202は、記憶部104に記憶された1つ以上のパターンを処理することによって、1つ以上の特徴ベクトルを生成し、記憶部104に記憶させる。以下、この処理によって生成されたベクトルを「特徴ベクトル」と呼ぶ。入力されたパターンが画像の場合は、例えば、ラスタスキャンによりベクトルに変換する。入力されたパターンが音声の場合は、例えば、一定時間内の音声の周波数成分を並べたベクトルを使用する。
In step S <b> 202, the feature
ステップS203では、学習用部分空間生成部203は、記憶部104に記憶されているカテゴリ情報に基づいて、同じカテゴリに属する1つ以上の特徴ベクトルから、以下の計算を行うことで得られる部分空間の基底を計算し、記憶部104に記憶させる。特徴ベクトルが1つの場合は、そのベクトルの長さを1に正規化し、特徴抽出部105へ出力する。複数の場合は、非特許文献1の方法で、部分空間の基底を計算し、特徴抽出部105へ出力する。非特許文献1の方法は、複数の特徴ベクトルをx1…xnとしたとき、(数式1)で定義される自己相関行列を計算し、予め定めた数だけ固有値の大きい固有ベクトルを選び部分空間の基底とする。ただし、xTはベクトルxの転置である。
以下、この処理によって生成された部分空間の基底を学習用部分空間の基底と呼ぶ。また、この基底が属するカテゴリは、生成に使用した特徴ベクトルが属するカテゴリと同じものとする。 Hereinafter, the base of the subspace generated by this process is referred to as the base of the learning subspace. The category to which the base belongs is the same as the category to which the feature vector used for generation belongs.
ステップS204では、射影行列生成部204は、学習用部分空間の基底から射影行列を生成する。
In step S204, the projection
ステップS205では、カテゴリ内変動行列生成部205は、記憶部104に記憶されている学習用部分空間の基底とその基底が属するカテゴリを用いて、以下に定義及び計算方法を記述するカテゴリ内変動行列W(数式10)を計算する。また、カテゴリ内変動行列生成部205は、計算結果を記憶部104に記憶させる。
In step S205, the intra-category variation
まず、記号を設定する。特徴空間の次元をC、カテゴリ数をN、学習用部分空間の次元を d、各カテゴリi(i=1,…,N)に属するLi個の部分空間をVi1,…,ViLi、各部分空間への射影行列をPi1,…,PiLiとする。ただし、正規直交基底Ψ1…Ψdで張られる部分空間への射影行列Pを(数式2)と定義する。
次に各カテゴリiの平均部分空間Miを定義する。(数式3)で定義される行列の固有ベクトルをφi1,…,φiC、対応する固有値をμi1≧…≧μiCとすると、固有値が大きいd’の固有ベクトルφi1,…,φid’を基底とする部分空間を各カテゴリiのd’次元平均部分空間Miと定義する。平均部分空間Miの次元d’は、実験により適切な値を求めてもよい。また、学習用部分空間の次元と同じdにしてもよい。
ここで、各カテゴリiの平均部分空間Miについて説明する。各カテゴリiの平均部分空間Miの定義は、平均ベクトルを角度に基づいて拡張したものである。まず、平均ベクトルを特徴付ける性質について述べる。n個のベクトルx1…xnの平均ベクトルx−(xバー)=x1+…+xn/nは、各ベクトルからの距離の2乗和が最小となるベクトルと特徴付けられる。すなわち、平均ベクトルx−(xバー)は、以下の ベクトルxに関する関数(数式4)の最小値を与えるベクトルである。ただし、||○||は特徴空間のノルムとする。
次に、2つの部分空間の間の角度とその射影行列の積との関係について述べる。2つのd次元部分空間をV1’、 V2’、その射影行列をQ1’、 Q2’、部分空間V1’、 V2’の間のd個の正準角をθ(1) ,…,θ(d)、tr を行列のトレースとすると、行列と正準角の間で(数式5)が成り立つ。すなわち、2つの部分空間の間に定義される複数の正準各の余弦の2乗和が射影行列の積のトレースによって計算できる。正準角の定義及び(数式5)の導出等は非特許文献1に詳しい。(数式5)の値は大きいほど部分空間V1’、 V2’は近くなる。
(数式4)の最小化問題を正準角に基づく距離(数式5)に書き換える。(数式4)のベクトルを部分空間に、特徴空間の距離を正準角に基づいた距離(数式5)に変えると、(数式6)を最大化するd’次元部分空間V’を求める問題となる。ただし、n個の部分空間をV1,…,Vn、その射影行列をQ1,…,Qn、d’次元部分空間V’への射影行列をQとする。
最大化問題を解くために、(数式6)を以下の(数式7)のように変形する。ただし、Φ及びΔはそれぞれ、ΣQp(p=1からp=nまでの和)の固有ベクトルを並べた行列、対角線上に固有値を並べた対角行列で、Xはd’次元部分空間V’の正規直交基底を並べた行列である。
(数式7)は、ΦΔΦTが定める2次形式の問題となるため、XにΣQp(p=1からp=nまでの和)=ΦΔΦTの固有ベクトルのうち、固有値の大きいd’個を代入したとき、最大となる。これは、前記定義した部分空間V1,…,Vnの平均部分空間が(数式6)の値を最大にする部分空間であることを示している。 (Formula 7) is a problem of the quadratic form defined by ΦΔΦ T. Therefore, among the eigenvectors of ΣQ p (sum of p = 1 to p = n) = ΦΔΦ T , X ′ When substituted, it becomes maximum. This indicates that the average subspace of the defined subspaces V 1,..., V n is a subspace that maximizes the value of (Equation 6).
さて、カテゴリiの平均部分空間Miを使い、カテゴリiのカテゴリ内変動行列Wiを(数式8)で定義する。ただし、Piは平均部分空間Miの射影行列とする。
カテゴリiのカテゴリ内変動行列Wi(数式8)と部分空間の角度の関係について説明する。(数式8)に(数式5)を適用することで、(数式9)が得られる。ただし、θik (1) ,…,θik (d)は部分空間Mi、Vikの間のd個の正準角とする。
これにより、カテゴリiのカテゴリ内変動行列Wi(数式8)のトレースはカテゴリiに属する学習用部分空間とその平均部分空間の間の正準角の余弦の2乗の平均となる。 As a result, the trace of the intra-category variation matrix W i (formula 8) of category i is the average of the cosine squares of the canonical angles between the learning subspace belonging to category i and the average subspace.
カテゴリ内変動行列Wを、各カテゴリiのカテゴリ内変動行列Wiの平均として以下のように定義する。
ステップS206では、カテゴリ間変動行列生成部206は、記憶部104に記憶されている学習用部分空間の基底とその基底が属するカテゴリを用いて、以下に定義及び計算方法を記述するカテゴリ間変動行列B(数式11)を計算する。また、カテゴリ間変動行列生成部206は、その計算結果を記憶部104に記憶させる。カテゴリ間変動行列は、各カテゴリiの平均部分空間Miの射影行列Piを使い、以下の(数式11)で定義する。
(数式11)の右辺は、Pi 2 =Piを使い、式変形することで得られる。カテゴリ間変動行列B(数式11)と部分空間の角度の関係について説明する。(数式11)に(数式5)を適用することで、(数式12)が得られる。ただし、θik (1) ,…,θik (d)は部分空間Mi、V1kの間のd個の正準角とする。
ただし、τik (1) ,…,τik (d’)はカテゴリiの平均部分空間Miとカテゴリjの平均部分空間Mjの間のd’個の正準角とする。これにより、カテゴリ間変動行列B(数式11)のトレースは、各カテゴリの平均部分空間同士の正準角の余弦の2乗の平均となる。 Here, τ ik (1) ,..., Τ ik (d ′) are d ′ canonical angles between the average subspace M i of category i and the average subspace M j of category j. Thus, the trace of the inter-category variation matrix B (Formula 11) is the average of the cosine squares of the canonical angles between the average subspaces of each category.
ステップS207では、固有値問題計算部207は、記憶部104に記憶されたカテゴリ内変動行列Wとカテゴリ間変動行列Bから、以下の行列(数式13)の固有値と固有ベクトルを計算する。また、固有値問題計算部207は、記憶部104に固有値と固有ベクトルを記憶させる。ただし、αは、実験により求める重み係数とする。Λは(数式13)の左辺の行列の固有値を対角線上に並べた対角行列、Hはその固有ベクトルを並べた行列とする。
(数式13)の行列と部分空間の角度の関係について説明する。(数式13)の行列のトレースは、(数式9)及び(数式12)から、各カテゴリに属する学習用部分空間とその平均部分空間の間の正準角の余弦の2乗の平均から各カテゴリの平均部分空間同士の正準角の余弦の2乗の平均を重み付けして引いたものとなる。これにより、(数式13)の行列の固有値は、対応する固有ベクトル方向の、角度を基準とした、各カテゴリ内の変動成分からカテゴリ間の差の成分を引いた値となる。 The relationship between the matrix of (Formula 13) and the angle of the subspace will be described. The trace of the matrix of (Equation 13) is obtained from (Equation 9) and (Equation 12) from the average of the cosine square of the canonical angle between the learning subspace belonging to each category and the average subspace. The average of the cosine squares of the canonical angles between the average subspaces is weighted and subtracted. Thereby, the eigenvalue of the matrix of (Equation 13) is a value obtained by subtracting the difference component between the categories from the variation component in each category on the basis of the angle in the corresponding eigenvector direction.
ステップS208では、特徴抽出行列出力部208は、記憶部104に記憶された固有値問題計算部207で得られた固有ベクトルのうち、固有値の大きい方からD個から以下に定義する行列HD Tを計算する。また、特徴抽出行列出力部208は、その計算結果を記憶部104に記憶させるか又は出力部103に送る。ただし、HDは、固有値の大きい方からD個選んだ(数式13)の固有ベクトルν1,…,νD(縦ベクトル)を使い(数式14)のように定義する。またTは行列の転置を表す。固有ベクトルの数Dは実験等により定める。
図5は、パターン認識部106の動作を表したフローチャートを示す図である。
FIG. 5 is a flowchart illustrating the operation of the
ステップS301では、パターン取得部301は、取得部101で取得した認識対象となるパターンを記憶部104に記憶させる。取得するパターンは、予めハードディスクやメモリカードなどの記憶媒体に記憶されたものや、パターンが画像の場合は、例えばパソコンに接続したカメラなどで実現できる。パターンが音声の場合は、例えばパソコンに接続したマイクなどで実現できる。
In step S <b> 301, the
ステップS302では、特徴ベクトル生成部302は、特徴ベクトル生成部202と同様の処理を行う。
In step S <b> 302, the feature
ステップS303では、部分空間生成部303は、記憶部104に記憶された1つ以上の特徴ベクトルから、学習用部分空間生成部203と同様の処理を行い、計算した部分空間の基底を記憶部104に記憶させる。
In step S <b> 303, the
ステップS304では、特徴抽出適用部304は、記憶部104に記憶された特徴抽出行列と部分空間生成部303で得られた部分空間の基底に対して、特徴抽出行列による掛け算を施した後、Gram−Schmidt直交化を施し、得られた部分空間の基底を記憶部104に記憶させる。記憶部104に記憶された特徴抽出行列は、異なる装置から出力されたものを取得部101で取得し、記憶部104に送り、記憶したものを使用しても良い。また、予めハードディスクやメモリカードなどの記憶媒体に記憶されたものを取得部101から記憶部104へ送ったものでも良い。以下、この処理で得られた部分空間を取得部分空間と呼ぶ。
In step S304, the feature
ステップS305では、類似度計算部305は、記憶部104に記憶された取得部分空間と、予め認識対象のカテゴリのパターンに対して、パターン取得部301、特徴ベクトル生成部302、部分空間生成部303、特徴抽出適用部304で行われる処理を行う。また、類似度計算部305は、生成した部分空間の基底(以下、この部分空間を「辞書部分空間」と呼ぶ)から、以下に定義する類似度を計算し、その計算結果を記憶部104に記憶させる。記憶部104に記憶された辞書部分空間の基底は、予めハードディスクやメモリカードなどの記憶媒体に記憶されたものを取得部101から記憶部104へ送ったものでも良い。
In step S305, the
類似度は、非特許文献1にある方法を用いて計算することができる。すなわち、取得部分空間と辞書部分空間のなす角θ1の余弦の2乗cos2θ1を類似度とし、このcos2θ1を以下のように計算する。取得部分空間と辞書部分空間の正規直交基底をそれぞれφ1,…,φM、Ψ1,…,ΨNとし、(数式15)のxijを成分に持つM×M行列X=(xij)について、
Xの固有値をλ1,…,λM(λ1≧…≧λM)とすると、最大固有値λ1が求める類似度となる(数式16)。
ステップ306では、判定部306は、記憶部104に記憶された類似度に基づいて、登録されたカテゴリの中で最も類似度が高く、その値が予め設定された閾値より大きい場合、そのカテゴリを入力されたパターンの属するカテゴリとして、それ以外の場合は該当するカテゴリなしと判定する。また、判定部306は、その判定結果を出力部103に出力する。
In
(変形例1)
特徴抽出行列出力部208は、特徴抽出行列をΛD −1/2HD Tとして出力してもよい。ただし、ΛD −1/2は、固有値を大きい方からD個選び、各固有値の平方根の逆数を対角線上に並べた対角行列である。このとき、固有値の大きい方からD個選ぶのではなく、すべての固有値と固有ベクトルを使用してもよい。以後、この変換を白色化変換と呼ぶ。
(Modification 1)
The feature extraction
(変形例2)
カテゴリ内変動行列生成部205で得られる各カテゴリiのカテゴリ内変動行列Wiとカテゴリ間変動行列生成部206で得られるカテゴリ間変動行列Bとして、各カテゴリiの平均部分空間Miを使わずに定義する以下のものを用いてもよい。具体的には、各カテゴリiのカテゴリ内変動行列を以下で定義fするWi〜(数式17)に、カテゴリ間変動行列をB〜(数式18)に変えても良い。
As a category between fluctuation matrix B obtained in the category fluctuation matrix W i and a category
また、このとき、特徴抽出行列出力部208で、出力する特徴抽出行列を(変形例1)のようにしても良い。
At this time, the feature extraction
(変形例3)
固有値問題計算部207で、(数式13)の行列の代わりに以下の行列(数式19)の固有値問題を解き、その固有値及び固有ベクトルを用いて特徴抽出行列出力部208で出力する特徴抽出行列を生成してもよい。また、このとき、特徴抽出行列として、(変形例1)の特徴抽出行列を使用してもよい。また、各カテゴリiのカテゴリ内変動行列Wiとカテゴリ間変動行列Bをそれぞれ(変形例2)のWi〜とB〜ものを用いても良い。
The eigenvalue
(変形例4)
固有値問題計算部207で、(数式13)の固有値問題を解く代わりに、以下の一般化固有値問題(数式20)を解き、その固有値及び固有ベクトルを用いて特徴抽出行列出力部208で出力する特徴抽出行列を生成してもよい。
Instead of solving the eigenvalue problem of (Equation 13) in the eigenvalue
ただし、λは一般化固有値問題の固有値、νはその固有ベクトルとする。また、このとき、特徴抽出行列として、(変形例1)の特徴抽出行列を使用してもよい。また、各カテゴリiのカテゴリ内変動行列Wiとカテゴリ間変動行列Bをそれぞれ(変形例2)のWi〜とB〜ものを用いても良い。 Where λ is the eigenvalue of the generalized eigenvalue problem and ν is its eigenvector. At this time, the feature extraction matrix of (Modification 1) may be used as the feature extraction matrix. It is also possible to use a W i ~ and B~ of the categories in the fluctuation matrix W i and a category between fluctuation matrix B of each category i, respectively (Modification 2).
(変形例5)
特徴抽出部105では、特徴抽出行列を複数生成してもよい。複数生成する方法は、学習用パターン取得部201で取得する学習用パターンをいくつかのグループに分割し、それぞれのグループでステップS201〜ステップS207の処理を行えばよい。学習用パターンをいくつかのグループに分ける方法は、予めパターンの変動が分かっている場合には変動ごとに分ければよい。またランダムにサンプリングしてもよい。
(Modification 5)
The
特徴抽出行列が複数ある場合には、特徴抽出行列毎に特徴抽出適用部304及び類似度計算部305で処理を行い、各処理で得られた類似度を重み付け加算して判定部306へ出力する。重みは実験により求める。また、重み付け加算の代わりに平均を用いても良い。
When there are a plurality of feature extraction matrices, the feature
Claims (7)
前記部分空間から射影行列を生成する射影行列生成部と、
前記カテゴリのうち同じカテゴリに属する部分空間を複数用いて、カテゴリ内変動行列を生成するカテゴリ内変動行列生成部と、
前記カテゴリのうち異なるカテゴリに属する部分空間を複数用いて、カテゴリ間変動行列を生成するカテゴリ間変動行列生成部と、
前記カテゴリ内変動行列と前記カテゴリ間変動行列とから定義される固有値問題から得られる固有値と固有ベクトルとを計算する固有値問題計算部と、
前記固有値と前記固有ベクトルとから特徴抽出で使用される特徴抽出行列を計算する特徴抽出計算部と、
を備え、
前記カテゴリ内変動行列は、前記同じカテゴリに属する部分空間から前記射影行列生成部により生成された射影行列の積の線型和により計算され、
前記カテゴリ間変動行列は、前記異なるカテゴリに属する部分空間から前記射影行列生成部により生成された射影行列の積の線型和により計算されることを特徴とする特徴抽出装置。
An acquisition unit for acquiring a plurality of partial spaces and a category to which each of the plurality of partial spaces belongs;
A projection matrix generation unit for generating a projection matrix from the subspace;
Using a plurality of subspaces belonging to the same category among the categories, an intra-category variation matrix generating unit that generates an intra-category variation matrix;
An inter- category variation matrix generating unit that generates an inter-category variation matrix using a plurality of subspaces belonging to different categories among the categories,
An eigenvalue problem calculator for calculating eigenvalues and eigenvectors obtained from eigenvalue problems defined from the intra-category variation matrix and the inter-category variation matrix;
A feature extraction calculation unit for calculating a feature extraction matrix used in feature extraction from the eigenvalue and the eigenvector;
With
The intra-category variation matrix is calculated by a linear sum of products of projection matrices generated by the projection matrix generation unit from subspaces belonging to the same category,
The inter-category variation matrix is calculated by a linear sum of products of projection matrices generated by the projection matrix generation unit from subspaces belonging to the different categories.
前記固有ベクトルの大きさが、対応する固有値の絶対値の平方根の逆数である固有ベクトルであることを特徴とする請求項1乃至請求項4のいずれか1項に記載の特徴抽出装置。 The feature extraction matrix calculated by the feature extraction calculation unit is a matrix that becomes a linear mapping to a space based on N eigenvectors or all eigenvectors in the descending order of the eigenvalues,
5. The feature extraction device according to claim 1, wherein the size of the eigenvector is an eigenvector that is a reciprocal of a square root of an absolute value of a corresponding eigenvalue.
前記複数の特徴ベクトルから部分空間を生成する部分空間生成部と、
前記部分空間に対して請求項1乃至請求項6のいずれか1項に記載の特徴抽出装置から求めた特徴抽出行列による線型変換を行う特徴抽出部と、
前記1つ以上のパターンに対して、予め前記特徴ベクトル生成部と前記部分空間生成部と前記特徴抽出部を用いて得られた辞書部分空間をカテゴリごとに格納する辞書部分空間格納部と、
前記特徴抽出部で得られた部分空間と前記辞書部分空間格納部に格納された各カテゴリの辞書部分空間との類似度を計算する類似度計算部と、
前記各カテゴリとの類似度から前記入力パターンの属するカテゴリを判定する判定部と、
を備えることを特徴とするパターン認識装置。 A feature vector generation unit that generates a plurality of feature vectors from one or more input patterns;
A subspace generating unit that generates a subspace from the plurality of feature vectors;
A feature extraction unit that performs linear transformation on the partial space using a feature extraction matrix obtained from the feature extraction device according to any one of claims 1 to 6;
A dictionary subspace storage unit that stores, for each category, a dictionary subspace obtained using the feature vector generation unit, the subspace generation unit, and the feature extraction unit in advance for the one or more patterns;
A similarity calculation unit that calculates the similarity between the partial space obtained by the feature extraction unit and the dictionary partial space of each category stored in the dictionary partial space storage unit;
A determination unit that determines a category to which the input pattern belongs from a similarity to each category;
A pattern recognition apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009087990A JP5238580B2 (en) | 2009-03-31 | 2009-03-31 | Feature extraction device and pattern recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009087990A JP5238580B2 (en) | 2009-03-31 | 2009-03-31 | Feature extraction device and pattern recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010238149A JP2010238149A (en) | 2010-10-21 |
JP5238580B2 true JP5238580B2 (en) | 2013-07-17 |
Family
ID=43092379
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009087990A Expired - Fee Related JP5238580B2 (en) | 2009-03-31 | 2009-03-31 | Feature extraction device and pattern recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5238580B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5545889B2 (en) * | 2011-07-07 | 2014-07-09 | 日本電信電話株式会社 | Pattern extraction apparatus, pattern extraction method, and pattern extraction program |
KR102230503B1 (en) * | 2015-04-14 | 2021-03-22 | 삼성전자주식회사 | Layout design system, system and method for fabricating mask pattern using the design system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4049288B2 (en) * | 1999-08-04 | 2008-02-20 | 株式会社リコー | Canonical discriminant analyzer, feature extractor and recording medium |
JP3873793B2 (en) * | 2002-03-29 | 2007-01-24 | 日本電気株式会社 | Face metadata generation method and face metadata generation apparatus |
JP4343125B2 (en) * | 2005-02-10 | 2009-10-14 | 株式会社東芝 | Pattern recognition apparatus and method |
-
2009
- 2009-03-31 JP JP2009087990A patent/JP5238580B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010238149A (en) | 2010-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Miettinen et al. | Fourth moments and independent component analysis | |
JP6192010B2 (en) | Weight setting apparatus and method | |
Shekar et al. | Face recognition using kernel entropy component analysis | |
JP4881230B2 (en) | Pattern recognition apparatus and method | |
CN101021897A (en) | Two-dimensional linear discrimination human face analysis identificating method based on interblock correlation | |
CN103020640A (en) | Facial image dimensionality reduction classification method based on two-dimensional principal component analysis | |
JP6729804B2 (en) | Pattern recognition device, method and program | |
CN108564061B (en) | Image identification method and system based on two-dimensional pivot analysis | |
CN106096517A (en) | A kind of face identification method based on low-rank matrix Yu eigenface | |
JP4343125B2 (en) | Pattern recognition apparatus and method | |
JP5238580B2 (en) | Feature extraction device and pattern recognition device | |
Putranto et al. | Face recognition using eigenface with naive Bayes | |
JP2008020963A (en) | Pattern recognition device and method | |
Milner et al. | Analysing the importance of different visual feature coefficients | |
Xu et al. | Nonlinear component analysis based on correntropy | |
JPH10171988A (en) | Pattern recognizing/collating device | |
Kekre et al. | Transform based face recognition with partial and full feature vector using DCT and Walsh transform | |
Cawse et al. | Using random matrix theory to determine the number of endmembers in a hyperspectral image | |
Anaraki et al. | Efficient recovery of principal components from compressive measurements with application to Gaussian mixture model estimation | |
Singh et al. | Recognizing faces under varying poses with three states hidden Markov model | |
Qu et al. | Similar handwritten Chinese character recognition based on adaptive discriminative locality alignment | |
KR20120123993A (en) | Method for generating standard face graph | |
CN107451537B (en) | Face recognition method based on deep learning multi-layer non-negative matrix decomposition | |
Okwonu et al. | Comparative performance of classical Fisher linear discriminant analysis and robust Fisher linear discriminant analysis | |
Zhang | A high order cumulants based multivariate nonlinear blind source separation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110922 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20110922 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20111125 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20111205 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20120106 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120822 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120904 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121031 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130401 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160405 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |