JP5151522B2 - Arithmetic apparatus and program - Google Patents

Arithmetic apparatus and program Download PDF

Info

Publication number
JP5151522B2
JP5151522B2 JP2008029073A JP2008029073A JP5151522B2 JP 5151522 B2 JP5151522 B2 JP 5151522B2 JP 2008029073 A JP2008029073 A JP 2008029073A JP 2008029073 A JP2008029073 A JP 2008029073A JP 5151522 B2 JP5151522 B2 JP 5151522B2
Authority
JP
Japan
Prior art keywords
dimension reduction
matrix
class
value
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008029073A
Other languages
Japanese (ja)
Other versions
JP2008269573A (en
Inventor
誠 坂井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2008029073A priority Critical patent/JP5151522B2/en
Publication of JP2008269573A publication Critical patent/JP2008269573A/en
Application granted granted Critical
Publication of JP5151522B2 publication Critical patent/JP5151522B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Complex Calculations (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Description

本発明は、パターン認識装置に用いる次元削減行列を算出する演算装置及びプログラムに関する。   The present invention relates to an arithmetic device and a program for calculating a dimension reduction matrix used in a pattern recognition device.

従来より、パターン認識装置としては、入力されたパターンの特徴を抽出して、特徴ベクトルを生成し、更に、この特徴ベクトルを低次元化して、パターン認識に有効な特徴ベクトル(又はスカラー量)を求め、当該低次元化後の値を、予めデータベースに登録された各クラスの基準値(プロトタイプ)と照合して一致度を評価することにより、入力されたパターンを複数のクラスのいずれかに分類し、パターン認識を実現するものが知られている。   Conventionally, as a pattern recognition apparatus, a feature vector of an input pattern is extracted to generate a feature vector, and the feature vector is reduced in order to obtain a feature vector (or scalar quantity) effective for pattern recognition. The input pattern is classified into one of multiple classes by evaluating the degree of matching by comparing the reduced value with the reference value (prototype) of each class registered in the database in advance. And what realizes pattern recognition is known.

入力されたパターンを装置により認識する際には、上述したように、パターンから様々な特徴量を抽出し、これらを要素として特徴ベクトルを生成するのであるが、高次元の特徴ベクトルで、パターン認識を行う場合には、情報量が多すぎて、パターン認識に、非常に長い時間を要する。また、認識に不要な情報が含まれている特徴ベクトルを用いて、パターン認識を行う場合には、パターンの認識精度が劣化する可能性がある。一方、認識に必要な情報が含まれていない特徴ベクトルを用いて、パターン認識を行っても、当然のことながら、良好なパターン認識結果を得ることができない。   When the input pattern is recognized by the device, as described above, various feature quantities are extracted from the pattern, and feature vectors are generated using these as elements, but pattern recognition is performed using high-dimensional feature vectors. When performing the above, the amount of information is too large, and it takes a very long time for pattern recognition. In addition, when pattern recognition is performed using a feature vector that includes information unnecessary for recognition, there is a possibility that pattern recognition accuracy may deteriorate. On the other hand, even if pattern recognition is performed using a feature vector that does not include information necessary for recognition, it is natural that a good pattern recognition result cannot be obtained.

このため、従来では、まず、高次元の特徴ベクトルを生成し、この特徴ベクトルを低次元空間に写像したときに、特徴ベクトルが低次元空間上でクラス毎に分離し、同クラスの特徴ベクトルが特定領域に集中するような次元削減行列を求め、求めた次元削減行列を特徴ベクトルを作用させることにより、特徴ベクトルを低次元化して、低次元化後の値がパターンの特徴を良好に表すようにしている。   For this reason, conventionally, when a high-dimensional feature vector is first generated and mapped to a low-dimensional space, the feature vector is separated for each class in the low-dimensional space. Determining a dimension reduction matrix that concentrates on a specific area, and applying a feature vector to the calculated dimension reduction matrix so that the feature vector can be reduced in order so that the reduced value represents the pattern features well. I have to.

このような次元削減法によって、特徴ベクトルを低次元化すれば、低次元空間において、各クラスの特徴ベクトルが分離し、同一クラスの特徴ベクトルが類似する値を示すので、特徴ベクトルがいずれのクラスに属するものであるのかを、効率的且つ精度よく判定することができる。   If feature vectors are reduced in dimension by such a dimension reduction method, feature vectors of each class are separated in a low-dimensional space, and feature vectors of the same class show similar values. Can be determined efficiently and accurately.

具体的に、次元削減法としては、従来、線形判別分析法や不等分散判別分析法を用いたものが知られている。
線形判別分析法による次元削減では、まず、クラス毎に、クラスに属するパターンの特徴ベクトルを、サンプルとして複数個用意する。そして、これらのサンプル群から、各クラスの平均ベクトルμiを求めると共に、全クラスの平均ベクトルμ0を求める。
Specifically, as a dimension reduction method, a method using a linear discriminant analysis method or an unequal variance discriminant analysis method is conventionally known.
In dimension reduction by the linear discriminant analysis method, first, for each class, a plurality of feature vectors of patterns belonging to the class are prepared as samples. Then, from these sample groups, an average vector μ i for each class is obtained, and an average vector μ 0 for all classes is obtained.

Figure 0005151522
但し、μiは、第iクラスの平均ベクトルを表し、iは、クラスの総数をLとして、値1から値Lまでの整数値を採るものとする。また、Nは、全クラスのサンプル数、Niは、第iクラスのサンプル数、Xijは、第iクラスの第j(j=1,2,…,Ni)サンプルのベクトル値を表すものとする。
Figure 0005151522
However, μ i represents an average vector of the i-th class, and i is an integer value from value 1 to value L, where L is the total number of classes. N is the number of samples in all classes, N i is the number of samples in the i-th class, and X ij is the vector value of the j-th (j = 1, 2,..., N i ) samples in the i -th class. Shall.

Figure 0005151522
尚、x1,…,xdは、d次元の特徴ベクトルの各要素の値を表し、上付き文字Tは、転置を表す。
Figure 0005151522
Incidentally, x 1, ..., x d represents the value of each element of the d-dimensional feature vector, the superscript T denotes the transpose.

そして、これら平均ベクトルμ0及びクラス毎の平均ベクトルμiを用いて、クラス間共分散行列Bを求めると共に、各クラスの共分散行列Wiを求める。 Then, using the average vector μ 0 and the average vector μ i for each class, an inter-class covariance matrix B is obtained, and a covariance matrix W i for each class is obtained.

Figure 0005151522
但し、Piは、第iクラスの事前確率であり、Pi=Ni/Nとすることができる。また、Wiは、第iクラスの共分散行列を表すものとする。
Figure 0005151522
However, P i is the prior probability of the i-th class, and can be set to P i = N i / N. In addition, W i represents an i-th class covariance matrix.

上述したようにして、クラス間共分散行列B及び各クラスの共分散行列Wiを求めた後には、クラス内共分散行列Wを、各クラスの共分散行列Wiの算術平均とし、評価空間(低次元空間)でのクラス間分散とクラス内分散との比|B|/|W|が最大となる次元削減行列Aを求める。具体的には、評価関数J(A)を次のように定義し、評価関数J(A)が最大となる次元削減行列Aを求める。 After obtaining the inter-class covariance matrix B and the covariance matrix W i of each class as described above, the intra-class covariance matrix W is set as the arithmetic mean of the covariance matrix W i of each class, and the evaluation space A dimension reduction matrix A that maximizes the ratio | B | / | W | of the inter-class variance and the intra-class variance in the (low-dimensional space) is obtained. Specifically, the evaluation function J (A) is defined as follows, and the dimension reduction matrix A that maximizes the evaluation function J (A) is obtained.

Figure 0005151522
例えば、d次元の特徴ベクトルXijを、d’次元の空間に写像して低次元化する場合には、次元削減行列Aとして、評価関数J(A)が最大となるd行d’列の行列を求める(例えば、非特許文献1参照)。
Figure 0005151522
For example, when the d-dimensional feature vector X ij is mapped to a d′-dimensional space and reduced in dimension, the dimension reduction matrix A has d rows and d ′ columns with the maximum evaluation function J (A). A matrix is obtained (for example, see Non-Patent Document 1).

クラス間分散は、クラス間のばらつきの程度を表し、クラス内分散は、クラス内のサンプルのばらつきの程度を表すものである。このため、上述のようにして行列Aを求めれば、特徴ベクトルが低次元空間上でクラス毎に分離し、同クラスの特徴ベクトルが低次元空間上で特定領域に集中するような次元削減行列Aを求めることができる。従来の線形判別分析法による次元削減では、このようにして、パターン認識に最適な次元削減行列Aを求めている。   Interclass variance represents the degree of variation between classes, and intraclass variance represents the degree of variation of samples within a class. For this reason, when the matrix A is obtained as described above, the dimension reduction matrix A in which the feature vectors are separated for each class in the low-dimensional space and the feature vectors of the same class are concentrated in a specific region in the low-dimensional space. Can be requested. In dimension reduction by the conventional linear discriminant analysis method, the dimension reduction matrix A optimum for pattern recognition is obtained in this way.

一方、不等分散判別分析法による次元削減では、クラス内共分散行列Wを、各クラスの共分散行列Wiの幾何平均として、評価空間(低次元空間)でのクラス間分散とクラス内分散との比|B|/|W|が最大となる次元削減行列Aを求める。具体的には、評価関数J(A)を次のように定義して、評価関数J(A)が最大となる次元削減行列Aを求める(例えば、非特許文献2参照)。 On the other hand, the dimension reduction by unequal variance discriminant analysis method, classes in covariance matrix W, as the geometric mean of the covariance matrix W i of each class, evaluation space between-class variance and within-class variance in (low-dimensional space) The dimension reduction matrix A that maximizes the ratio | B | / | W | Specifically, the evaluation function J (A) is defined as follows, and a dimension reduction matrix A that maximizes the evaluation function J (A) is obtained (for example, see Non-Patent Document 2).

Figure 0005151522
このようにして、従来の不等分散判別分析法を用いた次元削減では、パターン認識に最適な次元削減行列Aを求めている。
フクナガケイノスケ(Keinosuke Fukunaga)著,「統計パターン認識(Introduction to Statistical Pattern Recognition)」,第2版,(米国),アカデミックプレス(Academic Press),1990年,p.441−p.459 サオン(Saon)外3名,「最尤識別特徴空間(Maximum likelihood discriminant feature space)」,音響・音声・信号処理国際会議(International Conference on Acoustics, Speech, and Signal Processing),2000年,p.129−p.132
Figure 0005151522
In this way, in the dimension reduction using the conventional unequal variance discriminant analysis method, the dimension reduction matrix A optimum for pattern recognition is obtained.
Keinosuke Fukunaga, "Introduction to Statistical Pattern Recognition", 2nd edition, (USA), Academic Press, 1990, p. 441-p. 459 3 outside Saon, “Maximum likelihood discriminant feature space”, International Conference on Acoustics, Speech, and Signal Processing, 2000, p. 129-p. 132

しかしながら、従来の次元削減法では、パターン認識を精度よく実現するのに十分に、適切な次元削減行列Aを求めることができない場合があった。即ち、従来の手法では、パターン認識を精度よく実現するのに十分に、特徴ベクトルが低次元空間上でクラス毎に分離し、同クラスの特徴ベクトルが低次元空間上で特定領域に集中するような次元削減行列Aを求めることができない場合があった。   However, in the conventional dimension reduction method, an appropriate dimension reduction matrix A may not be obtained enough to realize pattern recognition with high accuracy. That is, in the conventional method, the feature vectors are separated into classes in the low-dimensional space, and the feature vectors of the same class are concentrated in a specific region in the low-dimensional space, enough to realize pattern recognition with high accuracy. In some cases, it was not possible to obtain a simple dimension reduction matrix A.

例えば、2次元の特徴ベクトルを1次元に削減する場合であって、パターンのクラスが3種類ある場合には、図5(a)下段に示すように、3種類の各クラスの特徴ベクトルが、1次元空間上で、クラス毎に、重複しない領域に集中するのが好ましいが、線形判別分析法による次元削減では、特徴ベクトルの1次元空間上の分布が、図5(b)に示すように、異なるクラス間で重複する領域の多い分布となってしまう場合があった。   For example, when a two-dimensional feature vector is reduced to one dimension and there are three kinds of pattern classes, as shown in the lower part of FIG. In the one-dimensional space, it is preferable to concentrate on non-overlapping areas for each class. However, in the dimension reduction by the linear discriminant analysis method, the distribution of feature vectors in the one-dimensional space is as shown in FIG. In some cases, the distribution has a lot of overlapping areas between different classes.

また、このような性質を有する特徴ベクトルの集合に対しては、不等分散判別分析法によって次元削減行列Aを求めても、特徴ベクトルの1次元空間上の分布が、線形判別分析法と同様に、異なるクラス間で重複する領域の多い分布になってしまう場合があった(図5(c)参照)。このように、従来手法では、特徴ベクトルを適切に次元削減できずに、パターン認識の精度が十分に得られない場合があった。   In addition, for a set of feature vectors having such characteristics, even if the dimension reduction matrix A is obtained by the unequal variance discriminant analysis method, the distribution of the feature vectors in the one-dimensional space is the same as in the linear discriminant analysis method. In some cases, the distribution has a lot of overlapping areas between different classes (see FIG. 5C). As described above, in the conventional method, the dimension of the feature vector cannot be appropriately reduced, and the pattern recognition accuracy may not be sufficiently obtained.

本発明は、こうした問題に鑑みなされたものであり、パターン認識に適切な次元削減行列Aを算出することのできる演算装置及びプログラムを提供することを目的とする。   The present invention has been made in view of these problems, and an object thereof is to provide an arithmetic device and a program capable of calculating a dimension reduction matrix A suitable for pattern recognition.

かかる目的を達成するためになされた本発明は、外部から入力された認識対象パターンの特徴ベクトルに、予め定められた次元削減行列を作用させて、特徴ベクトルを低次元空間に写像し、当該特徴ベクトルの次元削減後の値に基づき、入力されたパターンを、予め定められた複数のクラスのいずれかに分類するパターン認識装置に用いる上記次元削減行列を算出するに当たって、クラス内分散を、一般化平均により定義し、次の評価関数J1(A,m)又は評価関数J2(A,m)により、次元削減行列Aを求めるようにしたものである。 The present invention, which has been made to achieve the above object, maps a feature vector to a low-dimensional space by applying a predetermined dimension reduction matrix to a feature vector of a recognition target pattern inputted from the outside, and the feature vector Intra-class variance is generalized when calculating the above-mentioned dimension reduction matrix used in a pattern recognition device that classifies an input pattern into one of a plurality of predetermined classes based on the value after vector dimension reduction. The dimension reduction matrix A is obtained by the following evaluation function J 1 (A, m) or evaluation function J 2 (A, m).

Figure 0005151522
具体的に、本発明の演算装置は、パターン認識装置にて分類する上記複数のクラスについて、各クラス毎に、クラスに属するパターンの特徴ベクトルを、複数個、サンプルとして取得するサンプル取得手段を備える。そして、演算装置は、サンプル取得手段が取得した各クラスのサンプル群に基づき、クラス間分散算出手段にて、クラス間共分散行列Bを求める。尚、クラス間分散算出手段は、次式に従って、クラス間共分散行列Bを求める構成にすることができる。
Figure 0005151522
Specifically, the arithmetic device of the present invention includes sample acquisition means for acquiring a plurality of feature vectors of patterns belonging to a class for each of the plurality of classes classified by the pattern recognition device. . Then, the arithmetic unit obtains the inter-class covariance matrix B by the inter-class variance calculating unit based on the sample group of each class acquired by the sample acquiring unit. The interclass variance calculation means can be configured to obtain the interclass covariance matrix B according to the following equation.

Figure 0005151522
ここで、μiは、第iクラスの平均ベクトル、μ0は、全クラスの平均ベクトルである。また、iは、クラスの総数をLとして、値1から値Lまでの整数値を採る。その他、Nは、全クラスのサンプル数、Niは、第iクラスのサンプル数、Xijは、第iクラスの第j(j=1,2,…,Ni)サンプルのベクトル値を表す。また、x1,…,xdは、d次元の特徴ベクトルの各要素の値を表し、上付き文字Tは、転置である。
Figure 0005151522
Here, μ i is the average vector of the i-th class, and μ 0 is the average vector of all classes. Further, i takes an integer value from value 1 to value L, where L is the total number of classes. In addition, N represents the number of samples in all classes, N i represents the number of samples in the i-th class, and X ij represents the vector value of the j-th (j = 1, 2,..., N i ) samples in the i -th class. . Further, x 1, ..., x d represents the value of each element in the d-dimensional feature vector, the superscript T, the transpose.

Figure 0005151522
また、本発明の演算装置は、サンプル取得手段が取得した各クラスのサンプル群に基づき、クラス分散算出手段により、各クラスの共分散行列Wiを算出する。但し、Wiは、第iクラスの共分散行列を表す。
Figure 0005151522
The arithmetic device of the present invention is based on a sample set of each class that sample acquisition means has acquired, class variance calculating means for calculating a covariance matrix W i for each class. Here, W i represents the i-th class covariance matrix.

Figure 0005151522
この他、本発明の演算装置は、クラス内分散を定義付ける値mとして、実数値の入力を受け付ける入力受付手段を備え、この入力受付手段により、当該演算装置のユーザが所望するクラス内分散の定義情報(値m)を取得する。
Figure 0005151522
In addition, the arithmetic device of the present invention includes input receiving means for receiving an input of a real value as a value m defining intra-class variance, and this input receiving means defines the intra-class variance desired by the user of the arithmetic device. Get information (value m).

そして、演算装置は、入力受付手段を通じて入力された値mと、クラス間分散算出手段により算出されたクラス間共分散行列Bと、クラス分散算出手段により算出された各クラスの共分散行列Wiとに基づき、式(1)で定義される評価関数J1(A,m)又は式(2)で定義される評価関数J2(A,m)が最大になる次元削減行列Aを、行列算出手段により算出する。尚、Piは、第iクラスの事前確率であり、Pi=Ni/Nとすることができる。 Then, the arithmetic unit outputs the value m input through the input receiving unit, the inter-class covariance matrix B calculated by the inter-class variance calculating unit, and the covariance matrix W i of each class calculated by the class variance calculating unit. Based on the above, the dimension reduction matrix A that maximizes the evaluation function J 1 (A, m) defined by the expression (1) or the evaluation function J 2 (A, m) defined by the expression (2) Calculated by calculating means. Note that P i is the prior probability of the i-th class, and can be set to P i = N i / N.

本発明の演算装置は、このようにして、次元削減行列Aを求め、求めた次元削減行列Aを、出力手段により、外部に出力する。
このように構成された演算装置では、m=1が入力された場合、クラス内分散を、算術平均により定義することになるため、線形判別分析法と同手法で、次元削減行列Aを求めることとなり、m=0が入力された場合には、クラス内分散を、幾何平均により定義することになるため、周知の不等分散判別分析法と同手法で次元削減行列Aを求めることとなる。一方、mが0,1以外の値で入力された場合には、新規な手法で次元削減行列Aを求めることになる。
The arithmetic device of the present invention thus obtains the dimension reduction matrix A and outputs the obtained dimension reduction matrix A to the outside by the output means.
In the arithmetic device configured as described above, when m = 1 is input, the intra-class variance is defined by the arithmetic mean, so that the dimension reduction matrix A is obtained by the same method as the linear discriminant analysis method. Thus, when m = 0 is input, the intra-class variance is defined by the geometric mean, so the dimension reduction matrix A is obtained by the same method as the well-known unequal variance discriminant analysis method. On the other hand, when m is input with a value other than 0 and 1, the dimension reduction matrix A is obtained by a novel method.

本発明者は、線形判別分析法及び不等分散判別分析法によっては適切な次元削減行列Aが求められない問題について考察したところ、クラス内分散を一般化平均により定義することにより、線形判別分析法及び不等分散判別分析法によっては適切な次元削減行列Aが求められない問題を解消することができることに気がついた。例えば、線形判別分析法や不等分散判別分析法によっては、適切な次元削減行列Aを求めることができない図5(b)(c)のような場合であっても、パラメータmを、例えば、m=10などのm=0,1以外の値に設定して、式(1)の評価関数J1(A,m)又は式(2)の評価関数J2(A,m)に従い、評価関数が最大となる次元削減行列Aを求めれば、図5(a)下段のようなパターン認識に適切な分布を得ることができるのである。 The present inventor considered the problem that an appropriate dimension reduction matrix A cannot be obtained by the linear discriminant analysis method and the unequal variance discriminant analysis method. By defining the intra-class variance by a generalized average, the linear discriminant analysis is performed. It has been found that the problem that an appropriate dimension reduction matrix A cannot be obtained by the method and the unequal variance discriminant analysis method can be solved. For example, even in the case of FIGS. 5B and 5C in which an appropriate dimension reduction matrix A cannot be obtained by the linear discriminant analysis method or the unequal variance discriminant analysis method, the parameter m is set to, for example, Set to a value other than m = 0, 1, such as m = 10, and evaluate according to evaluation function J 1 (A, m) in equation ( 1 ) or evaluation function J 2 (A, m) in equation (2) If the dimension reduction matrix A that maximizes the function is obtained, a distribution suitable for pattern recognition as shown in the lower part of FIG. 5A can be obtained.

本発明者は、このような事実から、演算装置を、外部からパラメータmの値を取得し、式(1)の評価関数J1(A,m)又は式(2)の評価関数J2(A,m)に従って次元削減行列Aを算出し、この次元削減行列Aを出力する構成にしたのである。このような演算装置を用いれば、パターン認識装置の設計者は、パラメータmの値として複数の値を演算装置に入力し、これにより複数の次元削減行列Aを演算装置から得て、これらの次元削減行列Aをサンプルに作用させたときのサンプルの低次元空間での分布を、評価することにより、パターン認識に最適な次元削減行列Aを求めることができる。 The present inventor obtains the value of the parameter m from the outside from such a fact, and the evaluation function J 1 (A, m) of the expression ( 1 ) or the evaluation function J 2 (2) of the expression (2). A dimension reduction matrix A is calculated according to A, m), and the dimension reduction matrix A is output. If such an arithmetic device is used, the designer of the pattern recognition device inputs a plurality of values as the value of the parameter m to the arithmetic device, thereby obtaining a plurality of dimension reduction matrices A from the arithmetic device. By evaluating the distribution of the sample in the low-dimensional space when the reduction matrix A is applied to the sample, the optimal dimension reduction matrix A for pattern recognition can be obtained.

従って、本発明の演算装置を用いれば、従来よりも好適なパターン認識装置を構成することができる。
尚、上記演算装置は、行列算出手段により算出された次元削減行列Aを、サンプル取得手段が取得した各サンプルに作用させて、各サンプルの次元削減後の値を算出する低次元化手段を備え、出力手段にて、上記算出された次元削減行列A及び低次元化手段の算出結果を表す情報を、出力する構成にされるとよい(請求項2)。ここで「低次元化手段の算出結果を表す情報」としては、低次元化手段により求められた各サンプルの次元削減後の値そのものや、その統計情報(低次元空間での各サンプルの分布を表す情報等)を挙げることができる。
Therefore, if the arithmetic device of the present invention is used, a more suitable pattern recognition device than the conventional one can be configured.
Note that the arithmetic device includes a reduction means for applying the dimension reduction matrix A calculated by the matrix calculation means to each sample acquired by the sample acquisition means and calculating a value after dimension reduction of each sample. The output means may be configured to output information indicating the calculated dimension reduction matrix A and the calculation result of the reduction means. Here, “information indicating the calculation result of the reduction means” is the value itself after the dimension reduction of each sample obtained by the reduction means, and its statistical information (distribution of each sample in the low dimension space). And the like).

このように演算装置を構成すれば、パターン認識装置の設計者は、別途、次元削減行列Aをサンプルに作用させて、各サンプルを次元削減する作業をしなくても、パターン認識に最適な次元削減行列を設定するのに必要な情報を、演算装置から得ることができる。従って、本発明によれば、パターン認識装置を設計する際の次元削減行列Aの決定を、効率的に行うことができる。   If the arithmetic unit is configured in this manner, the designer of the pattern recognition device separately applies the dimension reduction matrix A to the sample, and the dimension optimal for pattern recognition can be obtained without performing the work of reducing the dimension of each sample. Information necessary for setting the reduction matrix can be obtained from the arithmetic unit. Therefore, according to the present invention, it is possible to efficiently determine the dimension reduction matrix A when designing the pattern recognition apparatus.

また、具体的に、出力手段は、低次元化手段により求められた各サンプルの次元削減後の値を、次元削減行列Aと共に記述したデータファイルを出力する構成にされてもよいし、低次元空間での各サンプルの分布をグラフ化してなる画像を、表示装置を通じて画面に出力する構成にされてもよい。   Further, specifically, the output means may be configured to output a data file in which the value after dimension reduction of each sample obtained by the dimension reduction means is described together with the dimension reduction matrix A. An image formed by graphing the distribution of each sample in the space may be output to a screen through a display device.

この他、演算装置には、各サンプルの次元削減後の値に基づき、行列算出手段が算出した次元削減行列Aの良否を評価する評価手段を設けると好ましい(請求項3)。例えば、出力手段を通じ、評価手段の評価結果をユーザに向けて出力するように演算装置を構成すれば、ユーザに、適切な次元削減行列Aを用いて、パターン認識装置を構築させることができる。   In addition, it is preferable that the arithmetic unit is provided with an evaluation unit that evaluates the quality of the dimension reduction matrix A calculated by the matrix calculation unit based on the value after dimension reduction of each sample (claim 3). For example, if the arithmetic unit is configured to output the evaluation result of the evaluation unit to the user through the output unit, the pattern recognition device can be constructed by using the appropriate dimension reduction matrix A.

また、評価手段は、低次元化手段により算出された各サンプルの次元削減後の値から求められる各クラスの共分散行列Wi’(但し、Wi’は、次元削減後の第iクラスの共分散行列を表す。)及び平均ベクトルμi’(但し、μi’は、次元削減後の第iクラスに属するサンプルの平均ベクトルを表す。)に基づき、重み付け係数をs、第iクラスの事前確率をPiとした式 Further, the evaluation means uses the covariance matrix W i ′ of each class obtained from the value after dimension reduction of each sample calculated by the dimension reduction means (W i ′ is the i th class after the dimension reduction). Based on the covariance matrix) and the average vector μ i ′ (where μ i ′ represents the average vector of the samples belonging to the i-th class after dimension reduction), and the weighting coefficient is s, expression that the prior probability was P i

Figure 0005151522
に従って、行列算出手段が算出した次元削減行列Aによる次元削減後の第iクラス及び第kクラスのサンプル群の重なり具合を表すチェルノフ上限CBikを、クラスの組合せ毎に算出し、算出したチェルノフ上限CBikに基づき、行列算出手段が算出した次元削減行列Aの良否を評価する構成にすることができる(請求項4)。尚、チェルノフ上限は、一般に「チェルノフ限界」とも呼ばれる。
Figure 0005151522
The Chernoff upper limit CB ik representing the degree of overlap of the sample groups of the i-th class and the k-th class after the dimension reduction by the dimension reduction matrix A calculated by the matrix calculation means is calculated for each combination of classes, and the calculated Chernoff upper limit Based on CB ik , the quality of the dimension reduction matrix A calculated by the matrix calculation means can be evaluated (claim 4). The upper limit of Cherniv is generally called “Chernov limit”.

上記チェルノフ上限CBikは、値が小さい程、第iクラス及び第kクラスのサンプル群の重なり具合が小さいことを表す。従って、チェルノフ上限CBikが小さい次元削減行列Aほど高く評価すれば、次元削減行列Aの良否を適切に評価することができる。 The Chernoff upper limit CB ik indicates that the smaller the value, the smaller the degree of overlap between the i th and k th class sample groups. Therefore, if the dimension reduction matrix A having a smaller Chernoff upper limit CB ik is evaluated higher, the quality of the dimension reduction matrix A can be appropriately evaluated.

この他、評価手段は、チェルノフ上限CBikの総和CB In addition, the evaluation means is the sum CB of the Chernov upper limit CB ik

Figure 0005151522
を行列算出手段が算出した次元削減行列Aの良否を表す評価値CBとして算出する構成にすることができる(請求項5)。このように評価手段を構成した場合には、評価値CBが小さい程、その次元削減行列Aが、パターン認識装置に適切であることを表す。従って、次元削減行列Aと共に評価値CBをユーザに報知したりすることで、ユーザに、適切な次元削減行列Aを用いて、パターン認識装置を構築させることができる。
Figure 0005151522
Can be calculated as an evaluation value CB representing the quality of the dimension reduction matrix A calculated by the matrix calculation means (claim 5). When the evaluation means is configured as described above, the smaller the evaluation value CB, the more suitable the dimension reduction matrix A is for the pattern recognition apparatus. Accordingly, by notifying the user of the evaluation value CB together with the dimension reduction matrix A, the user can construct a pattern recognition apparatus using the appropriate dimension reduction matrix A.

尚、具体的に、入力受付手段は、クラス内分散を定義付ける値mとして、複数の値を取得可能な構成にされ、行列算出手段は、入力受付手段が取得した値m毎に、評価関数J1(A,m)又は前記評価関数J2(A,m)が最大になる次元削減行列Aを、算出する構成にされ、評価手段は、入力受付手段が取得した値m毎に、行列算出手段が算出した次元削減行列Aの良否を評価する構成にされるとよい。また、出力手段は、評価手段の評価結果に従って、行列算出手段が算出した複数の次元削減行列Aの内、評価が最良の次元削減行列Aを選択的に、出力する構成にされるとよい(請求項6)。 Specifically, the input receiving unit is configured to be able to acquire a plurality of values as the value m defining the intra-class variance, and the matrix calculating unit is configured to evaluate the evaluation function J for each value m acquired by the input receiving unit. 1 (A, m) or a dimension reduction matrix A that maximizes the evaluation function J 2 (A, m) is calculated, and the evaluation means calculates a matrix for each value m acquired by the input reception means. It may be configured to evaluate the quality of the dimension reduction matrix A calculated by the means. Further, the output means may be configured to selectively output the dimension reduction matrix A having the best evaluation among the plurality of dimension reduction matrices A calculated by the matrix calculation means in accordance with the evaluation result of the evaluation means ( Claim 6).

このような構成の演算装置によれば、ユーザから入力された複数の値mの内、最良な値mに対応する次元削減行列Aを選択的に、ユーザに報知することができて、ユーザに、認識精度の高いパターン認識装置を構築させることができる。   According to the arithmetic device having such a configuration, it is possible to selectively notify the user of the dimension reduction matrix A corresponding to the best value m among a plurality of values m input by the user, Therefore, it is possible to construct a pattern recognition device with high recognition accuracy.

この他、本発明の演算装置が有する各手段としての機能は、プログラムによりコンピュータに実現させることができる。また、本発明の演算装置としての機能を、コンピュータに実現させるためのプログラムは、例えば、CD−ROM等のコンピュータ読取可能な記録媒体に記録して提供することができる。   In addition, the function as each means of the arithmetic device of the present invention can be realized by a computer by a program. Further, a program for causing a computer to realize the function as the arithmetic device of the present invention can be provided by being recorded on a computer-readable recording medium such as a CD-ROM.

以下に本発明の実施例について、図面と共に説明する。但し、本発明は、以下に説明する実施例に限定されるものではなく、種々の態様を採りうる。
[第一実施例]
図1は、第一実施例の情報処理装置1の構成を表すブロック図である。図1に示すように、本実施例の情報処理装置1は、各種演算処理を行うCPU11と、ブートプログラム等を記憶するROM13と、プログラム実行時に作業領域として使用されるRAM15と、ハードディスク装置(HDD)17と、キーボードやポインティングデバイス等で構成されるユーザインタフェース19と、液晶ディスプレイ等で構成される表示装置21と、記録メディア(磁気ディスクや光ディスク等)に記録されたデータを読み取るためのドライブ装置23と、を備える。
Embodiments of the present invention will be described below with reference to the drawings. However, this invention is not limited to the Example demonstrated below, A various aspect can be taken.
[First embodiment]
FIG. 1 is a block diagram illustrating the configuration of the information processing apparatus 1 according to the first embodiment. As shown in FIG. 1, an information processing apparatus 1 according to the present embodiment includes a CPU 11 that performs various arithmetic processes, a ROM 13 that stores a boot program, a RAM 15 that is used as a work area when the program is executed, and a hard disk device (HDD). ) 17, a user interface 19 including a keyboard and a pointing device, a display device 21 including a liquid crystal display, and a drive device for reading data recorded on a recording medium (such as a magnetic disk or an optical disk) 23.

ハードディスク装置17には、オペレーティングシステムや各種アプリケーションソフトウェアが記憶されており、本実施例の情報処理装置1は、起動すると、ハードディスク装置17にインストールされた上記オペレーティングシステムに従って動作し、ユーザインタフェース19から入力される指令信号に従って、各種アプリケーションソフトウェアを実行する。   The hard disk device 17 stores an operating system and various application software. When the information processing apparatus 1 according to the present embodiment is activated, the information processing apparatus 1 operates according to the operating system installed in the hard disk device 17 and is input from the user interface 19. Various application software is executed in accordance with the command signal.

具体的に、本実施例の情報処理装置1には、次元削減行列Aを設計するためのツールが、ハードディスク装置17に、アプリケーションソフトウェアとしてインストールされており、CPU11は、ユーザインタフェース19を通じて、上記ツールの実行指令が入力されると、ハードディスク装置17にインストールされた上記ツールに従って、次元削減行列演算処理を実行する(図3参照)。   Specifically, in the information processing apparatus 1 of the present embodiment, a tool for designing the dimension reduction matrix A is installed as application software in the hard disk device 17, and the CPU 11 passes the user interface 19 through the above tool. Is input, the dimension reduction matrix calculation process is executed according to the tool installed in the hard disk device 17 (see FIG. 3).

尚、上記ツールは、外部から入力された認識対象パターンの特徴ベクトルXに、予め設定された次元削減行列Aを作用させて、特徴ベクトルXを低次元空間Syに写像し、特徴ベクトルXの次元削減後の値Yに基づき、パターンを、予め定められた複数のクラスのいずれかに分類するパターン認識装置に設定する次元削減行列Aを算出するためのものである。 Note that the above tool applies a dimension reduction matrix A set in advance to the feature vector X of the recognition target pattern inputted from the outside, maps the feature vector X to the low-dimensional space S y , and This is for calculating a dimension reduction matrix A set in a pattern recognition apparatus that classifies a pattern into any of a plurality of predetermined classes based on the value Y after dimension reduction.

この種のパターン認識装置としては、マイクロフォンから入力されたユーザの発声音のパターンを認識対象パターンとして、その発声音パターンから、音声の特徴を抽出し、特徴ベクトルXを生成するパターン認識装置や、カメラから入力された被写体の画像パターンを認識対象パターンとして、その画像パターンから、画像の特徴を抽出し、特徴ベクトルXを生成するパターン認識装置が知られている。図2は、この種のパターン認識装置50の基本構成を表すブロック図である。   As this type of pattern recognition device, a pattern recognition device that extracts a feature of a voice from the uttered sound pattern and generates a feature vector X using a pattern of the user's uttered sound input from a microphone as a recognition target pattern, 2. Description of the Related Art There is known a pattern recognition apparatus that uses a subject image pattern input from a camera as a recognition target pattern, extracts image features from the image pattern, and generates a feature vector X. FIG. 2 is a block diagram showing the basic configuration of this type of pattern recognition apparatus 50.

図2に示すように、パターン認識装置50は、ベクトル生成部51と、次元削減部53と、パターン認識部55と、を備え、ベクトル生成部51にて、認識対象パターンから、所定次元(ここではd次元とする)の特徴ベクトルX=(x1,x2,…,xdTを生成する。そして、この特徴ベクトルXを、次元削減部53にて、予め設定された次元削減行列Aに従い次元削減する。 As shown in FIG. 2, the pattern recognition apparatus 50 includes a vector generation unit 51, a dimension reduction unit 53, and a pattern recognition unit 55. The vector generation unit 51 determines a predetermined dimension (here) from the recognition target pattern. In this case, a feature vector X = (x 1 , x 2 ,..., X d ) T is generated. Then, the dimension reduction unit 53 reduces the dimensions of this feature vector X according to a preset dimension reduction matrix A.

そして、この次元削減後の値Y=AT・Xに基づき、パターン認識部55にて、認識対象パターンを、予め定められた複数のクラスのいずれかに分類する。例えば、パターン認識部55は、次元削減後の値Yが、第iクラスの領域にある場合、入力された認識対象パターンを、第iクラスのパターンであると認識する。 Then, based on the value Y = AT · X after the dimension reduction, the pattern recognition unit 55 classifies the recognition target pattern into any of a plurality of predetermined classes. For example, when the value Y after dimension reduction is in the i-th class area, the pattern recognition unit 55 recognizes the input recognition target pattern as the i-th class pattern.

本実施例は、このような構成のパターン認識装置50に設定する次元削減行列Aを算出するためのものであり、具体的に、図3に示すようにして、次元削減行列演算処理を実行する。図3は、CPU11が実行する次元削減行列演算処理を表すフローチャートである。その他、図4(a)は、次元削減行列演算処理の実行時に、ハードディスク装置17から読み出される特徴ベクトルXのサンプルが記述されたデータファイル(以下、「サンプルデータファイル」という。)の構成を表す説明図である。   The present embodiment is for calculating the dimension reduction matrix A to be set in the pattern recognition apparatus 50 having such a configuration. Specifically, the dimension reduction matrix calculation process is executed as shown in FIG. . FIG. 3 is a flowchart showing a dimension reduction matrix calculation process executed by the CPU 11. FIG. 4A shows the configuration of a data file (hereinafter referred to as “sample data file”) in which samples of feature vectors X read from the hard disk device 17 are described when the dimension reduction matrix calculation process is executed. It is explanatory drawing.

次元削減行列処理を実行すると、CPU11は、まず、表示装置21に、ファイル選択画面を表示し、ユーザに、読出対象とするサンプルデータファイルを指定させる(S110)。そして、ユーザインタフェース19を通じ、サンプルデータファイルが指定されると、ハードディスク装置17から、指定されたデータファイルを読み出す(S120)。   When the dimension reduction matrix process is executed, the CPU 11 first displays a file selection screen on the display device 21 and causes the user to specify a sample data file to be read (S110). When a sample data file is specified through the user interface 19, the specified data file is read from the hard disk device 17 (S120).

図4(a)に示すように、サンプルデータファイルは、パターン認識装置50が分類するクラスの総数L、特徴ベクトルXの次元d、写像先の次元d’の情報が記述された構成にされ、更に、各クラス毎に、クラスに属するパターンの特徴ベクトルX=(x1,x2,…,xdTのサンプルが、クラスの識別番号c(c=1,2,…,L)に関連付けられて、複数個記述された構成にされている。以下、第iクラスの第jサンプルの特徴ベクトルXを、特に、Xijと表現する。 As shown in FIG. 4A, the sample data file has a configuration in which information on the total number L of classes classified by the pattern recognition device 50, the dimension d of the feature vector X, and the dimension d ′ of the mapping destination is described. Further, for each class, the sample of the feature vector X = (x 1 , x 2 ,..., X d ) T of the pattern belonging to the class is assigned to the class identification number c (c = 1, 2,..., L). A plurality of associations are described. Hereinafter, the feature vector X of the j-th sample of the i-th class is particularly expressed as X ij .

即ち、S120において、CPU11は、サンプルデータファイルに記録された、これらの値L,d,d’,Xijを全て読み出す処理を行う。尚、このようなサンプルデータファイルは、予め、文書作成ソフト等を通じてユーザの操作により生成され、ハードディスク装置17に記録される。 That is, in S120, the CPU 11 performs a process of reading all these values L, d, d ′, and X ij recorded in the sample data file. Such a sample data file is generated in advance by a user operation through document creation software or the like, and is recorded in the hard disk device 17.

また、S120での処理を終えると、CPU11は、クラス内分散を定義付ける値mとして、実数値の入力を受け付けるための入力画面を表示装置21に表示し、ユーザインタフェース19を通じて、値mの情報を取得する(S130)。   When the process in S120 is completed, the CPU 11 displays an input screen for accepting an input of a real value as the value m defining the intra-class variance on the display device 21, and the information on the value m is displayed through the user interface 19. Obtain (S130).

そして、この処理を終えると、CPU11は、サンプルデータファイルから読み出した値L,d,Xijに従って、各クラスの平均ベクトルμiを算出する(S140)。尚、μiは、第iクラスの平均ベクトルを表し、iは、値1から値Lまでの整数値を採る。また、Niは、サンプルデータファイルに記述された第iクラスのサンプルの総数を表す。 When this process is finished, the CPU 11 calculates the average vector μ i of each class according to the values L, d, and X ij read from the sample data file (S140). Note that μ i represents an average vector of the i-th class, and i takes an integer value from a value 1 to a value L. Further, N i denotes the total number of samples in the i-th class described in the sample data file.

Figure 0005151522
また、この処理を終えると、CPU11は、S140で算出された各クラスの平均ベクトルμ1,μ2,…,μLに基づいて、全クラスの平均ベクトルμ0を算出する(S150)。尚、Nは、全クラスのサンプル数であり、Ni(i=1,2,…,L)の総和である。
Figure 0005151522
When this process is finished, the CPU 11 calculates the average vector μ 0 of all classes based on the average vectors μ 1 , μ 2 ,..., Μ L of each class calculated in S140 (S150). N is the number of samples in all classes, and is the sum of N i (i = 1, 2,..., L).

Figure 0005151522
その後、CPU11は、次式に従って、クラス間共分散行列Bを算出する(S160)。但し、Piは、第iクラスの事前確率であり、Pi=Ni/Nである。
Figure 0005151522
Thereafter, the CPU 11 calculates an interclass covariance matrix B according to the following equation (S160). However, P i is the prior probability of the i-th class, and P i = N i / N.

Figure 0005151522
また、このようにしてS160での処理を終えると、CPU11は、S170に移行し、各クラスの共分散行列Wiを算出する。但し、Wiは、第iクラスの共分散行列を表す。
Figure 0005151522
Upon ending the process in S160 in this manner, CPU 11, the process proceeds to S170, calculates the covariance matrix W i for each class. Here, W i represents the i-th class covariance matrix.

Figure 0005151522
また、S170での処理を終えると、CPU11は、S180に移行し、次式に示す評価関数J(A,m)が最大となるd行d’列の次元削減行列Aを求める。
Figure 0005151522
When the process in S170 is completed, the CPU 11 proceeds to S180, and obtains a dimension reduction matrix A of d rows and d ′ columns that maximizes the evaluation function J (A, m) shown in the following equation.

Figure 0005151522
例えば、S180では、行列Aの要素の値を走査して、評価関数J(A,m)が極大値を採る行列Aを求める。尚、m=0である場合には、具体的に、次の評価関数J(A,0)に従って、評価関数J(A,0)が最大となるd行d’列の次元削減行列Aを求める。
Figure 0005151522
For example, in S180, the values of the elements of the matrix A are scanned to obtain the matrix A in which the evaluation function J (A, m) takes the maximum value. When m = 0, specifically, the dimension reduction matrix A of d rows and d ′ columns in which the evaluation function J (A, 0) is maximum is obtained according to the following evaluation function J (A, 0). Ask.

Figure 0005151522
また、S180での処理を終えると、CPU11は、求めた次元削減行列Aを、各サンプルXijに作用させて、各サンプル毎に、サンプルを低次元空間Syに写像したときの値Yijを求める(S190)。
Figure 0005151522
When the processing in S180 is completed, the CPU 11 applies the obtained dimension reduction matrix A to each sample X ij and values Y ij when the samples are mapped to the low-dimensional space S y for each sample. Is obtained (S190).

Figure 0005151522
その後、CPU11は、上記算出した次元削減行列A、この次元削減行列Aの算出時に用いたパラメータmの値、及び、次元削減後の値Yijを、記述してなるデータファイルを生成し、これをハードディスク装置17における上記サンプルデータファイルの読出先ディレクトリに書き込む(S200)。尚、図4(b)は、S200においてハードディスク装置17に出力するデータファイルの構成を表す説明図である。このデータファイルには、CPU11の動作により、値Yijに関連付けて、次元削減前のオリジナルの特徴ベクトルXij及び当該特徴ベクトルXijが属するクラスの値cも記述される。
Figure 0005151522
Thereafter, the CPU 11 generates a data file in which the calculated dimension reduction matrix A, the value of the parameter m used when calculating the dimension reduction matrix A, and the value Y ij after the dimension reduction are described. Is written into the reading destination directory of the sample data file in the hard disk device 17 (S200). FIG. 4B is an explanatory diagram showing the configuration of the data file output to the hard disk device 17 in S200. In this data file, the original feature vector X ij before dimension reduction and the value c of the class to which the feature vector X ij belongs are described in association with the value Y ij by the operation of the CPU 11.

また、S200での処理を終えると、CPU11は、上記算出した次元削減行列Aを表示装置21の画面上に表示すると共に、各サンプルXijを低次元空間Syに写像したときの値Yijの分布を表すグラフを、表示装置21の画面上に表示する(S205)。 When the processing in S200 is completed, the CPU 11 displays the calculated dimension reduction matrix A on the screen of the display device 21 and values Y ij obtained when each sample X ij is mapped to the low-dimensional space S y. Is displayed on the screen of the display device 21 (S205).

具体的に、d’=1である場合には、値Yijがスカラー量であるので、横軸に、1次元空間Syの座標を採り、縦軸に、その座標に写像されたサンプルの個数を採って、1次元空間Syの各座標に写像されるサンプルの個数をクラス毎にグラフ表示する。例えば、図5(a)下段に示す構成のグラフを表示する。また、d’=2である場合には、値Yijが2次元のベクトルであるので、xy平面に、2次元空間Syの座標を取り、z軸に、その座標(x,y)に写像されたサンプルの個数を採って、2次元空間Syの各座標に写像されるサンプルの個数をグラフ表示する。 Specifically, when d ′ = 1, the value Y ij is a scalar quantity, so the coordinate of the one-dimensional space S y is taken on the horizontal axis and the sample mapped to that coordinate is taken on the vertical axis. taking the number, graphical displays for each of the number of samples to be mapped to each coordinate of the one-dimensional space S y class. For example, a graph having the configuration shown in the lower part of FIG. When d ′ = 2, since the value Y ij is a two-dimensional vector, the coordinates of the two-dimensional space S y are taken on the xy plane, and the coordinates (x, y) are taken on the z axis. take the mapped number of samples, the number of samples to be mapped to each coordinate of the two-dimensional space S y graphically displayed.

その後、CPU11は、再演算の実行指令がユーザインタフェース19を通じて入力されているか否かを判断し(S210)、再演算の実行指令が入力されている場合には(S210でYes)、S130に移行し、改めて値mの入力を受け付ける。また、ユーザインタフェース19を通じて値mが入力された後には、S140に移行し、この新規な値mを用いて、S140以降の処理を実行する。   Thereafter, the CPU 11 determines whether or not a recalculation execution command is input through the user interface 19 (S210). If a recalculation execution command is input (Yes in S210), the process proceeds to S130. Then, the input of the value m is received again. Further, after the value m is input through the user interface 19, the process proceeds to S140, and the processes after S140 are executed using the new value m.

一方、再演算の実行指令が入力されていないと判断すると(S210でNo)、CPU11は、当該ツールの終了指令が入力されるか、再演算の実行指令が入力されるまで待機し、当該ツールの終了指令が入力されると(S220でYes)、当該次元削減行列演算処理を終了する。   On the other hand, if it is determined that a recalculation execution command has not been input (No in S210), the CPU 11 waits until a recomputation execution command is input or a recalculation execution command is input. Is input (Yes in S220), the dimension reduction matrix calculation process ends.

以上に説明した本実施例の情報処理装置1では、m=1が入力された場合、クラス内分散を、算術平均により定義することになるため、線形判別分析法と同手法で、次元削減行列Aを求めることになる。また、m=0が入力された場合には、クラス内分散を、幾何平均により定義することになるため、周知の不等分散判別分析法と同手法で次元削減行列Aを求めることになる。一方、mが0,1以外の値で入力された場合には、新規な手法で次元削減行列Aを求めることになる。   In the information processing apparatus 1 according to the present embodiment described above, when m = 1 is input, the intra-class variance is defined by the arithmetic mean. Therefore, the dimension reduction matrix is the same as the linear discriminant analysis method. A will be calculated. When m = 0 is input, the intra-class variance is defined by the geometric mean, so the dimension reduction matrix A is obtained by the same method as the well-known unequal variance discriminant analysis method. On the other hand, when m is input with a value other than 0 and 1, the dimension reduction matrix A is obtained by a novel method.

上述したように、クラス内分散を一般化平均で定義すれば、線形判別分析法や不等分散判別分析法によっては、適切な次元削減行列Aを求めることができない場合であっても、適切な次元削減行列Aを求めることができる(図5参照)。即ち、特徴ベクトル(サンプル)Xijを低次元空間Syに写像したときに、特徴ベクトルXijが低次元空間Sy上でクラス毎に分離し、同クラスの特徴ベクトルが特定領域に集中する図5(a)に示すような適切な次元削減行列Aを求めることができる。 As described above, if the intra-class variance is defined by a generalized average, even if the appropriate dimension reduction matrix A cannot be obtained by the linear discriminant analysis method or the unequal variance discriminant analysis method, an appropriate A dimension reduction matrix A can be obtained (see FIG. 5). That is, when the feature vector (sample) X ij is mapped to the low-dimensional space S y , the feature vector X ij is separated for each class on the low-dimensional space S y , and feature vectors of the same class are concentrated in a specific region. An appropriate dimension reduction matrix A as shown in FIG. 5A can be obtained.

従って、本実施例のツールを用いれば、従来よりもパターン認識性能に優れた好適なパターン認識装置を構成することができる。
具体的に、パターン認識装置50に設定する次元削減行列Aの決定に当たっては、当該ツールを用いて、パラメータmの値を走査しながら、当該値mで求めた次元削減行列Aにより各サンプルXijを低次元空間Syに写像したときの分布を、出力されたデータファイルの内容や表示装置21に表示されたグラフに基づいて、評価する作業を行えばよい。このような作業を経て、本実施例では、最適な次元削減行列Aを求めることができる。
Therefore, if the tool of the present embodiment is used, it is possible to configure a suitable pattern recognition apparatus that is superior in pattern recognition performance than the conventional one.
Specifically, in determining the dimension reduction matrix A to be set in the pattern recognition apparatus 50, each sample X ij is obtained from the dimension reduction matrix A obtained from the value m while scanning the value of the parameter m using the tool. It is sufficient to perform an operation of evaluating the distribution when the image is mapped to the low-dimensional space Sy based on the contents of the output data file and the graph displayed on the display device 21. Through such work, in this embodiment, the optimum dimension reduction matrix A can be obtained.

また、本実施例では、演算結果をデータファイルとして出力するだけでなく、各サンプルXijを低次元空間Syに写像したときの値Yijの分布を表すグラフを、表示装置21の画面上に表示出力するので、ユーザは、最適な次元削減行列Aを求める作業を、効率的に行うことができる。 In this embodiment, not only the calculation result is output as a data file, but also a graph representing the distribution of the value Y ij when each sample X ij is mapped to the low-dimensional space S y is displayed on the screen of the display device 21. Therefore, the user can efficiently perform an operation for obtaining the optimum dimension reduction matrix A.

ところで、上記実施例では、分子をクラス間共分散行列Bで定義した評価関数J(A,m)に従って次元削減行列Aを求めたが、S180では、分子を全共分散行列で定義してなる次の評価関数J(A,m)に従って、次元削減行列Aを求めても良い。   In the above embodiment, the dimension reduction matrix A is obtained according to the evaluation function J (A, m) in which the numerator is defined by the interclass covariance matrix B. In S180, the numerator is defined by the total covariance matrix. The dimension reduction matrix A may be obtained according to the following evaluation function J (A, m).

Figure 0005151522
評価関数J(A,m)を、上式で定義して次元削減行列Aを求めても、上記実施例と同様の効果を得ることができる。
Figure 0005151522
Even if the evaluation function J (A, m) is defined by the above equation to obtain the dimension reduction matrix A, the same effect as in the above embodiment can be obtained.

この他、上述した情報処理装置1は、図6に示す内容の次元削減行列演算処理を実行する構成にされてもよい(第二実施例)。
[第二実施例]
続いて、第二実施例について説明する。図6は、第二実施例の情報処理装置1が、CPU11にて実行する次元削減行列演算処理を表すフローチャートである。但し、第二実施例の情報処理装置1は、CPU11にて実行する次元削減行列演算処理の内容が異なる程度であり、その他の構成については、基本的に第一実施例と同一構成であるので、以下では、第一実施例の情報処理装置1と同一構成の説明を、適宜省略する。
In addition, the information processing apparatus 1 described above may be configured to execute a dimension reduction matrix calculation process having the contents shown in FIG. 6 (second embodiment).
[Second Example]
Subsequently, a second embodiment will be described. FIG. 6 is a flowchart illustrating a dimension reduction matrix calculation process executed by the CPU 11 by the information processing apparatus 1 according to the second embodiment. However, the information processing apparatus 1 of the second embodiment is different in the content of the dimension reduction matrix calculation process executed by the CPU 11, and other configurations are basically the same as those of the first embodiment. Hereinafter, the description of the same configuration as the information processing apparatus 1 of the first embodiment will be omitted as appropriate.

図6に示す次元削減行列演算処理を実行すると、CPU11は、まず、表示装置21に、ファイル選択画面を表示し、ユーザに、読出対象とするサンプルデータファイルを指定させる(S310)。そして、ユーザインタフェース19を通じ、サンプルデータファイルが指定されると、ハードディスク装置17から、指定されたデータファイルを読み出す(S320)。尚、本実施例のサンプルデータファイルも、第一実施例と同一構成であり、予め、文書作成ソフト等を通じてユーザの操作により生成され、ハードディスク装置17に記録されるものとする。   When the dimension reduction matrix calculation process shown in FIG. 6 is executed, the CPU 11 first displays a file selection screen on the display device 21 and causes the user to specify a sample data file to be read (S310). When a sample data file is specified through the user interface 19, the specified data file is read from the hard disk device 17 (S320). The sample data file of the present embodiment has the same configuration as that of the first embodiment, and is generated in advance by a user operation through document creation software or the like and recorded on the hard disk device 17.

即ち、S320において、CPU11は、サンプルデータファイルに記録された値L,d,d’,Xijを読み出す処理を行う。
また、S320での処理を終えると、CPU11は、クラス内分散を定義付ける値として、実数値の入力を受け付けるための入力画面を表示装置21に表示し、ユーザインタフェース19を通じて、その値を取得する(S330)。但し、ここで表示する入力画面は、第一実施例とは異なり、クラス内分散を定義付ける値として、複数の値m[1],m[2],…,m[M]を入力可能な構成にされている。
That is, in S320, the CPU 11 performs a process of reading the values L, d, d ′, and X ij recorded in the sample data file.
When the processing in S320 is completed, the CPU 11 displays an input screen for accepting an input of a real value as a value defining the intra-class variance on the display device 21, and acquires the value through the user interface 19 ( S330). However, the input screen displayed here is different from the first embodiment in that a plurality of values m [1], m [2],..., M [M] can be input as values defining the intra-class variance. Has been.

即ち、S330では、ユーザから指定された複数の値m[1],m[2],…を、ユーザインタフェース19を通じて取得する。尚、S330では、予め定めたM個の値をユーザに入力させてもよいし、最大個数をM個として、任意の個数の値をユーザに入力させてもよい。ここでは、ユーザから取得した値mの数を、ME個とする。 That is, in S330, a plurality of values m [1], m [2],... Designated by the user are acquired through the user interface 19. In S330, the user may input a predetermined number of M values, or the user may input an arbitrary number of values with the maximum number being M. Here, the number of values m acquired from the user is M E.

また、この処理を終えると、CPU11は、S140での処理と同様に、サンプルデータファイルから読み出した値L,d,Xijに従って、各クラスの平均ベクトルμiを算出すると共に(S340)、S150での処理と同様に、S340で算出した各クラスの平均ベクトルμ1,μ2,…,μLに基づき、全クラスの平均ベクトルμ0を算出する(S350)。その後、S160での処理と同様に、クラス間共分散行列Bを算出し(S360)、S170での処理と同様に、各クラスの共分散行列Wiを算出する(S370)。 When this process is completed, the CPU 11 calculates the average vector μ i of each class according to the values L, d, and X ij read from the sample data file (S340) and S150 as in the process at S140. In the same manner as in the above processing, based on the average vectors μ 1 , μ 2 ,..., Μ L of each class calculated in S340, the average vector μ 0 of all classes is calculated (S350). Thereafter, similarly to the processing in S160, and calculates the inter-class covariance matrix B (S360), similarly to the processing in S170, to calculate the covariance matrix W i for each class (S370).

また、S370での処理を終えると、CPU11は、パラメータr=1に設定する(S373)と共に、S377に移行し、パラメータm(クラス内分散を定義付ける値m)を、ユーザから指定された値m[r]に設定する(m←m[r])。   When the processing in S370 is completed, the CPU 11 sets the parameter r = 1 (S373) and moves to S377, and sets the parameter m (value m defining the intra-class variance) to the value m designated by the user. [R] is set (m ← m [r]).

また、S377での処理を終えると、CPU11は、S380に移行し、S180での処理と同様に、評価関数J(A,m)が最大となるd行d’列の次元削減行列Aを求める(S380)。特に、ここでは、評価関数J(A,m[r])が最大となるd行d’列の次元削減行列をArと表記する。 When the process in S377 is completed, the CPU 11 proceeds to S380, and similarly to the process in S180, obtains a dimension reduction matrix A of d rows and d ′ columns that maximizes the evaluation function J (A, m). (S380). In particular, here, a dimension reduction matrix of d rows and d ′ columns in which the evaluation function J (A, m [r]) is maximum is denoted as Ar .

そして、求めた次元削減行列Arを、S190での処理と同様に、各サンプルXijに作用させて、サンプル毎に、サンプルを低次元空間Syに写像したときの値Yij[r]を求める(S390)。尚、ここで用いる記号[r]は、値m[r]を用いて算出した値であることを明確にするためのサフィックスである。 Then, the dimensionality reduction matrix A r obtained, similarly to the processing in S190, is allowed to act on each sample X ij, for each sample, the value Y ij when the mapping samples in the low-dimensional space S y [r] Is obtained (S390). The symbol [r] used here is a suffix for clarifying that the value is calculated using the value m [r].

また、この処理を終えると、CPU11は、S400に移行し、図7に示す行列評価処理を実行する。図7は、CPU11がS400で実行する行列評価処理を表すフローチャートである。   When this process is finished, the CPU 11 proceeds to S400 and executes a matrix evaluation process shown in FIG. FIG. 7 is a flowchart showing the matrix evaluation process executed by the CPU 11 in S400.

行列評価処理を開始すると、CPU11は、まず、各サンプルの次元削減後の値Yij[r]から、次元削減後の各クラスの平均ベクトルμi[r](i=1,2,…,L)を算出する(S510)。 When the matrix evaluation process is started, the CPU 11 first determines the average vector μ i [r] (i = 1, 2,...) Of each class after dimension reduction from the value Y ij [r] after dimension reduction of each sample. L) is calculated (S510).

Figure 0005151522
また、この処理を終えると、S520に移行して、次元削減後の各クラスの共分散行列Wi[r](i=1,2,…,L)を算出する。
Figure 0005151522
When this process is finished, the process proceeds to S520, and the covariance matrix W i [r] (i = 1, 2,..., L) of each class after dimension reduction is calculated.

Figure 0005151522
その後、CPU11は、S525に移行して、パラメータiを値1に設定し(i=1)、k=i+1,i+2,…,Lについて、次式に従い値Wik[r]を算出する(S530)。
Figure 0005151522
Thereafter, the CPU 11 proceeds to S525, sets the parameter i to the value 1 (i = 1), and calculates the value W ik [r] for k = i + 1, i + 2,..., L according to the following equation (S530). ).

Figure 0005151522
但し、ここで用いるパラメータsは、0<s<1の範囲で値を採る重み付け係数であり、例えば,s=0.5に設定される。
Figure 0005151522
However, the parameter s used here is a weighting coefficient that takes a value in the range of 0 <s <1, and is set to s = 0.5, for example.

また、この処理を終えると、CPU11は、S540に移行し、k=i+1,i+2,…,Lについて、次式に従い、次元削減後の第iクラスのサンプル群と第kクラスのサンプル群との間の乖離度ηik[r]を算出する(S540)。 When this processing is completed, the CPU 11 proceeds to S540, and for k = i + 1, i + 2,..., L, the i-th sample group after the dimension reduction and the k-th sample group after the dimension reduction are performed according to the following equation. The degree of deviation η ik [r] is calculated (S540).

Figure 0005151522
その後、次式に従い、次元削減後の第iクラスのサンプル群と第kクラスのサンプル群との間の重なり具合を表すチェルノフ上限CBik[r]を、k=i+1,i+2,…,Lについて算出する(S550)。尚、Piは、第iクラスの事前確率である。
Figure 0005151522
After that, according to the following equation, the upper limit CB ik [r] representing the degree of overlap between the i-th class sample group and the k-th class sample group after dimension reduction is expressed as k = i + 1, i + 2,. Calculate (S550). Note that Pi is the prior probability of the i-th class.

Figure 0005151522
即ち、本実施例では、クラス間の重なりを測る指標として、チェルノフ上限を用いる。チェルノフ上限は、ベイズ誤差の上限であることが知られている。ユーザにより指定された値m[1],…,m[ME]から、次元削減行列Aに採用するのに最適な定義(値m)を選択するには、このチェルノフ上限CBikが小さくなる値m[1],…,m[ME]を選択すればよいことになる。本実施例では、ユーザにより指定された値m[1],…,m[ME]の中から、次元削減行列Aに採用するのに最適な定義(値m)を選択するために、ここで、チェルノフ上限CBik[r]を上述のようにして算出する。尚、s=0.5のとき、チェルノフ上限は、バタチャリヤ上限と呼ばれる。
Figure 0005151522
That is, in this embodiment, the Chernoff upper limit is used as an index for measuring the overlap between classes. It is known that the upper limit of Chernoff is the upper limit of Bayes error. In order to select an optimum definition (value m) to be adopted for the dimension reduction matrix A from the values m [1],..., M [M E ] specified by the user, the Chernoff upper limit CB ik is reduced. The values m [1],..., M [M E ] may be selected. In the present embodiment, in order to select an optimum definition (value m) to be adopted for the dimension reduction matrix A from the values m [1],..., M [M E ] designated by the user, Thus, the Chernoff upper limit CB ik [r] is calculated as described above. Note that when s = 0.5, the Chernoff upper limit is called the Batachariya upper limit.

S550での処理を終えると、CPU11は、不等式i<L−1が成立しているか否かを判断し、パラメータiが値(L−1)より小さく上記不等式が成立している場合には(S560でYes)、S565に移行して、パラメータiを1加算した値に更新し(i←i+1)、S530に移行する。その後、更新後のパラメータiの値を用いて、S530〜S560の処理を実行する。   When the processing in S550 is completed, the CPU 11 determines whether or not the inequality i <L−1 is satisfied. When the parameter i is smaller than the value (L−1) and the above inequality is satisfied ( The process proceeds to S565, where the parameter i is updated to a value obtained by adding 1 (i ← i + 1), and the process proceeds to S530. Thereafter, the process of S530 to S560 is executed using the updated value of the parameter i.

そして、パラメータiの値が(L−1)となり、不等式i<L−1が成立しなくなると(S560でNo)、S570に移行し、次式に従って、各クラスの組合せ毎のチェルノフ上限CBik[r]の総和CB[r]を算出する。 When the value of the parameter i becomes (L-1) and the inequality i <L-1 does not hold (No in S560), the process proceeds to S570, and according to the following formula, the Chernoff upper limit CB ik for each combination of classes. The sum CB [r] of [r] is calculated.

Figure 0005151522
周知のようにチェルノフ上限は、2クラス間の問題しか取り扱うことができないため、本実施例では、上述のように総和CB[r]を算出し、第1クラスから第Lクラスまでの各クラス間の重なり具合を数値化する。そして、本実施例では、この総和CB[r]を、次元削減行列Arの良否に関する評価値として取り扱う。具体的には、総和CB[r]が小さい程、次元削減行列Arが良であると取り扱う。
Figure 0005151522
As is well known, since the upper limit of Chernoff can only deal with problems between two classes, in this embodiment, the sum CB [r] is calculated as described above, and between each class from the first class to the L class. Quantify the degree of overlap. In the present embodiment, the sum CB [r], handled as an evaluation value regarding the quality of the dimensionality reduction matrix A r. Specifically, the sum CB [r] The smaller the handles to be goodness dimensionality reduction matrix A r.

なぜなら、総和CB[r]が小さい程、各クラスのサンプル群の重なりが小さく、特徴ベクトルXijが低次元空間Sy上でクラス毎に適切に分離し、同クラスの特徴ベクトルが特定領域に集中していることになるためである。CPU11は、このような特徴を有する総和CB[r](以下、評価値CB[r]とも言う。)を算出すると、当該行列評価処理を終了する。 This is because the smaller the sum CB [r], the smaller the overlap of the sample groups of each class, the feature vectors X ij are appropriately separated for each class in the low-dimensional space S y , and the feature vectors of the same class are in a specific region. This is because they are concentrated. After calculating the sum CB [r] (hereinafter also referred to as an evaluation value CB [r]) having such characteristics, the CPU 11 ends the matrix evaluation process.

また、S400で行列評価処理を終えると、CPU11は、ユーザから指定された複数の値m[1],…,m[ME]の全てについて次元削減行列Arを算出し行列評価処理を実行したか否かを判断する(S410)。即ち、r≧MEであるか否かを判断する。そして、値m[1],…,m[ME]の全てについて次元削減行列Arを算出し行列評価処理を実行していないと判断すると(S410でNo)、S415に移行し、パラメータrを、1加算した値に更新する(r←r+1)。その後、S377に移行し、値mをm[r]に更新し、m[r]について、S380以降の処理を実行する。 When the matrix evaluation process is completed in S400, the CPU 11 calculates the dimension reduction matrix Ar for all of a plurality of values m [1],..., M [M E ] designated by the user and executes the matrix evaluation process. It is determined whether or not (S410). In other words, it is determined whether or not r ≧ M E. When it is determined that the dimension reduction matrix Ar is calculated for all the values m [1],..., M [M E ] and the matrix evaluation process is not executed (No in S410), the process proceeds to S415, and the parameter r Is updated to a value obtained by adding 1 (r ← r + 1). Thereafter, the process proceeds to S377, where the value m is updated to m [r], and the processes after S380 are executed for m [r].

そして、ユーザから指定された複数の値m[1],…,m[ME]の全てについて次元削減行列Arを算出し行列評価処理を実行したと判断すると(S410でYes)、CPU11は、S420に移行し、r=1,2,…,MEの夫々に対応する評価値CB[r]の中から、最小値をとる評価値CB[r]を検出し、最小の評価値CB[r]をとるパラメータrの値を特定する。ここでは、特定した最小の評価値CB[r]をとるパラメータrの値を特に、rminと表記する。 If it is determined that the dimension reduction matrix Ar is calculated for all the values m [1],..., M [M E ] specified by the user and the matrix evaluation process is executed (Yes in S410), the CPU 11 , S420, the evaluation value CB [r] taking the minimum value is detected from the evaluation values CB [r] corresponding to r = 1, 2,..., M E , and the minimum evaluation value CB is detected. The value of parameter r taking [r] is specified. Here, the value of the parameter r that takes the specified minimum evaluation value CB [r] is expressed in particular as r min .

また、S420での処理を終えると、CPU11は、S430に移行し、最小の評価値CB[rmin]をとる次元削減行列Ar、及び、この次元削減行列Arの算出時に用いたパラメータmの値m[rmin]、及び、次元削減後の値Yij[rmin]、及び、評価値CB[rmin]を、記述してなるデータファイルを生成し、これをハードディスク装置17における上記サンプルデータファイルの読出先ディレクトリに書き込む。尚、ここで、書き込むデータファイルの様式は、S200で書き込むデータファイルの様式と概ね同様であり(図4(b)参照)、高々、評価値CB[rmin]が付加される程度のものである。 When the processing in S420 is completed, the CPU 11 proceeds to S430, and the dimension reduction matrix A r taking the minimum evaluation value CB [r min ] and the parameter m used when calculating the dimension reduction matrix A r are obtained. A data file in which the value m [r min ] of the data, the value Y ij [r min ] after the dimension reduction, and the evaluation value CB [r min ] are described is generated. Write to the sample data file reading directory. Here, the format of the data file to be written is substantially the same as the format of the data file to be written in S200 (see FIG. 4B), and at most, an evaluation value CB [r min ] is added. is there.

また、S430での処理を終えると、CPU11は、S435に移行し、上記データファイルに記述した最小の評価値CB[rmin]をとる次元削減行列Arを、表示装置21の画面上に表示すると共に、この次元削減行列Arを用いて各サンプルXijを低次元空間Syに写像したときの値Yij[rmin]の分布を表すグラフを、S205での処理と同様に、表示装置21の画面上に表示する。 When the processing in S430 is completed, the CPU 11 proceeds to S435, and displays the dimension reduction matrix Ar taking the minimum evaluation value CB [r min ] described in the data file on the screen of the display device 21. while, a graph representing the distribution of values Y ij [r min] at the time of mapping each sample X ij using the dimensionality reduction matrix a r to the low-dimensional space S y, like the process in S205, the display It is displayed on the screen of the device 21.

その後、CPU11は、再演算の実行指令がユーザインタフェース19を通じて入力されているか否かを判断し(S440)、再演算の実行指令が入力されている場合には(S440でYes)、S330に移行する。一方、再演算の実行指令が入力されていないと判断すると(S440でNo)、当該ツールの終了指令が入力されるか、再演算の実行指令が入力されるまで待機し、当該ツールの終了指令が入力されると(S450でYes)、当該次元削減行列演算処理を終了する。   Thereafter, the CPU 11 determines whether or not a recalculation execution command is input through the user interface 19 (S440). If a recalculation execution command is input (Yes in S440), the process proceeds to S330. To do. On the other hand, if it is determined that the recalculation execution command is not input (No in S440), the process waits until the end command of the tool is input or the recalculation execution command is input, and the tool end command Is input (Yes in S450), the dimension reduction matrix calculation process is terminated.

以上、第二実施例の情報処理装置1の構成について説明したが、本実施例によれば、チェルノフ上限により、次元削減後の各クラスのサンプル群の重なり具合を数値化して、ユーザから指定された複数の値m[1],…,m[ME]の内、次元削減後の各クラスのサンプル群の重なり具合が最も小さい値m[rmin]を、クラス内分散を定義付ける最適値として採用し、その値m[rmin]を用いて評価関数J[A,m[rmin]]で算出された次元削減行列Aを、選択的に、データファイル及び表示装置21に出力する。 As described above, the configuration of the information processing apparatus 1 according to the second embodiment has been described. According to this embodiment, the degree of overlap of the sample groups of each class after dimension reduction is quantified and specified by the user according to the Chernoff upper limit. Among the plurality of values m [1],..., M [M E ], the value m [r min ] having the smallest overlap of the sample groups of each class after the dimension reduction is set as the optimum value for defining the intra-class variance. The dimension reduction matrix A calculated by the evaluation function J [A, m [r min ]] using the value m [r min ] is selectively output to the data file and the display device 21.

従って、本実施例によれば、第一実施例とは異なりS205で表示されるグラフを目視して、最適な次元削減行列Aを探し出す必要がなく、ユーザは、簡単に、最適な次元削減行列Aを求めることができる。   Therefore, according to the present embodiment, unlike the first embodiment, there is no need to look for the optimal dimension reduction matrix A by visually observing the graph displayed in S205, and the user can easily perform the optimal dimension reduction matrix. A can be obtained.

よって、本実施例によれば、ユーザは、簡単に高性能なパターン認識装置を構成することができる。
[特許請求の範囲との対応関係]
尚、本発明のサンプル取得手段は、CPU11が実行するS120,S320の処理により実現され、クラス間分散算出手段は、S160,S360の処理により実現されている。また、クラス分散算出手段は、S170,S370の処理により実現され、入力受付手段は、S130,S330の処理により実現されている。この他、行列算出手段は、S180,S380の処理により実現され、低次元化手段は、S190,S390の処理により実現され、評価手段は、S400の処理により実現され、出力手段は、S200,S205,S430,S435の処理により実現されている。
Therefore, according to the present embodiment, the user can easily configure a high-performance pattern recognition apparatus.
[Correspondence with Claims]
The sample acquisition means of the present invention is realized by the processing of S120 and S320 executed by the CPU 11, and the interclass variance calculation means is realized by the processing of S160 and S360. The class variance calculation means is realized by the processes of S170 and S370, and the input reception means is realized by the processes of S130 and S330. In addition, the matrix calculation means is realized by the processing of S180 and S380, the reduction means is realized by the processing of S190 and S390, the evaluation means is realized by the processing of S400, and the output means is S200 and S205. , S430, and S435.

情報処理装置1の構成を表すブロック図である。1 is a block diagram illustrating a configuration of an information processing device 1. FIG. パターン認識装置50の基本構成を表すブロック図である。2 is a block diagram illustrating a basic configuration of a pattern recognition device 50. FIG. CPU11が実行する次元削減行列演算処理を表すフローチャートである。It is a flowchart showing the dimension reduction matrix calculation process which CPU11 performs. サンプルデータファイルの構成(a)及び出力データファイルの構成(b)を表す説明図である。It is explanatory drawing showing the structure (a) of a sample data file, and the structure (b) of an output data file. 次元削減後の特徴ベクトルの分布を説明した説明図である。It is explanatory drawing explaining distribution of the feature vector after dimension reduction. CPU11が実行する第二実施例の次元削減行列演算処理を表すフローチャートである。It is a flowchart showing the dimension reduction matrix calculation process of 2nd Example which CPU11 performs. CPU11が実行する行列評価処理を表すフローチャートである。It is a flowchart showing the matrix evaluation process which CPU11 performs.

符号の説明Explanation of symbols

1…情報処理装置、11…CPU、13…ROM、15…RAM、17…ハードディスク装置、19…ユーザインタフェース、21…表示装置、23…ドライブ装置、50…パターン認識装置、51…ベクトル生成部、53…次元削減部、55…パターン認識部 DESCRIPTION OF SYMBOLS 1 ... Information processing apparatus, 11 ... CPU, 13 ... ROM, 15 ... RAM, 17 ... Hard disk drive, 19 ... User interface, 21 ... Display apparatus, 23 ... Drive apparatus, 50 ... Pattern recognition apparatus, 51 ... Vector generation part, 53 ... dimension reduction unit, 55 ... pattern recognition unit

Claims (7)

外部から入力された認識対象パターンの特徴ベクトルに、予め定められた次元削減行列を作用させて、前記特徴ベクトルを低次元空間に写像し、前記特徴ベクトルの次元削減後の値に基づき、前記パターンを、予め定められた複数のクラスのいずれかに分類するパターン認識装置
に用いる前記次元削減行列を算出するための演算装置であって、
前記複数のクラスについて、各クラス毎に、クラスに属するパターンの特徴ベクトルを、複数個、サンプルとして取得するサンプル取得手段と、
前記サンプル取得手段が取得した各クラスのサンプル群に基づき、クラス間共分散行列Bを算出するクラス間分散算出手段と、
前記サンプル取得手段が取得した各クラスのサンプル群に基づき、前記各クラスの共分散行列Wi(但し、Wiは、第iクラスの共分散行列を表し、iは、クラスの総数をLとして、値1から値Lまでの整数値を採るものとする。)を算出するクラス分散算出手段と、
クラス内分散を定義付ける値mとして、実数値の入力を受け付ける入力受付手段と、
前記入力受付手段を通じて入力された値mと、前記クラス間分散算出手段により算出されたクラス間共分散行列Bと、前記クラス分散算出手段により算出された各クラスの共分散行列Wiとに基づき、第iクラスの事前確率をPiとした評価関数J1(A,m)又は評価関数J2(A,m)
Figure 0005151522
が最大になる次元削減行列Aを、算出する行列算出手段と、
前記行列算出手段により算出された次元削減行列Aを、出力する出力手段と、
を備えることを特徴とする演算装置。
By applying a predetermined dimension reduction matrix to the feature vector of the recognition target pattern inputted from the outside, the feature vector is mapped to a low-dimensional space, and the pattern is based on the value after dimension reduction of the feature vector. Is a computing device for calculating the dimension reduction matrix used in a pattern recognition device that classifies the data into one of a plurality of predetermined classes,
For each of the plurality of classes, sample acquisition means for acquiring, as a sample, a plurality of feature vectors of patterns belonging to the class for each class;
Interclass variance calculation means for calculating an interclass covariance matrix B based on the sample group of each class acquired by the sample acquisition means;
Based on the sample group of each class acquired by the sample acquisition means, the covariance matrix W i of each class (W i represents the i-th class covariance matrix, and i is the total number of classes as L Class variance calculating means for calculating an integer value from value 1 to value L),
An input receiving means for receiving an input of a real value as a value m for defining intra-class variance;
The value m which is input through the input receiving means, and inter-class covariance matrix B calculated by the inter-class variance calculating means, based on the covariance matrix W i of each class calculated by the class variance calculation means , An evaluation function J 1 (A, m) or an evaluation function J 2 (A, m) where P i is the prior probability of the i-th class
Figure 0005151522
Matrix calculation means for calculating a dimension reduction matrix A that maximizes
Output means for outputting the dimension reduction matrix A calculated by the matrix calculating means;
An arithmetic device comprising:
前記行列算出手段により算出された次元削減行列Aを、前記サンプル取得手段が取得した各サンプルに作用させて、前記各サンプルの次元削減後の値を算出する低次元化手段
を備え、
前記出力手段は、前記行列算出手段により算出された次元削減行列A及び前記低次元化手段の算出結果を表す情報を、出力する構成にされていることを特徴とする請求項1記載の演算装置。
A reduction means for calculating the value after dimension reduction of each sample by applying the dimension reduction matrix A calculated by the matrix calculation means to each sample acquired by the sample acquisition means;
2. The arithmetic unit according to claim 1, wherein the output unit is configured to output a dimension reduction matrix A calculated by the matrix calculation unit and information representing a calculation result of the reduction unit. .
前記行列算出手段により算出された次元削減行列Aを、前記サンプル取得手段が取得した各サンプルに作用させて、前記各サンプルの次元削減後の値を算出する低次元化手段と、
前記低次元化手段により算出された前記各サンプルの次元削減後の値に基づき、前記行列算出手段が算出した次元削減行列Aの良否を評価する評価手段と、
を備えることを特徴とする請求項1記載の演算装置。
A dimension reduction matrix A calculated by the matrix calculation means is applied to each sample acquired by the sample acquisition means, and a dimension reduction means for calculating a value after dimension reduction of each sample;
Evaluation means for evaluating the quality of the dimension reduction matrix A calculated by the matrix calculation means based on the value after dimension reduction of each sample calculated by the reduction means;
The arithmetic unit according to claim 1, further comprising:
前記評価手段は、前記低次元化手段により算出された各サンプルの次元削減後の値から求められる各クラスの共分散行列Wi’(但し、Wi’は、次元削減後の第iクラスの共分散行列を表す。)及び平均ベクトルμi’(但し、μi’は、次元削減後の第iクラスに属するサンプルの平均ベクトルを表す。)に基づき、重み付け係数をs、第iクラスの事前確率をPiとした次式
Figure 0005151522
に従って、前記行列算出手段が算出した次元削減行列Aによる次元削減後の第iクラス及び第kクラスのサンプル群の重なり具合を表すチェルノフ上限CBikを、クラスの組合せ毎に算出し、
算出したチェルノフ上限CBikに基づき、前記行列算出手段が算出した次元削減行列Aの良否を評価する構成にされていること
を特徴とする請求項3記載の演算装置。
The evaluation means is a covariance matrix W i ′ of each class obtained from the value after dimension reduction of each sample calculated by the dimension reduction means (W i ′ is the i th class after dimension reduction). Based on the covariance matrix) and the average vector μ i ′ (where μ i ′ represents the average vector of the samples belonging to the i-th class after dimension reduction), and the weighting coefficient is s, the following equation that the prior probability was P i
Figure 0005151522
In accordance with the above, the Chernoff upper limit CB ik representing the degree of overlap of the sample groups of the i-th class and the k-th class after the dimension reduction by the dimension reduction matrix A calculated by the matrix calculation means is calculated for each combination of classes,
The arithmetic unit according to claim 3, wherein the arithmetic unit is configured to evaluate the quality of the dimension reduction matrix A calculated by the matrix calculation unit based on the calculated Chernoff upper limit CBik .
前記評価手段は、前記各クラスの組合せ毎のチェルノフ上限CBikの総和CB
Figure 0005151522
を前記行列算出手段が算出した次元削減行列Aの良否を表す評価値CBとして算出する構成にされていること
を特徴とする請求項4記載の演算装置。
The evaluation means is a sum CB of the Chernoff upper limit CB ik for each combination of the classes.
Figure 0005151522
The arithmetic unit according to claim 4, wherein: is calculated as an evaluation value CB that indicates the quality of the dimension reduction matrix A calculated by the matrix calculation means.
前記入力受付手段は、前記クラス内分散を定義付ける値mとして、複数の値を取得可能な構成にされ、
前記行列算出手段は、前記入力受付手段が取得した値m毎に、前記評価関数J1(A,m)又は前記評価関数J2(A,m)が最大になる次元削減行列Aを、算出する構成にされ、
前記評価手段は、前記入力受付手段が取得した値m毎に、前記行列算出手段が算出した次元削減行列Aの良否を評価する構成にされ、
更に、
前記出力手段は、前記評価手段の評価結果に従って、前記行列算出手段が算出した複数の次元削減行列Aの内、評価が最良の次元削減行列Aを選択的に、出力する構成にされていること
を特徴とする請求項3〜請求項5のいずれかに記載の演算装置。
The input receiving means is configured to be able to acquire a plurality of values as the value m defining the intra-class variance,
The matrix calculation means calculates a dimension reduction matrix A that maximizes the evaluation function J 1 (A, m) or the evaluation function J 2 (A, m) for each value m acquired by the input reception means. Is configured to
The evaluation means is configured to evaluate the quality of the dimension reduction matrix A calculated by the matrix calculation means for each value m acquired by the input reception means,
Furthermore,
The output means is configured to selectively output the best dimension reduction matrix A among the plurality of dimension reduction matrices A calculated by the matrix calculation means according to the evaluation result of the evaluation means. The arithmetic unit according to any one of claims 3 to 5, wherein:
請求項1〜請求項6のいずれかに記載の演算装置としての機能を、コンピュータに実現させるためのプログラム。   The program for making a computer implement | achieve the function as an arithmetic unit in any one of Claims 1-6.
JP2008029073A 2007-02-09 2008-02-08 Arithmetic apparatus and program Expired - Fee Related JP5151522B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008029073A JP5151522B2 (en) 2007-02-09 2008-02-08 Arithmetic apparatus and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007030999 2007-02-09
JP2007030999 2007-02-09
JP2008029073A JP5151522B2 (en) 2007-02-09 2008-02-08 Arithmetic apparatus and program

Publications (2)

Publication Number Publication Date
JP2008269573A JP2008269573A (en) 2008-11-06
JP5151522B2 true JP5151522B2 (en) 2013-02-27

Family

ID=40048928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008029073A Expired - Fee Related JP5151522B2 (en) 2007-02-09 2008-02-08 Arithmetic apparatus and program

Country Status (1)

Country Link
JP (1) JP5151522B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5029648B2 (en) * 2009-04-17 2012-09-19 株式会社デンソー Arithmetic apparatus and program
CN111340182B (en) * 2020-02-11 2024-04-02 无锡北邮感知技术产业研究院有限公司 Low-complexity CNN training method and device for input feature approximation

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4292837B2 (en) * 2002-07-16 2009-07-08 日本電気株式会社 Pattern feature extraction method and apparatus
JP4740686B2 (en) * 2005-08-10 2011-08-03 独立行政法人理化学研究所 Protein crystallization state discrimination system and method
JP4375570B2 (en) * 2006-08-04 2009-12-02 日本電気株式会社 Face recognition method and system

Also Published As

Publication number Publication date
JP2008269573A (en) 2008-11-06

Similar Documents

Publication Publication Date Title
Verbeeck et al. Unsupervised machine learning for exploratory data analysis in imaging mass spectrometry
Galante et al. The challenge of modeling niches and distributions for data‐poor species: a comprehensive approach to model complexity
RU2661750C1 (en) Symbols recognition with the use of artificial intelligence
Viscosi et al. Leaf morphology, taxonomy and geometric morphometrics: a simplified protocol for beginners
JP2019028839A (en) Classifier, method for learning of classifier, and method for classification by classifier
JP2010102742A (en) System and method for adaptive hand-written character recognition
DE102011079443A1 (en) Learning weights of typed font fonts in handwriting keyword retrieval
JP5717691B2 (en) Handwritten character search device, method and program
US11449706B2 (en) Information processing method and information processing system
CA3190344A1 (en) Methods for identifying cross-modal features from spatially resolved data sets
CN110929802A (en) Information entropy-based subdivision identification model training and image identification method and device
JP4348202B2 (en) Face image recognition apparatus and face image recognition program
JP5311899B2 (en) Pattern detector learning apparatus, learning method, and program
JP5151522B2 (en) Arithmetic apparatus and program
JP5029648B2 (en) Arithmetic apparatus and program
Ghaemmaghami et al. A study of speaker clustering for speaker attribution in large telephone conversation datasets
JP6125333B2 (en) Search device, method and program
JP4928193B2 (en) Face image recognition apparatus and face image recognition program
JP2017016545A (en) Graph display system, graph display method, and graph display program
JP2013152558A (en) Handwriting analysis method, handwriting analysis apparatus and handwriting analysis program
Ordynets et al. Geometric morphometric analysis of spore shapes improves identification of fungi
JP2020087570A (en) Fracture surface analyzer, learned model generating device, fracture surface analysis method, fracture surface analyzer program and learned model
CN110210410B (en) Handwritten number recognition method based on image characteristics
Rifkin Identifying fluorescently labeled single molecules in image stacks using machine learning
JP5130934B2 (en) Recognition system, information processing apparatus, design apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121119

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5151522

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees