JP5151522B2 - Arithmetic apparatus and program - Google Patents
Arithmetic apparatus and program Download PDFInfo
- Publication number
- JP5151522B2 JP5151522B2 JP2008029073A JP2008029073A JP5151522B2 JP 5151522 B2 JP5151522 B2 JP 5151522B2 JP 2008029073 A JP2008029073 A JP 2008029073A JP 2008029073 A JP2008029073 A JP 2008029073A JP 5151522 B2 JP5151522 B2 JP 5151522B2
- Authority
- JP
- Japan
- Prior art keywords
- dimension reduction
- matrix
- class
- value
- calculated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Complex Calculations (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Description
本発明は、パターン認識装置に用いる次元削減行列を算出する演算装置及びプログラムに関する。 The present invention relates to an arithmetic device and a program for calculating a dimension reduction matrix used in a pattern recognition device.
従来より、パターン認識装置としては、入力されたパターンの特徴を抽出して、特徴ベクトルを生成し、更に、この特徴ベクトルを低次元化して、パターン認識に有効な特徴ベクトル(又はスカラー量)を求め、当該低次元化後の値を、予めデータベースに登録された各クラスの基準値(プロトタイプ)と照合して一致度を評価することにより、入力されたパターンを複数のクラスのいずれかに分類し、パターン認識を実現するものが知られている。 Conventionally, as a pattern recognition apparatus, a feature vector of an input pattern is extracted to generate a feature vector, and the feature vector is reduced in order to obtain a feature vector (or scalar quantity) effective for pattern recognition. The input pattern is classified into one of multiple classes by evaluating the degree of matching by comparing the reduced value with the reference value (prototype) of each class registered in the database in advance. And what realizes pattern recognition is known.
入力されたパターンを装置により認識する際には、上述したように、パターンから様々な特徴量を抽出し、これらを要素として特徴ベクトルを生成するのであるが、高次元の特徴ベクトルで、パターン認識を行う場合には、情報量が多すぎて、パターン認識に、非常に長い時間を要する。また、認識に不要な情報が含まれている特徴ベクトルを用いて、パターン認識を行う場合には、パターンの認識精度が劣化する可能性がある。一方、認識に必要な情報が含まれていない特徴ベクトルを用いて、パターン認識を行っても、当然のことながら、良好なパターン認識結果を得ることができない。 When the input pattern is recognized by the device, as described above, various feature quantities are extracted from the pattern, and feature vectors are generated using these as elements, but pattern recognition is performed using high-dimensional feature vectors. When performing the above, the amount of information is too large, and it takes a very long time for pattern recognition. In addition, when pattern recognition is performed using a feature vector that includes information unnecessary for recognition, there is a possibility that pattern recognition accuracy may deteriorate. On the other hand, even if pattern recognition is performed using a feature vector that does not include information necessary for recognition, it is natural that a good pattern recognition result cannot be obtained.
このため、従来では、まず、高次元の特徴ベクトルを生成し、この特徴ベクトルを低次元空間に写像したときに、特徴ベクトルが低次元空間上でクラス毎に分離し、同クラスの特徴ベクトルが特定領域に集中するような次元削減行列を求め、求めた次元削減行列を特徴ベクトルを作用させることにより、特徴ベクトルを低次元化して、低次元化後の値がパターンの特徴を良好に表すようにしている。 For this reason, conventionally, when a high-dimensional feature vector is first generated and mapped to a low-dimensional space, the feature vector is separated for each class in the low-dimensional space. Determining a dimension reduction matrix that concentrates on a specific area, and applying a feature vector to the calculated dimension reduction matrix so that the feature vector can be reduced in order so that the reduced value represents the pattern features well. I have to.
このような次元削減法によって、特徴ベクトルを低次元化すれば、低次元空間において、各クラスの特徴ベクトルが分離し、同一クラスの特徴ベクトルが類似する値を示すので、特徴ベクトルがいずれのクラスに属するものであるのかを、効率的且つ精度よく判定することができる。 If feature vectors are reduced in dimension by such a dimension reduction method, feature vectors of each class are separated in a low-dimensional space, and feature vectors of the same class show similar values. Can be determined efficiently and accurately.
具体的に、次元削減法としては、従来、線形判別分析法や不等分散判別分析法を用いたものが知られている。
線形判別分析法による次元削減では、まず、クラス毎に、クラスに属するパターンの特徴ベクトルを、サンプルとして複数個用意する。そして、これらのサンプル群から、各クラスの平均ベクトルμiを求めると共に、全クラスの平均ベクトルμ0を求める。
Specifically, as a dimension reduction method, a method using a linear discriminant analysis method or an unequal variance discriminant analysis method is conventionally known.
In dimension reduction by the linear discriminant analysis method, first, for each class, a plurality of feature vectors of patterns belonging to the class are prepared as samples. Then, from these sample groups, an average vector μ i for each class is obtained, and an average vector μ 0 for all classes is obtained.
そして、これら平均ベクトルμ0及びクラス毎の平均ベクトルμiを用いて、クラス間共分散行列Bを求めると共に、各クラスの共分散行列Wiを求める。 Then, using the average vector μ 0 and the average vector μ i for each class, an inter-class covariance matrix B is obtained, and a covariance matrix W i for each class is obtained.
上述したようにして、クラス間共分散行列B及び各クラスの共分散行列Wiを求めた後には、クラス内共分散行列Wを、各クラスの共分散行列Wiの算術平均とし、評価空間(低次元空間)でのクラス間分散とクラス内分散との比|B|/|W|が最大となる次元削減行列Aを求める。具体的には、評価関数J(A)を次のように定義し、評価関数J(A)が最大となる次元削減行列Aを求める。 After obtaining the inter-class covariance matrix B and the covariance matrix W i of each class as described above, the intra-class covariance matrix W is set as the arithmetic mean of the covariance matrix W i of each class, and the evaluation space A dimension reduction matrix A that maximizes the ratio | B | / | W | of the inter-class variance and the intra-class variance in the (low-dimensional space) is obtained. Specifically, the evaluation function J (A) is defined as follows, and the dimension reduction matrix A that maximizes the evaluation function J (A) is obtained.
クラス間分散は、クラス間のばらつきの程度を表し、クラス内分散は、クラス内のサンプルのばらつきの程度を表すものである。このため、上述のようにして行列Aを求めれば、特徴ベクトルが低次元空間上でクラス毎に分離し、同クラスの特徴ベクトルが低次元空間上で特定領域に集中するような次元削減行列Aを求めることができる。従来の線形判別分析法による次元削減では、このようにして、パターン認識に最適な次元削減行列Aを求めている。 Interclass variance represents the degree of variation between classes, and intraclass variance represents the degree of variation of samples within a class. For this reason, when the matrix A is obtained as described above, the dimension reduction matrix A in which the feature vectors are separated for each class in the low-dimensional space and the feature vectors of the same class are concentrated in a specific region in the low-dimensional space. Can be requested. In dimension reduction by the conventional linear discriminant analysis method, the dimension reduction matrix A optimum for pattern recognition is obtained in this way.
一方、不等分散判別分析法による次元削減では、クラス内共分散行列Wを、各クラスの共分散行列Wiの幾何平均として、評価空間(低次元空間)でのクラス間分散とクラス内分散との比|B|/|W|が最大となる次元削減行列Aを求める。具体的には、評価関数J(A)を次のように定義して、評価関数J(A)が最大となる次元削減行列Aを求める(例えば、非特許文献2参照)。 On the other hand, the dimension reduction by unequal variance discriminant analysis method, classes in covariance matrix W, as the geometric mean of the covariance matrix W i of each class, evaluation space between-class variance and within-class variance in (low-dimensional space) The dimension reduction matrix A that maximizes the ratio | B | / | W | Specifically, the evaluation function J (A) is defined as follows, and a dimension reduction matrix A that maximizes the evaluation function J (A) is obtained (for example, see Non-Patent Document 2).
しかしながら、従来の次元削減法では、パターン認識を精度よく実現するのに十分に、適切な次元削減行列Aを求めることができない場合があった。即ち、従来の手法では、パターン認識を精度よく実現するのに十分に、特徴ベクトルが低次元空間上でクラス毎に分離し、同クラスの特徴ベクトルが低次元空間上で特定領域に集中するような次元削減行列Aを求めることができない場合があった。 However, in the conventional dimension reduction method, an appropriate dimension reduction matrix A may not be obtained enough to realize pattern recognition with high accuracy. That is, in the conventional method, the feature vectors are separated into classes in the low-dimensional space, and the feature vectors of the same class are concentrated in a specific region in the low-dimensional space, enough to realize pattern recognition with high accuracy. In some cases, it was not possible to obtain a simple dimension reduction matrix A.
例えば、2次元の特徴ベクトルを1次元に削減する場合であって、パターンのクラスが3種類ある場合には、図5(a)下段に示すように、3種類の各クラスの特徴ベクトルが、1次元空間上で、クラス毎に、重複しない領域に集中するのが好ましいが、線形判別分析法による次元削減では、特徴ベクトルの1次元空間上の分布が、図5(b)に示すように、異なるクラス間で重複する領域の多い分布となってしまう場合があった。 For example, when a two-dimensional feature vector is reduced to one dimension and there are three kinds of pattern classes, as shown in the lower part of FIG. In the one-dimensional space, it is preferable to concentrate on non-overlapping areas for each class. However, in the dimension reduction by the linear discriminant analysis method, the distribution of feature vectors in the one-dimensional space is as shown in FIG. In some cases, the distribution has a lot of overlapping areas between different classes.
また、このような性質を有する特徴ベクトルの集合に対しては、不等分散判別分析法によって次元削減行列Aを求めても、特徴ベクトルの1次元空間上の分布が、線形判別分析法と同様に、異なるクラス間で重複する領域の多い分布になってしまう場合があった(図5(c)参照)。このように、従来手法では、特徴ベクトルを適切に次元削減できずに、パターン認識の精度が十分に得られない場合があった。 In addition, for a set of feature vectors having such characteristics, even if the dimension reduction matrix A is obtained by the unequal variance discriminant analysis method, the distribution of the feature vectors in the one-dimensional space is the same as in the linear discriminant analysis method. In some cases, the distribution has a lot of overlapping areas between different classes (see FIG. 5C). As described above, in the conventional method, the dimension of the feature vector cannot be appropriately reduced, and the pattern recognition accuracy may not be sufficiently obtained.
本発明は、こうした問題に鑑みなされたものであり、パターン認識に適切な次元削減行列Aを算出することのできる演算装置及びプログラムを提供することを目的とする。 The present invention has been made in view of these problems, and an object thereof is to provide an arithmetic device and a program capable of calculating a dimension reduction matrix A suitable for pattern recognition.
かかる目的を達成するためになされた本発明は、外部から入力された認識対象パターンの特徴ベクトルに、予め定められた次元削減行列を作用させて、特徴ベクトルを低次元空間に写像し、当該特徴ベクトルの次元削減後の値に基づき、入力されたパターンを、予め定められた複数のクラスのいずれかに分類するパターン認識装置に用いる上記次元削減行列を算出するに当たって、クラス内分散を、一般化平均により定義し、次の評価関数J1(A,m)又は評価関数J2(A,m)により、次元削減行列Aを求めるようにしたものである。 The present invention, which has been made to achieve the above object, maps a feature vector to a low-dimensional space by applying a predetermined dimension reduction matrix to a feature vector of a recognition target pattern inputted from the outside, and the feature vector Intra-class variance is generalized when calculating the above-mentioned dimension reduction matrix used in a pattern recognition device that classifies an input pattern into one of a plurality of predetermined classes based on the value after vector dimension reduction. The dimension reduction matrix A is obtained by the following evaluation function J 1 (A, m) or evaluation function J 2 (A, m).
そして、演算装置は、入力受付手段を通じて入力された値mと、クラス間分散算出手段により算出されたクラス間共分散行列Bと、クラス分散算出手段により算出された各クラスの共分散行列Wiとに基づき、式(1)で定義される評価関数J1(A,m)又は式(2)で定義される評価関数J2(A,m)が最大になる次元削減行列Aを、行列算出手段により算出する。尚、Piは、第iクラスの事前確率であり、Pi=Ni/Nとすることができる。 Then, the arithmetic unit outputs the value m input through the input receiving unit, the inter-class covariance matrix B calculated by the inter-class variance calculating unit, and the covariance matrix W i of each class calculated by the class variance calculating unit. Based on the above, the dimension reduction matrix A that maximizes the evaluation function J 1 (A, m) defined by the expression (1) or the evaluation function J 2 (A, m) defined by the expression (2) Calculated by calculating means. Note that P i is the prior probability of the i-th class, and can be set to P i = N i / N.
本発明の演算装置は、このようにして、次元削減行列Aを求め、求めた次元削減行列Aを、出力手段により、外部に出力する。
このように構成された演算装置では、m=1が入力された場合、クラス内分散を、算術平均により定義することになるため、線形判別分析法と同手法で、次元削減行列Aを求めることとなり、m=0が入力された場合には、クラス内分散を、幾何平均により定義することになるため、周知の不等分散判別分析法と同手法で次元削減行列Aを求めることとなる。一方、mが0,1以外の値で入力された場合には、新規な手法で次元削減行列Aを求めることになる。
The arithmetic device of the present invention thus obtains the dimension reduction matrix A and outputs the obtained dimension reduction matrix A to the outside by the output means.
In the arithmetic device configured as described above, when m = 1 is input, the intra-class variance is defined by the arithmetic mean, so that the dimension reduction matrix A is obtained by the same method as the linear discriminant analysis method. Thus, when m = 0 is input, the intra-class variance is defined by the geometric mean, so the dimension reduction matrix A is obtained by the same method as the well-known unequal variance discriminant analysis method. On the other hand, when m is input with a value other than 0 and 1, the dimension reduction matrix A is obtained by a novel method.
本発明者は、線形判別分析法及び不等分散判別分析法によっては適切な次元削減行列Aが求められない問題について考察したところ、クラス内分散を一般化平均により定義することにより、線形判別分析法及び不等分散判別分析法によっては適切な次元削減行列Aが求められない問題を解消することができることに気がついた。例えば、線形判別分析法や不等分散判別分析法によっては、適切な次元削減行列Aを求めることができない図5(b)(c)のような場合であっても、パラメータmを、例えば、m=10などのm=0,1以外の値に設定して、式(1)の評価関数J1(A,m)又は式(2)の評価関数J2(A,m)に従い、評価関数が最大となる次元削減行列Aを求めれば、図5(a)下段のようなパターン認識に適切な分布を得ることができるのである。 The present inventor considered the problem that an appropriate dimension reduction matrix A cannot be obtained by the linear discriminant analysis method and the unequal variance discriminant analysis method. By defining the intra-class variance by a generalized average, the linear discriminant analysis is performed. It has been found that the problem that an appropriate dimension reduction matrix A cannot be obtained by the method and the unequal variance discriminant analysis method can be solved. For example, even in the case of FIGS. 5B and 5C in which an appropriate dimension reduction matrix A cannot be obtained by the linear discriminant analysis method or the unequal variance discriminant analysis method, the parameter m is set to, for example, Set to a value other than m = 0, 1, such as m = 10, and evaluate according to evaluation function J 1 (A, m) in equation ( 1 ) or evaluation function J 2 (A, m) in equation (2) If the dimension reduction matrix A that maximizes the function is obtained, a distribution suitable for pattern recognition as shown in the lower part of FIG. 5A can be obtained.
本発明者は、このような事実から、演算装置を、外部からパラメータmの値を取得し、式(1)の評価関数J1(A,m)又は式(2)の評価関数J2(A,m)に従って次元削減行列Aを算出し、この次元削減行列Aを出力する構成にしたのである。このような演算装置を用いれば、パターン認識装置の設計者は、パラメータmの値として複数の値を演算装置に入力し、これにより複数の次元削減行列Aを演算装置から得て、これらの次元削減行列Aをサンプルに作用させたときのサンプルの低次元空間での分布を、評価することにより、パターン認識に最適な次元削減行列Aを求めることができる。 The present inventor obtains the value of the parameter m from the outside from such a fact, and the evaluation function J 1 (A, m) of the expression ( 1 ) or the evaluation function J 2 (2) of the expression (2). A dimension reduction matrix A is calculated according to A, m), and the dimension reduction matrix A is output. If such an arithmetic device is used, the designer of the pattern recognition device inputs a plurality of values as the value of the parameter m to the arithmetic device, thereby obtaining a plurality of dimension reduction matrices A from the arithmetic device. By evaluating the distribution of the sample in the low-dimensional space when the reduction matrix A is applied to the sample, the optimal dimension reduction matrix A for pattern recognition can be obtained.
従って、本発明の演算装置を用いれば、従来よりも好適なパターン認識装置を構成することができる。
尚、上記演算装置は、行列算出手段により算出された次元削減行列Aを、サンプル取得手段が取得した各サンプルに作用させて、各サンプルの次元削減後の値を算出する低次元化手段を備え、出力手段にて、上記算出された次元削減行列A及び低次元化手段の算出結果を表す情報を、出力する構成にされるとよい(請求項2)。ここで「低次元化手段の算出結果を表す情報」としては、低次元化手段により求められた各サンプルの次元削減後の値そのものや、その統計情報(低次元空間での各サンプルの分布を表す情報等)を挙げることができる。
Therefore, if the arithmetic device of the present invention is used, a more suitable pattern recognition device than the conventional one can be configured.
Note that the arithmetic device includes a reduction means for applying the dimension reduction matrix A calculated by the matrix calculation means to each sample acquired by the sample acquisition means and calculating a value after dimension reduction of each sample. The output means may be configured to output information indicating the calculated dimension reduction matrix A and the calculation result of the reduction means. Here, “information indicating the calculation result of the reduction means” is the value itself after the dimension reduction of each sample obtained by the reduction means, and its statistical information (distribution of each sample in the low dimension space). And the like).
このように演算装置を構成すれば、パターン認識装置の設計者は、別途、次元削減行列Aをサンプルに作用させて、各サンプルを次元削減する作業をしなくても、パターン認識に最適な次元削減行列を設定するのに必要な情報を、演算装置から得ることができる。従って、本発明によれば、パターン認識装置を設計する際の次元削減行列Aの決定を、効率的に行うことができる。 If the arithmetic unit is configured in this manner, the designer of the pattern recognition device separately applies the dimension reduction matrix A to the sample, and the dimension optimal for pattern recognition can be obtained without performing the work of reducing the dimension of each sample. Information necessary for setting the reduction matrix can be obtained from the arithmetic unit. Therefore, according to the present invention, it is possible to efficiently determine the dimension reduction matrix A when designing the pattern recognition apparatus.
また、具体的に、出力手段は、低次元化手段により求められた各サンプルの次元削減後の値を、次元削減行列Aと共に記述したデータファイルを出力する構成にされてもよいし、低次元空間での各サンプルの分布をグラフ化してなる画像を、表示装置を通じて画面に出力する構成にされてもよい。 Further, specifically, the output means may be configured to output a data file in which the value after dimension reduction of each sample obtained by the dimension reduction means is described together with the dimension reduction matrix A. An image formed by graphing the distribution of each sample in the space may be output to a screen through a display device.
この他、演算装置には、各サンプルの次元削減後の値に基づき、行列算出手段が算出した次元削減行列Aの良否を評価する評価手段を設けると好ましい(請求項3)。例えば、出力手段を通じ、評価手段の評価結果をユーザに向けて出力するように演算装置を構成すれば、ユーザに、適切な次元削減行列Aを用いて、パターン認識装置を構築させることができる。 In addition, it is preferable that the arithmetic unit is provided with an evaluation unit that evaluates the quality of the dimension reduction matrix A calculated by the matrix calculation unit based on the value after dimension reduction of each sample (claim 3). For example, if the arithmetic unit is configured to output the evaluation result of the evaluation unit to the user through the output unit, the pattern recognition device can be constructed by using the appropriate dimension reduction matrix A.
また、評価手段は、低次元化手段により算出された各サンプルの次元削減後の値から求められる各クラスの共分散行列Wi’(但し、Wi’は、次元削減後の第iクラスの共分散行列を表す。)及び平均ベクトルμi’(但し、μi’は、次元削減後の第iクラスに属するサンプルの平均ベクトルを表す。)に基づき、重み付け係数をs、第iクラスの事前確率をPiとした式 Further, the evaluation means uses the covariance matrix W i ′ of each class obtained from the value after dimension reduction of each sample calculated by the dimension reduction means (W i ′ is the i th class after the dimension reduction). Based on the covariance matrix) and the average vector μ i ′ (where μ i ′ represents the average vector of the samples belonging to the i-th class after dimension reduction), and the weighting coefficient is s, expression that the prior probability was P i
上記チェルノフ上限CBikは、値が小さい程、第iクラス及び第kクラスのサンプル群の重なり具合が小さいことを表す。従って、チェルノフ上限CBikが小さい次元削減行列Aほど高く評価すれば、次元削減行列Aの良否を適切に評価することができる。 The Chernoff upper limit CB ik indicates that the smaller the value, the smaller the degree of overlap between the i th and k th class sample groups. Therefore, if the dimension reduction matrix A having a smaller Chernoff upper limit CB ik is evaluated higher, the quality of the dimension reduction matrix A can be appropriately evaluated.
この他、評価手段は、チェルノフ上限CBikの総和CB In addition, the evaluation means is the sum CB of the Chernov upper limit CB ik
尚、具体的に、入力受付手段は、クラス内分散を定義付ける値mとして、複数の値を取得可能な構成にされ、行列算出手段は、入力受付手段が取得した値m毎に、評価関数J1(A,m)又は前記評価関数J2(A,m)が最大になる次元削減行列Aを、算出する構成にされ、評価手段は、入力受付手段が取得した値m毎に、行列算出手段が算出した次元削減行列Aの良否を評価する構成にされるとよい。また、出力手段は、評価手段の評価結果に従って、行列算出手段が算出した複数の次元削減行列Aの内、評価が最良の次元削減行列Aを選択的に、出力する構成にされるとよい(請求項6)。 Specifically, the input receiving unit is configured to be able to acquire a plurality of values as the value m defining the intra-class variance, and the matrix calculating unit is configured to evaluate the evaluation function J for each value m acquired by the input receiving unit. 1 (A, m) or a dimension reduction matrix A that maximizes the evaluation function J 2 (A, m) is calculated, and the evaluation means calculates a matrix for each value m acquired by the input reception means. It may be configured to evaluate the quality of the dimension reduction matrix A calculated by the means. Further, the output means may be configured to selectively output the dimension reduction matrix A having the best evaluation among the plurality of dimension reduction matrices A calculated by the matrix calculation means in accordance with the evaluation result of the evaluation means ( Claim 6).
このような構成の演算装置によれば、ユーザから入力された複数の値mの内、最良な値mに対応する次元削減行列Aを選択的に、ユーザに報知することができて、ユーザに、認識精度の高いパターン認識装置を構築させることができる。 According to the arithmetic device having such a configuration, it is possible to selectively notify the user of the dimension reduction matrix A corresponding to the best value m among a plurality of values m input by the user, Therefore, it is possible to construct a pattern recognition device with high recognition accuracy.
この他、本発明の演算装置が有する各手段としての機能は、プログラムによりコンピュータに実現させることができる。また、本発明の演算装置としての機能を、コンピュータに実現させるためのプログラムは、例えば、CD−ROM等のコンピュータ読取可能な記録媒体に記録して提供することができる。 In addition, the function as each means of the arithmetic device of the present invention can be realized by a computer by a program. Further, a program for causing a computer to realize the function as the arithmetic device of the present invention can be provided by being recorded on a computer-readable recording medium such as a CD-ROM.
以下に本発明の実施例について、図面と共に説明する。但し、本発明は、以下に説明する実施例に限定されるものではなく、種々の態様を採りうる。
[第一実施例]
図1は、第一実施例の情報処理装置1の構成を表すブロック図である。図1に示すように、本実施例の情報処理装置1は、各種演算処理を行うCPU11と、ブートプログラム等を記憶するROM13と、プログラム実行時に作業領域として使用されるRAM15と、ハードディスク装置(HDD)17と、キーボードやポインティングデバイス等で構成されるユーザインタフェース19と、液晶ディスプレイ等で構成される表示装置21と、記録メディア(磁気ディスクや光ディスク等)に記録されたデータを読み取るためのドライブ装置23と、を備える。
Embodiments of the present invention will be described below with reference to the drawings. However, this invention is not limited to the Example demonstrated below, A various aspect can be taken.
[First embodiment]
FIG. 1 is a block diagram illustrating the configuration of the
ハードディスク装置17には、オペレーティングシステムや各種アプリケーションソフトウェアが記憶されており、本実施例の情報処理装置1は、起動すると、ハードディスク装置17にインストールされた上記オペレーティングシステムに従って動作し、ユーザインタフェース19から入力される指令信号に従って、各種アプリケーションソフトウェアを実行する。
The
具体的に、本実施例の情報処理装置1には、次元削減行列Aを設計するためのツールが、ハードディスク装置17に、アプリケーションソフトウェアとしてインストールされており、CPU11は、ユーザインタフェース19を通じて、上記ツールの実行指令が入力されると、ハードディスク装置17にインストールされた上記ツールに従って、次元削減行列演算処理を実行する(図3参照)。
Specifically, in the
尚、上記ツールは、外部から入力された認識対象パターンの特徴ベクトルXに、予め設定された次元削減行列Aを作用させて、特徴ベクトルXを低次元空間Syに写像し、特徴ベクトルXの次元削減後の値Yに基づき、パターンを、予め定められた複数のクラスのいずれかに分類するパターン認識装置に設定する次元削減行列Aを算出するためのものである。 Note that the above tool applies a dimension reduction matrix A set in advance to the feature vector X of the recognition target pattern inputted from the outside, maps the feature vector X to the low-dimensional space S y , and This is for calculating a dimension reduction matrix A set in a pattern recognition apparatus that classifies a pattern into any of a plurality of predetermined classes based on the value Y after dimension reduction.
この種のパターン認識装置としては、マイクロフォンから入力されたユーザの発声音のパターンを認識対象パターンとして、その発声音パターンから、音声の特徴を抽出し、特徴ベクトルXを生成するパターン認識装置や、カメラから入力された被写体の画像パターンを認識対象パターンとして、その画像パターンから、画像の特徴を抽出し、特徴ベクトルXを生成するパターン認識装置が知られている。図2は、この種のパターン認識装置50の基本構成を表すブロック図である。
As this type of pattern recognition device, a pattern recognition device that extracts a feature of a voice from the uttered sound pattern and generates a feature vector X using a pattern of the user's uttered sound input from a microphone as a recognition target pattern, 2. Description of the Related Art There is known a pattern recognition apparatus that uses a subject image pattern input from a camera as a recognition target pattern, extracts image features from the image pattern, and generates a feature vector X. FIG. 2 is a block diagram showing the basic configuration of this type of
図2に示すように、パターン認識装置50は、ベクトル生成部51と、次元削減部53と、パターン認識部55と、を備え、ベクトル生成部51にて、認識対象パターンから、所定次元(ここではd次元とする)の特徴ベクトルX=(x1,x2,…,xd)Tを生成する。そして、この特徴ベクトルXを、次元削減部53にて、予め設定された次元削減行列Aに従い次元削減する。
As shown in FIG. 2, the
そして、この次元削減後の値Y=AT・Xに基づき、パターン認識部55にて、認識対象パターンを、予め定められた複数のクラスのいずれかに分類する。例えば、パターン認識部55は、次元削減後の値Yが、第iクラスの領域にある場合、入力された認識対象パターンを、第iクラスのパターンであると認識する。 Then, based on the value Y = AT · X after the dimension reduction, the pattern recognition unit 55 classifies the recognition target pattern into any of a plurality of predetermined classes. For example, when the value Y after dimension reduction is in the i-th class area, the pattern recognition unit 55 recognizes the input recognition target pattern as the i-th class pattern.
本実施例は、このような構成のパターン認識装置50に設定する次元削減行列Aを算出するためのものであり、具体的に、図3に示すようにして、次元削減行列演算処理を実行する。図3は、CPU11が実行する次元削減行列演算処理を表すフローチャートである。その他、図4(a)は、次元削減行列演算処理の実行時に、ハードディスク装置17から読み出される特徴ベクトルXのサンプルが記述されたデータファイル(以下、「サンプルデータファイル」という。)の構成を表す説明図である。
The present embodiment is for calculating the dimension reduction matrix A to be set in the
次元削減行列処理を実行すると、CPU11は、まず、表示装置21に、ファイル選択画面を表示し、ユーザに、読出対象とするサンプルデータファイルを指定させる(S110)。そして、ユーザインタフェース19を通じ、サンプルデータファイルが指定されると、ハードディスク装置17から、指定されたデータファイルを読み出す(S120)。
When the dimension reduction matrix process is executed, the
図4(a)に示すように、サンプルデータファイルは、パターン認識装置50が分類するクラスの総数L、特徴ベクトルXの次元d、写像先の次元d’の情報が記述された構成にされ、更に、各クラス毎に、クラスに属するパターンの特徴ベクトルX=(x1,x2,…,xd)Tのサンプルが、クラスの識別番号c(c=1,2,…,L)に関連付けられて、複数個記述された構成にされている。以下、第iクラスの第jサンプルの特徴ベクトルXを、特に、Xijと表現する。
As shown in FIG. 4A, the sample data file has a configuration in which information on the total number L of classes classified by the
即ち、S120において、CPU11は、サンプルデータファイルに記録された、これらの値L,d,d’,Xijを全て読み出す処理を行う。尚、このようなサンプルデータファイルは、予め、文書作成ソフト等を通じてユーザの操作により生成され、ハードディスク装置17に記録される。
That is, in S120, the
また、S120での処理を終えると、CPU11は、クラス内分散を定義付ける値mとして、実数値の入力を受け付けるための入力画面を表示装置21に表示し、ユーザインタフェース19を通じて、値mの情報を取得する(S130)。
When the process in S120 is completed, the
そして、この処理を終えると、CPU11は、サンプルデータファイルから読み出した値L,d,Xijに従って、各クラスの平均ベクトルμiを算出する(S140)。尚、μiは、第iクラスの平均ベクトルを表し、iは、値1から値Lまでの整数値を採る。また、Niは、サンプルデータファイルに記述された第iクラスのサンプルの総数を表す。
When this process is finished, the
また、S200での処理を終えると、CPU11は、上記算出した次元削減行列Aを表示装置21の画面上に表示すると共に、各サンプルXijを低次元空間Syに写像したときの値Yijの分布を表すグラフを、表示装置21の画面上に表示する(S205)。
When the processing in S200 is completed, the
具体的に、d’=1である場合には、値Yijがスカラー量であるので、横軸に、1次元空間Syの座標を採り、縦軸に、その座標に写像されたサンプルの個数を採って、1次元空間Syの各座標に写像されるサンプルの個数をクラス毎にグラフ表示する。例えば、図5(a)下段に示す構成のグラフを表示する。また、d’=2である場合には、値Yijが2次元のベクトルであるので、xy平面に、2次元空間Syの座標を取り、z軸に、その座標(x,y)に写像されたサンプルの個数を採って、2次元空間Syの各座標に写像されるサンプルの個数をグラフ表示する。 Specifically, when d ′ = 1, the value Y ij is a scalar quantity, so the coordinate of the one-dimensional space S y is taken on the horizontal axis and the sample mapped to that coordinate is taken on the vertical axis. taking the number, graphical displays for each of the number of samples to be mapped to each coordinate of the one-dimensional space S y class. For example, a graph having the configuration shown in the lower part of FIG. When d ′ = 2, since the value Y ij is a two-dimensional vector, the coordinates of the two-dimensional space S y are taken on the xy plane, and the coordinates (x, y) are taken on the z axis. take the mapped number of samples, the number of samples to be mapped to each coordinate of the two-dimensional space S y graphically displayed.
その後、CPU11は、再演算の実行指令がユーザインタフェース19を通じて入力されているか否かを判断し(S210)、再演算の実行指令が入力されている場合には(S210でYes)、S130に移行し、改めて値mの入力を受け付ける。また、ユーザインタフェース19を通じて値mが入力された後には、S140に移行し、この新規な値mを用いて、S140以降の処理を実行する。
Thereafter, the
一方、再演算の実行指令が入力されていないと判断すると(S210でNo)、CPU11は、当該ツールの終了指令が入力されるか、再演算の実行指令が入力されるまで待機し、当該ツールの終了指令が入力されると(S220でYes)、当該次元削減行列演算処理を終了する。
On the other hand, if it is determined that a recalculation execution command has not been input (No in S210), the
以上に説明した本実施例の情報処理装置1では、m=1が入力された場合、クラス内分散を、算術平均により定義することになるため、線形判別分析法と同手法で、次元削減行列Aを求めることになる。また、m=0が入力された場合には、クラス内分散を、幾何平均により定義することになるため、周知の不等分散判別分析法と同手法で次元削減行列Aを求めることになる。一方、mが0,1以外の値で入力された場合には、新規な手法で次元削減行列Aを求めることになる。
In the
上述したように、クラス内分散を一般化平均で定義すれば、線形判別分析法や不等分散判別分析法によっては、適切な次元削減行列Aを求めることができない場合であっても、適切な次元削減行列Aを求めることができる(図5参照)。即ち、特徴ベクトル(サンプル)Xijを低次元空間Syに写像したときに、特徴ベクトルXijが低次元空間Sy上でクラス毎に分離し、同クラスの特徴ベクトルが特定領域に集中する図5(a)に示すような適切な次元削減行列Aを求めることができる。 As described above, if the intra-class variance is defined by a generalized average, even if the appropriate dimension reduction matrix A cannot be obtained by the linear discriminant analysis method or the unequal variance discriminant analysis method, an appropriate A dimension reduction matrix A can be obtained (see FIG. 5). That is, when the feature vector (sample) X ij is mapped to the low-dimensional space S y , the feature vector X ij is separated for each class on the low-dimensional space S y , and feature vectors of the same class are concentrated in a specific region. An appropriate dimension reduction matrix A as shown in FIG. 5A can be obtained.
従って、本実施例のツールを用いれば、従来よりもパターン認識性能に優れた好適なパターン認識装置を構成することができる。
具体的に、パターン認識装置50に設定する次元削減行列Aの決定に当たっては、当該ツールを用いて、パラメータmの値を走査しながら、当該値mで求めた次元削減行列Aにより各サンプルXijを低次元空間Syに写像したときの分布を、出力されたデータファイルの内容や表示装置21に表示されたグラフに基づいて、評価する作業を行えばよい。このような作業を経て、本実施例では、最適な次元削減行列Aを求めることができる。
Therefore, if the tool of the present embodiment is used, it is possible to configure a suitable pattern recognition apparatus that is superior in pattern recognition performance than the conventional one.
Specifically, in determining the dimension reduction matrix A to be set in the
また、本実施例では、演算結果をデータファイルとして出力するだけでなく、各サンプルXijを低次元空間Syに写像したときの値Yijの分布を表すグラフを、表示装置21の画面上に表示出力するので、ユーザは、最適な次元削減行列Aを求める作業を、効率的に行うことができる。
In this embodiment, not only the calculation result is output as a data file, but also a graph representing the distribution of the value Y ij when each sample X ij is mapped to the low-dimensional space S y is displayed on the screen of the
ところで、上記実施例では、分子をクラス間共分散行列Bで定義した評価関数J(A,m)に従って次元削減行列Aを求めたが、S180では、分子を全共分散行列で定義してなる次の評価関数J(A,m)に従って、次元削減行列Aを求めても良い。 In the above embodiment, the dimension reduction matrix A is obtained according to the evaluation function J (A, m) in which the numerator is defined by the interclass covariance matrix B. In S180, the numerator is defined by the total covariance matrix. The dimension reduction matrix A may be obtained according to the following evaluation function J (A, m).
この他、上述した情報処理装置1は、図6に示す内容の次元削減行列演算処理を実行する構成にされてもよい(第二実施例)。
[第二実施例]
続いて、第二実施例について説明する。図6は、第二実施例の情報処理装置1が、CPU11にて実行する次元削減行列演算処理を表すフローチャートである。但し、第二実施例の情報処理装置1は、CPU11にて実行する次元削減行列演算処理の内容が異なる程度であり、その他の構成については、基本的に第一実施例と同一構成であるので、以下では、第一実施例の情報処理装置1と同一構成の説明を、適宜省略する。
In addition, the
[Second Example]
Subsequently, a second embodiment will be described. FIG. 6 is a flowchart illustrating a dimension reduction matrix calculation process executed by the
図6に示す次元削減行列演算処理を実行すると、CPU11は、まず、表示装置21に、ファイル選択画面を表示し、ユーザに、読出対象とするサンプルデータファイルを指定させる(S310)。そして、ユーザインタフェース19を通じ、サンプルデータファイルが指定されると、ハードディスク装置17から、指定されたデータファイルを読み出す(S320)。尚、本実施例のサンプルデータファイルも、第一実施例と同一構成であり、予め、文書作成ソフト等を通じてユーザの操作により生成され、ハードディスク装置17に記録されるものとする。
When the dimension reduction matrix calculation process shown in FIG. 6 is executed, the
即ち、S320において、CPU11は、サンプルデータファイルに記録された値L,d,d’,Xijを読み出す処理を行う。
また、S320での処理を終えると、CPU11は、クラス内分散を定義付ける値として、実数値の入力を受け付けるための入力画面を表示装置21に表示し、ユーザインタフェース19を通じて、その値を取得する(S330)。但し、ここで表示する入力画面は、第一実施例とは異なり、クラス内分散を定義付ける値として、複数の値m[1],m[2],…,m[M]を入力可能な構成にされている。
That is, in S320, the
When the processing in S320 is completed, the
即ち、S330では、ユーザから指定された複数の値m[1],m[2],…を、ユーザインタフェース19を通じて取得する。尚、S330では、予め定めたM個の値をユーザに入力させてもよいし、最大個数をM個として、任意の個数の値をユーザに入力させてもよい。ここでは、ユーザから取得した値mの数を、ME個とする。
That is, in S330, a plurality of values m [1], m [2],... Designated by the user are acquired through the
また、この処理を終えると、CPU11は、S140での処理と同様に、サンプルデータファイルから読み出した値L,d,Xijに従って、各クラスの平均ベクトルμiを算出すると共に(S340)、S150での処理と同様に、S340で算出した各クラスの平均ベクトルμ1,μ2,…,μLに基づき、全クラスの平均ベクトルμ0を算出する(S350)。その後、S160での処理と同様に、クラス間共分散行列Bを算出し(S360)、S170での処理と同様に、各クラスの共分散行列Wiを算出する(S370)。
When this process is completed, the
また、S370での処理を終えると、CPU11は、パラメータr=1に設定する(S373)と共に、S377に移行し、パラメータm(クラス内分散を定義付ける値m)を、ユーザから指定された値m[r]に設定する(m←m[r])。
When the processing in S370 is completed, the
また、S377での処理を終えると、CPU11は、S380に移行し、S180での処理と同様に、評価関数J(A,m)が最大となるd行d’列の次元削減行列Aを求める(S380)。特に、ここでは、評価関数J(A,m[r])が最大となるd行d’列の次元削減行列をArと表記する。
When the process in S377 is completed, the
そして、求めた次元削減行列Arを、S190での処理と同様に、各サンプルXijに作用させて、サンプル毎に、サンプルを低次元空間Syに写像したときの値Yij[r]を求める(S390)。尚、ここで用いる記号[r]は、値m[r]を用いて算出した値であることを明確にするためのサフィックスである。 Then, the dimensionality reduction matrix A r obtained, similarly to the processing in S190, is allowed to act on each sample X ij, for each sample, the value Y ij when the mapping samples in the low-dimensional space S y [r] Is obtained (S390). The symbol [r] used here is a suffix for clarifying that the value is calculated using the value m [r].
また、この処理を終えると、CPU11は、S400に移行し、図7に示す行列評価処理を実行する。図7は、CPU11がS400で実行する行列評価処理を表すフローチャートである。
When this process is finished, the
行列評価処理を開始すると、CPU11は、まず、各サンプルの次元削減後の値Yij[r]から、次元削減後の各クラスの平均ベクトルμi[r](i=1,2,…,L)を算出する(S510)。
When the matrix evaluation process is started, the
また、この処理を終えると、CPU11は、S540に移行し、k=i+1,i+2,…,Lについて、次式に従い、次元削減後の第iクラスのサンプル群と第kクラスのサンプル群との間の乖離度ηik[r]を算出する(S540)。
When this processing is completed, the
S550での処理を終えると、CPU11は、不等式i<L−1が成立しているか否かを判断し、パラメータiが値(L−1)より小さく上記不等式が成立している場合には(S560でYes)、S565に移行して、パラメータiを1加算した値に更新し(i←i+1)、S530に移行する。その後、更新後のパラメータiの値を用いて、S530〜S560の処理を実行する。
When the processing in S550 is completed, the
そして、パラメータiの値が(L−1)となり、不等式i<L−1が成立しなくなると(S560でNo)、S570に移行し、次式に従って、各クラスの組合せ毎のチェルノフ上限CBik[r]の総和CB[r]を算出する。 When the value of the parameter i becomes (L-1) and the inequality i <L-1 does not hold (No in S560), the process proceeds to S570, and according to the following formula, the Chernoff upper limit CB ik for each combination of classes. The sum CB [r] of [r] is calculated.
なぜなら、総和CB[r]が小さい程、各クラスのサンプル群の重なりが小さく、特徴ベクトルXijが低次元空間Sy上でクラス毎に適切に分離し、同クラスの特徴ベクトルが特定領域に集中していることになるためである。CPU11は、このような特徴を有する総和CB[r](以下、評価値CB[r]とも言う。)を算出すると、当該行列評価処理を終了する。
This is because the smaller the sum CB [r], the smaller the overlap of the sample groups of each class, the feature vectors X ij are appropriately separated for each class in the low-dimensional space S y , and the feature vectors of the same class are in a specific region. This is because they are concentrated. After calculating the sum CB [r] (hereinafter also referred to as an evaluation value CB [r]) having such characteristics, the
また、S400で行列評価処理を終えると、CPU11は、ユーザから指定された複数の値m[1],…,m[ME]の全てについて次元削減行列Arを算出し行列評価処理を実行したか否かを判断する(S410)。即ち、r≧MEであるか否かを判断する。そして、値m[1],…,m[ME]の全てについて次元削減行列Arを算出し行列評価処理を実行していないと判断すると(S410でNo)、S415に移行し、パラメータrを、1加算した値に更新する(r←r+1)。その後、S377に移行し、値mをm[r]に更新し、m[r]について、S380以降の処理を実行する。
When the matrix evaluation process is completed in S400, the
そして、ユーザから指定された複数の値m[1],…,m[ME]の全てについて次元削減行列Arを算出し行列評価処理を実行したと判断すると(S410でYes)、CPU11は、S420に移行し、r=1,2,…,MEの夫々に対応する評価値CB[r]の中から、最小値をとる評価値CB[r]を検出し、最小の評価値CB[r]をとるパラメータrの値を特定する。ここでは、特定した最小の評価値CB[r]をとるパラメータrの値を特に、rminと表記する。
If it is determined that the dimension reduction matrix Ar is calculated for all the values m [1],..., M [M E ] specified by the user and the matrix evaluation process is executed (Yes in S410), the
また、S420での処理を終えると、CPU11は、S430に移行し、最小の評価値CB[rmin]をとる次元削減行列Ar、及び、この次元削減行列Arの算出時に用いたパラメータmの値m[rmin]、及び、次元削減後の値Yij[rmin]、及び、評価値CB[rmin]を、記述してなるデータファイルを生成し、これをハードディスク装置17における上記サンプルデータファイルの読出先ディレクトリに書き込む。尚、ここで、書き込むデータファイルの様式は、S200で書き込むデータファイルの様式と概ね同様であり(図4(b)参照)、高々、評価値CB[rmin]が付加される程度のものである。
When the processing in S420 is completed, the
また、S430での処理を終えると、CPU11は、S435に移行し、上記データファイルに記述した最小の評価値CB[rmin]をとる次元削減行列Arを、表示装置21の画面上に表示すると共に、この次元削減行列Arを用いて各サンプルXijを低次元空間Syに写像したときの値Yij[rmin]の分布を表すグラフを、S205での処理と同様に、表示装置21の画面上に表示する。
When the processing in S430 is completed, the
その後、CPU11は、再演算の実行指令がユーザインタフェース19を通じて入力されているか否かを判断し(S440)、再演算の実行指令が入力されている場合には(S440でYes)、S330に移行する。一方、再演算の実行指令が入力されていないと判断すると(S440でNo)、当該ツールの終了指令が入力されるか、再演算の実行指令が入力されるまで待機し、当該ツールの終了指令が入力されると(S450でYes)、当該次元削減行列演算処理を終了する。
Thereafter, the
以上、第二実施例の情報処理装置1の構成について説明したが、本実施例によれば、チェルノフ上限により、次元削減後の各クラスのサンプル群の重なり具合を数値化して、ユーザから指定された複数の値m[1],…,m[ME]の内、次元削減後の各クラスのサンプル群の重なり具合が最も小さい値m[rmin]を、クラス内分散を定義付ける最適値として採用し、その値m[rmin]を用いて評価関数J[A,m[rmin]]で算出された次元削減行列Aを、選択的に、データファイル及び表示装置21に出力する。
As described above, the configuration of the
従って、本実施例によれば、第一実施例とは異なりS205で表示されるグラフを目視して、最適な次元削減行列Aを探し出す必要がなく、ユーザは、簡単に、最適な次元削減行列Aを求めることができる。 Therefore, according to the present embodiment, unlike the first embodiment, there is no need to look for the optimal dimension reduction matrix A by visually observing the graph displayed in S205, and the user can easily perform the optimal dimension reduction matrix. A can be obtained.
よって、本実施例によれば、ユーザは、簡単に高性能なパターン認識装置を構成することができる。
[特許請求の範囲との対応関係]
尚、本発明のサンプル取得手段は、CPU11が実行するS120,S320の処理により実現され、クラス間分散算出手段は、S160,S360の処理により実現されている。また、クラス分散算出手段は、S170,S370の処理により実現され、入力受付手段は、S130,S330の処理により実現されている。この他、行列算出手段は、S180,S380の処理により実現され、低次元化手段は、S190,S390の処理により実現され、評価手段は、S400の処理により実現され、出力手段は、S200,S205,S430,S435の処理により実現されている。
Therefore, according to the present embodiment, the user can easily configure a high-performance pattern recognition apparatus.
[Correspondence with Claims]
The sample acquisition means of the present invention is realized by the processing of S120 and S320 executed by the
1…情報処理装置、11…CPU、13…ROM、15…RAM、17…ハードディスク装置、19…ユーザインタフェース、21…表示装置、23…ドライブ装置、50…パターン認識装置、51…ベクトル生成部、53…次元削減部、55…パターン認識部
DESCRIPTION OF
Claims (7)
に用いる前記次元削減行列を算出するための演算装置であって、
前記複数のクラスについて、各クラス毎に、クラスに属するパターンの特徴ベクトルを、複数個、サンプルとして取得するサンプル取得手段と、
前記サンプル取得手段が取得した各クラスのサンプル群に基づき、クラス間共分散行列Bを算出するクラス間分散算出手段と、
前記サンプル取得手段が取得した各クラスのサンプル群に基づき、前記各クラスの共分散行列Wi(但し、Wiは、第iクラスの共分散行列を表し、iは、クラスの総数をLとして、値1から値Lまでの整数値を採るものとする。)を算出するクラス分散算出手段と、
クラス内分散を定義付ける値mとして、実数値の入力を受け付ける入力受付手段と、
前記入力受付手段を通じて入力された値mと、前記クラス間分散算出手段により算出されたクラス間共分散行列Bと、前記クラス分散算出手段により算出された各クラスの共分散行列Wiとに基づき、第iクラスの事前確率をPiとした評価関数J1(A,m)又は評価関数J2(A,m)
前記行列算出手段により算出された次元削減行列Aを、出力する出力手段と、
を備えることを特徴とする演算装置。 By applying a predetermined dimension reduction matrix to the feature vector of the recognition target pattern inputted from the outside, the feature vector is mapped to a low-dimensional space, and the pattern is based on the value after dimension reduction of the feature vector. Is a computing device for calculating the dimension reduction matrix used in a pattern recognition device that classifies the data into one of a plurality of predetermined classes,
For each of the plurality of classes, sample acquisition means for acquiring, as a sample, a plurality of feature vectors of patterns belonging to the class for each class;
Interclass variance calculation means for calculating an interclass covariance matrix B based on the sample group of each class acquired by the sample acquisition means;
Based on the sample group of each class acquired by the sample acquisition means, the covariance matrix W i of each class (W i represents the i-th class covariance matrix, and i is the total number of classes as L Class variance calculating means for calculating an integer value from value 1 to value L),
An input receiving means for receiving an input of a real value as a value m for defining intra-class variance;
The value m which is input through the input receiving means, and inter-class covariance matrix B calculated by the inter-class variance calculating means, based on the covariance matrix W i of each class calculated by the class variance calculation means , An evaluation function J 1 (A, m) or an evaluation function J 2 (A, m) where P i is the prior probability of the i-th class
Output means for outputting the dimension reduction matrix A calculated by the matrix calculating means;
An arithmetic device comprising:
を備え、
前記出力手段は、前記行列算出手段により算出された次元削減行列A及び前記低次元化手段の算出結果を表す情報を、出力する構成にされていることを特徴とする請求項1記載の演算装置。 A reduction means for calculating the value after dimension reduction of each sample by applying the dimension reduction matrix A calculated by the matrix calculation means to each sample acquired by the sample acquisition means;
2. The arithmetic unit according to claim 1, wherein the output unit is configured to output a dimension reduction matrix A calculated by the matrix calculation unit and information representing a calculation result of the reduction unit. .
前記低次元化手段により算出された前記各サンプルの次元削減後の値に基づき、前記行列算出手段が算出した次元削減行列Aの良否を評価する評価手段と、
を備えることを特徴とする請求項1記載の演算装置。 A dimension reduction matrix A calculated by the matrix calculation means is applied to each sample acquired by the sample acquisition means, and a dimension reduction means for calculating a value after dimension reduction of each sample;
Evaluation means for evaluating the quality of the dimension reduction matrix A calculated by the matrix calculation means based on the value after dimension reduction of each sample calculated by the reduction means;
The arithmetic unit according to claim 1, further comprising:
算出したチェルノフ上限CBikに基づき、前記行列算出手段が算出した次元削減行列Aの良否を評価する構成にされていること
を特徴とする請求項3記載の演算装置。 The evaluation means is a covariance matrix W i ′ of each class obtained from the value after dimension reduction of each sample calculated by the dimension reduction means (W i ′ is the i th class after dimension reduction). Based on the covariance matrix) and the average vector μ i ′ (where μ i ′ represents the average vector of the samples belonging to the i-th class after dimension reduction), and the weighting coefficient is s, the following equation that the prior probability was P i
The arithmetic unit according to claim 3, wherein the arithmetic unit is configured to evaluate the quality of the dimension reduction matrix A calculated by the matrix calculation unit based on the calculated Chernoff upper limit CBik .
を特徴とする請求項4記載の演算装置。 The evaluation means is a sum CB of the Chernoff upper limit CB ik for each combination of the classes.
前記行列算出手段は、前記入力受付手段が取得した値m毎に、前記評価関数J1(A,m)又は前記評価関数J2(A,m)が最大になる次元削減行列Aを、算出する構成にされ、
前記評価手段は、前記入力受付手段が取得した値m毎に、前記行列算出手段が算出した次元削減行列Aの良否を評価する構成にされ、
更に、
前記出力手段は、前記評価手段の評価結果に従って、前記行列算出手段が算出した複数の次元削減行列Aの内、評価が最良の次元削減行列Aを選択的に、出力する構成にされていること
を特徴とする請求項3〜請求項5のいずれかに記載の演算装置。 The input receiving means is configured to be able to acquire a plurality of values as the value m defining the intra-class variance,
The matrix calculation means calculates a dimension reduction matrix A that maximizes the evaluation function J 1 (A, m) or the evaluation function J 2 (A, m) for each value m acquired by the input reception means. Is configured to
The evaluation means is configured to evaluate the quality of the dimension reduction matrix A calculated by the matrix calculation means for each value m acquired by the input reception means,
Furthermore,
The output means is configured to selectively output the best dimension reduction matrix A among the plurality of dimension reduction matrices A calculated by the matrix calculation means according to the evaluation result of the evaluation means. The arithmetic unit according to any one of claims 3 to 5, wherein:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008029073A JP5151522B2 (en) | 2007-02-09 | 2008-02-08 | Arithmetic apparatus and program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007030999 | 2007-02-09 | ||
JP2007030999 | 2007-02-09 | ||
JP2008029073A JP5151522B2 (en) | 2007-02-09 | 2008-02-08 | Arithmetic apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008269573A JP2008269573A (en) | 2008-11-06 |
JP5151522B2 true JP5151522B2 (en) | 2013-02-27 |
Family
ID=40048928
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008029073A Expired - Fee Related JP5151522B2 (en) | 2007-02-09 | 2008-02-08 | Arithmetic apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5151522B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5029648B2 (en) * | 2009-04-17 | 2012-09-19 | 株式会社デンソー | Arithmetic apparatus and program |
CN111340182B (en) * | 2020-02-11 | 2024-04-02 | 无锡北邮感知技术产业研究院有限公司 | Low-complexity CNN training method and device for input feature approximation |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4292837B2 (en) * | 2002-07-16 | 2009-07-08 | 日本電気株式会社 | Pattern feature extraction method and apparatus |
JP4740686B2 (en) * | 2005-08-10 | 2011-08-03 | 独立行政法人理化学研究所 | Protein crystallization state discrimination system and method |
JP4375570B2 (en) * | 2006-08-04 | 2009-12-02 | 日本電気株式会社 | Face recognition method and system |
-
2008
- 2008-02-08 JP JP2008029073A patent/JP5151522B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008269573A (en) | 2008-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Verbeeck et al. | Unsupervised machine learning for exploratory data analysis in imaging mass spectrometry | |
Galante et al. | The challenge of modeling niches and distributions for data‐poor species: a comprehensive approach to model complexity | |
RU2661750C1 (en) | Symbols recognition with the use of artificial intelligence | |
Viscosi et al. | Leaf morphology, taxonomy and geometric morphometrics: a simplified protocol for beginners | |
JP2019028839A (en) | Classifier, method for learning of classifier, and method for classification by classifier | |
JP2010102742A (en) | System and method for adaptive hand-written character recognition | |
DE102011079443A1 (en) | Learning weights of typed font fonts in handwriting keyword retrieval | |
JP5717691B2 (en) | Handwritten character search device, method and program | |
US11449706B2 (en) | Information processing method and information processing system | |
CA3190344A1 (en) | Methods for identifying cross-modal features from spatially resolved data sets | |
CN110929802A (en) | Information entropy-based subdivision identification model training and image identification method and device | |
JP4348202B2 (en) | Face image recognition apparatus and face image recognition program | |
JP5311899B2 (en) | Pattern detector learning apparatus, learning method, and program | |
JP5151522B2 (en) | Arithmetic apparatus and program | |
JP5029648B2 (en) | Arithmetic apparatus and program | |
Ghaemmaghami et al. | A study of speaker clustering for speaker attribution in large telephone conversation datasets | |
JP6125333B2 (en) | Search device, method and program | |
JP4928193B2 (en) | Face image recognition apparatus and face image recognition program | |
JP2017016545A (en) | Graph display system, graph display method, and graph display program | |
JP2013152558A (en) | Handwriting analysis method, handwriting analysis apparatus and handwriting analysis program | |
Ordynets et al. | Geometric morphometric analysis of spore shapes improves identification of fungi | |
JP2020087570A (en) | Fracture surface analyzer, learned model generating device, fracture surface analysis method, fracture surface analyzer program and learned model | |
CN110210410B (en) | Handwritten number recognition method based on image characteristics | |
Rifkin | Identifying fluorescently labeled single molecules in image stacks using machine learning | |
JP5130934B2 (en) | Recognition system, information processing apparatus, design apparatus, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100330 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121101 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121119 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151214 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5151522 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151214 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |