JP2005339186A - Pattern recognition learning device and identification device, pattern recognition learning processing method, identification processing method, pattern recognition program and recoding medium with its program recorded - Google Patents

Pattern recognition learning device and identification device, pattern recognition learning processing method, identification processing method, pattern recognition program and recoding medium with its program recorded Download PDF

Info

Publication number
JP2005339186A
JP2005339186A JP2004156976A JP2004156976A JP2005339186A JP 2005339186 A JP2005339186 A JP 2005339186A JP 2004156976 A JP2004156976 A JP 2004156976A JP 2004156976 A JP2004156976 A JP 2004156976A JP 2005339186 A JP2005339186 A JP 2005339186A
Authority
JP
Japan
Prior art keywords
identification
learning
pattern recognition
subspace
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004156976A
Other languages
Japanese (ja)
Inventor
Shingo Ando
慎吾 安藤
Yoshinori Kusachi
良規 草地
Akira Suzuki
章 鈴木
Kenichi Arakawa
賢一 荒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004156976A priority Critical patent/JP2005339186A/en
Publication of JP2005339186A publication Critical patent/JP2005339186A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To handle with multi-class identification problem beyond 1,000 classes in a realistic processing time, and to realize highly precise identification. <P>SOLUTION: A leaning data inputting part 1 inputs preliminarily prepared learning data, and transmits the learning data to a pre-processing part 2. The pre-processing part 2 operates the normalization of the density values of data or noise removal from the inputted data, and transmits the data to a characteristic extracting part 3. The characteristic extracting part 3 extracts featured values from the data shaped by the pre-processing part 2. An identification function preparing part 4 prepares identification functions based on the extracted featured values, and stores the prepared identification functions in an identification function storing part 5. An image data inputting part 6 inputs image data for identification, and transmits the data through a pre-processing part 7 to a characteristic extracting part 8, and the characteristic extracting part 8 extracts featured values and transmits the values to an identifying part 9. The identifying part 9 reads a parameter stored in the identification function storing part 5, and calculates similarity, and outputs the result to an output part 10. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像中に含まれるパターン認識学習装置と識別装置、パターン認識学習処理方法と識別処理方法及びパターン認識プログラム並びにそのプログラムを記録した記録媒体に関するものである。   The present invention relates to a pattern recognition learning device and an identification device included in an image, a pattern recognition learning processing method and an identification processing method, a pattern recognition program, and a recording medium on which the program is recorded.

近年、パターン識別に関する理論の発展が目覚ましい。その中で、サポートベクトルマシン(以下SVMと称す)がある(非特許文献1参照。)。   In recent years, the development of theories related to pattern recognition has been remarkable. Among them, there is a support vector machine (hereinafter referred to as SVM) (see Non-Patent Document 1).

また、カーネル非線形部分空間法もある(非特許文献2参照。)。   There is also a kernel nonlinear subspace method (see Non-Patent Document 2).

これは計算機の高速化と決して無縁ではなく、マシンパワーを最大限に利用した複雑な計算により識別性能を格段に向上させている。しかし、学習過程における計算は、現存する最速の計算機を用いたとしても、かなりの計算時間を要する。   This has nothing to do with the speeding up of the computer, and the identification performance is greatly improved by complex calculations that make the most of machine power. However, the calculation in the learning process requires a considerable calculation time even if the fastest existing computer is used.

SVMは、現在知られているパターン認識手法の中でも、最も識別性能に優れた手法の一つとされている。SVMは、2つのクラスを識別する手法であって、そのために、マージン最大化の基準により最適化の枠組で識別関数を算出する。
V.N. Vapnik:“Statisical Learning Theory”,John Wiley&Sons,1998 前田英作、村瀬洋:”カーネル非線形部分空間法によるパターン認識”、電子情報通信学会論文誌D-II、Vol.J82-D-II,No.4,pp600-612,1999
SVM is considered to be one of the most excellent pattern recognition techniques among the currently known pattern recognition techniques. The SVM is a method for discriminating two classes, and for this purpose, an identification function is calculated using an optimization framework based on a margin maximization criterion.
VN Vapnik: “Statisical Learning Theory”, John Wiley & Sons, 1998 Eisaku Maeda, Hiroshi Murase: “Pattern Recognition by Kernel Nonlinear Subspace Method”, IEICE Transactions D-II, Vol.J82-D-II, No.4, pp600-612,1999

上述した識別関数を算出するにあたっては、凸二次計画問題を解かなくてはならないが、一般にこのための計算時間は学習データ数に対し指数関数的に増大する。   In calculating the discriminant function described above, the convex quadratic programming problem must be solved, but generally the calculation time for this increases exponentially with the number of learning data.

また、SVMを日本語文字認識のような1000クラス超の多クラス識別に適用する場合には、次のような2通りの方法がある。
(1)2つのクラスの全ての組み合わせを識別関数化して、最も多く選ばれたクラスを識別クラスとする方法と、
(2)あるクラスとそれ以外のクラスを識別する識別関数をクラス数分作り、最も類似度の大きいクラスを識別クラスとする方法とである。
In addition, when SVM is applied to multi-class identification exceeding 1000 classes such as Japanese character recognition, there are the following two methods.
(1) A method in which all combinations of two classes are made into an identification function, and the class selected most frequently is set as an identification class;
(2) An identification function for identifying a class and other classes is created for the number of classes, and a class having the highest similarity is used as an identification class.

しかし、前者の方法は、例えば1000クラスの場合、1000×999/2=499500個ものの識別関数を計算する必要があり、あまり現実的ではない。一方、後者は1000クラスの場合、1000個の識別関数を用意すればよいので、計算すべき識別関数の数は少なくなるが、ここにも一つ別の問題がある。   However, the former method needs to calculate 1000 × 999/2 = 499500 discriminant functions in the case of 1000 classes, for example, and is not very practical. On the other hand, in the case of the 1000 class, since it is sufficient to prepare 1000 discriminant functions, the number of discriminant functions to be calculated is reduced, but there is another problem here.

1000クラスの場合、いわゆる“それ以外”のクラスを構成するクラスは999クラスとなる。これにあたるデータ数が膨大なものとなるのは明らかである。既に述べた通り、SVMはデータ数に対し指数関数的に計算時間が増大してしまうため、1つの識別関数を計算するのに要する時間が非現実的なものとなるのである。したがって、1000クラス超の多クラス識別問題を扱う場合、SVMは計算時間の問題で相応しないと考えられる。   In the case of 1000 classes, 999 classes constitute so-called “other” classes. It is clear that the number of data corresponding to this will be enormous. As already described, since the calculation time of SVM increases exponentially with respect to the number of data, the time required to calculate one discriminant function becomes unrealistic. Therefore, when dealing with multi-class identification problems exceeding 1000 classes, SVM is considered to be unsuitable due to the problem of calculation time.

本発明は、上記の事情に鑑みてなされたもので、SVMや他の非線形識別関数に比肩する識別性能を有し、特に1000クラス超の多クラス識別問題を扱うような場合を想定したときの、効率の良い学習過程を持つ識別器を構成した新しいパターン識別の手法を提供することを課題とする。   The present invention has been made in view of the above circumstances, and has discrimination performance comparable to that of SVM and other nonlinear discrimination functions, especially when dealing with a case where a multi-class discrimination problem exceeding 1000 classes is handled. It is an object of the present invention to provide a new pattern identification method that constitutes a classifier having an efficient learning process.

上記の課題を達成するために、SVMを用いるにあたって一番問題となるのは、学習データ数の問題である。一般に、一つのクラスに対し100〜100,000個の学習データが与えられる。この膨大なデータ数が計算時間に決定的な影響を与えている。しかし、これが、一つのクラスに対し1個のデータと置き換えられれば、前記の課題を解決できるはずである。   In order to achieve the above-mentioned problem, the biggest problem in using SVM is the problem of the number of learning data. Generally, 100 to 100,000 pieces of learning data are given to one class. This enormous number of data has a decisive influence on the calculation time. However, if this is replaced with one piece of data for one class, the above problem should be solved.

それを実現するために、各クラスの特徴空間における分布を部分空間で近似し、それら部分空間の相互の類似度を利用する。ここで、部分空間同士の類似度算出の方法として相互部分空間法(前田賢一、渡辺貞一、“局所的構造を導入したパターンマッチング法”、電子情報通信学会論文誌D,Vol.J68-D,No.3,pp.345-352,1985)のテクニックを用いる。相互部分空間法では、2つの異なる部分空間同士の類似度cos2を次式と定義する。 In order to realize this, the distribution in the feature space of each class is approximated in the subspace, and the mutual similarity between the subspaces is used. Here, mutual subspace method (Kenichi Maeda, Sadaichi Watanabe, “Pattern matching method with local structure”), IEICE Transactions D, Vol.J68-D, No.3, pp.345-352, 1985). In the mutual subspace method, the similarity cos 2 between two different subspaces is defined as the following equation.

Figure 2005339186
Figure 2005339186

ここで、U,Vは2つの異なるクラスの分布を近似する部分空間を表し、u,vはU,Vの基底ベクトルを表す。また、(u,v)はuとvの内積を表す。それらの部分空間のなす最小角度がθにあたる。この類似度cos2θは、次の式(2)、(3)、(4)で表されるQの最大固有値として算出可能である。 Here, U and V represent subspaces approximating distributions of two different classes, and u and v represent basis vectors of U and V, respectively. (U, v) represents the inner product of u and v. The minimum angle formed by these subspaces corresponds to θ. The similarity cos 2 θ can be calculated as the maximum eigenvalue of Q expressed by the following equations (2), (3), and (4).

(数2) Q=(qij) …(2) (Equation 2) Q = (q ij ) (2)

Figure 2005339186
Figure 2005339186

Figure 2005339186
Figure 2005339186

ここで、uiは部分空間Uのi番目の基底ベクトル、viは部分空間Vのi番目の基底ベクトル、uiaは部分空間Uのi番目の基底ベクトルの第a成分、viは部分空間Vのi番目の基底ベクトルの第a成分、Dは特徴空間の次元数、Mは部分空間Vの次元数を表す。 Here, u i is the i-th base vector of the subspace U, v i is the i-th base vector of the subspace V, u ia is the a-th component of the i-th base vector of the subspace U, and v i is a partial The a-th component of the i-th basis vector of the space V, D is the number of dimensions of the feature space, and M is the number of dimensions of the subspace V.

また、これを非線形に拡張した核非線形相互部分空間法(坂野鋭、武川直樹、中村太一:“核非線形相互部分空間法による物体認識”、電子情報通信学会論文誌D-II,Vol.J84D-II,No.8,pp.1549-1556,2001)も提案されている。これは、非線形変換による高次元特徴空間へ写像した先での内積計算を、カーネル関数を用いて効率よく計算することで、高次元特徴空間上での部分空間同士の類似度を求める手法である。具体的には、次の式(5)、(6)、(7)で表される行列Qの最大固有値として算出可能である。   Also, a nonlinear non-linear mutual subspace method (Nano Sakano, Naoki Takegawa, Taichi Nakamura: “Object recognition by nuclear non-linear mutual subspace method”, IEICE Transactions D-II, Vol.J84D- II, No. 8, pp.1549-1556, 2001) has also been proposed. This is a technique for calculating the similarity between subspaces in a high-dimensional feature space by efficiently calculating the inner product at the point mapped to the high-dimensional feature space by nonlinear transformation using a kernel function. . Specifically, it can be calculated as the maximum eigenvalue of the matrix Q represented by the following equations (5), (6), and (7).

(数5) Q=(qij) …(5) (Equation 5) Q = (q ij ) (5)

Figure 2005339186
Figure 2005339186

Figure 2005339186
Figure 2005339186

ここで、Aは高次元特徴空間上での部分空間Uの基底ベクトル、Bは高次元特徴空間上での部分空間Vの基底ベクトル、xは部分空間Uを構成する学習ベクトル、yは部分空間Vを構成する学習ベクトル、k(x,y)はカーネル関数、Mは部分空間Vの次元数、Nは学習ベクトルxの個数、N’は学習ベクトルyの個数を表す。また、αiは、次式(8)、(9)で表される行列Wの固有ベクトルであり、固有値の大きい順でi番目の固有ベクトルに相当する。 Here, A is a base vector of the subspace U on the high-dimensional feature space, B is a base vector of the subspace V on the high-dimensional feature space, x is a learning vector constituting the subspace U, and y is a subspace. Learning vectors constituting V, k (x, y) is a kernel function, M is the number of dimensions of the subspace V, N is the number of learning vectors x, and N ′ is the number of learning vectors y. Α i is an eigenvector of the matrix W expressed by the following equations (8) and (9), and corresponds to the i-th eigenvector in descending order of eigenvalues.

(数8) W=(wij) …(8) (Equation 8) W = (w ij ) (8)

(数9) wij=k(xi,xj) …(9)
βiも同様に、学習ベクトルyに置き換えた行列Wの固有ベクトルとして算出できる。また、カーネル関数は式(10)の多項式カーネルや式(11)のガウシアンカーネル等がある。
( Equation 9) w ij = k (x i , x j ) (9)
Similarly, β i can be calculated as an eigenvector of the matrix W replaced with the learning vector y. The kernel function includes a polynomial kernel of Expression (10) and a Gaussian kernel of Expression (11).

(数10) k(xi,xj)=(xi t+1)P …(10) (Equation 10) k (x i , x j ) = (x i t +1) P (10)

Figure 2005339186
Figure 2005339186

さて、これらの方法を用いて、部分空間同士の類似度を計算することができるが、ここで、この類似度を、そのままカーネル関数ksubspace(U,V)と考える。これを用いて、SVMの枠組で識別関数sを、次式(12)と表すことができる。 By using these methods, the similarity between subspaces can be calculated. Here, this similarity is considered as a kernel function k subspace (U, V) as it is. Using this, the discriminant function s can be expressed by the following equation (12) in the framework of SVM.

Figure 2005339186
Figure 2005339186

ここで、yは識別の対象べクトル、hは閾値係数である。また、Uiはクラスiの部分空間を表し、Supportは係数γiが「0」でないクラスを表す。またtiはクラスiの正解ラベルを表し、「1」か「−1」の値をとる。例えば、クラス「1」とそれ以外の識別を行う識別関数を計算する場合、t1を「1」、t2〜tc(Cはクラス数)を「−1」とすればよい。また、ksubspace(U,y)は部分空間とベクトルが引数となっており、上の定式化では計算できないように思われるかもしれないが、もともとの定義としてksubspace(U,V)は次式(13)であるため、 Here, y is an identification target vector, and h is a threshold coefficient. U i represents a subspace of class i, and Support represents a class for which coefficient γ i is not “0”. T i represents a correct label of class i and takes a value of “1” or “−1”. For example, when calculating a discriminant function for discriminating a class “1” from other classes, t 1 may be “1” and t 2 to t c (C is the number of classes) may be “−1”. In addition, k subspace (U, y) takes a subspace and a vector as arguments, and it may seem that it cannot be calculated by the above formulation. However, as an original definition, k subspace (U, V) is Since it is Formula (13),

Figure 2005339186
Figure 2005339186

subspace(U,y)は、ベクトルyを部分空間Uに投影したときの投影角度θから導き出されるcos2θを計算すれば良い。(注:ここで、部分空間Uの基底ベクトルは、特徴空間の原点を起点としたKL展開により算出されることとする。)したがって、線形の場合なら、次式(14)として計算できる。 For k subspace (U, y), cos 2 θ derived from the projection angle θ when the vector y is projected onto the subspace U may be calculated. (Note: Here, the base vector of the subspace U is calculated by KL expansion starting from the origin of the feature space.) Therefore, in the case of linearity, it can be calculated as the following equation (14).

Figure 2005339186
Figure 2005339186

ここで、ujは部分空間Uのj番目の基底ベクトルを表す。 Here, u j represents the j th basis vector of the subspace U.

また、非線形の場合なら、次式(15)、(16)として計算できる。   In the case of non-linearity, it can be calculated as the following equations (15) and (16).

Figure 2005339186
Figure 2005339186

Figure 2005339186
Figure 2005339186

ここで、ujは式(8)、(9)で表される行列Wの固有ベクトルであり、固有値の大きい順でj番目の固有ベクトルに相当する。また、αjはj番目に大きい固有値であり、x1〜xn'は、部分空間Uを構成するn’個の学習ベクトルである。 Here, u j is an eigenvector of the matrix W expressed by equations (8) and (9), and corresponds to the j-th eigenvector in descending order of eigenvalues. Α j is the jth largest eigenvalue, and x 1 to x n ′ are n ′ learning vectors constituting the subspace U.

そして、パラメータγは制約条件   And parameter γ is a constraint condition

Figure 2005339186
Figure 2005339186

(数18) 0≦γi≦η,i=1,...,C …(18)
(但し、ηはソフトマージンのためのパラメータ)
のもとで、次式により目的関数を最大とするγを求めればよい。
(Equation 18) 0 ≦ γ i ≦ η, i = 1,..., C (18)
(However, η is a parameter for soft margin)
Therefore, γ that maximizes the objective function may be obtained by the following equation.

Figure 2005339186
Figure 2005339186

ここで、Uiはクラスiの部分空間を表す。これは、凸2次計画法(今野浩、山下浩“非線形計画法”、日科技連出版社、1978)の枠組で算出可能である。 Here, U i represents a subspace of class i. This can be calculated by the framework of the convex quadratic programming method (Hiroshi Konno, Hiroshi Yamashita “Nonlinear Programming”, Nikka Giren Publisher, 1978).

この方法を採用すると、識別関数算出の際、1クラスあたりの学習データ数を1と考えたときと演算回数が同じになり、結果として学習時間を大幅に短縮できる。   When this method is adopted, the number of computations is the same as when the number of learning data per class is considered as 1 when calculating the discrimination function, and as a result, the learning time can be greatly shortened.

また、この手法は特徴空間において近接した他クラスの部分空間がサポートベクトルになり、自クラスの部分空間との位置関係が識別関数に反映されるため、従来の部分空間法あるいはカーネル非線形部分空間法よりも高い精度を期待できる。   In this method, the subspace of another class in the feature space becomes a support vector, and the positional relationship with the subspace of the own class is reflected in the discriminant function. Therefore, the conventional subspace method or kernel nonlinear subspace method is used. Higher accuracy can be expected.

本発明は、上記の課題を達成するために、画像データに含まれる任意のパターンを識別するパターン認識装置であって、学習用の画像データを入力する学習データ入力手段と、学習データからパターンの特徴量を抽出する学習データ特徴抽出手段と、各クラスにおいて学習データの分布を近似する部分空間を作成し、その部分空間同士の類似度を利用した識別関数のパラメータを算出する識別関数作成手段と、を備えることを特徴とする。   In order to achieve the above object, the present invention provides a pattern recognition device for identifying an arbitrary pattern included in image data, comprising learning data input means for inputting image data for learning, and a pattern from the learning data. Learning data feature extracting means for extracting feature quantities; and a discriminant function creating means for creating a subspace that approximates the distribution of the learning data in each class and calculating parameters of the discriminant function using the similarity between the subspaces; It is characterized by providing.

あるいは、前記識別関数作成手段において、クラスの分布を近似する部分空間の基底ベクトルを算出する部分空間作成手段と、相互部分空間法による部分空間同士の類似度をもとに構成される識別関数のパラメータをサポートベクトルマシン(SVM)の学習過程を利用して算出する識別関数パラメータ計算手段と、を備えることを特徴とする。   Alternatively, in the discriminant function creating means, a subspace creating means for calculating a base vector of a subspace approximating the class distribution, and a discriminant function configured based on the similarity between the subspaces by the mutual subspace method Discriminating function parameter calculating means for calculating parameters using a learning process of a support vector machine (SVM).

あるいは、前記識別関数作成手段において、クラスの分布を近似する核非線形部分空間の基底ベクトルを算出する部分空間作成手段と、非線形核相互部分空間法による部分空間同士の類似度をもとに構成される識別関数のパラメータをサポートベクトルマシン(SVM)の学習過程を利用して算出する識別関数パラメータ計算手段と、を備えることを特徴とする。   Alternatively, the discriminant function creating means is configured based on a subspace creating means for calculating a basis vector of a nuclear nonlinear subspace that approximates a class distribution and a similarity between subspaces by a nonlinear nuclear mutual subspace method. Discriminating function parameter calculation means for calculating parameters of the discriminating function using a learning process of a support vector machine (SVM).

あるいは、画像データに含まれる任意のパターンを識別するパターン認識装置であって、識別対象となるデジタル画像データを入力する画像データ入力手段と、入力画像データからパターンの特徴量を抽出する特徴抽出手段と、識別関数記憶手段から読み出した識別関数とそのパラメータをもとにパターンの識別を行う識別手段と、識別結果を出力する出力手段と、を備えることを特徴とする。   Alternatively, a pattern recognition apparatus for identifying an arbitrary pattern included in image data, which is an image data input unit that inputs digital image data to be identified, and a feature extraction unit that extracts a feature amount of a pattern from the input image data And an identification means for identifying the pattern based on the identification function read from the identification function storage means and its parameters, and an output means for outputting the identification result.

あるいは、画像データに含まれる任意のパターンを識別するパターン認識方法であって、学習用の画像データを入力する学習データ入力ステップと、学習データからパターンの特徴量を抽出する学習データ特徴抽出ステップと、各クラスにおいて学習データの分布を近似する部分空間を作成し、その部分空間同士の類似度を利用した識別関数のパラメータを算出する識別関数作成ステップと、を備える特徴とする。   Alternatively, a pattern recognition method for identifying an arbitrary pattern included in image data, a learning data input step for inputting image data for learning, and a learning data feature extraction step for extracting pattern feature amounts from the learning data And a discriminant function creating step of creating a subspace approximating the distribution of the learning data in each class and calculating a parameter of the discriminant function using the similarity between the subspaces.

あるいは、前記識別関数作成ステップにおいて、クラスの分布を近似する部分空間の基底ベクトルを算出する部分空間作成ステップと、相互部分空間法による部分空間同士の類似度をもとに構成される識別関数のパラメータをSVMの学習過程を利用して算出する識別関数パラメータ計算ステップと、を備えることを特徴とする。   Alternatively, in the discriminant function creating step, a subspace creating step for calculating a basis vector of a subspace approximating the class distribution and And a discriminant function parameter calculation step for calculating parameters using a learning process of SVM.

あるいは、前記識別関数作成ステップにおいて、クラスの分布を近似する核非線形部分空間の基底ベクトルを算出する部分空間作成ステップと、非線形核相互部分空間法による部分空間同士の類似度をもとに構成される識別関数のパラメータをSVMの学習過程を利用して算出する識別関数パラメータ計算ステップと、を備えることを特徴とする。   Alternatively, in the discriminant function creating step, a subspace creating step for calculating a basis vector of a nuclear nonlinear subspace that approximates a class distribution and a similarity between subspaces by a nonlinear nuclear mutual subspace method are configured. And a discriminant function parameter calculating step of calculating a discriminant function parameter using an SVM learning process.

あるいは、画像データに含まれる任意のパターンを識別するパターン認識方法であって、識別対象となるデジタル画像データを入力する画像データ入力ステップと、入力画像データからパターンの特徴量を抽出する特徴抽出ステップと、識別関数記憶部から読み出した識別関数とそのパラメータをもとにパターンの識別を行う識別ステップと、識別結果を出力する出力ステップと、を備えることを特徴とする。   Alternatively, a pattern recognition method for identifying an arbitrary pattern included in image data, an image data input step for inputting digital image data to be identified, and a feature extraction step for extracting a pattern feature amount from the input image data And an identification step for identifying the pattern based on the identification function read from the identification function storage unit and its parameters, and an output step for outputting the identification result.

あるいは、パターン認識学習装置と識別装置及びパターン認識学習処理方法と識別処理方法を、コンピュータに実行させるためのプログラムとしたことを特徴とする。   Alternatively, the pattern recognition learning device and the identification device, and the pattern recognition learning processing method and the identification processing method are programs for causing a computer to execute.

あるいは、パターン認識学習装置と識別装置及びパターン認識学習処理方法と識別処理方法を、コンピュータに実行させるためのプログラムとし、前記プログラムを前記コンピュータが読み取りできる記録媒体に記録したことを特徴とする。   Alternatively, the pattern recognition learning device, the identification device, the pattern recognition learning processing method, and the identification processing method are programs for causing a computer to execute, and the program is recorded on a recording medium that can be read by the computer.

なお、具体的なパターン認識装置は、以下の構成を備える。即ち、画像データに含まれる任意のパターンを識別するパターン認識装置であって、学習用の画像データを入力する学習データ入力手段と、学習データの濃度値正規化、ノイズ除去を行う学習データ前処理手段と、学習データからパターンの特徴量を抽出する学習データ特徴抽出手段と、各クラスにおいて学習データの分布を近似する部分空間を作成し、その部分空間同士の類似度を利用した識別関数のパラメータを算出する識別関数作成手段と、識別関数とそのパラメータを格納する識別関数記憶手段と、識別対象となるデジタル画像データを入力する画像データ入力手段と、入力画像データの濃度値正規化、ノイズ除去を行う前処理手段と、入力画像データからパターンの特徴量を抽出する特徴抽出手段と、識別関数記憶手段から読み出した識別関数とそのパラメータをもとにパターンの識別を行う識別手段と、識別結果を出力する出力手段とを備える。   A specific pattern recognition device has the following configuration. That is, a pattern recognition device for identifying an arbitrary pattern included in image data, learning data input means for inputting image data for learning, and learning data preprocessing for performing density value normalization and noise removal of learning data A learning data feature extracting means for extracting feature values of a pattern from learning data, a subspace that approximates the distribution of learning data in each class, and a parameter of an identification function that uses the similarity between the subspaces Discriminant function creating means for calculating discriminant functions, discriminant function storage means for storing discriminant functions and parameters thereof, image data input means for inputting digital image data to be discriminated, density value normalization of input image data, noise removal A pre-processing unit for performing the processing, a feature extracting unit for extracting the feature amount of the pattern from the input image data, and reading from the discrimination function storage unit Comprising identification function and the identification means for performing identification of patterns that parameter on the basis, and output means for outputting the identification result.

また、識別関数作成手段において、クラス分布を近似する部分空間の基底ベクトルを算出する部分空間作成手段と、相互部分空間法による部分空間同士の類似度をもとに構成される識別関数のパラメータをSVMの学習過程を利用して算出する識別関数パラメータ計算手段とを備える。   In addition, in the discriminant function creating means, subspace creating means for calculating a base vector of a subspace approximating the class distribution and parameters of the discriminant function configured based on the similarity between the subspaces by the mutual subspace method Discriminating function parameter calculation means for calculating using the learning process of SVM.

あるいは、識別関数記憶手段において、クラスの分布を近似する核非線形部分空間の基底ベクトルを算出する部分空間作成手段と、非線形核相互部分空間法による部分空間同士の類似度をもとに構成される識別関数のパラメータをSVMの学習過程を利用して算出する識別関数パラメータ計算手段とを備える。   Alternatively, the discriminant function storage means is configured based on the subspace creation means for calculating the basis vector of the nuclear nonlinear subspace approximating the class distribution and the similarity between the subspaces by the nonlinear nuclear mutual subspace method. And a discriminant function parameter calculating means for calculating a discriminant function parameter using a learning process of SVM.

また、具体的なパターン認識方法は以下の構成を備える。即ち、画像データに含まれる任意のパターンを識別するパターン認識方法であって、学習用の画像データを入力する学習データ入力ステップと、学習データの濃度値正規化、ノイズ除去を行う学習データ前処理ステップと、学習データからパターンの特徴量を抽出する学習データ特徴抽出ステップと、各クラスにおいて学習データの分布を近似する部分空間を作成し、その部分空間同士の類似度を利用した識別関数のパラメータを算出する識別関数作成ステップと、識別関数とそのパラメータを格納する識別関数記憶ステップと、識別対象となるデジタル画像データを入力する画像データ入力ステップと、入力画像データの濃度値正規化、ノイズ除去を行う前処理ステップと、入力画像データからパターンの特徴量を抽出する特徴抽出ステップと、識別関数記憶ステップから読み出した識別関数とそのパラメータをもとにパターンの識別を行う識別ステップと、識別結果を出力する出力ステップとを備える。   A specific pattern recognition method has the following configuration. That is, a pattern recognition method for identifying an arbitrary pattern included in image data, a learning data input step for inputting image data for learning, learning data pre-processing for performing normalization of learning data, and noise removal A step, a learning data feature extraction step for extracting feature values of the pattern from the learning data, a subspace that approximates the distribution of the learning data in each class, and a parameter of an identification function that uses the similarity between the subspaces Discriminant function creation step for calculating discriminant function, discriminant function storage step for storing discriminant function and its parameters, image data input step for inputting digital image data to be discriminated, density value normalization of input image data, noise removal And a feature extraction step for extracting pattern features from the input image data. If, comprising an identification step of identifying a pattern based on the parameters and identification functions read from the identification function storing step and an output step of outputting the identification result.

また、識別関数記憶ステップにおいて、クラスの分布を近似する部分空間の基底ベクトルを算出する部分空間作成ステップと、相互部分空間法による部分空間同士の類似度をもとに構成される識別関数のパラメータをSVMの学習過程を利用して算出する識別関数パラメータ計算ステップとを備える。   Also, in the discriminant function storage step, a subspace creation step that calculates a base vector of a subspace that approximates the class distribution, and a parameter of the discriminant function that is configured based on the similarity between subspaces by the mutual subspace method And a discriminant function parameter calculating step for calculating using a learning process of SVM.

あるいは、識別関数記憶ステップにおいて、クラスの分布を近似する核非線形部分空間の基底ベクトルを算出する部分空間作成ステップと、非線形核相互部分空間法による部分空間同士の類似度をもとに構成される識別関数のパラメータをSVMの学習過程を利用して算出する識別関数パラメータ計算ステップとを備える。   Alternatively, in the discriminant function storage step, the subspace creation step for calculating the basis vector of the nuclear nonlinear subspace that approximates the class distribution and the similarity between the subspaces by the nonlinear nuclear mutual subspace method are used. A discriminant function parameter calculating step of calculating a discriminant function parameter using a learning process of SVM.

また、具体的なパターン認識プログラム記録媒体は、以下の構成を備える。即ち、画像データに含まれる任意のパターンを識別するパターン認識プログラムを記録した記録媒体であって、学習用の画像データを入力する学習データ入力工程のプログラムコードと、学習データの濃度値正規化、ノイズ除去を行う学習データ前処理工程のプログラムコードと、学習データからパターンの特徴量を抽出する学習データ特徴抽出工程のプログラムコードと、各クラスにおいて学習データの分布を近似する部分空間を作成し、その部分空間同士の類似度を利用した識別関数のパラメータを算出する識別関数作成工程のプログラムコードと、識別関数とそのパラメータを格納する識別関数記憶工程のプログラムコードと、識別対象となるデジタル画像データを入力する画像データ入力工程のプログラムコードと、入力画像データの濃度値正規化、ノイズ除去を行う前処理工程のプログラムコードと、入力画像データからパターンの特徴量を抽出する特徴抽出工程のプログラムコードと、識別関数記憶工程のプログラムコードから読み出した識別関数とそのパラメータをもとにパターンの識別を行う識別工程のプログラムコードと、識別結果を出力する出力工程のプログラムコードとを備える。   A specific pattern recognition program recording medium has the following configuration. That is, a recording medium on which a pattern recognition program for identifying an arbitrary pattern included in image data is recorded, a program code of a learning data input step for inputting image data for learning, and density value normalization of learning data, Create a learning data pre-processing program code that removes noise, a learning data feature extraction program code that extracts pattern features from learning data, and a subspace that approximates the distribution of learning data in each class, Program code for discriminant function creation process for calculating discriminant function parameters using similarity between the partial spaces, program code for discriminant function and discriminant function storage step for storing the parameters, and digital image data to be discriminated Program data input process program code and input image data Program code for pre-processing step for density value normalization and noise removal, program code for feature extraction step for extracting feature amount of pattern from input image data, discrimination function read from program code for discrimination function storage step and its The program code of the identification process which identifies a pattern based on a parameter, and the program code of the output process which outputs an identification result are provided.

また、識別関数記憶プログラムを記録した記録媒体において、クラスの分布を近似する部分空間の基底ベクトルを算出する部分空間作成工程のプログラムコードと、相互部分空間法による部分空間同士の類似度をもとに構成される識別関数のパラメータをSVMの学習過程を利用して算出する識別関数パラメータ計算工程のプログラムコードとを備える。   In addition, on the recording medium on which the discriminant function storage program is recorded, based on the program code of the subspace creation process for calculating the subspace basis vector approximating the class distribution and the similarity between the subspaces by the mutual subspace method. And a program code of a discriminant function parameter calculation step for calculating a discriminant function parameter constructed by using a learning process of SVM.

あるいは、識別関数記憶工程のプログラムコードにおいて、クラスの分布を近似する核非線形部分空間の基底ベクトルを算出する部分空間作成工程のプログラムコードと、非線形核相互部分空間法による部分空間同士の類似度をもとに構成される識別関数のパラメータをSVMの学習過程を利用して算出する識別関数パラメータ計算工程のプログラムコードとを備える。   Alternatively, in the program code of the discriminant function storage process, the program code of the subspace creation process that calculates the basis vector of the nuclear nonlinear subspace that approximates the class distribution and the degree of similarity between the subspaces by the nonlinear nuclear mutual subspace method A discriminant function parameter calculation process program code for calculating a discriminant function parameter based on the SVM learning process.

以上述べたように、本発明による手段やステップを実現することによって、各クラスの学習ベクトルを1つの部分空間に近似し、その相互の類似度をカーネル関数としたSVMの枠組による識別関数を構成するため、識別関数算出の際に1クラスあたりの学習データ数を1とした場合と同じ演算回数となり、結果的に1000クラス超の多クラス識別問題を現実的な処理時間で扱うことができるようになる。   As described above, by realizing the means and steps according to the present invention, the learning function of each class is approximated to one partial space, and the discriminant function based on the SVM framework with the mutual similarity as the kernel function is constructed. Therefore, the number of computations is the same as when the number of learning data per class is set to 1 when calculating the discrimination function, and as a result, a multi-class discrimination problem exceeding 1000 classes can be handled in a realistic processing time. become.

また、本発明による手段やステップは、特徴空間において近接した他クラスの部分空間がサポートベクトルになり、自クラスの部分空間との位置関係が識別関数に反映されるため、従来の部分空間法あるいはカーネル非線形部分空間法よりも高い精度を期待できるようになる。   Further, the means or step according to the present invention is based on the conventional subspace method or the subspace of the other class in the feature space, because the support vector is used as a support vector and the positional relationship with the subspace of the own class is reflected in the discriminant function. Higher accuracy than kernel nonlinear subspace method can be expected.

以下本発明の実施の形態を図面に基づいて詳細に説明する。図1は、本発明に係る実施形態のパターン認識装置の構成を示すブロック図であり、図2(a),(b)は、本発明に係る実施形態のパターン認識方法のフローチャートである。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of a pattern recognition apparatus according to an embodiment of the present invention, and FIGS. 2A and 2B are flowcharts of a pattern recognition method according to the embodiment of the present invention.

まず、図1と図2(a)を用いて述べる。なお、図2(a)は、式(12)の係数γi,閾値係数hを設定する学習処理フローチャートである。 First, a description will be given with reference to FIG. 1 and FIG. FIG. 2A is a learning process flowchart for setting the coefficient γ i and the threshold coefficient h in Expression (12).

図1、図2(a)において、学習データ入力部1は,カメラやイメージスキャナ等の画像取得装置を用いて、あらかじめ用意してある学習データを入力し(S1)、そのデータを学習データ前処理部2に伝送する。   In FIG. 1 and FIG. 2A, a learning data input unit 1 inputs learning data prepared in advance using an image acquisition device such as a camera or an image scanner (S1). The data is transmitted to the processing unit 2.

学習データ前処理部2は、入力されたデジタル画像データから、画像データの濃度値の正規化(例えば、濃度値の平均を0、分散を1に正規化する)やノイズ除去等行い(S2)、学習データ特徴抽出部3へ伝送する。学習データ特徴抽出部3は、学習データ前処理部2において整形された学習データから特徴量を抽出する(S3)。   The learning data preprocessing unit 2 performs normalization of the density value of the image data (for example, normalizing the density value to 0 and normalizing the variance to 1) and noise removal from the input digital image data (S2). And transmitted to the learning data feature extraction unit 3. The learning data feature extraction unit 3 extracts feature amounts from the learning data shaped by the learning data preprocessing unit 2 (S3).

特徴量は、いろいろ考えられるが、例えばフーリエ変換のパワースペクトル、色ヒストグラム特徴(村瀬洋、V.V.Vinod“局所色情報を用いた高速物体探索−アクティブ探索法−”」、電子情報通信学会論文誌D-II,Vol.J81-D-II,No.9,pp.2035-2042,1998)、局所方向ヒストグラム特徴(若林哲史、鶴岡信治、木村文隆、三宅康二“特徴量の次元数増加による手書き数字認識の高精度化”、電子情報通信学会論文誌D-II,Vol.J77-D-II,No.10,pp.2046-2053,1994.)等がある。また、こういった特徴抽出処理を行わず、画像の輝度値そのものを特徴量としてしまっても良い。   Various features can be considered, for example, power spectrum of Fourier transform, color histogram feature (Hirase Murase, VVVinod “Fast object search using local color information-Active search method-”), IEICE Transactions D -II, Vol.J81-D-II, No.9, pp.2035-2042,1998), Local Direction Histogram Features (Tetsufumi Wakabayashi, Shinji Tsuruoka, Fumitaka Kimura, Koji Miyake “Handwritten figures by increasing the dimension number of features” "High accuracy recognition", IEICE Transactions D-II, Vol. J77-D-II, No. 10, pp. 2046-2053, 1994. Further, the luminance value itself of the image may be used as the feature amount without performing such feature extraction processing.

識別関数作成部4は、学習データから抽出された特徴量をもとに、識別関数を作成する(S4)。その際の識別関数作成部4における演算処理装置構成および処理の実行方法を、図3のブロック図と図4のフローチャートに示す。図3において、部分空間作成部11では、各クラスの特徴量からクラス部分空間の基底ベクトルを算出する(図4のS10)、(図4のS11)。   The discriminant function creation unit 4 creates an discriminant function based on the feature amount extracted from the learning data (S4). The block diagram of FIG. 3 and the flowchart of FIG. 4 show the configuration of the arithmetic processing unit and the processing execution method in the discriminant function creation unit 4 at that time. In FIG. 3, the subspace creating unit 11 calculates a base vector of the class subspace from the feature quantity of each class (S10 in FIG. 4) and (S11 in FIG. 4).

これは、学習データから抽出された特徴量の共分散行列の固有ベクトルとして算出される。非線形の場合は、上述した式(8)(9)で表される行列Wの固有ベクトルとして算出可能である。   This is calculated as an eigenvector of a covariance matrix of feature amounts extracted from learning data. In the case of non-linearity, it can be calculated as an eigenvector of the matrix W expressed by the above-described equations (8) and (9).

ここで、SVMに対し、部分空間の概念または相互部分空間法を適用するにあたって行った技術的工夫は、次の(a),(b)のようなものである。   Here, technical ideas made in applying the concept of subspace or the mutual subspace method to SVM are as follows (a) and (b).

(a)SVMのカーネル関数は、Mercerの条件を満たすものでなければならないが、相互部分空間法あるいは核非線形相互部分空間法における部分空間同士の類似度計算法は、Mercerの条件を満たすものであり、これらを直接カーネル関数として用いることが可能である。   (A) The kernel function of SVM must satisfy Mercer's condition, but the subspace similarity calculation method in the mutual subspace method or nuclear nonlinear mutual subspace method satisfies Mercer's condition. They can be used directly as kernel functions.

(b)部分空間を算出するとき、重心まわりの固有ベクトルをとるか、原点まわりの固有ベクトルをとるかで結果が異なってくるが、SVMに適用するにあたっては、原点まわりの固有ベクトルを採用した。これにより、識別過程においてカーネル関数の引数である2つの部分空間のうち、一方を識別の対象ベクトルに置き換えても一般性を損なわなくなり(ベクトルを1次元の部分空間とみなせるから)、識別関数を構成することが可能となる。   (B) When calculating the subspace, the result differs depending on whether the eigenvector around the center of gravity or the eigenvector around the origin is taken. However, when applying to SVM, the eigenvector around the origin was adopted. As a result, even if one of the two subspaces that are arguments of the kernel function in the discrimination process is replaced with a vector to be discriminated, the generality is not lost (since the vector can be regarded as a one-dimensional subspace). It can be configured.

次に、上記部分空間法について述べる。部分空間法は、類別すべきカテゴリを特徴ベクトル成分の分布から形成される部分空間への射影を通して判定する統計的手法の一種である。この場合の、変換するベクトル成分の固有ベクトル計算には、例えば、量子化アルゴリズムであるカルーネン・レーベ変換によるKL解析が採用される。部分空間法における代表的な手法には、CLAFIC法や、平均学習部分空間法が知られている。   Next, the subspace method will be described. The subspace method is a kind of statistical method for determining categories to be classified through projection onto a subspace formed from the distribution of feature vector components. In this case, for the eigenvector calculation of the vector component to be converted, for example, KL analysis by Karhunen-Loeve transform which is a quantization algorithm is employed. As typical techniques in the subspace method, the CLAFIC method and the average learning subspace method are known.

また、ALSMは、対抗するカテゴリをも考慮した適応的な学習アプローチに属し、所定の訓練パターンに対する誤認識が最小となるように空間を反復的に張り直してカテゴリ境界の学習が進められる。   ALSM belongs to an adaptive learning approach that also takes into account opposing categories, and the learning of category boundaries is advanced by re-adjusting the space repeatedly so as to minimize the misrecognition of a predetermined training pattern.

まずは、識別したいパターンのサンプルデータを予め入力し、そのパターンを表す部分空間を算出しておき、学習パターン記憶部に蓄積する。部分空間は、識別パターンから得られる特徴ベクトルの共分散行列の固有値および固有ベクトルを算出することにより、求めることができる。   First, sample data of a pattern to be identified is input in advance, a partial space representing the pattern is calculated, and stored in a learning pattern storage unit. The subspace can be obtained by calculating the eigenvalue and eigenvector of the covariance matrix of the feature vector obtained from the identification pattern.

識別の際には、学習パターン記憶部から全てのパターンの部分空間データを呼び出し、それらの部分空間との距離をもとにパターンの識別を行う。距離は、特徴空間内での単純ユークリッド距離にて計測し、距離が最も近い部分空間のパターンを識別結果とする。   At the time of identification, the partial space data of all patterns is called from the learning pattern storage unit, and the pattern is identified based on the distance from these partial spaces. The distance is measured by a simple Euclidean distance in the feature space, and the pattern of the subspace with the closest distance is used as the identification result.

なお、部分空間法の基本原理は、石井健一郎、上田修功、前田英作、村瀬洋共著、“わかりやすいパターン認識”、オーム社(1998)等に詳しく掲載されている。なお、部分空間法以外にも例えば最近傍法、フィッシャーの線形判別法、サポートベクトルマシン、ニューラルネットワーク、カーネル非線形部分空間法等を用いても良い。   The basic principle of the subspace method is described in detail in Kenichiro Ishii, Nobuyoshi Ueda, Eisaku Maeda, Hiroshi Murase, “Easy-to-understand pattern recognition”, Ohmsha (1998), etc. In addition to the subspace method, for example, a nearest neighbor method, Fisher's linear discriminant method, support vector machine, neural network, kernel nonlinear subspace method, or the like may be used.

図3の識別関数パラメータ計算部12では、クラス部分空間データをもとに、式(12)のパラメータγ、hを計算する(図4のS12)、(図4のS13)。式(17)(18)(19)を凸2次計画法により計算することでパラメータγ、hが算出される。識別関数記憶部5は、識別関数のパラメータをメモリに格納する(S5)。   The discriminant function parameter calculation unit 12 in FIG. 3 calculates the parameters γ and h in Expression (12) based on the class subspace data (S12 in FIG. 4) and (S13 in FIG. 4). The parameters γ and h are calculated by calculating the equations (17), (18), and (19) by the convex quadratic programming method. The discriminant function storage unit 5 stores the discriminant function parameters in the memory (S5).

次に、図1と図2(b)を用いて述べる。なお、図2(b)は識別処理フローチャートである。図1、図2(b)において、画像データ入力部6は、カメラやイメージスキャナ等の画像取得装置を用いて識別用の画像データを入力し(S6)、データを前処理部7に伝送する。前処理部7は、学習データ前処理部2と同様の処理を行い(S7)、特徴抽出部8へ伝送する。特徴抽出部8も特徴抽出部3と同様の処理を行い(S8)、式(12)に示すベクトルyを求めて識別部9へ伝送する。   Next, description will be made with reference to FIG. 1 and FIG. FIG. 2B is an identification process flowchart. 1 and 2B, the image data input unit 6 inputs image data for identification using an image acquisition device such as a camera or an image scanner (S6), and transmits the data to the preprocessing unit 7. . The preprocessing unit 7 performs the same processing as the learning data preprocessing unit 2 (S7), and transmits it to the feature extraction unit 8. The feature extraction unit 8 performs the same process as the feature extraction unit 3 (S8), obtains the vector y shown in the equation (12), and transmits it to the identification unit 9.

識別部9は、識別関数記憶部5に記憶されているパラメータを読み出し、上述した式(12)に求めた識別の対象ベクトルyを代入して識別関数sを求め、及び式(14)(15)(16)により各クラスの類似度を算出する。その結果を比較して、最も類似度の高いクラスを識別クラスとする(S9)。出力部10は、識別部9で演算された識別結果を出力する。   The discriminating unit 9 reads out the parameters stored in the discriminant function storage unit 5, substitutes the discriminant target vector y obtained in the above equation (12) to obtain the discriminant function s, and equations (14) (15 ) The similarity of each class is calculated by (16). The result is compared, and the class with the highest similarity is set as the identification class (S9). The output unit 10 outputs the identification result calculated by the identification unit 9.

なお、図1における学習装置Lおよび識別装置Dにおける「前処理部2,7」、図2(a)の学習処理および図2(b)の識別処理における「前処理S2,S7」は、省略しても構わない。   Note that “preprocessing units 2 and 7” in the learning device L and the identification device D in FIG. 1 and “preprocessing S2 and S7” in the learning processing in FIG. 2A and the identification processing in FIG. 2B are omitted. It doesn't matter.

本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のCPU(MPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、実現できる。その場合、記憶媒体から読み出されたプログラムコード自体が上述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体、例えばCD-ROM,DVD-ROM,CD-R,CD-RW,MO,HDD等は本発明を構成する。   In the present invention, a storage medium in which a program code of software for realizing the functions of the above-described embodiments is recorded is supplied to a system or apparatus, and the CPU (MPU) of the system or apparatus stores the program code stored in the storage medium. It can also be realized by executing reading. In that case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and a storage medium storing the program code, for example, a CD-ROM, DVD-ROM, CD-R, CD-RW, MO, HDD, etc. constitute the present invention.

実施の形態例
本発明を実施した形態例の一つとして日本語文字認識を取り上げる。日本語文字認識においては、パターンは、カメラやイメージスキャナ等により入力された画像情報あるいはそこから任意に切り出した部分画像情報であり、クラスは「あ」や「ア」や「亜」といった文字種概念に相当する。
Embodiments Japanese character recognition is taken up as one embodiment of the present invention. In Japanese character recognition, a pattern is image information input by a camera, an image scanner, or the like, or partial image information arbitrarily cut out from the image information, and a class is a character type concept such as “A”, “A”, or “A”. It corresponds to.

学習データは、あらかじめ用意しておいた複数種類の文字画像であり、例としてゴシック体フォントや明朝体フォント等といった複数種類のフォント文字を利用することができる。   The learning data is a plurality of types of character images prepared in advance. For example, a plurality of types of font characters such as Gothic fonts and Mincho fonts can be used.

また、識別関数は、ある文字種概念であるか否かを判別するための関数であり(例えば「あ」であるか、「あ」でないかを判別する関数)、文字種数の分だけ識別関数が用意される。識別結果は、例えばテキストデータコードとしてファイル出力し、ディスプレイに表示する、あるいは翻訳等により加工したデータを出力するといったことが考えられる。   Also, the discriminant function is a function for discriminating whether or not it is a certain character type concept (for example, a function for discriminating whether it is “A” or “A”). Prepared. For example, the identification result may be output as a file as a text data code, displayed on a display, or output data processed by translation or the like.

以上説明したように、本発明の実施形態によれば、1000クラス超の多クラス識別問題を現実的な処理時間で扱え、かつ高精度の識別を可能とするパターン認識装置及びその方法が提供できる。   As described above, according to the embodiments of the present invention, it is possible to provide a pattern recognition apparatus and method capable of handling a multi-class identification problem exceeding 1000 classes in a realistic processing time and enabling high-precision identification. .

上述した、図1で示した各機能実現手段をコンピュータのプログラムで構成したり、あるいは図2、図4に示したフローチャートの処理ステップをコンピュータのプログラムで構成したりして、そのプログラムをコンピュータに実行させることができることは言うまでもなく、コンピュータでその機能を実現するためのプログラム、あるいは、コンピュータでその処理ステップを実行させるためのプログラムを、そのコンピュータが読み取りできる記録媒体、例えば、フレキシブルディスクや、CD,DVD,MO,ROM、メモリカード、リムーバブルディスクなどに記録して、保存したり、配布したりすることが可能である。   Each of the function realizing means shown in FIG. 1 is configured by a computer program, or the processing steps of the flowcharts shown in FIGS. 2 and 4 are configured by a computer program, and the program is stored in the computer. Needless to say, the program for realizing the function by the computer or the program for executing the processing steps by the computer can be read by a recording medium such as a flexible disk or a CD. , DVD, MO, ROM, memory card, removable disk, etc., and can be stored or distributed.

また、上記のプログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。これらの記録媒体からコンピュータに前記のプログラムをインストールすることにより、あるいはネットワークからダウンロードしてコンピュータに前記のプログラムをインストールすることにより、本発明を実施することが可能となる。   It is also possible to provide the above program through a network such as the Internet or electronic mail. The present invention can be implemented by installing the program from these recording media into a computer or by downloading the program from a network and installing the program into the computer.

本発明の実施の形態を示すブロック図である。It is a block diagram which shows embodiment of this invention. 実施の形態の動作を述べるためのフローチャートで、(a)は学習処理、(b)は識別処理フローチャートである。It is a flowchart for describing operation | movement of embodiment, (a) is a learning process, (b) is an identification process flowchart. 識別関数作成部における演算処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the arithmetic processing unit in an identification function preparation part. 識別関数作成部における演算処理の実行方法を示すフローチャートである。It is a flowchart which shows the execution method of the arithmetic processing in an identification function preparation part.

符号の説明Explanation of symbols

1…学習データ入力部
2…学習データ前処理部
3…学習データ特徴抽出部
4…識別関数作成部
5…識別関数記憶部
6…画像データ入力部
7…前処理部
8…特徴抽出部
9…識別部
10…出力部
11…部分空間作成部
12…識別関数パラメータ計算部
L …学習装置
D …識別装置
DESCRIPTION OF SYMBOLS 1 ... Learning data input part 2 ... Learning data pre-processing part 3 ... Learning data feature extraction part 4 ... Discrimination function creation part 5 ... Discrimination function storage part 6 ... Image data input part 7 ... Pre-processing part 8 ... Feature extraction part 9 ... Discrimination unit 10 ... Output unit 11 ... Subspace creation unit 12 ... Discrimination function parameter calculation unit L ... Learning device D ... Discrimination device

Claims (10)

画像データに含まれる任意のパターンを識別するパターン認識装置であって、
学習用の画像データを入力する学習データ入力手段と、
学習データからパターンの特徴量を抽出する学習データ特徴抽出手段と、
各クラスにおいて学習データの分布を近似する部分空間を作成し、その部分空間同士の類似度を利用した識別関数のパラメータを算出する識別関数作成手段と、
を備えることを特徴とするパターン認識学習装置。
A pattern recognition device for identifying an arbitrary pattern included in image data,
Learning data input means for inputting image data for learning;
Learning data feature extraction means for extracting feature amounts of patterns from learning data;
A discriminant function creating means for creating a subspace that approximates the distribution of the learning data in each class and calculating parameters of the discriminant function using the similarity between the subspaces;
A pattern recognition learning apparatus comprising:
前記識別関数作成手段において、
クラスの分布を近似する部分空間の基底ベクトルを算出する部分空間作成手段と、相互部分空間法による部分空間同士の類似度をもとに構成される識別関数のパラメータをサポートベクトルマシン(SVM)の学習過程を利用して算出する識別関数パラメータ計算手段と、
を備えることを特徴とする請求項1に記載のパターン認識学習装置。
In the discrimination function creating means,
Subspace creation means for calculating a base vector of a subspace approximating the class distribution, and parameters of a discriminant function configured based on the degree of similarity between the subspaces by the mutual subspace method are supported by a support vector machine (SVM). A discriminant function parameter calculating means for calculating using a learning process;
The pattern recognition learning device according to claim 1, comprising:
前記識別関数作成手段において、
クラスの分布を近似する核非線形部分空間の基底ベクトルを算出する部分空間作成手段と、非線形核相互部分空間法による部分空間同士の類似度をもとに構成される識別関数のパラメータをサポートベクトルマシン(SVM)の学習過程を利用して算出する識別関数パラメータ計算手段と、
を備えることを特徴とする請求項1に記載のパターン認識学習装置。
In the discrimination function creating means,
Support vector machine with subspace creation means for calculating basis vectors of nuclear nonlinear subspaces approximating class distribution and discriminant function parameters based on similarity between subspaces by nonlinear nuclear mutual subspace method A discriminant function parameter calculating means for calculating using a learning process of (SVM);
The pattern recognition learning device according to claim 1, comprising:
画像データに含まれる任意のパターンを識別するパターン認識装置であって、
識別対象となるデジタル画像データを入力する画像データ入力手段と、
入力画像データからパターンの特徴量を抽出する特徴抽出手段と、
識別関数記憶手段から読み出した識別関数とそのパラメータをもとにパターンの識別を行う識別手段と、
識別結果を出力する出力手段と、
を備えることを特徴とするパターン認識識別装置。
A pattern recognition device for identifying an arbitrary pattern included in image data,
Image data input means for inputting digital image data to be identified;
Feature extraction means for extracting feature amounts of patterns from input image data;
An identification means for identifying a pattern based on an identification function read from the identification function storage means and its parameters;
An output means for outputting the identification result;
A pattern recognition and identification device comprising:
画像データに含まれる任意のパターンを識別するパターン認識方法であって、
学習用の画像データを入力する学習データ入力ステップと、
学習データからパターンの特徴量を抽出する学習データ特徴抽出ステップと、
各クラスにおいて学習データの分布を近似する部分空間を作成し、その部分空間同士の類似度を利用した識別関数のパラメータを算出する識別関数作成ステップと、
を備えることを特徴とするパターン認識学習処理方法。
A pattern recognition method for identifying an arbitrary pattern included in image data,
A learning data input step for inputting image data for learning;
A learning data feature extraction step for extracting feature amounts of patterns from the learning data;
Creating a subspace that approximates the distribution of the learning data in each class, and creating a discriminant function parameter that calculates the parameters of the discriminant function using the similarity between the subspaces;
A pattern recognition learning processing method characterized by comprising:
前記識別関数作成ステップにおいて、
クラスの分布を近似する部分空間の基底ベクトルを算出する部分空間作成ステップと、相互部分空間法による部分空間同士の類似度をもとに構成される識別関数のパラメータをSVMの学習過程を利用して算出する識別関数パラメータ計算ステップと、
を備えることを特徴とする請求項5に記載のパターン認識学習処理方法。
In the identification function creating step,
A subspace creation step for calculating a base vector of a subspace that approximates the class distribution, and a parameter of a discriminant function that is configured based on the similarity between the subspaces by the mutual subspace method is used in the SVM learning process. Discriminating function parameter calculation step calculated by
The pattern recognition learning processing method according to claim 5, further comprising:
前記識別関数作成ステップにおいて、
クラスの分布を近似する核非線形部分空間の基底ベクトルを算出する部分空間作成ステップと、非線形核相互部分空間法による部分空間同士の類似度をもとに構成される識別関数のパラメータをSVMの学習過程を利用して算出する識別関数パラメータ計算ステップと、
を備えることを特徴とする請求項5に記載のパターン認識学習処理方法。
In the identification function creating step,
A subspace creation step for calculating a basis vector of a nuclear nonlinear subspace that approximates the class distribution, and SVM learning of discriminant function parameters configured based on the degree of similarity between subspaces by the nonlinear nuclear mutual subspace method A discriminant function parameter calculation step to calculate using a process;
The pattern recognition learning processing method according to claim 5, further comprising:
画像データに含まれる任意のパターンを識別するパターン認識方法であって、
識別対象となるデジタル画像データを入力する画像データ入力ステップと、
入力画像データからパターンの特徴量を抽出する特徴抽出ステップと、
識別関数記憶部から読み出した識別関数とそのパラメータをもとにパターンの識別を行う識別ステップと、
識別結果を出力する出力ステップと、
を備えることを特徴とするパターン認識識別処理方法。
A pattern recognition method for identifying an arbitrary pattern included in image data,
An image data input step for inputting digital image data to be identified;
A feature extraction step of extracting a feature amount of the pattern from the input image data;
An identification step for identifying a pattern based on an identification function and its parameters read from the identification function storage unit;
An output step for outputting the identification result;
A pattern recognition / identification processing method comprising:
請求項1〜8のいずれか1項に記載のパターン認識学習装置と識別装置又はパターン認識学習処理方法と識別処理方法を、コンピュータに実行させるためのプログラムとしたことを特徴とするパターン認識プログラム。 A pattern recognition program, characterized in that the pattern recognition learning device and the identification device or the pattern recognition learning processing method and the identification processing method according to any one of claims 1 to 8 are programs for causing a computer to execute. 請求項1〜8のいずれか1項に記載のパターン認識学習装置と識別装置又はパターン認識学習処理方法と識別処理方法を、コンピュータに実行させるためのプログラムとし、前記プログラムを前記コンピュータが読み取りできる記録媒体に記録したことを特徴とするパターン認識プログラムを記録した記録媒体。
A pattern recognition learning device and an identification device according to claim 1 or a pattern recognition learning processing method and an identification processing method as a program for causing a computer to execute the program, and the computer can read the program A recording medium on which is recorded a pattern recognition program characterized by being recorded on the medium.
JP2004156976A 2004-05-27 2004-05-27 Pattern recognition learning device and identification device, pattern recognition learning processing method, identification processing method, pattern recognition program and recoding medium with its program recorded Pending JP2005339186A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004156976A JP2005339186A (en) 2004-05-27 2004-05-27 Pattern recognition learning device and identification device, pattern recognition learning processing method, identification processing method, pattern recognition program and recoding medium with its program recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004156976A JP2005339186A (en) 2004-05-27 2004-05-27 Pattern recognition learning device and identification device, pattern recognition learning processing method, identification processing method, pattern recognition program and recoding medium with its program recorded

Publications (1)

Publication Number Publication Date
JP2005339186A true JP2005339186A (en) 2005-12-08

Family

ID=35492693

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004156976A Pending JP2005339186A (en) 2004-05-27 2004-05-27 Pattern recognition learning device and identification device, pattern recognition learning processing method, identification processing method, pattern recognition program and recoding medium with its program recorded

Country Status (1)

Country Link
JP (1) JP2005339186A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009066716A (en) * 2007-09-14 2009-04-02 Advanced Telecommunication Research Institute International Communication robot
JP2014002497A (en) * 2012-06-18 2014-01-09 Shindengen Electric Mfg Co Ltd Sealed symbol inspection device and method for electronic apparatus
US8768944B2 (en) 2010-08-18 2014-07-01 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP2017130089A (en) * 2016-01-21 2017-07-27 日本電気株式会社 Local feature amount extraction device
CN115550071A (en) * 2022-11-29 2022-12-30 支付宝(杭州)信息技术有限公司 Data processing method, device, storage medium and equipment

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009066716A (en) * 2007-09-14 2009-04-02 Advanced Telecommunication Research Institute International Communication robot
US8768944B2 (en) 2010-08-18 2014-07-01 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP2014002497A (en) * 2012-06-18 2014-01-09 Shindengen Electric Mfg Co Ltd Sealed symbol inspection device and method for electronic apparatus
JP2017130089A (en) * 2016-01-21 2017-07-27 日本電気株式会社 Local feature amount extraction device
CN115550071A (en) * 2022-11-29 2022-12-30 支付宝(杭州)信息技术有限公司 Data processing method, device, storage medium and equipment
CN115550071B (en) * 2022-11-29 2023-04-07 支付宝(杭州)信息技术有限公司 Data processing method, device, storage medium and equipment

Similar Documents

Publication Publication Date Title
Christlein et al. Writer identification using GMM supervectors and exemplar-SVMs
Cao et al. Face alignment by explicit shape regression
Yi et al. Scene text recognition in mobile applications by character descriptor and structure configuration
US9697439B2 (en) Efficient object detection with patch-level window processing
US20200193285A1 (en) Neural network learning device, method, and program
US8699789B2 (en) Document classification using multiple views
US11551034B2 (en) Adversarial network for transforming handwritten text
Cevikalp et al. Polyhedral conic classifiers for visual object detection and classification
US20050097068A1 (en) Invariant pattern recognition
CN104951781B (en) Character recognition device and recognition function generation method
CN108898181B (en) Image classification model processing method and device and storage medium
CN108133224B (en) Method for evaluating complexity of classification task
Han et al. High-order statistics of microtexton for hep-2 staining pattern classification
US10373028B2 (en) Pattern recognition device, pattern recognition method, and computer program product
Wang et al. Towards calibrated hyper-sphere representation via distribution overlap coefficient for long-tailed learning
Chen et al. A robust SVM classification framework using PSM for multi-class recognition
Ghadhban et al. Segments interpolation extractor for finding the best fit line in Arabic offline handwriting recognition words
CN112765354B (en) Model training method, model training device, computer apparatus, and storage medium
JP2005339186A (en) Pattern recognition learning device and identification device, pattern recognition learning processing method, identification processing method, pattern recognition program and recoding medium with its program recorded
Kumar et al. Bayesian background models for keyword spotting in handwritten documents
CN108229552B (en) Model processing method and device and storage medium
Ali et al. A new design based-fusion of features to recognize Arabic handwritten characters
Caputo et al. Support vector machines for classification of geometric primitives in point clouds
Tabaghi et al. Linear classifiers in product space forms
US20210056343A1 (en) Image recognition system, method, and program, and parameter-training system, method, and program