JP5207870B2 - Dimension reduction method, pattern recognition dictionary generation device, and pattern recognition device - Google Patents

Dimension reduction method, pattern recognition dictionary generation device, and pattern recognition device Download PDF

Info

Publication number
JP5207870B2
JP5207870B2 JP2008202125A JP2008202125A JP5207870B2 JP 5207870 B2 JP5207870 B2 JP 5207870B2 JP 2008202125 A JP2008202125 A JP 2008202125A JP 2008202125 A JP2008202125 A JP 2008202125A JP 5207870 B2 JP5207870 B2 JP 5207870B2
Authority
JP
Japan
Prior art keywords
dictionary
feature
function
vector
coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008202125A
Other languages
Japanese (ja)
Other versions
JP2010039778A (en
Inventor
利昇 三好
健 永崎
広 新庄
正一 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Information and Telecommunication Engineering Ltd
Original Assignee
Hitachi Computer Peripherals Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Computer Peripherals Co Ltd filed Critical Hitachi Computer Peripherals Co Ltd
Priority to JP2008202125A priority Critical patent/JP5207870B2/en
Publication of JP2010039778A publication Critical patent/JP2010039778A/en
Application granted granted Critical
Publication of JP5207870B2 publication Critical patent/JP5207870B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、特徴空間の次元削減方法、パターン認識用辞書生成装置、パターン認識装置に関する。   The present invention relates to a feature space dimension reduction method, a pattern recognition dictionary generation device, and a pattern recognition device.

パターン認識装置は、パターン認識用辞書の情報を用いて、入力パターンの属するカテゴリを識別することを目的とする。パターン認識用辞書は、予め、パターン認識用辞書生成装置により辞書生成用パターン群を用いて作成される。パターン認識用辞書は、入力パターンと各カテゴリとの類似度を計算するための情報を保持するものであり、具体的には、識別関数のパラメータと、入力パターンを識別関数が定義されるベクトル空間上のベクトル値に変換するための情報を保持している。   An object of the pattern recognition apparatus is to identify a category to which an input pattern belongs using information in a pattern recognition dictionary. The pattern recognition dictionary is created in advance by the pattern recognition dictionary generation device using the dictionary generation pattern group. The pattern recognition dictionary holds information for calculating the similarity between an input pattern and each category. Specifically, a vector space in which an identification function is defined and parameters of the identification function are defined. It holds information for conversion to the above vector value.

パターン認識装置は、パターン認識用辞書を保持し、それを用いて入力パターンの識別処理を行う。パターン認識装置は、前記パターン認識用辞書を用いて入力パターンと各カテゴリとの類似度を計算し、その計算結果に基づいてパターンの属するカテゴリを識別する。このようなパターン認識装置については、非特許文献1を参照。   The pattern recognition apparatus holds a pattern recognition dictionary, and performs input pattern identification processing using the dictionary. The pattern recognition apparatus calculates the similarity between the input pattern and each category using the pattern recognition dictionary, and identifies the category to which the pattern belongs based on the calculation result. See Non-Patent Document 1 for such a pattern recognition device.

以下、パターン認識用辞書生成装置による一般的な辞書生成手順について説明する。
パターン認識用辞書生成装置は、辞書生成用パターン群を用いて、パターン認識用辞書を作成する。まず、パターン認識用辞書生成装置は、特徴抽出により、辞書生成用パターン群をベクトル空間上のベクトル群である辞書生成用特徴パターン群に変換する。特徴抽出により抽出されるベクトルを特徴ベクトル、特徴ベクトルが属するベクトル空間を特徴空間とよぶ。特徴抽出手法としては、例えば、画素特徴、輪郭特徴、勾配特徴等が広く用いられている(非特許文献2)。
Hereinafter, a general dictionary generation procedure by the pattern recognition dictionary generation device will be described.
The pattern recognition dictionary generation device uses the dictionary generation pattern group to create a pattern recognition dictionary. First, the pattern recognition dictionary generation device converts a dictionary generation pattern group into a dictionary generation feature pattern group that is a vector group in a vector space by feature extraction. A vector extracted by feature extraction is called a feature vector, and a vector space to which the feature vector belongs is called a feature space. For example, pixel features, contour features, gradient features, and the like are widely used as feature extraction methods (Non-Patent Document 2).

次に、パターン認識用辞書生成装置は識別処理における、高精度、高速、省メモリを目的として、特徴空間の次元削減(特徴選択)を行う場合が多い。次元削減では、特徴空間でのカテゴリの分布を近似する特徴空間の部分空間を選択する。部分空間の情報は、特徴空間から部分空間への射影行列として保存される。部分空間は、一般には、各カテゴリごとに異なるが、全カテゴリで共通の部分空間を選択する場合もある。したがって、部分空間の次元もカテゴリごとに異なる場合がある。以下、次元削減により生成した部分空間を改めて特徴空間、部分空間上のベクトルを改めて特徴ベクトルとよぶことにする。   Next, the pattern recognition dictionary generation apparatus often performs feature space dimension reduction (feature selection) for the purpose of high accuracy, high speed, and memory saving in identification processing. In dimension reduction, a subspace of the feature space that approximates the distribution of categories in the feature space is selected. The subspace information is stored as a projection matrix from the feature space to the subspace. The subspace is generally different for each category, but a common subspace may be selected for all categories. Therefore, the dimension of the subspace may be different for each category. Hereinafter, the partial space generated by the dimension reduction is referred to as a feature space, and a vector on the partial space is referred to as a feature vector.

次に、パターン認識用辞書生成装置は、辞書生成用特徴パターン群を特徴空間上の学習用特徴パターン群に射影する。   Next, the pattern recognition dictionary generation device projects the dictionary generation feature pattern group onto the learning feature pattern group on the feature space.

次に、パターン認識用辞書生成装置は、学習用特徴パターン群を用いて、特徴空間上でカテゴリを識別するための識別関数を学習により生成する。識別関数はカテゴリごとに存在し、特徴空間上の特徴ベクトルが示す点での値が、識別関数が対応するカテゴリと特徴ベクトルとの類似度となる。各カテゴリの識別関数は、誤識別による損失を表す損失関数が小さくなるように学習用特徴パターン群を用いた学習により作成する。識別関数の学習手法については、様々な方法があるが、例えば、非特許文献1〜4などが詳しい。   Next, the pattern recognition dictionary generation device generates, by learning, an identification function for identifying a category on the feature space using the learning feature pattern group. The discrimination function exists for each category, and the value at the point indicated by the feature vector on the feature space is the similarity between the category corresponding to the discrimination function and the feature vector. The discriminant function for each category is created by learning using a learning feature pattern group so that the loss function representing the loss due to misclassification becomes small. There are various methods for learning the identification function. For example, Non-Patent Documents 1 to 4 are detailed.

次に、パターン認識装置がパターン認識用辞書を用いて入力パターンを識別する手順について説明する。パターン認識装置は、入力パターンの各カテゴリに対する類似度を計算し、その結果に基づいてパターンが属するカテゴリを識別する。   Next, a procedure in which the pattern recognition apparatus identifies an input pattern using a pattern recognition dictionary will be described. The pattern recognition device calculates the similarity of each category of the input pattern, and identifies the category to which the pattern belongs based on the result.

パターン認識装置は、まず、パターン認識用辞書生成装置と同様に、特徴抽出により入力パターンをベクトル値に変換する。その後、パターン認識用辞書に保存されている射影行列を用いて、より低次元の特徴空間上の特徴ベクトルに変換する。次に、パターン認識用辞書に保存されている識別関数のパラメータを用いて、前記特徴ベクトルが表す点における識別関数の値を計算し、入力パターンの各カテゴリに対する類似度を求める。その計算結果に基づいて認識結果を出力する。   The pattern recognition apparatus first converts an input pattern into a vector value by feature extraction, as in the pattern recognition dictionary generation apparatus. Then, using the projection matrix stored in the pattern recognition dictionary, it is converted into a feature vector in a lower dimensional feature space. Next, using the identification function parameters stored in the pattern recognition dictionary, the value of the identification function at the point represented by the feature vector is calculated, and the similarity to each category of the input pattern is obtained. A recognition result is output based on the calculation result.

次に、パターン認識用辞書作成における次元削減(又は特徴選択)について説明する。次元削減によって得られる特徴空間は、各カテゴリに属するパターンの分布を良く近似し、カテゴリ同士を分離して識別に有利な元の特徴空間の部分空間として選択するのが良い。次元削減の手法は、主成分分析、線形判別法等の統計的手法が広く用いられる。主成分分析、線形判別法などの次元削減手法については、例えば、非特許文献2を参照。   Next, dimension reduction (or feature selection) in creating a pattern recognition dictionary will be described. The feature space obtained by the dimension reduction is preferably selected as a partial space of the original feature space that is advantageous for identification by sufficiently approximating the distribution of patterns belonging to each category and separating the categories. Statistical methods such as principal component analysis and linear discriminant are widely used as the dimension reduction method. See, for example, Non-Patent Document 2 for dimension reduction techniques such as principal component analysis and linear discriminant method.

主成分分析法による次元削減では、分散最大基準によって部分空間を選択するので、分析対象のパターン分布を良く近似することができる。具体的には、特徴空間における学習パターンの全部又は一部の共分散行列の固有値問題を解くことで、部分空間が得られる。次元削減後の特徴空間は、前記共分散行列の大きい固有値の上位p個に対応する固有ベクトルを基底とするp次元部分空間として得られる。全カテゴリに共通な部分空間を選択する場合には、学習パターン全部を分析対象する。カテゴリごとに異なる部分空間を選択する場合には、カテゴリごとに当該カテゴリに属する学習パターンのみを選択し、分析対象としても良い。   In dimension reduction by the principal component analysis method, the partial space is selected based on the maximum variance criterion, so that the pattern distribution to be analyzed can be approximated well. Specifically, the partial space is obtained by solving the eigenvalue problem of the covariance matrix of all or part of the learning pattern in the feature space. The feature space after the dimension reduction is obtained as a p-dimensional subspace based on eigenvectors corresponding to the upper p eigenvalues of the covariance matrix. When selecting a partial space common to all categories, all learning patterns are analyzed. When a different partial space is selected for each category, only learning patterns belonging to the category may be selected for each category and may be the analysis target.

線形判別法は、他カテゴリとの識別を考慮した次元削減手法である。これは、カテゴリ内分散・カテゴリ間分散比を最大にする部分空間を選択する手法である。   The linear discriminant method is a dimension reduction method in consideration of discrimination from other categories. This is a method of selecting a subspace that maximizes the intra-category variance / inter-category variance ratio.

パターン認識、石井健一郎・上田修功・前田英作・村瀬洋著、オーム社、1998.Pattern recognition, Kenichiro Ishii, Nobuyoshi Ueda, Eisaku Maeda, Hiroshi Murase, Ohmsha, 1998. Character Recognition Systems: A Guide for Students and Practitioners, Mohammed Cheriet, Nawwaf Kharma, Cheng-lin Liu and Ching Suen, Wiley-Interscience, 2007.Character Recognition Systems: A Guide for Students and Practitioners, Mohammed Cheriet, Nawwaf Kharma, Cheng-lin Liu and Ching Suen, Wiley-Interscience, 2007. Pattern Classification: A Unified View of Statistical and Neural Approaches, J. Schurmann, Wiley-Interscience, 1996.Pattern Classification: A Unified View of Statistical and Neural Approaches, J. Schurmann, Wiley-Interscience, 1996. Class-specific feature polynomial classifier for pattern classification and its application to handwritten numeral recognition, Cheng-Lin Liu and Hiroshi Sako, Pattern Recogn., 2006.Class-specific feature polynomial classifier for pattern classification and its application to handwritten numeral recognition, Cheng-Lin Liu and Hiroshi Sako, Pattern Recogn., 2006.

従来の次元削減手法には、主成分分析、線形判別分析等の統計的手法が広く用いられている。しかしながら、以下のような課題がある。   Statistical methods such as principal component analysis and linear discriminant analysis are widely used as conventional dimension reduction methods. However, there are the following problems.

主成分分析法は、分散最大基準によって部分空間を選択する手法である。したがって、選択された部分空間は、分析対象の分布の情報を良く保存する部分空間である。しかし、主成分分析法は、分析対象の統計的分布のみを用いて部分空間を選択している。そのため、選択された部分空間は必ずしも識別に有利なものであるとは限らない。したがって、他カテゴリとの識別のための次元削減が必要となる場合には、有効な手法であるとは限らない。   The principal component analysis method is a method of selecting a subspace based on a maximum variance criterion. Therefore, the selected subspace is a subspace that well preserves information on the distribution of the analysis target. However, in the principal component analysis method, the subspace is selected using only the statistical distribution to be analyzed. Therefore, the selected partial space is not necessarily advantageous for identification. Therefore, it is not always an effective method when it is necessary to reduce dimensions for identification with other categories.

また、線形判別分析法は、c個のカテゴリの分類問題の場合、最大c−1個の判別軸しか選択することができない。したがって、識別に有効な判別軸を柔軟に選択することができないという問題がある。   The linear discriminant analysis method can select only a maximum of c-1 discriminant axes in the case of c category classification problems. Therefore, there is a problem that it is not possible to flexibly select a discrimination axis effective for identification.

本発明の次元削減方法は、特徴空間上の辞書生成用特徴パターン群を入力する特徴パターン群入力ステップと、c個のカテゴリの各々に対応する特徴空間上の二次関数の係数の値を設定する初期係数設定ステップと、前記二次関数を識別関数とした辞書生成用特徴パターン群の識別による損失関数の値が小さくなるように、二次関数の係数を勾配降下法、又は確率的勾配降下法により修正する係数修正ステップと、c個のカテゴリの各々について、前記二次関数の二次の項の二次形式の対称行列の固有ベクトルと、前記二次関数の一次の項の係数ベクトルとの中から一つ以上のベクトルを選択する基底ベクトル導出ステップと、c個のカテゴリの各々について、基底ベクトル導出ステップにおいて選択されたベクトルを基底とする特徴空間の部分空間である辞書部分空間への射影行列を生成する射影行列導出ステップと、c個のカテゴリの各々に対応するc個の辞書部分空間への前記射影行列、又は、c個のカテゴリの各々に対応する前記射影行列と前記二次関数の係数とを出力する射影行列出力ステップと、を有する。   According to the dimension reduction method of the present invention, a feature pattern group input step for inputting a dictionary generation feature pattern group on the feature space and a coefficient value of a quadratic function on the feature space corresponding to each of the c categories are set. Initial coefficient setting step, and the coefficient of the quadratic function is reduced by a gradient descent method or stochastic gradient descent so that the value of the loss function is reduced by identifying the feature pattern group for dictionary generation using the quadratic function as an identification function. A coefficient correction step for correcting by a method; for each of the c categories, an eigenvector of a symmetric matrix of a quadratic form of a quadratic term of the quadratic function and a coefficient vector of a primary term of the quadratic function A basis vector deriving step for selecting one or more vectors from among them, and for each of the c categories, a feature space based on the vector selected in the basis vector deriving step A projection matrix derivation step for generating a projection matrix to a dictionary subspace which is a subspace, and the projection matrix to c dictionary subspaces corresponding to each of c categories, or each of c categories A projection matrix output step of outputting the corresponding projection matrix and the coefficient of the quadratic function.

本発明の次元削減方法では、c個のカテゴリの各々に対応する特徴空間と辞書生成用特徴パターン群を入力とする特徴パターン群入力ステップを備えても良い。また、c個のカテゴリに共通の1つの特徴空間と1つの辞書生成用特徴パターン群を入力とする特徴パターン群入力ステップを備えても良い。特徴空間はベクトル空間であり、辞書生成用特徴パターン群が、ベクトル空間上の所属カテゴリを示すラベル付きベクトル値の集合であっても良い。c個のカテゴリの各々に対応する特徴空間と辞書生成用特徴パターン群を入力とする場合については、例えば、非特許文献4を参照のこと。   The dimension reduction method of the present invention may include a feature pattern group input step in which a feature space corresponding to each of the c categories and a feature pattern group for dictionary generation are input. In addition, a feature pattern group input step may be provided in which one feature space common to c categories and one dictionary generation feature pattern group are input. The feature space may be a vector space, and the feature pattern group for dictionary generation may be a set of labeled vector values indicating the category to which the vector space belongs. For the case where the feature space corresponding to each of the c categories and the feature pattern group for dictionary generation are input, see Non-Patent Document 4, for example.

本発明の次元削減方法では、係数修正ステップで、辞書生成用特徴パターン群の各々を、二次関数を用いて識別したときの二乗誤差関数を損失関数とし、損失関数の値が小さくなるように、勾配降下法、又は、確率的勾配降下法により修正しても良い。   In the dimension reduction method of the present invention, in the coefficient correction step, the square error function when each of the dictionary generating feature pattern groups is identified using a quadratic function is used as a loss function, and the value of the loss function is reduced. The gradient descent method or the stochastic gradient descent method may be used for correction.

射影行列導出ステップでは、係数ベクトルと対称行列の固有値の絶対値が大きい上位n個に対応する固有ベクトル、又は、係数ベクトルと対称行列の固有値の絶対値が閾値hよりも大きい上位n個に対応する固有ベクトルとによって生成される特徴空間の部分空間への射影行列を生成してもよい。あるいは、対称行列の固有値の絶対値が大きい上位n個に対応する固有ベクトル、又は、対称行列の固有値の絶対値が閾値hよりも大きい上位n個に対応する固有ベクトルによって生成される特徴空間の部分空間への射影行列を生成しても良い。   In the projection matrix deriving step, the eigenvector corresponding to the top n largest values of the eigenvalues of the coefficient vector and the symmetric matrix or the top n number of absolute values of the eigenvalues of the coefficient vector and the symmetric matrix are larger than the threshold value h. A projection matrix onto a partial space of the feature space generated by the eigenvector may be generated. Alternatively, a subspace of the feature space generated by the eigenvector corresponding to the top n large eigenvalues of the symmetric matrix or the eigenvector corresponding to the top n eigenvalues of the symmetric matrix larger than the threshold value h A projection matrix may be generated.

本発明のパターン認識用辞書生成装置は、辞書生成用パターン群を入力する入力部と、辞書生成用パターン群からc個のカテゴリの各々に対応する特徴空間上の辞書生成用特徴パターン群を抽出する特徴抽出部と、特徴空間上の辞書生成用特徴パターン群を入力する特徴パターン群入力処理、c個のカテゴリの各々に対応する特徴空間上の二次関数の係数の値を設定する初期係数設定処理、前記二次関数を識別関数とした辞書生成用特徴パターン群の識別による損失関数の値が小さくなるように、前記二次関数の係数を勾配降下法、又は確率的勾配降下法により修正する係数修正処理、c個のカテゴリの各々について、前記二次関数の二次の項の二次形式の対称行列の固有ベクトルと、前記二次関数の一次の項の係数ベクトルとの中から一つ以上のベクトルを選択する基底ベクトル導出処理、c個のカテゴリの各々について、基底ベクトル導出処理において選択されたベクトルを基底とする特徴空間の部分空間である辞書部分空間への射影行列を生成する射影行列導出処理、c個のカテゴリの各々に対応するc個の辞書部分空間への前記射影行列、又は、c個のカテゴリの各々に対応する前記射影行列と前記二次関数の係数とを出力する射影行列出力処理、を含む特徴空間の次元削減処理により辞書部分空間への前記射影行列を生成する辞書部分空間生成部と、前記射影行列により辞書生成用特徴パターン群を辞書部分空間に射影した学習用特徴パターン群を生成する学習用特徴パターン群生成部と、学習用特徴パターン群を用いてc個のカテゴリを識別する識別関数を生成する識別関数生成部と、前記射影行列と識別関数のパラメータとを出力する出力部と、を有する。   The pattern recognition dictionary generation device of the present invention extracts an input unit for inputting a dictionary generation pattern group, and extracts a dictionary generation feature pattern group on a feature space corresponding to each of c categories from the dictionary generation pattern group A feature extraction unit, a feature pattern group input process for inputting a feature pattern group for dictionary generation on the feature space, and an initial coefficient for setting a value of a coefficient of a quadratic function on the feature space corresponding to each of the c categories The coefficient of the quadratic function is corrected by the gradient descent method or the stochastic gradient descent method so that the value of the loss function is reduced by the setting process and the feature pattern group for dictionary generation using the quadratic function as the discriminant function. Coefficient correction processing to be performed, for each of the c categories, one of a eigenvector of a symmetric matrix of a quadratic form of a quadratic term of the quadratic function and a coefficient vector of a primary term of the quadratic function Basis vector derivation process for selecting the upper vector, and projection for generating a projection matrix for each of the c categories to a dictionary subspace that is a subspace of the feature space based on the vector selected in the basis vector derivation process The matrix derivation process, the projection matrix to c dictionary subspaces corresponding to each of c categories, or the projection matrix and the coefficients of the quadratic function corresponding to each of c categories are output. A dictionary subspace generation unit that generates the projection matrix to the dictionary subspace by dimension reduction processing of the feature space including projection matrix output processing, and learning by projecting a dictionary generation feature pattern group to the dictionary subspace by the projection matrix A learning feature pattern group generation unit that generates a feature pattern group, and an identification function that generates an identification function that identifies c categories using the learning feature pattern group. It has a function generator, and an output unit for outputting the parameters of the discriminant function the projection matrix.

識別関数生成部は、c個のカテゴリの各々について、前記二次関数を辞書部分空間に制限した制限二次関数を生成し、制限二次関数を識別関数として学習用特徴パターン群の各々の所属カテゴリを判定したときの二乗誤差関数を損失関数として、二乗誤差の値が小さくなるように、勾配降下法、又は、確率的勾配降下法により制限二次関数の係数を修正したものを識別関数として生成しても良い。また、c個のカテゴリの各々について、二次関数を辞書部分空間に制限したものを識別関数として生成してもよい。   The discriminant function generating unit generates, for each of the c categories, a restricted quadratic function in which the quadratic function is restricted to a dictionary subspace, and each of the learning feature pattern groups is assigned to the restricted quadratic function as the discriminant function. Using the square error function at the time of category determination as a loss function, and using the gradient descent method or the probabilistic gradient descent method to correct the coefficient of the restricted quadratic function as the discriminant function so that the square error value becomes small It may be generated. Further, for each of the c categories, a quadratic function limited to the dictionary subspace may be generated as an identification function.

本発明のパターン認識装置は、特徴空間上の辞書生成用特徴パターン群を入力する特徴パターン群入力処理、c個のカテゴリの各々に対応する特徴空間上の二次関数の係数の値を設定する初期係数設定処理、前記二次関数を識別関数とした辞書生成用特徴パターン群の識別による損失関数の値が小さくなるように、前記二次関数の係数を勾配降下法、又は確率的勾配降下法により修正する係数修正処理、c個のカテゴリの各々について、前記二次関数の二次の項の二次形式の対称行列の固有ベクトルと、前記二次関数の一次の項の係数ベクトルとの中から一つ以上のベクトルを選択する基底ベクトル導出処理、c個のカテゴリの各々について、基底ベクトル導出処理において選択されたベクトルを基底とする特徴空間の部分空間である辞書部分空間への射影行列を生成する射影行列導出処理、c個のカテゴリの各々に対応するc個の辞書部分空間への射影行列、又は、c個のカテゴリの各々に対応する射影行列と前記二次関数の係数とを出力する射影行列出力処理、を含む特徴空間の次元削減処理により生成された辞書部分空間上の識別関数のパラメータと前記射影行列とを格納する認識用辞書格納部と、認識対象の入力パターンを入力する入力部と、入力パターンから特徴空間上のベクトル値を抽出する特徴抽出部と、c個のカテゴリの各々について、前記射影行列により入力パターンを辞書部分空間に射影した射影ベクトルを生成する射影ベクトル生成部と、c個のカテゴリの各々について、識別関数の射影ベクトルが表す点での値を算出し、それに基づいて入力パターンが属するカテゴリを識別する識別部と、識別部での識別結果を出力する出力部と、を有する。   The pattern recognition apparatus of the present invention sets a value of a coefficient of a quadratic function on a feature space corresponding to each of c categories, a feature pattern group input process for inputting a dictionary generating feature pattern group on the feature space. Initial coefficient setting process, the coefficient of the quadratic function is gradient descent or stochastic gradient descent so that the value of the loss function by identifying the characteristic pattern group for dictionary generation using the quadratic function as an identification function becomes small For each of the c categories, the coefficient correction process to be corrected by the eigenvector of the symmetric matrix of the quadratic form of the quadratic term of the quadratic function and the coefficient vector of the primary term of the quadratic function Basis vector derivation process for selecting one or more vectors, and for each of the c categories, a dictionary part that is a subspace of the feature space based on the vector selected in the basis vector derivation process Projection matrix derivation processing for generating a projection matrix to space, projection matrix to c dictionary subspaces corresponding to each of c categories, or projection matrix corresponding to each of c categories and the above-mentioned quadratic A recognition dictionary storage unit for storing parameters of the discriminant function on the dictionary subspace generated by the dimension reduction process of the feature space including the projection matrix output process for outputting the coefficient of the function and the projection matrix, and a recognition target An input unit for inputting the input pattern, a feature extraction unit for extracting a vector value on the feature space from the input pattern, and a projection vector obtained by projecting the input pattern onto the dictionary subspace using the projection matrix for each of the c categories For each of the c categories, a value at a point represented by the projection vector of the discriminant function is calculated, and the input pattern belongs to With that identification section that identifies a category, and an output unit that outputs the identification result of the identifying portion.

本発明による特徴空間の次元削減手法は、パターン認識装置において、高精度、高速性、省メモリを目的とした識別に有利な特徴空間の部分空間を選択することができる。これによって、パターン認識装置において、容量の小さいパターン認識用辞書を作成することができる。また、パターン認識用辞書を用いた識別処理において、高認識率、高速性、省メモリを実現できる。   The feature space dimension reduction method according to the present invention can select a partial space of a feature space that is advantageous for identification for the purpose of high accuracy, high speed, and memory saving in a pattern recognition apparatus. As a result, a pattern recognition dictionary with a small capacity can be created in the pattern recognition apparatus. In the identification processing using the pattern recognition dictionary, a high recognition rate, high speed, and memory saving can be realized.

以下、本発明の実施に形態について説明する。
[実施例1]
図1は、本発明の次元削減方法を用いてパターン認識用辞書を生成するパターン認識用辞書生成装置の一例を示す構成図である。パターン認識用辞書生成装置は、入力装置11、演算装置12、パターン認識用の認識辞書13、表示装置15、パターンデータベース(DB)16を備える。演算装置12は、本発明による次元削減方法を用いてパターン認識用辞書を生成するパターン認識用辞書作成手段を備える。
Embodiments of the present invention will be described below.
[Example 1]
FIG. 1 is a block diagram showing an example of a pattern recognition dictionary generating apparatus that generates a pattern recognition dictionary using the dimension reduction method of the present invention. The pattern recognition dictionary generation device includes an input device 11, an arithmetic device 12, a pattern recognition recognition dictionary 13, a display device 15, and a pattern database (DB) 16. The arithmetic unit 12 includes a pattern recognition dictionary creating means for generating a pattern recognition dictionary using the dimension reduction method according to the present invention.

入力装置11は、コマンド等を入力するためのキーボードやマウス、及び画像入力のためのスキャナ等の装置である。演算装置12はCPU、メモリ、記憶装置等を備え、入力された画像、音声等の辞書生成用パターン群を読み取り、パターン認識用辞書を生成し、認識辞書13に格納する。演算装置12は具体的には、特徴抽出部17、辞書部分空間生成部18、学習用特徴パターン群生成部19、及び識別関数生成部20を備え、これら各部の機能はプログラムによって実行される。認識辞書13は、演算装置12が作成したパターン認識用辞書を保存する辞書データベースである。表示装置15は、演算装置12による処理内容を適宜表示するディスプレイ等の装置である。表示装置15はなくてもよい。パターンDB16は、入力装置11によって入力されたパターンを格納する。パターンDB16には、パターン認識用辞書を作成するために演算装置12が用いる辞書生成用パターン群等が格納されている。   The input device 11 is a device such as a keyboard and mouse for inputting commands and a scanner for inputting images. The arithmetic unit 12 includes a CPU, a memory, a storage device, and the like, reads a dictionary generation pattern group such as an input image and sound, generates a pattern recognition dictionary, and stores the pattern recognition dictionary in the recognition dictionary 13. Specifically, the arithmetic unit 12 includes a feature extraction unit 17, a dictionary subspace generation unit 18, a learning feature pattern group generation unit 19, and a discrimination function generation unit 20, and the functions of these units are executed by a program. The recognition dictionary 13 is a dictionary database that stores a pattern recognition dictionary created by the arithmetic device 12. The display device 15 is a device such as a display that appropriately displays the processing content of the arithmetic device 12. The display device 15 may not be provided. The pattern DB 16 stores the pattern input by the input device 11. The pattern DB 16 stores a dictionary generation pattern group used by the arithmetic unit 12 to create a pattern recognition dictionary.

図2は、演算装置12によって実行されるパターン認識用辞書作成手段の概略を示すフロー図である。なお。本発明の特徴は、辞書部分空間生成ステップ23にある。辞書部分空間生成ステップ23では、本発明の次元削減方法により特徴空間の次元を削減する。辞書部分空間生成ステップ23における詳細な処理フローは図4に示す。   FIG. 2 is a flowchart showing an outline of the pattern recognition dictionary creating means executed by the arithmetic unit 12. Note that. The feature of the present invention is the dictionary subspace generation step 23. In the dictionary subspace generation step 23, the dimension of the feature space is reduced by the dimension reduction method of the present invention. A detailed processing flow in the dictionary subspace generation step 23 is shown in FIG.

入力ステップ21では、ユーザ又は、演算装置12により実行されるプログラムによって、辞書生成用パターン群が入力される。辞書生成用パターン群は、画像や音声などのパターンとその所属カテゴリを示すラベルの組の集合であり、予め辞書生成用に準備しておく。以下、カテゴリの数をc(cは自然数)とおく。ここで、カテゴリとは、例えば、数字認識の場合、0〜9の数字となる。このとき、c=10である。   In the input step 21, a dictionary generation pattern group is input by a user or a program executed by the arithmetic device 12. The dictionary generation pattern group is a set of a set of a pattern indicating a pattern such as an image or sound and a category to which the pattern belongs, and is prepared in advance for generating a dictionary. Hereinafter, the number of categories is c (c is a natural number). Here, the category is, for example, a number from 0 to 9 in the case of number recognition. At this time, c = 10.

特徴抽出ステップ22では、入力パターンをベクトル値に変換する。特徴抽出ステップ22は特徴抽出部17によって実行される。パターン認識用辞書生成装置は、特徴抽出ステップ22の処理により、辞書生成用パターン群の各々をベクトル空間上のベクトル値に変換する。これによって、辞書生成用パターン群をベクトル空間上のベクトル値とその所属ラベルのセットの集合に変換する。このベクトル空間を特徴空間、ベクトル値を特徴ベクトルとよび、辞書生成用パターン群から生成された特徴ベクトルとその所属ラベルのセットの集合を辞書生成用特徴パターン群とよぶ。変換後の辞書生成用特徴パターン群は、記憶装置などに保存してもよい。特徴空間は、全カテゴリに共通の1つの特徴空間として得られる場合と、カテゴリごとに特徴空間が存在し合計c個の特徴空間が得られる場合がある。特徴空間がカテゴリごとに存在する場合には、入力パターンも各々の特徴空間上での特徴ベクトルに変換される。したがって、c個のカテゴリの場合には、1つのパターンに対して、c個の特徴空間上の特徴ベクトルとしての表現が得られる。また、特徴空間がカテゴリごとに存在する場合には、特徴空間の次元数もカテゴリごとに異なる場合がある。   In the feature extraction step 22, the input pattern is converted into a vector value. The feature extraction step 22 is executed by the feature extraction unit 17. The pattern recognition dictionary generation device converts each of the dictionary generation pattern groups into a vector value on the vector space by the process of the feature extraction step 22. As a result, the dictionary generation pattern group is converted into a set of vector values on the vector space and their associated labels. This vector space is called a feature space, a vector value is called a feature vector, and a set of feature vectors generated from a dictionary generation pattern group and its associated labels is called a dictionary generation feature pattern group. The converted dictionary generation feature pattern group may be stored in a storage device or the like. The feature space may be obtained as one feature space common to all categories, or there may be a feature space for each category and a total of c feature spaces may be obtained. When a feature space exists for each category, the input pattern is also converted into a feature vector on each feature space. Therefore, in the case of c categories, an expression as a feature vector on c feature spaces can be obtained for one pattern. In addition, when a feature space exists for each category, the number of dimensions of the feature space may be different for each category.

以下では、パターンをベクトル値に変換する方法の典型的な例について説明する。但し、パターンをベクトル値に変換する方法は、この典型例に限らず、様々な方法が用いられる。ここで挙げるのは一例である。ここでの例における処理は、パターンの正規化、特徴抽出、原特徴空間の次元削減を経て、特徴空間上の特徴ベクトルを得る流れである。   Below, the typical example of the method of converting a pattern into a vector value is demonstrated. However, the method of converting a pattern into a vector value is not limited to this typical example, and various methods are used. Here is an example. The process in this example is a flow of obtaining a feature vector on the feature space through pattern normalization, feature extraction, and dimension reduction of the original feature space.

まず、画像、音声等のパターンは、個々のパターンのばらつきを抑え、パターンの条件を揃えるために正規化を行う。その後、特徴抽出手法によりベクトル空間上のベクトルに変換される。但し、正規化は省略してもよい。前記ベクトル空間を原特徴空間、前記ベクトルを原特徴ベクトルと呼ぶ。例えば、文字認識の場合には、正規化法として、線形正規化、非線形正規化、モーメント正規化等、特徴抽出手法として画素特徴抽出、輪郭特徴抽出、勾配特徴抽出等が用いられる。詳しくは、非特許文献2を参照のこと。次に、予め準備しておいた辞書生成用パターン群の一つ一つのパターンから特徴を抽出し、原特徴ベクトルを生成する。辞書生成用パターン群から生成された原特徴ベクトルとその所属カテゴリを示すラベルのセットの集合を辞書生成用原特徴パターン群とよぶことにする。   First, patterns such as images and sounds are normalized in order to suppress variations in individual patterns and to align the pattern conditions. Then, it is converted into a vector on a vector space by a feature extraction method. However, normalization may be omitted. The vector space is called an original feature space, and the vector is called an original feature vector. For example, in the case of character recognition, linear normalization, nonlinear normalization, moment normalization, etc. are used as normalization methods, and pixel feature extraction, contour feature extraction, gradient feature extraction, etc. are used as feature extraction methods. For details, see Non-Patent Document 2. Next, features are extracted from each pattern of the dictionary generation pattern group prepared in advance to generate original feature vectors. A set of original feature vectors generated from a dictionary generation pattern group and a label set indicating its category is referred to as a dictionary generation original feature pattern group.

次に、主成分分析法、線形判別法などの従来型の次元削減方法を用いて、原特徴空間の次元削減を行う。但し、この次元削減は省略してもよい。省略した場合には、原特徴空間を特徴空間、原特徴ベクトルを特徴ベクトルとし、次の処理である辞書部分空間生成ステップ23に移る。ここで、主成分分析法を用いた従来型の次元削減方法の例を二つ挙げる。   Next, the dimension reduction of the original feature space is performed using a conventional dimension reduction method such as a principal component analysis method or a linear discrimination method. However, this dimension reduction may be omitted. If omitted, the original feature space is set as the feature space and the original feature vector is set as the feature vector, and the process proceeds to the dictionary partial space generation step 23 as the next processing. Here, two examples of conventional dimension reduction methods using principal component analysis are given.

一つ目は、カテゴリごとに特徴空間を得る次元削減の例である。辞書生成用原特徴パターン群のカテゴリkに所属するパターンのみを対象に主成分分析を行うことにより、カテゴリkの分布を近似する部分空間が得られる。この部分空間をカテゴリkに対応する特徴空間とし、原特徴空間上の辞書生成用原特徴パターン群の全てを特徴空間に射影したものをカテゴリkに対応する辞書生成用特徴パターン群とする。この場合、特徴空間と辞書生成用特徴パターン群は、c個のカテゴリの各々に対応して存在する。これについては、例えば、非特許文献4参照のこと。   The first is an example of dimension reduction for obtaining a feature space for each category. By performing principal component analysis only on patterns belonging to category k of the original feature pattern group for dictionary generation, a subspace approximating the distribution of category k can be obtained. This partial space is defined as a feature space corresponding to category k, and a dictionary generation feature pattern group corresponding to category k is obtained by projecting all of the original feature pattern groups for dictionary generation on the original feature space onto the feature space. In this case, a feature space and a dictionary generation feature pattern group exist corresponding to each of the c categories. For this, see Non-Patent Document 4, for example.

二つ目は、次元削減の結果、全カテゴリに共通の1つの特徴空間が得られる例である。この特徴空間は、辞書生成用原特徴パターン群全体を対象とした主成分分析を行うことにより、パターン全体の分布を近似する部分空間として得られる。その部分空間を特徴空間とし、原特徴空間上の辞書生成用原特徴パターン群を特徴空間に射影したものを辞書生成用特徴パターン群とする。この場合、特徴空間は、全カテゴリに共通の1つである。   The second is an example in which one feature space common to all categories is obtained as a result of dimension reduction. This feature space is obtained as a partial space that approximates the distribution of the entire pattern by performing principal component analysis on the entire original feature pattern group for dictionary generation. The partial space is defined as a feature space, and a dictionary generation feature pattern group obtained by projecting a dictionary generation original feature pattern group on the original feature space onto the feature space is defined as a dictionary generation feature pattern group. In this case, the feature space is one common to all categories.

次に、画像中の0〜9の数字を認識する文字認識問題を例に、特徴抽出ステップ22の処理の一例を具体的に説明する。辞書生成用パターン群は、数字が描かれた画像と、画像中に描かれている数字を表す正解ラベルのセットのN個(Nは自然数)からなる集合とする。まず、辞書生成用パターン群に含まれる各画像は、特徴抽出手法により、d次元ベクトル空間(原特徴空間)上のベクトル値に変換される。ここでは、特徴抽出手法の一例として、画素特徴について説明する。文字画像が、例えば、縦横16×16ピクセルのグレイスケール画像で、1ピクセルが0から255の整数値の256階調で表されているとする。このとき、画像は、16×16=256個の整数値で表されるので、画像は各ピクセルの値を成分とする256次元ベクトルで表すことができる。この256次元ベクトル空間が原特徴空間、256次元ベクトルが原特徴ベクトルとなる。これによって、辞書生成用パターン群は、式(1)に示すように、256次元ベクトルxiと正解ラベルωiのセット(xi、ωi)からなる集合に変換される。例えば、ベクトルxjが数字3が描かれた画像パターンから変換されたベクトルである場合には、ωj=3となる。この集合を辞書生成用原特徴パターン群と呼ぶ。 Next, an example of the process of the feature extraction step 22 will be specifically described by taking a character recognition problem of recognizing numbers 0 to 9 in an image as an example. The dictionary generation pattern group is a set composed of N images (N is a natural number) of a set of images in which numbers are drawn and correct labels representing numbers drawn in the images. First, each image included in the dictionary generation pattern group is converted into a vector value on a d-dimensional vector space (original feature space) by a feature extraction method. Here, pixel features will be described as an example of a feature extraction method. It is assumed that the character image is, for example, a gray scale image of 16 × 16 pixels vertically and horizontally, and one pixel is represented by 256 gradations of integer values from 0 to 255. At this time, since the image is represented by 16 × 16 = 256 integer values, the image can be represented by a 256-dimensional vector having the values of each pixel as components. This 256-dimensional vector space is the original feature space, and the 256-dimensional vector is the original feature vector. As a result, the dictionary generation pattern group is converted into a set composed of a set (x i , ω i ) of the 256-dimensional vector x i and the correct label ω i as shown in the equation (1). For example, when the vector x j is a vector converted from an image pattern in which the numeral 3 is drawn, ω j = 3. This set is called an original feature pattern group for dictionary generation.

Figure 0005207870
Figure 0005207870

次に、主成分分析法や線形判別法など、従来型の次元削減方法によって、原特徴空間の次元を削減する。但し、この従来型の次元削減方法による次元削減は行わず、原特徴空間を特徴空間、原特徴ベクトルを特徴ベクトルとして、次の処理である辞書部分空間生成ステップ23に移ってもよい。ここでは、カテゴリごとの当該カテゴリに所属する辞書生成用原特徴パターン群を対象とした主成分分析によりカテゴリごとに特徴空間を得る次元削減方法と、辞書生成用原特徴パターン群全体を対象とした主成分分析により全カテゴリ共通の一つの特徴空間を得る次元削減法の二つの例を述べる。   Next, the dimension of the original feature space is reduced by a conventional dimension reduction method such as a principal component analysis method or a linear discrimination method. However, the dimension reduction by the conventional dimension reduction method is not performed, and the original feature space may be the feature space and the original feature vector may be the feature vector, and the process may proceed to the dictionary subspace generation step 23 as the next processing. Here, a dimension reduction method for obtaining a feature space for each category by principal component analysis for the original feature pattern group for dictionary generation belonging to the category for each category, and for the entire original feature pattern group for dictionary generation Two examples of dimension reduction methods that obtain one feature space common to all categories by principal component analysis are described.

まず、一つ目の例であるカテゴリごとに、当該カテゴリに所属する辞書生成用原特徴パターン群を対象とした主成分分析による次元削減方法について述べる。カテゴリごとの主成分分析では、当該カテゴリに所属する辞書生成用原特徴パターン群のみを対象として、主成分分析を行う。これは、当該カテゴリに所属するパターンの分布の分散が大きい部分空間を選択することを意味し、当該カテゴリの分布の様子を良く近似するような部分空間が得られる。具体的には、式(2)に示すカテゴリkに対応するパターンの共分散行列Σkの固有値問題を解くことにより得られる。ここで、式(2)の中のμkは、式(3)により定義される当該カテゴリのパターン分布の平均ベクトルである。固有値問題を解くアルゴリズムについては、Numerical Recipes in C: The Art of Scientific Computing, William H. Press, Brian P. Flannery, Saul A. Teukolsky and William T.Vetterling, Cambridge University Press; 2nd ed., 1992(参考文献1)などを参照のこと。共分散行列Σkの上位m個の固有値に対応する固有ベクトルを式(4)のようにΦki(i=1,2、…m)とおく。このとき、カテゴリkに対応する特徴空間としてΦki(i=1,2、…m)によって張られる部分空間を選択する。この部分空間への射影行列は式(5)により定義されるm×d行列Qkとなる。ここで、式(5)において、Qkの右上のtはQkの転置行列であることを示す。以下の式でも同様。原特徴空間上の原特徴ベクトルxは、Qkを用いて式(6)のように、カテゴリkに対応する特徴空間上の特徴ベクトルykに射影される。 First, a dimension reduction method by principal component analysis for the original feature pattern group for dictionary generation belonging to the category will be described for each category as a first example. In the principal component analysis for each category, the principal component analysis is performed only for the original feature pattern group for dictionary generation belonging to the category. This means that a partial space having a large distribution of the distribution of patterns belonging to the category is selected, and a partial space that closely approximates the distribution of the category is obtained. Specifically, it is obtained by solving the eigenvalue problem of the covariance matrix Σ k of the pattern corresponding to the category k shown in Equation (2). Here, μ k in the equation (2) is an average vector of the pattern distribution of the category defined by the equation (3). The algorithm for solving eigenvalue problems, Numerical Recipes in C:. The Art of Scientific Computing, William H. Press, Brian P. Flannery, Saul A. Teukolsky and William T.Vetterling, Cambridge University Press; 2 nd ed, 1992 ( See Reference 1). So [Phi ki as the eigenvector corresponding to the upper m eigenvalues of the covariance matrix sigma k Equation (4) (i = 1,2, ... m) and put. At this time, a partial space spanned by Φ ki (i = 1, 2,..., M) is selected as a feature space corresponding to category k. The projection matrix onto this subspace is an m × d matrix Q k defined by equation (5). Here, in equation (5), the upper right t of Q k indicates that a transposed matrix of the Q k. The same applies to the following equations. The original feature vector x on the original feature space is projected onto the feature vector y k on the feature space corresponding to the category k using Q k as shown in Equation (6).

Figure 0005207870
Figure 0005207870

以上により、カテゴリkに対応する特徴空間は、m×dの射影行列Qkにより定義されるm次元特徴空間となる。d次元原特徴空間上のベクトルxは、式(6)により、各々のカテゴリkに対して、対応するm次元特徴空間上のベクトルにより計c通りに表現される。ここで、式(6)のCkは、分布のスケールを正規化するための定数である。 As described above, the feature space corresponding to the category k is an m-dimensional feature space defined by the m × d projection matrix Q k . The vector x on the d-dimensional original feature space is expressed in total c ways by the vector on the m-dimensional feature space corresponding to each category k by Equation (6). Here, C k in equation (6) is a constant for normalizing the distribution scale.

次に、二つ目の例である辞書生成用原特徴パターン群全体を対象とした主成分分析による次元削減法について述べる。この場合には、辞書生成用原特徴パターン群の全てを対象として主成分分析を行う。これは、辞書生成用原特徴パターン群の全ての分布の分散が大きい成分を表現する部分空間を選択することを意味し、パターン全体の分布の様子を良く近似するような部分空間が得られる。具体的には、式(7)に示す共分散行列Σの固有値問題を解くことにより得られる。ここで、式(7)の中の平均μは、式(8)により定義される。共分散行列Σの上位m個の固有値に対応する固有ベクトルを式(9)のようにΦi(i=1,2、…m)とする。このとき、特徴空間としてΦi(i=1,2、…m)によって張られる部分空間を選択する。この部分空間への射影行列は式(10)により定義されるm×d行列Qとなる。原特徴空間上の原特徴ベクトルxは、Qを用いて式(11)のように、特徴空間上のベクトルyとして表される。以上により、次元削減後の特徴空間は、m×dの射影行列Qにより定義される特徴空間となる。ここで、式(11)のCは、分布のスケールを正規化するための定数である。 Next, a dimension reduction method by principal component analysis for the entire original feature pattern group for dictionary generation as a second example will be described. In this case, the principal component analysis is performed on all the original feature pattern groups for dictionary generation. This means that a partial space expressing a component having a large variance of all distributions of the original feature pattern group for dictionary generation is selected, and a partial space that closely approximates the state of distribution of the entire pattern is obtained. Specifically, it is obtained by solving the eigenvalue problem of the covariance matrix Σ shown in Equation (7). Here, the average μ in the equation (7) is defined by the equation (8). Let the eigenvector corresponding to the upper m eigenvalues of the covariance matrix Σ be Φ i (i = 1, 2,... M) as in equation (9). At this time, a partial space spanned by Φ i (i = 1, 2,... M) is selected as the feature space. The projection matrix onto this partial space is an m × d matrix Q defined by Equation (10). The original feature vector x on the original feature space is expressed as a vector y on the feature space using Q as shown in Equation (11). As described above, the feature space after the dimension reduction becomes a feature space defined by the m × d projection matrix Q. Here, C in Equation (11) is a constant for normalizing the distribution scale.

Figure 0005207870
Figure 0005207870

二つ目の例による辞書生成用特徴パターン群全体を対象とした主成分分析による次元削減法で得られる次元削減後のm次元特徴空間は、m×dの射影行列Qにより定義される。一方、一つ目の例による辞書生成用特徴パターン群を対象とした主成分分析による次元削減方法で得られる次元削減後の特徴空間は、数字カテゴリ0〜9に対応する10個のカテゴリごとに存在し、各カテゴリに対応する特徴空間は、射影行列Q0、Q1、…、Q9によって定義される。 The dimension-reduced m-dimensional feature space obtained by the dimension reduction method based on principal component analysis for the entire dictionary-generated feature pattern group according to the second example is defined by an m × d projection matrix Q. On the other hand, the feature space after dimension reduction obtained by the dimension reduction method by principal component analysis for the feature pattern group for dictionary generation according to the first example is divided into 10 categories corresponding to the number categories 0 to 9. A feature space that exists and corresponds to each category is defined by a projection matrix Q 0 , Q 1 ,..., Q 9 .

二つ目の例による次元削減法は、一つ目の例において、Q=Q0=Q1=…=Q9となる特別な場合と看做すことができる。 The dimension reduction method according to the second example can be regarded as a special case where Q = Q 0 = Q 1 =... = Q 9 in the first example.

上述のように、カテゴリに共通の1つの特徴空間をもつ場合は、c個のカテゴリの各々に対して特徴空間が存在する場合の特別な場合と看做すことができる。そのため、以降では、c個のカテゴリの各々に対して特徴空間が存在する場合をもとに、説明を続け、カテゴリに共通の1つの特徴空間の場合は、その特別な場合として扱う。原特徴空間を特徴空間、原特徴ベクトルを特徴ベクトルとする場合には、射影行列Qは、Q=I(単位行列)となる。   As described above, having one feature space common to categories can be regarded as a special case in which a feature space exists for each of the c categories. Therefore, hereinafter, the description will be continued based on the case where a feature space exists for each of the c categories, and the case of one feature space common to the categories will be treated as a special case. When the original feature space is a feature space and the original feature vector is a feature vector, the projection matrix Q is Q = I (unit matrix).

以上により、特徴抽出ステップ22の処理の典型例の説明を終わる。
特徴抽出ステップ22において、パターンを特徴ベクトルに変換するために必要な情報は、パターン認識用の認識辞書13に保存する。パターン認識装置では、この情報を用いて、同じ方法により入力パターンを特徴ベクトルに変換する。パターン認識用の認識辞書13に保存する情報は、例えば、用いた正規化法、特徴抽出手法や、原特徴空間から特徴空間に射影するための射影行列などである。
This is the end of the description of the typical example of the process of the feature extraction step 22.
In the feature extraction step 22, information necessary for converting the pattern into a feature vector is stored in the recognition dictionary 13 for pattern recognition. The pattern recognition apparatus uses this information to convert the input pattern into a feature vector by the same method. The information stored in the recognition dictionary 13 for pattern recognition includes, for example, the normalization method and feature extraction method used, and a projection matrix for projecting from the original feature space to the feature space.

次に、辞書部分空間生成ステップ23において、本発明による次元削減手法を用いて、各カテゴリの特徴空間の次元を削減する。辞書部分空間生成ステップ23は、辞書部分空間生成部18において実行される。   Next, in the dictionary subspace generation step 23, the dimension of the feature space of each category is reduced using the dimension reduction method according to the present invention. The dictionary subspace generation step 23 is executed in the dictionary subspace generation unit 18.

辞書部分空間生成ステップ23は、辞書生成用特徴パターン群を入力として、本発明による次元削減方法により、c個のカテゴリの各々について、特徴空間の次元削減を行い、各々のカテゴリに対応する特徴空間の部分空間を得る。この部分空間を辞書部分空間と呼ぶ。辞書部分空間生成ステップ23では、特徴空間から辞書部分空間への射影行列を出力として得る。出力した射影行列は、パターン認識用の認識辞書13に保存する。   The dictionary subspace generation step 23 receives the feature pattern group for dictionary generation as input, performs dimension reduction of the feature space for each of the c categories by the dimension reduction method according to the present invention, and the feature space corresponding to each category. Get the subspace. This subspace is called a dictionary subspace. In the dictionary subspace generation step 23, a projection matrix from the feature space to the dictionary subspace is obtained as an output. The output projection matrix is stored in the recognition dictionary 13 for pattern recognition.

本発明の第一の特徴は、この辞書部分空間生成ステップ23にあり、特徴空間の次元削減方法が従来とは異なる。辞書部分空間生成ステップ23では、特徴空間の部分空間の中から識別に有利な部分空間を辞書部分空間として選択することができる。   The first feature of the present invention lies in the dictionary subspace generation step 23, and the feature space dimension reduction method is different from the conventional one. In the dictionary subspace generation step 23, a subspace advantageous for identification can be selected from among the subspaces of the feature space as the dictionary subspace.

図4は、演算装置12によって実行される辞書部分空間生成ステップ23の処理の概略を示すフロー図である。   FIG. 4 is a flowchart showing an outline of the processing of the dictionary subspace generation step 23 executed by the arithmetic device 12.

本発明の特徴は、従来の主成分分析法や線形判別法などとは異なる手法により、特徴空間の次元を削減する次元削減部分にある。図4に示した処理フローの説明を行う前に、まず、本発明の特徴を、二次元空間上の2カテゴリ判別問題を例に簡単に説明する。また、その後、ニューラルネットワークの概念図を用いて、本発明のアイデアを説明する。   The feature of the present invention resides in a dimension reduction portion that reduces the dimension of the feature space by a method different from the conventional principal component analysis method, linear discrimination method, and the like. Before describing the processing flow shown in FIG. 4, first, the features of the present invention will be briefly described by taking the two-category discrimination problem in a two-dimensional space as an example. Thereafter, the idea of the present invention will be described using a conceptual diagram of a neural network.

説明を簡単にするため、例として、2次元空間上に分布する図5に示すカテゴリ51と図6に示すカテゴリ61の2カテゴリの識別問題において、1次元の特徴空間を選択する問題を考える。   In order to simplify the description, as an example, consider the problem of selecting a one-dimensional feature space in the two-category identification problem of category 51 shown in FIG. 5 and category 61 shown in FIG. 6 distributed in a two-dimensional space.

まず、従来手法である主成分分析法による次元削減例を示す。カテゴリ61を対象に主成分分析を行うと、共分散行列の固有ベクトルが示す方向として、図6に示すx軸とy軸が得られる。カテゴリ61の分散はx軸方向の方が大きいので、主成分分析による次元削減では、図6のx軸が判別軸として選択される。このとき、2カテゴリを分離する判別面はx軸に垂直な直線となる。例えば、図7の直線71を判別面として選択することができる。しかし、この場合判別面71の左右両方にカテゴリ61のパターンが多く分布することになり、2カテゴリの識別には有効でないことがわかる。   First, an example of dimension reduction by the principal component analysis method which is a conventional method will be shown. When principal component analysis is performed on category 61, the x-axis and y-axis shown in FIG. 6 are obtained as directions indicated by the eigenvectors of the covariance matrix. Since the variance of category 61 is larger in the x-axis direction, the x-axis in FIG. 6 is selected as the discrimination axis in dimension reduction by principal component analysis. At this time, the discriminant plane separating the two categories is a straight line perpendicular to the x-axis. For example, the straight line 71 in FIG. 7 can be selected as the discrimination surface. However, in this case, many patterns of the category 61 are distributed on both the left and right sides of the discriminating surface 71, and it can be seen that it is not effective for identifying two categories.

次に、本発明による次元削減例を示す。本発明による手法では、まず2カテゴリを分離する二次曲面を作成する。両カテゴリを分離する二次曲面は、例えば、図8に示すような二次曲線81のようになる。前記二次曲面は、二次関数の等高面によって表される。この二次関数は、両カテゴリを識別する二次関数として、ニューラルネットワークによる学習により作成される。次に、学習により作成した二次関数の二次の項の二次形式の行列の固有ベクトルと、一次の項の係数ベクトルを導出する。次に、得られた二次関数の二次の項の二次形式の行列の固有ベクトルと一次の項の係数ベクトルとの中から、一定の基準により、1つ以上のベクトルを選択する。この例では、前記固有ベクトルの中から1つを選択することを考えることにする。二次曲線81の場合、前記固有ベクトルが表す方向は、図9の直線91と直線92が表す方向である。二次関数の性質により、直線91と直線92は、二次関数の等高面81の対称軸となっている。   Next, an example of dimension reduction according to the present invention will be described. In the method according to the present invention, a quadric surface that separates two categories is first created. A quadric surface that separates both categories is, for example, a quadratic curve 81 as shown in FIG. The quadric surface is represented by a contour surface of a quadratic function. This quadratic function is created by learning with a neural network as a quadratic function for identifying both categories. Next, the eigenvector of the quadratic matrix of the quadratic term of the quadratic function created by learning and the coefficient vector of the primary term are derived. Next, one or more vectors are selected from the eigenvectors of the quadratic form matrix of the quadratic term of the obtained quadratic function and the coefficient vectors of the primary term according to a certain criterion. In this example, consider selecting one of the eigenvectors. In the case of the quadratic curve 81, the direction represented by the eigenvector is the direction represented by the straight line 91 and the straight line 92 in FIG. Due to the nature of the quadratic function, the straight line 91 and the straight line 92 are symmetrical axes of the contour surface 81 of the quadratic function.

例として、直線91を選択したとする。この場合、直線91が判別軸となり、これに垂直な直線が識別面となる。例えば直線91に垂直な図10の直線101を識別面とできる。このとき、識別面101は、カテゴリ51、カテゴリ61を分離する識別面とすることができる。このとき、識別面101の上部にカテゴリ51のパターンが、下部にカテゴリ61のパターンが多く分布することとなり、主成分分析の場合よりも有利な識別を行うことができる。   As an example, assume that a straight line 91 is selected. In this case, the straight line 91 serves as a discrimination axis, and a straight line perpendicular to the straight line 91 serves as an identification surface. For example, the straight line 101 in FIG. At this time, the identification surface 101 can be an identification surface that separates the category 51 and the category 61. At this time, the category 51 pattern is distributed in the upper part of the identification surface 101 and the category 61 pattern is distributed in the lower part, so that it is possible to perform an advantageous identification as compared with the case of principal component analysis.

次に、本発明による次元削減法の基本的なアイデアを、ニューラルネットワークを用いて説明する。まず、各々のカテゴリに対応する特徴空間上で、当該カテゴリに所属するパターンと当該カテゴリに所属しないパターンとを識別する式(12)のような二次関数fk(x)を構成する。ここで、yk=Qkx(式(13))である。二次関数はニューラルネットワークにより図11のように表現できる。 Next, the basic idea of the dimension reduction method according to the present invention will be described using a neural network. First, on the feature space corresponding to each category, a quadratic function f k (x) such as Expression (12) that identifies a pattern belonging to the category and a pattern not belonging to the category is configured. Here, y k = Q k x (formula (13)). The quadratic function can be expressed by a neural network as shown in FIG.

Figure 0005207870
Figure 0005207870

まず、二次関数の重みwkij、wki、wkc(i、j=1、…、m)を学習する。このとき、原特徴ベクトルxに対して、f1(x)、…、fc(x)の値を全て計算し、この中で値が最も大きいものがfk(x)であるとき、原特徴ベクトルxが表すパターンはカテゴリkに所属すると判定する。この判定において、辞書生成用パターン群を識別し、誤識別したときの損失を表す損失関数の値が小さくなるように重みwkij、wki、wkc(i、j=1、…、m)を学習する。具体的な学習の例は、後述の係数修正ステップ43の処理の説明で行う。 First, the weights w kij , w ki , w kc (i, j = 1,..., M) of the quadratic function are learned. At this time, all values of f 1 (x),..., F c (x) are calculated for the original feature vector x, and when the largest value is f k (x), It is determined that the pattern represented by the feature vector x belongs to the category k. In this determination, the weights w kij , w ki , w kc (i, j = 1,..., M ) are set so that the value of the loss function indicating the loss when the dictionary generation pattern group is identified and misidentified becomes small. To learn. A specific example of learning will be described in the description of the processing of coefficient correction step 43 described later.

次に、特徴ベクトルを式(14)に示すようにある行列Rkを用いて変換することで、ニューラルネットワークの出力を変えることなく図12のように、ニューラルネットワークを再構成することができる。行列Rkの導出方法は後述する。 Next, by converting the feature vector using a certain matrix R k as shown in Expression (14), the neural network can be reconfigured as shown in FIG. 12 without changing the output of the neural network. A method for deriving the matrix R k will be described later.

Figure 0005207870
Figure 0005207870

図12の重みλiとziは、カテゴリを示すkに依存するため、実際には、λki、zkiと表されるべきものであるが、煩雑さを避けるために、添え字kは省略した。後の図13でも同様に省略した。 Since the weights λ i and z i in FIG. 12 depend on k indicating the category, they should actually be expressed as λ ki and z ki , but in order to avoid complexity, the subscript k is Omitted. This is also omitted in FIG. 13 later.

次に、ニューラルネットワークの出力に影響が少ない結合を取り除く。その一例を挙げる。いま、結合の重みλk1、…、λkmが絶対値の大きい順に並んでいるとする。ここで、図13の白丸部分の下位のλkn+1からλkmまでの結合は弱い結合であると考えられる。このとき、この結合を削除しても、ニューラルネットワークの出力に対する影響は少ないと仮定する。そこで、この部分の結合を除くと、ニューラルネットワークは、zk1、…、zkn、zk0、1に対応する入力ユニットに繋がる部分だけで、もとのニューラルネットワークの構造を近似できると考えられる。このことは、n+1個の特徴zk1、…、zkn、zk0だけで、識別に十分な情報を保持していることを意味する。次元削減では、m次元から、このn+1個の特徴に対応する特徴次元に次元を削減する。 Next, connections that do not affect the output of the neural network are removed. An example is given below. Now, it is assumed that the coupling weights λ k1 ,..., Λ km are arranged in descending order of absolute values. Here, the coupling from λ kn + 1 to λ km in the lower part of the white circle in FIG. 13 is considered to be weak coupling. At this time, even if this connection is deleted, it is assumed that the influence on the output of the neural network is small. Therefore, if the coupling of this part is removed, the neural network can be approximated to the structure of the original neural network only by the part connected to the input unit corresponding to z k1 ,..., Z kn , z k0 , 1. . This means that only n + 1 features z k1 ,..., Z kn , z k0 hold sufficient information for identification. In the dimension reduction, the dimension is reduced from the m dimension to the feature dimension corresponding to the n + 1 features.

以下、図4に基づいて、処理のフローを説明する。特徴パターン群入力ステップ41では、ユーザ又は、演算装置12により実行されるプログラムによって、c個のカテゴリの各々に対応する特徴空間上の所属カテゴリラベル付き特徴ベクトル群、すなわち、辞書生成用特徴パターン群が入力される。但し、前記特徴空間が全カテゴリで共通の場合には、前記辞書生成用特徴パターン群も全カテゴリで共通の1つの特徴空間上の特徴ベクトル群である。   Hereinafter, the processing flow will be described with reference to FIG. In the feature pattern group input step 41, a user or a program executed by the arithmetic unit 12 makes a feature vector group with a belonging category label on the feature space corresponding to each of c categories, that is, a feature pattern group for dictionary generation. Is entered. However, when the feature space is common to all categories, the dictionary generating feature pattern group is also a feature vector group on one feature space common to all categories.

初期係数設定ステップ42は、c個のカテゴリの各々について、当該カテゴリに対応する特徴空間上の二次関数を生成する。例えば、カテゴリkの特徴空間上の特徴ベクトルykを式(15)のように表すと、特徴空間上の二次関数は式(16)のように表される。ここで、kはカテゴリを示す添え字で、mは、カテゴリkに対応する特徴空間の次元数である。式(17)に示されるものが、二次関数(式(16))の係数である。式(17)に示される係数を設定することにより式(16)の二次関数を定義することができる。この二次関数は、ニューラルネットワークにより、図11のように表現することができる。 The initial coefficient setting step 42 generates, for each of the c categories, a quadratic function on the feature space corresponding to the category. For example, when the feature vector y k on the feature space of category k is expressed as in equation (15), the quadratic function on the feature space is expressed as in equation (16). Here, k is a subscript indicating a category, and m is the number of dimensions of the feature space corresponding to the category k. What is shown in Expression (17) is a coefficient of the quadratic function (Expression (16)). The quadratic function of Expression (16) can be defined by setting the coefficient shown in Expression (17). This quadratic function can be expressed by a neural network as shown in FIG.

Figure 0005207870
Figure 0005207870

式(16)で表される二次関数の係数(式(17))は、乱数により生成した値を設定してもよい。例えば、予め、特徴空間上の辞書生成用特徴パターン群の平均が特徴空間の原点に、辞書生成用特徴パターン群の分散が1となるように特徴空間の原点を設定し、スケール変換をしておいたとする。このとき、例えば、式(17)に示される係数を、−0.05から0.05の範囲で一様分布により生成した乱数により設定する。または、0を中心とする分散0.1のガウス分布により乱数を生成し、その値を式(17)に示される係数に設定してもよい。乱数は、各々の係数ごとに生成し、係数の初期値に設定する。   A value generated by a random number may be set as the coefficient of the quadratic function represented by Expression (16) (Expression (17)). For example, the origin of the feature space is set in advance so that the average of the feature pattern group for dictionary generation on the feature space is the origin of the feature space, and the variance of the feature pattern group for dictionary generation is 1. Suppose. At this time, for example, the coefficient shown in Expression (17) is set by a random number generated by uniform distribution in the range of −0.05 to 0.05. Alternatively, a random number may be generated by a Gaussian distribution with a variance of 0.1 centered at 0, and the value may be set to a coefficient represented by Expression (17). A random number is generated for each coefficient and set to the initial value of the coefficient.

係数修正ステップ43は、前記二次関数を用いた識別による損失関数の値が小さくなるように、勾配降下法により二次関数の係数を修正する。以下、式(15)から式(29)までを用いて、係数の修正過程を説明する。   In the coefficient correction step 43, the coefficient of the quadratic function is corrected by the gradient descent method so that the value of the loss function by the identification using the quadratic function becomes small. Hereinafter, the coefficient correction process will be described using Equations (15) to (29).

まず、二次関数を用いたカテゴリの識別の例について説明する。画像、音声等の入力パターンから抽出した原特徴空間上の原特徴ベクトルをカテゴリiに対応する特徴空間に射影した特徴ベクトルをyi(式(15))として表現する。次に、パターンを各カテゴリの特徴空間上で表現した特徴ベクトルにおける二次関数f1(y1)、…、fc(yc)(式(16))の値を計算する。特徴ベクトルyi(式(15))における二次関数fi(yi)(式(16))の値を、入力パターンのカテゴリiに対する類似度であるとみなして識別を行う。計算したc個の値f1(y1)、…、fc(yc)のうち最大のものがfk(yk)であったとき、入力パターンの所属カテゴリがkであると識別する。 First, an example of category identification using a quadratic function will be described. A feature vector obtained by projecting an original feature vector in the original feature space extracted from an input pattern such as an image or sound onto a feature space corresponding to category i is expressed as y i (Expression (15)). Next, the values of quadratic functions f 1 (y 1 ),..., F c (y c ) (formula (16)) in the feature vector expressing the pattern on the feature space of each category are calculated. Identification is performed by regarding the value of the quadratic function f i (y i ) (equation (16)) in the feature vector y i (equation (15)) as the similarity to the category i of the input pattern. When the maximum value among the calculated c values f 1 (y 1 ),..., F c (y c ) is f k (y k ), it is identified that the category to which the input pattern belongs is k. .

損失関数は、部分損失関数の和である。部分損失関数は、辞書生成用パターン群に含まれる1つのパターンを識別したときの誤識別による損失を表す関数であり、辞書生成用パターン群の各々のパターンに対して定義される。部分損失関数は、重みwkij、wki、wkc(i、j=1、…、m)に依存する関数である。損失関数の例について説明する。N個のパターンを含む辞書生成用パターン群を原特徴空間上で表現した原特徴ベクトルと正解ラベルのセットの集合は式(1)により与えられる。また、目標変数lk s(式(18))をs番目のパターンがカテゴリkに所属するとき1、それ以外の場合に0となるようにおく。このとき、s番目のパターンの誤識別による部分損失関数は、例えば、式(19)により定義される。式(19)のukは、式(21)のシグモイド関数を用いて式(20)により定義される。これは、s番目のパターンxsがカテゴリkに所属するとき、カテゴリkに対応する関数uk(式(20))のs番目のパターンにおける値uk(xs)が1に近い場合に正しく識別できたとみなし、0に近い場合に誤って識別したとみなすことに相当する。また、正則化項を加えた式(22)を部分損失関数としてもよい。ここで、bは荷重減衰とよばれる。損失関数Ekは、式(23)のように部分損失関数の和によって与えられる。式(23)は二乗誤差関数とよばれる。 The loss function is the sum of the partial loss functions. The partial loss function is a function representing a loss due to misidentification when one pattern included in the dictionary generation pattern group is identified, and is defined for each pattern of the dictionary generation pattern group. The partial loss function is a function that depends on the weights w kij , w ki , w kc (i, j = 1,..., M ). An example of the loss function will be described. A set of a set of original feature vectors and correct labels expressing a pattern group for generating a dictionary including N patterns on the original feature space is given by Equation (1). The target variable l k s (equation (18)) is set to 1 when the s-th pattern belongs to the category k, and is set to 0 otherwise. At this time, the partial loss function due to misidentification of the sth pattern is defined by, for example, Expression (19). U k in equation (19) is defined by equation (20) using the sigmoid function in equation (21). This is when the value u k (x s ) in the s-th pattern of the function u k (equation (20)) corresponding to the category k is close to 1 when the s-th pattern x s belongs to the category k. This is equivalent to assuming that it has been correctly identified and that it is erroneously identified when it is close to zero. Further, the equation (22) to which the regularization term is added may be used as the partial loss function. Here, b is called load attenuation. The loss function E k is given by the sum of partial loss functions as shown in equation (23). Equation (23) is called a square error function.

Figure 0005207870
Figure 0005207870

次に、二次関数の係数の修正式について述べる。係数の修正は、損失関数(式(23))が小さくなるように、勾配降下法、又は、確率的勾配降下法により行われる。   Next, a correction formula for the coefficient of the quadratic function will be described. The coefficient is corrected by the gradient descent method or the stochastic gradient descent method so that the loss function (equation (23)) becomes small.

まず、勾配降下法の例について説明する。勾配降下法は、辞書生成用特徴パターン群から計算した損失関数(式(23))が小さくなるように、勾配法により繰り返し係数を修正する。係数をまとめたベクトルを式(24)のようにおくと、t+1回目の修正による係数の値θk(t+1)は、式(25)で与えられる。ここで、aは、学習率レートである。aは、例えば、t=0のとき分散のスケールと同程度の値をとり、最後の修正に相当するtにおいて、0となるように一定数ずつ小さくなるようにとる。式(25)の右辺は、辞書生成用特徴パターン群全てを用いて計算するため、勾配降下法は、辞書生成用特徴パターン群を全て用いたバッチ学習である。 First, an example of the gradient descent method will be described. In the gradient descent method, the repetition coefficient is corrected by the gradient method so that the loss function (equation (23)) calculated from the feature pattern group for dictionary generation becomes small. When a vector in which the coefficients are collected is set as in Expression (24), the coefficient value θ k (t + 1) by the t + 1th correction is given by Expression (25). Here, a is a learning rate rate. For example, a takes a value approximately equal to the scale of variance when t = 0, and is set to be smaller by a certain number so as to become 0 at t corresponding to the last correction. Since the right side of Equation (25) is calculated using all the dictionary generation feature pattern groups, the gradient descent method is batch learning using all dictionary generation feature pattern groups.

Figure 0005207870
Figure 0005207870

次に、確率的勾配降下法の例について説明する。前記の勾配降下法では、式(25)の右辺は損失関数(式(23))の導関数が現れるので、辞書生成用特徴パターン群全てを用いて式(25)の右辺を計算しなければならない。確率的勾配降下法では、損失関数ではなく部分損失関数を用いて、式(26)により係数修正を行う。そのため、辞書生成用特徴パターン群の1つ1つのパターンについて逐次修正が行われる。修正は、辞書生成用特徴パターン群がランダム、又は、順番に与えられるたびに、式(26)により行われる。修正の回数は、辞書生成用特徴パターン群全体を、例えば、40回程度巡回するようにとる。式(26)における部分損失関数の導関数を、各係数について具体的に書き下すと式(27)、(28)、(29)のようになる。   Next, an example of the stochastic gradient descent method will be described. In the gradient descent method, since the derivative of the loss function (Equation (23)) appears on the right side of Equation (25), the right side of Equation (25) must be calculated using all the feature patterns for dictionary generation. Don't be. In the stochastic gradient descent method, the coefficient is corrected by equation (26) using a partial loss function instead of a loss function. Therefore, the correction is sequentially performed for each pattern in the dictionary generation feature pattern group. The correction is performed by the equation (26) each time the dictionary generation feature pattern group is given randomly or sequentially. The number of corrections is such that the entire dictionary generating feature pattern group is circulated about 40 times, for example. When the derivative of the partial loss function in equation (26) is specifically written for each coefficient, equations (27), (28), and (29) are obtained.

Figure 0005207870
Figure 0005207870

以下では、煩雑さを避けるため、カテゴリを示すためにつけた添え字kは省略する場合がある。   In the following, in order to avoid complication, the subscript k attached to indicate the category may be omitted.

基底ベクトル導出ステップ44では、c個のカテゴリの各々に対して、初期係数設定ステップ42、係数修正ステップ43で作成した二次関数の二次の項の二次形式の行列の固有ベクトルと、一次の項の係数ベクトルを導出する。二次関数を式(16)のように表したとき、二次の項、一次の項は、それぞれ式(30)、(31)のようになる。また、二次関数(式(16))の二次の項(式(30))の二次形式の行列は式(32)に示す対称行列により与えられ、一次の項(式(31))の係数ベクトルは式(33)によって与えられる。式(32)、(33)を用いると、二次関数(式(16))は、式(34)のように表すことができる。   In the basis vector deriving step 44, for each of the c categories, the eigenvector of the matrix in the quadratic form of the quadratic term of the quadratic function created in the initial coefficient setting step 42 and the coefficient correcting step 43, Derive the coefficient vector of the term. When the quadratic function is expressed as in Expression (16), the quadratic term and the primary term are expressed as Expressions (30) and (31), respectively. The quadratic form of the quadratic function (equation (16)) and the quadratic form of the quadratic function (equation (30)) is given by the symmetric matrix shown in equation (32). Is given by equation (33). Using equations (32) and (33), the quadratic function (equation (16)) can be expressed as equation (34).

Figure 0005207870
Figure 0005207870

次に、式(16)の二次関数を上述の式(32)に示す行列の固有ベクトルを基底とした表現で与えておく。式(32)の固有ベクトルを式(35)のようにpk1、pk2、…pkmで表し、行列Pkを式(36)のように与える。式(32)を式(35)のベクトルを基底として表現すると式(37)のような対角行列になる。行列Pkは直交行列であるため、式(16)は、式(37)、(38)を用いて、式(39)のように表される。式(37)、(38)、(39)を用いると、式(16)は式(40)のようになる。また、式(41)のようにおき、式(42)を用いると、式(16)は式(43)のように表すこともできる。対称行列(式(32))の固有ベクトルの導出アルゴリズムについては、例えば、参考文献1が詳しい。図9の例の場合、二次関数(16)の二次の項の二次形式の行列の固有ベクトルは、直線91と直線92である。 Next, the quadratic function of Expression (16) is given in an expression based on the eigenvector of the matrix shown in Expression (32). The eigenvector of the equation (32) is represented by p k1 , p k2 ,..., Km as in the equation (35), and the matrix P k is given as in the equation (36). When Expression (32) is expressed using the vector of Expression (35) as a basis, a diagonal matrix like Expression (37) is obtained. Since the matrix P k is an orthogonal matrix, Expression (16) is expressed as Expression (39) using Expressions (37) and (38). Using equations (37), (38), and (39), equation (16) becomes equation (40). Further, when the equation (41) is used and the equation (42) is used, the equation (16) can also be expressed as the equation (43). For example, Reference Document 1 provides a detailed algorithm for deriving the eigenvectors of the symmetric matrix (Formula (32)). In the case of the example of FIG. 9, the eigenvectors of the quadratic matrix of the quadratic term of the quadratic function (16) are a straight line 91 and a straight line 92.

Figure 0005207870
Figure 0005207870

射影行列導出ステップ45は、カテゴリごとに、基底ベクトル導出ステップ44で求めた二次関数の二次の項の二次形式の行列の固有ベクトル(式(35))と一次の項の係数ベクトル(式(33))との中から1つ以上のベクトルを選択し、選択したベクトルによって生成される部分空間を辞書部分空間として生成する。辞書部分空間は、カテゴリごとに存在する。射影行列導出ステップ45では、カテゴリの各々に対して、特徴空間から辞書部分空間への射影行列を求める。   The projection matrix deriving step 45 includes, for each category, an eigenvector (formula (35)) of the quadratic form of the quadratic term of the quadratic function obtained in the basis vector deriving step 44 and a coefficient vector (formula of the primary term). (33)), one or more vectors are selected, and a subspace generated by the selected vectors is generated as a dictionary subspace. A dictionary subspace exists for each category. In a projection matrix deriving step 45, a projection matrix from the feature space to the dictionary subspace is obtained for each category.

以下では、まず、選択の基準例を示す。その後、選択したベクトル群によって生成される辞書部分空間への射影行列を求める方法を説明する。   In the following, first, a selection reference example is shown. After that, a method for obtaining a projection matrix to the dictionary subspace generated by the selected vector group will be described.

射影行列導出45におけるベクトル選択の基準例を示す。
まず、二次関数の二次の項の二次形式の行列の固有ベクトル(式(35))の中からの選択基準例を示す。
A reference example of vector selection in the projection matrix derivation 45 is shown.
First, an example of a selection criterion from eigenvectors of a quadratic matrix (formula (35)) of a quadratic term of a quadratic function is shown.

例1:式(43)の二次の項における第i番目の係数(式(44))の絶対値が、式(45)に示すようにあらかじめ定めておいた閾値h以上となるときに、それに対応するベクトルpkiを全て選択する。閾値hは、削減したい次元数に応じて、例えば、分散のスケールを1としたとき、0.01から0.5程度の値として定めてもよい。 Example 1: When the absolute value of the i-th coefficient (equation (44)) in the quadratic term of equation (43) is greater than or equal to a predetermined threshold h as shown in equation (45), All corresponding vectors p ki are selected. The threshold value h may be determined as a value of about 0.01 to 0.5, for example, when the variance scale is 1, depending on the number of dimensions to be reduced.

Figure 0005207870
Figure 0005207870

例2:式(43)の二次の項における第i番目の係数(式(44))の絶対値が大きいものから順にn個選択し、例1と同様に、それに対応する固有ベクトルpkiを選択する。自然数nの値は予め定めておいてもよい。 Example 2: Select n items in descending order of the absolute value of the i-th coefficient (equation (44)) in the quadratic term of equation (43), and, as in example 1, select the eigenvector p ki corresponding thereto. select. The value of the natural number n may be determined in advance.

例3:式(43)の二次の項における第i番目の係数(式(44))が正のものと負のものとで分け、正と負の重みを交互に絶対値の大きいものからn個選択する。   Example 3: The i-th coefficient (equation (44)) in the quadratic term of equation (43) is divided into positive and negative ones, and positive and negative weights are alternated from the one with the largest absolute value. Select n.

これらの意味することを例1の場合について説明する。例1の場合、式(46)のように係数λiiが小さい項を認識への寄与が少ないとして無視し、主要部分だけで近似することに相当する。但し、この近似は、係数ベクトルを選択しない場合の近似である。後述の基準により係数ベクトルを選択した場合には、式(47)のように近似される。 These meanings will be described in the case of Example 1. In the case of Example 1, this corresponds to approximating only the main part by ignoring a term having a small coefficient λ ii as the expression (46) as having little contribution to recognition. However, this approximation is an approximation when no coefficient vector is selected. When a coefficient vector is selected according to the criteria described later, it is approximated as shown in Equation (47).

Figure 0005207870
Figure 0005207870

次に、二次関数の一次の項の係数ベクトルw1(式(33))を選択する基準例を示す。但し、式(33)が零ベクトルとなる場合には、係数ベクトルの選択は行わない。 Next, a reference example for selecting the coefficient vector w 1 (formula (33)) of the first-order term of the quadratic function is shown. However, if equation (33) is a zero vector, no coefficient vector is selected.

例1:まず、二次関数の二次の項の二次形式の行列の固有ベクトルを上記のいずれかの基準により選択する。その後、選択した固有ベクトルによって生成される部分空間に直交する係数ベクトルの成分を求める。前述の直交成分が一定の閾値h以上となるときに、係数ベクトルを選択する。閾値hの値は予め定めておいてもよい。また、閾値hは、上述の二次関数の二次の項の二次形式の行列の固有ベクトルの中からのベクトル選択基準例1におけるhとは、一般に異なる。
例2:全てのカテゴリに対して、係数ベクトルを選択する。
例3:全てのカテゴリに対して、係数ベクトルを選択しない。
Example 1: First, an eigenvector of a quadratic matrix of a quadratic term of a quadratic function is selected according to any of the above criteria. Thereafter, a coefficient vector component orthogonal to the subspace generated by the selected eigenvector is obtained. A coefficient vector is selected when the aforementioned orthogonal component is equal to or greater than a certain threshold value h. The value of the threshold value h may be determined in advance. The threshold value h is generally different from h in the vector selection criterion example 1 among the eigenvectors of the quadratic matrix of the quadratic term of the quadratic function described above.
Example 2: Select coefficient vectors for all categories.
Example 3: No coefficient vector is selected for all categories.

以上が、係数ベクトル選択の基準例である。二次関数の二次の項の二次形式の行列の固有ベクトルは、式(32)の固有ベクトルであるので、m個存在する。また、二次関数の一次の項の係数ベクトルは、式(33)によって与えられ、1つである。これらm+1個のベクトルは、一般に異なる。射影行列導出ステップ45では、上記に示したような選択の基準や、その他の基準によって、二次関数の二次の項の二次形式の行列の固有ベクトルと一次の項の係数ベクトルとの中から1つ以上のベクトルを選択する。選択した1つ以上のベクトルによって生成される部分空間が、辞書部分空間となる。   The above is a reference example of coefficient vector selection. The eigenvectors of the quadratic matrix of the quadratic term of the quadratic function are the eigenvectors of the equation (32), so there are m. The coefficient vector of the first-order term of the quadratic function is given by the equation (33) and is one. These m + 1 vectors are generally different. In the projection matrix deriving step 45, the eigenvector of the quadratic form of the quadratic term of the quadratic function and the coefficient vector of the primary term are selected according to the selection criteria as described above and other criteria. Select one or more vectors. A subspace generated by the selected one or more vectors is a dictionary subspace.

次に、射影行列導出ステップ45において、選択したベクトル群によって生成される部分空間への射影行列を求める方法を説明する。以下では、選択された固有ベクトルを式(48)のようにqk1、qk2、…、qknとおく。これらは、対称行列の固有ベクトルなので、正規直交系を成している。但し、係数ベクトル(式(33))は、これらに正規直交しているとは限らないので、固有ベクトル(式(48))に直交する係数ベクトル(式(33))の成分を正規化したベクトルを求める。式(49)が0でない場合、係数ベクトルの前記固有ベクトルによって生成される空間に直交する成分を正規化したものは、式(50)によって与えられる。 Next, a method for obtaining a projection matrix to a subspace generated by the selected vector group in the projection matrix deriving step 45 will be described. In the following, the selected eigenvectors are set as q k1 , q k2 ,..., Q kn as in equation (48). Since these are eigenvectors of a symmetric matrix, they form an orthonormal system. However, since the coefficient vector (Equation (33)) is not necessarily orthogonal to these, the vector obtained by normalizing the components of the coefficient vector (Equation (33)) orthogonal to the eigenvector (Equation (48)) Ask for. When equation (49) is not 0, the normalized component of the coefficient vector orthogonal to the space generated by the eigenvector is given by equation (50).

まず、係数ベクトルが選択されなかった場合、求める部分空間は式(48)のベクトルqk1、qk2、…、qknによって生成される空間であるので、射影行列は式(51)によって与えられる。式(49)が0の場合も同様に式(51)の行列Rkが射影行列となる。 First, when the coefficient vector is not selected, the subspace to be obtained is a space generated by the vectors q k1 , q k2 ,..., Q kn of the equation (48), and therefore the projection matrix is given by the equation (51). . Similarly, when the equation (49) is 0, the matrix R k of the equation (51) is a projection matrix.

Figure 0005207870
Figure 0005207870

次に、係数ベクトルが選択され、式(49)が0でない場合、求める部分空間は式(48)のベクトルqk1、qk2、…、qknと式(50)のベクトルrkによって生成される。したがって、射影行列は式(52)の行列Rkによって与えられる。 Next, when a coefficient vector is selected and Equation (49) is not 0, the subspace to be obtained is generated by the vectors q k1 , q k2 ,..., Q kn of Equation (48) and the vector r k of Equation (50). The Therefore, the projection matrix is given by the matrix R k in equation (52).

Figure 0005207870
Figure 0005207870

射影行列出力ステップ46は、c個のカテゴリの各々について、特徴空間のベクトルを辞書部分空間に射影するための情報をパターン認識用辞書13に保存、又は出力する。例えば、射影行列(式(51)又は式(52))を保存する。さらに、射影行列出力ステップ46は、c個のカテゴリの各々について、初期係数設定ステップ42、係数修正ステップ43において生成した二次関数を辞書部分空間に射影した二次関数の係数をパターン認識用認識辞書13に保存、又は出力してもよい。   The projection matrix output step 46 stores or outputs information for projecting the feature space vector to the dictionary subspace in the pattern recognition dictionary 13 for each of the c categories. For example, a projection matrix (Formula (51) or Formula (52)) is stored. Further, the projection matrix output step 46 recognizes the coefficients of the quadratic function obtained by projecting the quadratic function generated in the initial coefficient setting step 42 and the coefficient correction step 43 into the dictionary subspace for each of the c categories. It may be stored in the dictionary 13 or output.

原特徴ベクトルから特徴ベクトルへの変換が、式(13)のように射影行列Qkによって表現される場合には、行列の積Rkkを計算しておき、これを認識辞書13に保存しておく。これによって、識別時には、原特徴ベクトルxを抽出後、Rkkxを計算することにより、辞書部分空間上の射影ベクトルを得ることができる。 When the transformation from the original feature vector to the feature vector is expressed by the projection matrix Q k as shown in Equation (13), the matrix product R k Q k is calculated and stored in the recognition dictionary 13. Keep it. Thereby, at the time of identification, a projection vector on the dictionary subspace can be obtained by calculating R k Q k x after extracting the original feature vector x.

図2に戻って、学習用特徴パターン群生成ステップ24は、辞書生成用特徴パターン群の各々をカテゴリごとに、前記射影行列により辞書部分空間上に射影する。これによって生成される辞書生成用特徴パターン群の各々のカテゴリの辞書部分空間への射影を学習用特徴パターン群とよぶ。ステップ24は学習用特徴パターン群生成部19で実行される。   Returning to FIG. 2, the learning feature pattern group generation step 24 projects each of the dictionary generation feature pattern groups into the dictionary subspace by the projection matrix for each category. The projection of each category of the dictionary generation feature pattern group generated in this way onto the dictionary subspace is called a learning feature pattern group. Step 24 is executed by the learning feature pattern group generation unit 19.

識別関数生成ステップ25は、カテゴリごとに生成された辞書部分空間上で学習用特徴パターン群を用いて識別関数を学習する。識別関数はカテゴリごとに作成される。識別関数は、パターンを当該カテゴリの辞書部分空間上で表現したベクトルでの値が、対応するカテゴリに対するパターンの類似度となるように学習により生成される。識別関数の学習方法は、例えば、最近傍法、学習ベクトル量子化法、投影距離法、サポートベクトルマシン、ニューラルネットワーク等の方法を用いることができる。詳しくは、非特許文献2などを参照のこと。ステップ25は識別関数生成部20にて実行される。   The discriminant function generation step 25 learns the discriminant function using the learning feature pattern group on the dictionary subspace generated for each category. An identification function is created for each category. The discriminant function is generated by learning so that the value of the vector representing the pattern on the dictionary subspace of the category is the pattern similarity to the corresponding category. As a learning method of the discriminant function, for example, a nearest neighbor method, a learning vector quantization method, a projection distance method, a support vector machine, a neural network, or the like can be used. For details, see Non-Patent Document 2. Step 25 is executed by the discriminant function generator 20.

出力ステップ26は、識別関数生成ステップ25により作成された識別関数のパラメータをパターン認識用認識辞書13に保存する。   The output step 26 stores the parameters of the discrimination function created in the discrimination function generation step 25 in the pattern recognition recognition dictionary 13.

以下、本発明のパターン認識用辞書生成装置の特徴について説明する。本発明では、図2における辞書部分空間生成ステップ23での次元削減手法が従来のものとは異なる。従来型のパターン認識用辞書生成装置では、主成分分析法や線形判別法などの手法により次元削減を行う。しかし、本発明によるパターン認識用辞書生成装置では、図4に示す一連の処理によって特徴空間の次元を削減する。これらの一連の処理に先立って、特徴抽出ステップ22において、従来型の次元削減手法を用いた次元削減を実行してもよい。従来型の次元削減は省略してもよいが、従来型の次元削減を実行し、予めある程度次元を削減することによって後の処理を高速化することができる。   The features of the pattern recognition dictionary generating apparatus of the present invention will be described below. In the present invention, the dimension reduction technique in the dictionary subspace generation step 23 in FIG. 2 is different from the conventional one. In a conventional pattern recognition dictionary generation device, dimension reduction is performed by a method such as a principal component analysis method or a linear discriminant method. However, in the pattern recognition dictionary generation apparatus according to the present invention, the dimension of the feature space is reduced by a series of processes shown in FIG. Prior to these series of processes, the feature extraction step 22 may perform dimension reduction using a conventional dimension reduction technique. Although conventional dimension reduction may be omitted, it is possible to speed up the subsequent processing by executing the conventional dimension reduction and reducing the dimensions to some extent in advance.

以下に示すのは、手書きカナ認識実験において、従来型の次元削減方法である主成分分析法による次元削減方法と、本発明の次元削減方法で、認識率と1文字あたりの識別に要する時間を測定し、比較したものである。実験には、75,000個の学習サンプルと、学習サンプルとは異なる22,631個のテストサンプルを用いた。テストサンプルの一部を図15に示す。識別器には、クラス特有特徴を用いた多項式識別器で投影距離を除いたものを用いた。これについては、非特許文献4を参照のこと。
手法 特徴次元 認識率(%) 識別時間(ms)
従来型の次元削減方法 60 98.10 2.544
従来型の次元削減方法 100 98.43 7.342
従来型の次元削減方法 200 98.72 18.164
本発明による次元削減方法 15 98.63 0.873
本発明による次元削減方法 10 98.47 0.629
The following shows the recognition rate and the time required for identification per character in the dimension reduction method by the principal component analysis method, which is a conventional dimension reduction method, and the dimension reduction method of the present invention in a handwritten kana recognition experiment. Measured and compared. In the experiment, 75,000 learning samples and 22,631 test samples different from the learning samples were used. A part of the test sample is shown in FIG. As the classifier, a polynomial classifier using class-specific features and excluding the projection distance was used. See Non-Patent Document 4 for this.
Method Feature dimension Recognition rate (%) Identification time (ms)
Conventional dimension reduction method 60 98.10 2.544
Conventional dimension reduction method 100 98.43 7.342
Conventional dimension reduction method 200 98.72 18.164
Dimensional reduction method according to the present invention 15 98.63 0.873
Dimensional reduction method according to the present invention 10 98.47 0.629

本発明による次元削減方法により、従来よりも低次元の特徴空間で、高速、高精度に認識できることが分かる。   It can be seen that the dimension reduction method according to the present invention enables recognition with high speed and high accuracy in a feature space of a lower dimension than the conventional one.

[実施例2]
本実施例におけるパターン認識装置の構成図は、実施例1における図1と同様である。入力装置11は、コマンド等を入力するためのキーボード及びマウス等の装置及び、スキャナやカメラ等のパターン入力装置である。演算装置12は、入力された画像、音声等パターンを読み取り、パターン認識用認識辞書13に保存されている情報を用いて、入力パターンが予め定められたどのカテゴリに近いかを判定し、判定結果に基づいて認識する。演算装置12は、実施例1のパターン認識用辞書作成手段を備えていてもよい。演算装置12は、CPU、メモリ、記憶装置等を備える。
[Example 2]
The configuration diagram of the pattern recognition apparatus in the present embodiment is the same as that in FIG. The input device 11 is a device such as a keyboard and a mouse for inputting commands and the like, and a pattern input device such as a scanner and a camera. The arithmetic device 12 reads the input image, voice pattern, etc., and uses information stored in the pattern recognition recognition dictionary 13 to determine which category the input pattern is close to. Recognize based on. The computing device 12 may include the pattern recognition dictionary creating means of the first embodiment. The arithmetic device 12 includes a CPU, a memory, a storage device, and the like.

パターン認識用認識辞書13は、演算装置12が入力パターンを認識する際に参照する辞書データベースである。パターン認識用認識辞書13に保存されているパターン認識用辞書は、本発明の次元削減手法を用いて作成されたパターン認識用辞書である。表示装置15は、演算装置12による入力パターンの認識結果を表示するディスプレイ等の装置である。   The pattern recognition recognition dictionary 13 is a dictionary database that is referred to when the arithmetic device 12 recognizes an input pattern. The pattern recognition dictionary stored in the pattern recognition recognition dictionary 13 is a pattern recognition dictionary created using the dimension reduction method of the present invention. The display device 15 is a device such as a display for displaying the recognition result of the input pattern by the arithmetic device 12.

パターンDB16は、入力装置11によって入力されたパターンを格納する。パターンDB16には、パターン認識用認識辞書13を作成するために演算装置12が用いる辞書生成用パターン群DB、演算装置12が認識対象とするパターンのデータ等が格納されていてもよい。また、入力装置から直接パターン入力される場合にはなくてもよい。   The pattern DB 16 stores the pattern input by the input device 11. The pattern DB 16 may store a dictionary generation pattern group DB used by the arithmetic device 12 to create the pattern recognition recognition dictionary 13, pattern data to be recognized by the arithmetic device 12, and the like. Further, the pattern may not be directly input from the input device.

図3は、本実施例の演算装置12によって実行されるパターン認識手段の処理フローである。   FIG. 3 is a processing flow of pattern recognition means executed by the arithmetic unit 12 of this embodiment.

入力ステップ31では、認識対象となるパターンがユーザ又は、演算装置12で実行されるプログラムにより入力される。特徴ベクトル抽出ステップ32では、入力パターンを特徴空間上の特徴ベクトルに変換する。入力パターンを特徴ベクトルに変換する入出力は、実施例1の図2における特徴抽出ステップ22で、入力パターンを特徴ベクトルに変換する入出力と同じである。すなわち、入力されたパターンに対する出力は、入力パターンに対する特徴抽出ステップ22の出力と同じものを得る。変換に必要な情報が、認識辞書13に保存されている場合もある。例えば、実施例1の例において、原特徴空間から特徴空間への射影行列がQkとして得られている場合には、パターンから原特徴ベクトルxを抽出し、その後、射影行列Qkによって、出力として特徴ベクトルQkxを得る。 In the input step 31, a pattern to be recognized is input by a user or a program executed by the arithmetic device 12. In the feature vector extraction step 32, the input pattern is converted into a feature vector on the feature space. The input / output for converting the input pattern into the feature vector is the same as the input / output for converting the input pattern into the feature vector in the feature extraction step 22 in FIG. That is, the output for the input pattern is the same as the output of the feature extraction step 22 for the input pattern. Information necessary for conversion may be stored in the recognition dictionary 13. For example, in the example of the first embodiment, when the projection matrix from the original feature space to the feature space is obtained as Q k , the original feature vector x is extracted from the pattern, and then output by the projection matrix Q k . To obtain a feature vector Q k x.

射影ベクトル生成ステップ33は、カテゴリごとに、特徴ベクトル抽出ステップ32により作成された特徴ベクトルを辞書部分空間生成ステップ23によって生成された辞書部分空間へ射影する。辞書部分空間へ射影する際の射影行列は、辞書部分空間生成ステップ23により作成され、パターン認識用認識辞書13に保存されている。射影ベクトル生成ステップ33によって、各カテゴリに対して、辞書部分空間上の射影ベクトルが作成される。本実施例のパターン認識装置の特徴は、本発明の次元削減方法によって生成された辞書部分空間への射影ベクトルを用いる点にある。   The projection vector generation step 33 projects the feature vector generated by the feature vector extraction step 32 to the dictionary subspace generated by the dictionary subspace generation step 23 for each category. A projection matrix for projection onto the dictionary subspace is created by the dictionary subspace generation step 23 and stored in the pattern recognition recognition dictionary 13. A projection vector generation step 33 creates a projection vector on the dictionary subspace for each category. The feature of the pattern recognition apparatus of this embodiment is that a projection vector onto the dictionary subspace generated by the dimension reduction method of the present invention is used.

原特徴ベクトルから特徴ベクトルへの変換が、式(13)のように射影行列Qkによって表現されており、特徴空間から辞書部分空間への射影行列Rkとの積Rkkが認識辞書13に保存されている場合には、原特徴ベクトルxからRkkxを求めることにより、辞書部分空間上の射影ベクトルを得ることができる。 The transformation from the original feature vector to the feature vector is expressed by the projection matrix Q k as shown in Equation (13), and the product R k Q k with the projection matrix R k from the feature space to the dictionary subspace is the recognition dictionary. 13, the projection vector on the dictionary subspace can be obtained by obtaining R k Q k x from the original feature vector x.

識別ステップ34は、射影ベクトル生成ステップ33により作成された各カテゴリの射影ベクトルと、識別関数生成ステップ25で作成され、パターン認識用辞書13に保存されているカテゴリごとの識別関数のパラメータを使い、入力パターンの各カテゴリに対する類似度を求める。各カテゴリに対する類似度は、当該カテゴリ上の辞書部分空間に射影された入力パターンの射影ベクトルが表す点における当該カテゴリの識別関数の値として算出される。   The identification step 34 uses the projection vector of each category created in the projection vector generation step 33 and the parameter of the identification function for each category created in the discrimination function generation step 25 and stored in the pattern recognition dictionary 13. The similarity for each category of the input pattern is obtained. The similarity to each category is calculated as the value of the category identification function at the point represented by the projection vector of the input pattern projected onto the dictionary subspace on the category.

全てのカテゴリに対する類似度を計算した後、入力パターンの所属カテゴリを判定する。通常、入力パターンは、最も類似度が高いカテゴリに所属すると判定される。また、棄却を行う場合もある。例えば、全カテゴリのうち最も類似度が高いカテゴリをパターンが所属するカテゴリと判定する。また、類似度のうち最も高い値である第一類似度が或る閾値以下の場合には、どのカテゴリにも属さないと判定して棄却する手法もある。また、類似度の上位2番目の値を第二類似度として、第一類似度と第二類似度が或る閾値以下の場合にも、いずれのカテゴリに属するか曖昧であるとして棄却する手法もある。   After calculating the similarity for all categories, the category to which the input pattern belongs is determined. Usually, it is determined that the input pattern belongs to the category having the highest similarity. In some cases, it may be rejected. For example, the category having the highest similarity among all categories is determined as the category to which the pattern belongs. There is also a technique of determining that the category does not belong to any category and rejecting when the first similarity, which is the highest value among the similarities, is equal to or less than a certain threshold. There is also a method of rejecting as an ambiguous category even if the first similarity and the second similarity are equal to or less than a certain threshold value with the second highest similarity value as the second similarity. is there.

本発明のパターン認識装置は、本発明の辞書作成装置により作成された辞書に保存されている識別関数を用いて類似度を計算する。その識別関数は、本発明による次元削減手法により生成された辞書部分空間上の関数である。   The pattern recognition apparatus of the present invention calculates the similarity using the discrimination function stored in the dictionary created by the dictionary creation apparatus of the present invention. The discriminant function is a function on the dictionary subspace generated by the dimension reduction method according to the present invention.

出力ステップ35では、識別ステップ34での認識結果をディスプレイなどの表示装置15への出力、記憶装置などへの保存等を行う。   In the output step 35, the recognition result in the identification step 34 is output to the display device 15 such as a display, stored in a storage device, or the like.

[実施例3]
実施例1のパターン認識用辞書生成装置において、辞書部分空間生成ステップ23の部分を変更した実施形態の一例について述べる。装置構成は、実施例1と同様に図1によって示される。
[Example 3]
An example of an embodiment in which the dictionary partial space generation step 23 is changed in the pattern recognition dictionary generation apparatus of the first embodiment will be described. The apparatus configuration is shown in FIG. 1 as in the first embodiment.

実施例1の辞書部分空間生成ステップ23において、小さい次元数の削減を繰り返すことによって、特徴空間の次元を緩やかに削減することができる。これによって、認識精度に大きな影響を与えることなく、大幅に次元を削減することができる。   In the dictionary subspace generation step 23 of the first embodiment, the dimension of the feature space can be moderately reduced by repeatedly reducing the number of small dimensions. As a result, dimensions can be significantly reduced without significantly affecting the recognition accuracy.

具体的な方法を説明する。辞書部分空間生成ステップ23における1回目の特徴パターン群入力ステップ41から射影行列出力ステップ46までの一連の処理により生成される辞書部分空間を第1次辞書部分空間とよぶことにする。まず、1回目の処理では、射影行列出力ステップ46において、特徴空間から第1次辞書部分空間への射影行列(A1とする)を保存する。次に、第1次辞書部分空間を特徴空間とみなして、初期値設定ステップ42に戻り、射影行列出力ステップ46までの処理を続ける。これにより、第1次辞書部分空間の次元削減が行われる。これにより生成される第1次辞書部分空間の部分空間を第2次辞書部分空間とよぶことにする。射影行列の保存ステップ45において、第1次辞書部分空間から第2次辞書部分空間への射影行列(A2とする)を保存する。再度、第2次辞書部分空間を特徴空間とみなし、初期値設定ステップ42に戻り、処理を継続してもよい。このとき、例えば、一定数ずつ次元数を落としていくことによって、緩やかな次元削減を行うことができる。これをt回繰り返し、最終的に生成される第t次辞書部分空間を辞書部分空間とする。辞書部分空間への射影行列は、行列At、…、A1の積により得られる。また、二次関数を保存、又は出力する場合には、第t回目の処理で生成した二次関数を辞書部分空間に制限した二次関数の係数を保存、又は出力する。 A specific method will be described. The dictionary subspace generated by the series of processing from the first feature pattern group input step 41 to the projection matrix output step 46 in the dictionary subspace generation step 23 is called a primary dictionary subspace. First, in the first process is stored in the projection matrix output step 46, projection matrix from the feature space to the primary subspace (referred to as A 1). Next, the primary dictionary subspace is regarded as a feature space, the process returns to the initial value setting step 42, and the processing up to the projection matrix output step 46 is continued. Thereby, dimension reduction of the primary dictionary subspace is performed. The subspace of the primary dictionary subspace generated by this is called a secondary dictionary subspace. In storing step 45 of projection matrix, to store the primary subspace projection matrix to secondary subspace (referred to as A 2). Again, the secondary dictionary subspace may be regarded as a feature space, and the process may continue by returning to the initial value setting step 42. At this time, for example, gradual dimension reduction can be performed by decreasing the number of dimensions by a fixed number. This is repeated t times, and the finally generated t-th dictionary subspace is defined as a dictionary subspace. Projection matrix to the dictionary subspace matrix A t, ..., obtained by the product of A 1. Further, when storing or outputting the quadratic function, the coefficient of the quadratic function obtained by limiting the quadratic function generated in the t-th process to the dictionary subspace is stored or output.

[実施例4]
実施例1のパターン認識用辞書生成装置において、辞書部分空間生成ステップ23で生成した二次関数を識別関数として用いる実施例について説明する。装置構成は、実施例1と同様に図1によって示される。
[Example 4]
In the pattern recognition dictionary generation apparatus according to the first embodiment, an embodiment in which the quadratic function generated in the dictionary subspace generation step 23 is used as an identification function will be described. The apparatus configuration is shown in FIG. 1 as in the first embodiment.

実施例1の辞書部分空間生成ステップ23で求めた二次関数(式(16))を辞書部分空間に制限したものを識別関数として用いることができる。例えば、固有ベクトルの選択に、実施例2の射影行列導出ステップ45の固有ベクトル選択基準例1を採用すると、二次関数(式(16))を辞書部分空間に制限した二次関数は、式(46)又は式(47)のようになり、これは、もとの二次関数(式(16))を近似したものである。   A quadratic function (Equation (16)) obtained in the dictionary subspace generation step 23 of Embodiment 1 limited to the dictionary subspace can be used as the discriminant function. For example, when the eigenvector selection criterion example 1 in the projection matrix derivation step 45 of the second embodiment is adopted for selecting the eigenvector, the quadratic function in which the quadratic function (equation (16)) is limited to the dictionary subspace is expressed by the equation (46 ) Or equation (47), which is an approximation of the original quadratic function (equation (16)).

したがって、辞書部分空間に制限した二次関数を識別関数とみなし、射影行列の保存ステップ46の後、出力ステップ26に直接処理を移してもよい。これによって、パターン認識用辞書作成の処理時間を大幅に削減することができる。また、辞書部分空間生成ステップ23によって低次元の辞書部分空間を選択することができるので、パターン認識装置における高精度、高速、省メモリが実現できる。   Therefore, the quadratic function restricted to the dictionary subspace may be regarded as an identification function, and the processing may be directly transferred to the output step 26 after the projection matrix storage step 46. As a result, the processing time for creating the pattern recognition dictionary can be greatly reduced. In addition, since the dictionary subspace generation step 23 can select a low-dimensional dictionary subspace, high accuracy, high speed, and memory saving in the pattern recognition apparatus can be realized.

本発明のパターン認識用辞書生成装置、及び、パターン認識装置の構成を示す図。The figure which shows the structure of the dictionary production | generation apparatus for pattern recognition of this invention, and a pattern recognition apparatus. 本発明のパターン認識用辞書生成装置の処理フローを示す図。The figure which shows the processing flow of the dictionary generation apparatus for pattern recognition of this invention. 本発明のパターン認識装置の処理フローを示す図。The figure which shows the processing flow of the pattern recognition apparatus of this invention. 本発明の次元削減方法の処理フローを示す図。The figure which shows the processing flow of the dimension reduction method of this invention. 次元削減例を説明するための2カテゴリ分類問題における第一カテゴリパターンの分布図。The distribution map of the 1st category pattern in the two category classification problem for demonstrating the example of dimension reduction. 次元削減例を説明するための2カテゴリ分類問題における第二カテゴリパターンの分布図。The distribution map of the 2nd category pattern in the 2 category classification problem for demonstrating the example of dimension reduction. 次元削減例を説明するための2カテゴリ分類問題における従来手法による判別面を示した図。The figure which showed the discrimination surface by the conventional method in the two category classification problem for demonstrating the example of dimension reduction. 次元削減例を説明するための2カテゴリ分類問題において、本発明の次元削減方法に用いる二次関数の等高面を示した図。The figure which showed the contour surface of the quadratic function used for the dimension reduction method of this invention in the two-category classification problem for demonstrating the example of dimension reduction. 次元削減例を説明するための2カテゴリ分類問題において、本発明の次元削減方法における二次関数の二次の項の二次形式の固有ベクトルを示した図。The figure which showed the eigenvector of the quadratic form of the quadratic term of the quadratic function in the dimension reduction method of this invention in the two category classification problem for demonstrating the example of dimension reduction. 次元削減例を説明するための2カテゴリ分類問題における本発明による判別面を示した図。The figure which showed the discrimination surface by this invention in the two category classification | category problem for demonstrating the example of dimension reduction. 二次関数をニューラルネットワークにより表現した図。The figure which expressed the quadratic function by the neural network. 特徴空間の基底を変換した後のニューラルネットワークの図。The figure of the neural network after transforming the base of the feature space. 次元削減した後のニューラルネットワークの図。Diagram of neural network after dimension reduction. 手書きカナ文字のサンプルを示す図。The figure which shows the sample of a handwritten kana character.

符号の説明Explanation of symbols

11 入力装置
12 演算装置
13 認識辞書
15 表示装置
16 パターンDB
21 入力
22 特徴抽出
23 辞書部分空間生成
24 学習用特徴パターン群生成
25 識別関数生成
26 出力
31 入力
33 射影ベクトル生成
34 識別
35 出力
41 特徴パターン群入力
42 初期係数設定
43 係数修正
44 基底ベクトル導出
45 射影行列導出
46 射影行列出力
51 カテゴリ51
61 カテゴリ61
71 判別面
81 二次関数の等高面
91 固有ベクトル
92 固有ベクトル
101 判別面
11 Input Device 12 Arithmetic Device 13 Recognition Dictionary 15 Display Device 16 Pattern DB
21 Input 22 Feature extraction 23 Dictionary subspace generation 24 Learning feature pattern group generation 25 Discriminant function generation 26 Output 31 Input 33 Projection vector generation 34 Identification 35 Output 41 Feature pattern group input 42 Initial coefficient setting 43 Coefficient correction 44 Base vector derivation 45 Projection matrix derivation 46 Projection matrix output 51 Category 51
61 Category 61
71 Discrimination surface 81 Contour surface of quadratic function 91 Eigenvector 92 Eigenvector 101 Discrimination surface

Claims (20)

特徴空間上の辞書生成用特徴パターン群を入力する特徴パターン群入力ステップと、
c個(cは自然数)のカテゴリの各々に対応する前記特徴空間上の二次関数の係数の値を設定する初期係数設定ステップと、
前記二次関数を識別関数として前記辞書生成用特徴パターン群の各々の所属カテゴリを判定したときの誤識別による損失を表す損失関数の値が小さくなるように、前記二次関数の係数を勾配降下法、又は確率的勾配降下法により修正する係数修正ステップと、
前記c個のカテゴリの各々について、前記二次関数の二次の項の二次形式の対称行列の固有ベクトルと、前記二次関数の一次の項の係数ベクトルとの中から一つ以上のベクトルを選択する基底ベクトル導出ステップと、
前記c個のカテゴリの各々について、前記基底ベクトル導出ステップにおいて選択されたベクトルによって張られる辞書部分空間への射影行列を生成する射影行列導出ステップと、
前記c個のカテゴリの各々に対応するc個の前記辞書部分空間への前記射影行列、又は、前記c個のカテゴリの各々に対応する前記射影行列と前記二次関数の係数とを出力する射影行列出力ステップと、
を有することを特徴とする特徴空間の次元削減方法。
A feature pattern group input step for inputting a feature pattern group for dictionary generation on the feature space;
an initial coefficient setting step for setting a value of a coefficient of a quadratic function on the feature space corresponding to each of c categories (c is a natural number);
The coefficient of the quadratic function is reduced in gradient so that the value of the loss function representing the loss due to misidentification when determining the belonging category of each feature pattern group for dictionary generation using the quadratic function as the discriminant function is small. A coefficient correction step to be corrected by a method or a stochastic gradient descent method;
For each of the c categories, one or more vectors are selected from the eigenvectors of the symmetric matrix of the quadratic form of the quadratic term of the quadratic function and the coefficient vector of the primary term of the quadratic function. A basis vector derivation step to select;
For each of the c categories, a projection matrix derivation step for generating a projection matrix into a dictionary subspace spanned by the vectors selected in the basis vector derivation step;
Projecting the projection matrix onto c dictionary subspaces corresponding to each of the c categories, or the projection matrix corresponding to each of the c categories and a coefficient of the quadratic function. A matrix output step;
A feature space dimensionality reduction method characterized by comprising:
請求項1記載の特徴空間の次元削減方法において、前記特徴空間はベクトル空間であり、前記辞書生成用特徴パターン群は、前記ベクトル空間上の所属カテゴリを示すラベル付きベクトル値の集合であることを特徴とする特徴空間の次元削減方法。   The dimension reduction method for the feature space according to claim 1, wherein the feature space is a vector space, and the feature pattern group for dictionary generation is a set of labeled vector values indicating a category to which the vector space belongs. A feature dimension reduction method for feature space. 請求項1記載の特徴空間の次元削減方法において、前記初期係数設定ステップでは、前記c個のカテゴリの各々に対応する前記二次関数の係数に乱数により生成した値を設定することを特徴とする特徴空間の次元削減方法。   2. The feature space dimension reduction method according to claim 1, wherein in the initial coefficient setting step, a value generated by a random number is set to a coefficient of the quadratic function corresponding to each of the c categories. Feature space dimension reduction method. 請求項1記載の特徴空間の次元削減方法において、前記係数修正ステップでは、前記二次関数を識別関数として前記辞書生成用特徴パターン群の各々の所属カテゴリを判定したときの二乗誤差関数を損失関数とすることを特徴とする特徴空間の次元削減方法。   2. The feature space dimension reduction method according to claim 1, wherein, in the coefficient correction step, a square error function obtained by determining each affiliation category of the dictionary generating feature pattern group using the quadratic function as an identification function is a loss function. A feature space dimension reduction method characterized by: 請求項1記載の特徴空間の次元削減方法において、前記射影行列導出ステップでは、前記係数ベクトルと前記対称行列の固有値の絶対値が大きい上位n個に対応する前記固有ベクトル、又は、前記係数ベクトルと前記対称行列の固有値の絶対値が閾値hよりも大きい上位n個に対応する前記固有ベクトルとによって生成される特徴空間の部分空間への射影行列を生成することを特徴とする特徴空間の次元削減方法。   The dimension reduction method of the feature space according to claim 1, wherein in the projection matrix derivation step, the eigenvector corresponding to the top n large absolute values of the eigenvalues of the coefficient vector and the symmetric matrix, or the coefficient vector and the A feature space dimension reduction method, comprising: generating a projection matrix onto a partial space of a feature space generated by the eigenvector corresponding to the top n eigenvalues of a symmetric matrix whose absolute value is larger than a threshold value h. 請求項1記載の特徴空間の次元削減方法において、前記射影行列導出ステップでは、前記対称行列の固有値の絶対値が大きい上位n個に対応する前記固有ベクトル、又は、前記対称行列の固有値の絶対値が閾値hよりも大きい上位n個に対応する前記固有ベクトルによって生成される特徴空間の部分空間への射影行列を生成することを特徴とする特徴空間の次元削減方法。   2. The dimension reduction method for a feature space according to claim 1, wherein in the projection matrix derivation step, the eigenvector corresponding to the top n largest eigenvalues of the symmetric matrix or the eigenvalues of the symmetric matrix are calculated. A feature space dimension reduction method, comprising generating a projection matrix onto a partial space of a feature space generated by the eigenvector corresponding to the top n larger than a threshold value h. 辞書生成用パターン群を入力する入力部と、
前記辞書生成用パターン群からc個(cは自然数)のカテゴリの各々に対応する特徴空間上の辞書生成用特徴パターン群を抽出する特徴抽出部と、
前記特徴空間上の前記辞書生成用特徴パターン群を入力する特徴パターン群入力処理、c個のカテゴリの各々に対応する前記特徴空間上の二次関数の係数の値を設定する初期係数設定処理、前記二次関数を識別関数として前記辞書生成用特徴パターン群の各々の所属カテゴリを判定したときの誤識別による損失を表す損失関数の値が小さくなるように、前記二次関数の係数を勾配降下法、又は確率的勾配降下法により修正する係数修正処理、前記c個のカテゴリの各々について、前記二次関数の二次の項の二次形式の対称行列の固有ベクトルと、前記二次関数の一次の項の係数ベクトルとの中から一つ以上のベクトルを選択する基底ベクトル導出処理、前記c個のカテゴリの各々について、前記基底ベクトル導出処理において選択されたベクトルによって張られる辞書部分空間への射影行列を生成する射影行列導出処理、前記c個のカテゴリの各々に対応するc個の前記辞書部分空間への前記射影行列、又は、前記c個のカテゴリの各々に対応する前記射影行列と前記二次関数の係数とを出力する射影行列出力処理、を含む特徴空間の次元削減処理により辞書部分空間への前記射影行列を生成する辞書部分空間生成部と、
前記射影行列により前記辞書生成用特徴パターン群を前記辞書部分空間に射影した学習用特徴パターン群を生成する学習用特徴パターン群生成部と、
前記学習用特徴パターン群を用いて前記c個のカテゴリを識別する識別関数を生成する識別関数生成部と、
前記射影行列と前記識別関数のパラメータとを出力する出力部と、
を有するパターン認識用辞書生成装置。
An input unit for inputting a dictionary generation pattern group;
A feature extraction unit that extracts a dictionary generation feature pattern group on a feature space corresponding to each of c categories (c is a natural number) from the dictionary generation pattern group;
A feature pattern group input process for inputting the dictionary generating feature pattern group on the feature space; an initial coefficient setting process for setting a value of a coefficient of a quadratic function on the feature space corresponding to each of c categories; The coefficient of the quadratic function is reduced in gradient so that the value of the loss function representing the loss due to misidentification when determining the belonging category of each feature pattern group for dictionary generation using the quadratic function as the discriminant function is small. Or a coefficient correction process corrected by a stochastic gradient descent method, for each of the c categories, an eigenvector of a quadratic symmetric matrix of a quadratic term of the quadratic function, and a linear function of the quadratic function A basis vector deriving process for selecting one or more vectors from the coefficient vector of the term, and the vector selected in the basis vector deriving process for each of the c categories. A projection matrix derivation process for generating a projection matrix to a dictionary subspace spanned by the c, the projection matrix to the c dictionary subspaces corresponding to each of the c categories, or the c categories A dictionary subspace generation unit that generates the projection matrix to the dictionary subspace by a dimension reduction process of a feature space including a projection matrix output process that outputs the projection matrix and the coefficient of the quadratic function corresponding to each of the projection matrix,
A learning feature pattern group generation unit that generates a learning feature pattern group obtained by projecting the dictionary generation feature pattern group onto the dictionary subspace by the projection matrix;
An identification function generator for generating an identification function for identifying the c categories using the learning feature pattern group;
An output unit for outputting the projection matrix and parameters of the discriminant function;
A dictionary recognition apparatus for pattern recognition comprising:
請求項7記載のパターン認識用辞書生成装置において、前記識別関数生成部は、前記c個のカテゴリの各々について、前記二次関数を前記辞書部分空間に制限した制限二次関数を生成し、前記制限二次関数を識別関数として前記学習用特徴パターン群の各々の所属カテゴリを判定したときの二乗誤差関数を損失関数として、前記二乗誤差の値が小さくなるように、勾配降下法、又は、確率的勾配降下法により前記制限二次関数の係数を修正したものを識別関数として生成することを特徴とするパターン認識用辞書生成装置。   8. The pattern recognition dictionary generating device according to claim 7, wherein the discriminant function generating unit generates a restricted quadratic function in which the quadratic function is limited to the dictionary subspace for each of the c categories, Gradient descent method or probability so that the square error function becomes a loss function with the square error function when determining the belonging category of each of the learning feature pattern groups using the restricted quadratic function as the discriminant function. A pattern recognition dictionary generation device, wherein a coefficient obtained by correcting the coefficient of the limited quadratic function is generated as a discriminant function by a gradient descent method. 請求項7記載のパターン認識用辞書生成装置において、前記識別関数生成部は、前記c個のカテゴリの各々について、前記二次関数を前記辞書部分空間に制限したものを識別関数として生成することを特徴とするパターン認識用辞書生成装置。   8. The pattern recognition dictionary generating device according to claim 7, wherein the discriminant function generating unit generates, for each of the c categories, a discriminant function in which the quadratic function is limited to the dictionary subspace. Characteristic pattern recognition dictionary generator. 請求項7記載のパターン認識用辞書生成装置において、前記特徴空間はベクトル空間であり、前記辞書生成用特徴パターン群は、前記ベクトル空間上の所属カテゴリを示すラベル付きベクトル値の集合であることを特徴とするパターン認識用辞書生成装置。   8. The pattern recognition dictionary generation device according to claim 7, wherein the feature space is a vector space, and the dictionary generation feature pattern group is a set of labeled vector values indicating a category to which the vector space belongs. Characteristic pattern recognition dictionary generator. 請求項7記載のパターン認識用辞書生成装置において、前記初期係数設定処理は、前記c個のカテゴリの各々に対応する前記二次関数の係数に乱数により生成した値を設定することを特徴とするパターン認識用辞書生成装置。   8. The pattern recognition dictionary generating apparatus according to claim 7, wherein the initial coefficient setting process sets a value generated by a random number as a coefficient of the quadratic function corresponding to each of the c categories. Pattern recognition dictionary generator. 請求項7記載のパターン認識用辞書生成装置において、前記係数修正処理は、前記二次関数を識別関数として前記辞書生成用特徴パターン群の各々の所属カテゴリを判定したときの二乗誤差関数を損失関数とすることを特徴とするパターン認識用辞書生成装置。   8. The pattern recognition dictionary generation apparatus according to claim 7, wherein the coefficient correction processing uses a square error function as a loss function when determining each affiliation category of the dictionary generation feature pattern group using the quadratic function as an identification function. A dictionary recognition apparatus for pattern recognition, characterized in that 請求項7記載のパターン認識用辞書生成装置において、前記射影行列導出処理は、前記係数ベクトルと前記対称行列の固有値の絶対値が大きい上位n個に対応する前記固有ベクトル、又は、前記係数ベクトルと前記対称行列の固有値の絶対値が閾値hよりも大きい上位n個に対応する前記固有ベクトルとによって生成される特徴空間の部分空間への射影行列を生成することを特徴とするパターン認識用辞書生成装置。   8. The pattern recognition dictionary generating apparatus according to claim 7, wherein the projection matrix deriving process includes the eigenvector corresponding to the top n largest absolute values of the eigenvalues of the coefficient vector and the symmetric matrix, or the coefficient vector and the A dictionary generating apparatus for pattern recognition, characterized by generating a projection matrix onto a partial space of a feature space generated by the eigenvectors corresponding to the top n eigenvalues of a symmetric matrix whose absolute value is larger than a threshold value h. 請求項7記載のパターン認識用辞書生成装置において、前記射影行列導出処理は、前記対称行列の固有値の絶対値が大きい上位n個に対応する前記固有ベクトル、又は、前記対称行列の固有値の絶対値が閾値hよりも大きい上位n個に対応する前記固有ベクトルによって生成される特徴空間の部分空間への射影行列を生成することを特徴とするパターン認識用辞書生成装置。   8. The pattern recognition dictionary generating apparatus according to claim 7, wherein the projection matrix derivation process is performed by calculating the eigenvector corresponding to the top n largest eigenvalues of the symmetric matrix or the eigenvalue of the symmetric matrix. A dictionary generating apparatus for pattern recognition, characterized by generating a projection matrix onto a partial space of a feature space generated by the eigenvectors corresponding to the top n larger than a threshold value h. 特徴空間上の辞書生成用特徴パターン群を入力する特徴パターン群入力処理、c個(cは自然数)のカテゴリの各々に対応する前記特徴空間上の二次関数の係数の値を設定する初期係数設定処理、前記二次関数を識別関数として前記辞書生成用特徴パターン群の各々の所属カテゴリを判定したときの誤識別による損失を表す損失関数の値が小さくなるように、前記二次関数の係数を勾配降下法、又は確率的勾配降下法により修正する係数修正処理、前記c個のカテゴリの各々について、前記二次関数の二次の項の二次形式の対称行列の固有ベクトルと、前記二次関数の一次の項の係数ベクトルとの中から一つ以上のベクトルを選択する基底ベクトル導出処理、前記c個のカテゴリの各々について、前記基底ベクトル導出処理において選択されたベクトルによって張られる辞書部分空間への射影行列を生成する射影行列導出処理、前記c個のカテゴリの各々に対応するc個の前記辞書部分空間への前記射影行列、又は、前記c個のカテゴリの各々に対応する前記射影行列と前記二次関数の係数とを出力する射影行列出力処理、を含む特徴空間の次元削減処理により生成された前記辞書部分空間上の識別関数のパラメータと前記射影行列とを格納する認識用辞書格納部と、
認識対象の入力パターンを入力する入力部と、前記入力パターンから特徴空間上のベクトル値を抽出する特徴抽出部と、
前記c個のカテゴリの各々について、前記射影行列により入力パターンを辞書部分空間に射影した射影ベクトルを生成する射影ベクトル生成部と、
前記c個のカテゴリの各々について、前記識別関数の前記射影ベクトルが表す点での値を算出し、それに基づいて入力パターンが属するカテゴリを識別する識別部と、
前記識別部での識別結果を出力する出力部と、
を有することを特徴とするパターン認識装置。
Feature pattern group input processing for inputting a dictionary generation feature pattern group on the feature space, an initial coefficient for setting a value of a coefficient of a quadratic function on the feature space corresponding to each of c categories (c is a natural number) Coefficient of the quadratic function so that the value of the loss function representing the loss due to misidentification when determining the belonging category of each feature pattern group for dictionary generation using the quadratic function as the discriminating function is reduced. For each of the c categories, the eigenvector of the symmetric matrix of the quadratic form of the quadratic term of the quadratic function, and the quadratic A basis vector deriving process for selecting one or more vectors from coefficient vectors of a first-order term of the function, and each of the c categories is selected in the basis vector deriving process. A projection matrix deriving process for generating a projection matrix to a dictionary subspace spanned by vectors, c projection matrices to the c dictionary subspaces corresponding to each of the c categories, or c categories of A parameter of the discriminant function on the dictionary subspace generated by the dimension reduction processing of the feature space including the projection matrix corresponding to each and a projection matrix output processing for outputting the coefficient of the quadratic function, and the projection matrix A recognition dictionary storage for storing
An input unit that inputs an input pattern to be recognized; a feature extraction unit that extracts a vector value on a feature space from the input pattern;
For each of the c categories, a projection vector generation unit that generates a projection vector obtained by projecting an input pattern onto a dictionary subspace using the projection matrix;
For each of the c categories, an identification unit that calculates a value at a point represented by the projection vector of the identification function and identifies a category to which the input pattern belongs based on the calculated value.
An output unit for outputting the identification result in the identification unit;
A pattern recognition apparatus comprising:
請求項15記載のパターン認識装置において、前記特徴空間はベクトル空間であり、前記辞書生成用特徴パターン群は、前記ベクトル空間上の所属カテゴリを示すラベル付きベクトル値の集合であることを特徴とするパターン認識装置。   16. The pattern recognition apparatus according to claim 15, wherein the feature space is a vector space, and the feature pattern group for dictionary generation is a set of labeled vector values indicating affiliation categories in the vector space. Pattern recognition device. 請求項15記載のパターン認識装置において、前記初期係数設定処理は、前記c個のカテゴリの各々に対応する前記二次関数の係数に乱数により生成した値を設定することを特徴とするパターン認識装置。   16. The pattern recognition apparatus according to claim 15, wherein the initial coefficient setting process sets a value generated by a random number as a coefficient of the quadratic function corresponding to each of the c categories. . 請求項15記載のパターン認識装置において、前記係数修正処理は、前記二次関数を識別関数として前記辞書生成用特徴パターン群の各々の所属カテゴリを判定したときの二乗誤差関数を損失関数とすることを特徴とするパターン認識装置。   16. The pattern recognition apparatus according to claim 15, wherein the coefficient correction processing uses a square error function when a category belonging to each of the dictionary generating feature pattern groups is determined as a loss function using the quadratic function as an identification function. A pattern recognition device. 請求項15記載のパターン認識装置において、前記射影行列導出処理は、前記係数ベクトルと前記対称行列の固有値の絶対値が大きい上位n個に対応する前記固有ベクトル、又は、前記係数ベクトルと前記対称行列の固有値の絶対値が閾値hよりも大きい上位n個に対応する前記固有ベクトルとによって生成される特徴空間の部分空間への射影行列を生成することを特徴とするパターン認識装置。   16. The pattern recognition apparatus according to claim 15, wherein the projection matrix deriving process includes the eigenvector corresponding to the top n largest absolute values of the eigenvalues of the coefficient vector and the symmetric matrix, or the coefficient vector and the symmetric matrix. A pattern recognition apparatus for generating a projection matrix onto a partial space of a feature space generated by the eigenvectors corresponding to the top n eigenvalues whose absolute values are larger than a threshold value h. 請求項15記載のパターン認識装置において、前記射影行列導出処理は、前記対称行列の固有値の絶対値が大きい上位n個に対応する前記固有ベクトル、又は、前記対称行列の固有値の絶対値が閾値hよりも大きい上位n個に対応する前記固有ベクトルによって生成される特徴空間の部分空間への射影行列を生成することを特徴とするパターン認識装置。   16. The pattern recognition apparatus according to claim 15, wherein the projection matrix deriving process is performed such that the eigenvector corresponding to the top n largest eigenvalues of the symmetric matrix or the eigenvalue of the symmetric matrix is greater than a threshold value h. A pattern recognition apparatus for generating a projection matrix onto a partial space of a feature space generated by the eigenvector corresponding to the largest n largest.
JP2008202125A 2008-08-05 2008-08-05 Dimension reduction method, pattern recognition dictionary generation device, and pattern recognition device Active JP5207870B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008202125A JP5207870B2 (en) 2008-08-05 2008-08-05 Dimension reduction method, pattern recognition dictionary generation device, and pattern recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008202125A JP5207870B2 (en) 2008-08-05 2008-08-05 Dimension reduction method, pattern recognition dictionary generation device, and pattern recognition device

Publications (2)

Publication Number Publication Date
JP2010039778A JP2010039778A (en) 2010-02-18
JP5207870B2 true JP5207870B2 (en) 2013-06-12

Family

ID=42012258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008202125A Active JP5207870B2 (en) 2008-08-05 2008-08-05 Dimension reduction method, pattern recognition dictionary generation device, and pattern recognition device

Country Status (1)

Country Link
JP (1) JP5207870B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10460232B2 (en) 2014-12-03 2019-10-29 Samsung Electronics Co., Ltd. Method and apparatus for classifying data, and method and apparatus for segmenting region of interest (ROI)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5905734B2 (en) * 2012-02-17 2016-04-20 Kddi株式会社 Method and apparatus for building a support vector machine
WO2014000159A1 (en) * 2012-06-26 2014-01-03 Yan Tao Method and device for correcting projector of multichannel visual projection system
JP6633267B2 (en) 2014-03-20 2020-01-22 株式会社東芝 Dimension reduction device, method and program
CN105335713A (en) 2015-10-28 2016-02-17 小米科技有限责任公司 Fingerprint identification method and device
CN107203891A (en) 2016-03-17 2017-09-26 阿里巴巴集团控股有限公司 A kind of automatic many threshold values characteristic filter method and devices
CN110490177A (en) * 2017-06-02 2019-11-22 腾讯科技(深圳)有限公司 A kind of human-face detector training method and device
WO2019123642A1 (en) 2017-12-22 2019-06-27 日本電気株式会社 Image recognition system, method, and program, and parameter-learning system, method, and program
JP6670512B1 (en) * 2018-11-06 2020-03-25 Necプラットフォームズ株式会社 Pattern recognition device, pattern recognition method, and program
DE112021004540T5 (en) 2020-10-14 2023-06-22 Hitachi Astemo, Ltd. IMAGE PROCESSING DEVICE

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006059284A (en) * 2004-08-24 2006-03-02 Nippon Telegr & Teleph Corp <Ntt> Object identification device, object identification method and program for this method
JP5110793B2 (en) * 2005-12-28 2012-12-26 日立コンピュータ機器株式会社 Form identification device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10460232B2 (en) 2014-12-03 2019-10-29 Samsung Electronics Co., Ltd. Method and apparatus for classifying data, and method and apparatus for segmenting region of interest (ROI)

Also Published As

Publication number Publication date
JP2010039778A (en) 2010-02-18

Similar Documents

Publication Publication Date Title
JP5207870B2 (en) Dimension reduction method, pattern recognition dictionary generation device, and pattern recognition device
CN108268838B (en) Facial expression recognition method and facial expression recognition system
Bhowmik et al. SVM-based hierarchical architectures for handwritten Bangla character recognition
Chacko et al. Handwritten character recognition using wavelet energy and extreme learning machine
US8965762B2 (en) Bimodal emotion recognition method and system utilizing a support vector machine
CN108596154A (en) Classifying Method in Remote Sensing Image based on high dimensional feature selection and multi-level fusion
WO2020186951A1 (en) Adaptive image cropping for face recognition
CN110598603A (en) Face recognition model acquisition method, device, equipment and medium
US20200143209A1 (en) Task dependent adaptive metric for classifying pieces of data
US10380456B2 (en) Classification dictionary learning system, classification dictionary learning method and recording medium
KR20170108339A (en) Method for recognizing plural object in image
Topçu et al. Decision fusion for patch-based face recognition
Ali et al. A novel features and classifiers fusion technique for recognition of Arabic handwritten character script
Sethy et al. Off-line Odia handwritten character recognition: an axis constellation model based research
Ahammad et al. Recognizing Bengali sign language gestures for digits in real time using convolutional neural network
CN116110089A (en) Facial expression recognition method based on depth self-adaptive metric learning
CN106529490B (en) Based on the sparse system and method for realizing writer verification from coding code book
Ali et al. Arabic handwritten character recognition using machine learning approaches
CN112001231B (en) Three-dimensional face recognition method, system and medium for weighted multitask sparse representation
CN111950592B (en) Multi-modal emotion feature fusion method based on supervised least square multi-class kernel canonical correlation analysis
CN107729945A (en) Discriminating recurrence, sorting technique and system based on rarefaction representation between class
JP5353482B2 (en) Pattern recognition dictionary generation device, pattern recognition device, and pattern recognition dictionary generation method
Patel et al. Multiresolution technique to handwritten English character recognition using learning rule and Euclidean distance metric
Ali et al. Different handwritten character recognition methods: a review
Jubair et al. A simplified method for handwritten character recognition from document image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130219

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5207870

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250