JP3019911B2 - Pattern recognition method - Google Patents

Pattern recognition method

Info

Publication number
JP3019911B2
JP3019911B2 JP6183281A JP18328194A JP3019911B2 JP 3019911 B2 JP3019911 B2 JP 3019911B2 JP 6183281 A JP6183281 A JP 6183281A JP 18328194 A JP18328194 A JP 18328194A JP 3019911 B2 JP3019911 B2 JP 3019911B2
Authority
JP
Japan
Prior art keywords
pattern
class
identification
feature vector
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP6183281A
Other languages
Japanese (ja)
Other versions
JPH0850636A (en
Inventor
美奈子 澤木
照雄 秋山
隆彦 川谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP6183281A priority Critical patent/JP3019911B2/en
Publication of JPH0850636A publication Critical patent/JPH0850636A/en
Application granted granted Critical
Publication of JP3019911B2 publication Critical patent/JP3019911B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は,文字読取り装置を始め
とするパタン認識装置におけるパタン認識方法であっ
て,特に認識精度を向上させるパタン認識方法に関する
ものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pattern recognition method for a pattern recognition device such as a character reading device, and more particularly to a pattern recognition method for improving recognition accuracy.

【0002】[0002]

【従来の技術】文字認識を例に説明する。文字認識では
識別関数として距離関数が多くの場合用いられる。距離
関数としては,ユークリッド距離関数,重み付きユーク
リッド距離関数,2次識別距離関数などがある。また,
修正関数としても距離関数が多く用いられ,判別分析を
行うことにより得られる判別関数などがある。
2. Description of the Related Art Character recognition will be described as an example. In character recognition, a distance function is often used as an identification function. Examples of the distance function include a Euclidean distance function, a weighted Euclidean distance function, and a secondary discriminant distance function. Also,
A distance function is often used as a correction function, and there is a discriminant function obtained by performing a discriminant analysis.

【0003】距離関数および修正関数の多くは対称な関
数であるため,入力されたパタンから抽出された特徴ベ
クトルが対称分布である時に最大の効果が得られる。し
かしながら,入力パタンから抽出された特徴ベクトルは
必ずしも対称分布ではない。そのため,特徴ベクトルの
分布を正確に記述することができず,認識精度が限られ
ていた。
Since most of the distance function and the correction function are symmetric functions, the maximum effect is obtained when the feature vector extracted from the input pattern has a symmetric distribution. However, the feature vectors extracted from the input pattern are not necessarily symmetric. Therefore, the distribution of the feature vector cannot be accurately described, and the recognition accuracy is limited.

【0004】[0004]

【発明が解決しようとする課題】本発明は上記問題点の
解決を図り,特徴ベクトルを空間変換し,特徴ベクトル
の分布を対称分布に近付けることにより,距離関数が分
布を記述する精度を高め,認識精度を向上させることを
目的とする。
SUMMARY OF THE INVENTION The present invention solves the above problems, spatially transforms a feature vector and approximates the distribution of the feature vector to a symmetric distribution, thereby increasing the accuracy with which the distance function describes the distribution. An object is to improve recognition accuracy.

【0005】さらに,空間変換後の特徴ベクトルの分布
が大きく識別の精度に対する寄与が少ない特徴次元を圧
縮することにより,認識精度を低下させずに演算量を削
減することを目的とする。
It is another object of the present invention to reduce the amount of calculation without reducing the recognition accuracy by compressing a feature dimension having a large distribution of feature vectors after spatial transformation and having a small contribution to identification accuracy.

【0006】[0006]

【課題を解決するための手段】本発明では,入力パタン
の特徴ベクトルの主成分分析により特徴の線形結合によ
空間変換を行う。これにより,特徴ベクトルの分布を
対称分布に近付けた上で,距離値を求めるようにする。
According to the present invention, a linear combination of features is performed by principal component analysis of a feature vector of an input pattern .
It intends line the space conversion that. As a result, the distance value is determined after the distribution of the feature vectors is approximated to the symmetric distribution.

【0007】また,主成分分析を行い,空間変換後の特
徴ベクトルの分布が小さく判別の精度に対する寄与が大
きい特徴次元のみを認識に用いることにより,演算量を
削減する。
Further, the amount of calculation is reduced by performing principal component analysis and using only feature dimensions having a small distribution of feature vectors after spatial transformation and having a large contribution to the accuracy of discrimination for recognition.

【0008】[0008]

【作用】距離関数を用いて距離値を求めるときに,距離
関数が特徴ベクトルの分布を正確に記述できるようにな
るため,認識精度の著しい向上を期待することができ
る。また,認識精度に対する寄与の大きい特徴次元のみ
を認識に用い,寄与の小さい特徴次元は認識に用いない
ことにより,識別辞書および判別辞書および識別判別辞
書と特徴ベクトルの照合を行う特徴次元を削減できるた
め,演算量を削減することができる。
When the distance value is obtained by using the distance function, the distance function can accurately describe the distribution of the feature vector, so that a remarkable improvement in recognition accuracy can be expected. In addition, by using only feature dimensions that have a large contribution to recognition accuracy for recognition, and not using feature dimensions that have a small contribution for recognition, it is possible to reduce the identification dimension, the discrimination dictionary, and the feature dimension for comparing feature vectors with the discrimination dictionary. Therefore, the amount of calculation can be reduced.

【0009】[0009]

【実施例】図1は本発明の実施例を示す図である。図
中,1は前処理,2は特徴抽出処理,3は空間変換処
理,4は空間変換パラメータ格納部,5は距離算出処
理,6は識別辞書,7は判別値算出処理,8は判別辞
書,9はクラス決定処理を表す。
FIG. 1 is a diagram showing an embodiment of the present invention. In the figure, 1 is a pre-process, 2 is a feature extraction process, 3 is a space conversion process, 4 is a space conversion parameter storage unit, 5 is a distance calculation process, 6 is an identification dictionary, 7 is a discriminant value calculation process, and 8 is a discrimination dictionary. , 9 represent a class determination process.

【0010】入力されたパタンについて,まず前処理1
で,パタンの重心が予め決められたパタンサイズの中心
に来るように移動し,次にパタンのモーメントにより大
きさの正規化を行う。さらに,雑音フィルタをかけてパ
タン上の雑音を除去する。
For the input pattern, first, preprocessing 1
Then, the center of gravity of the pattern is moved so as to come to the center of the predetermined pattern size, and then the size is normalized by the moment of the pattern. Further, the noise on the pattern is removed by applying a noise filter.

【0011】次いで,特徴抽出処理2で識別に用いる特
徴ベクトルを抽出する。特徴ベクトルの例としては,文
献(信学論 Vol.J 76-D-II No.9 PP.1851-1859,川谷;
“距離関数の学習による手書き数字認識”)に挙げられ
ているものがある。
Next, a feature vector used for identification in feature extraction processing 2 is extracted. Examples of feature vectors are described in the literature (IEEE Vol.J 76-D-II No.9 PP.1851-1859, Kawatani;
"Handwritten digit recognition by learning distance functions").

【0012】空間変換処理3では,以下の式に基づいて
特徴抽出処理2で抽出された特徴ベクトルの値の空間変
換を行う。 xm " =φm (x’−MX)/{sqrt(λm )} ここで,固有値および固有ベクトルは訓練パタンの特徴
ベクトルの,共分散行列の固有値と固有ベクトルであ
り,これらは空間変換パラメータ格納部4に格納されて
いる。訓練パタンの特徴ベクトルの共分散行列のij成
分は,以下のように求められる。
In the spatial transformation process 3, spatial transformation of the value of the feature vector extracted in the feature extraction process 2 is performed based on the following equation. x m “= φ m (x′−MX) / {sqrt (λ m )} where the eigenvalues and eigenvectors are the eigenvalues and eigenvectors of the covariance matrix of the feature vector of the training pattern, and these are the spatial transformation parameter storages. The ij component of the covariance matrix of the feature vector of the training pattern is obtained as follows.

【0013】 σij=Σ(xi −MXi )(xj −MXj )/(N−1) ただし, x’ ; 入力パタンの特徴ベクトル x ; 訓練パタンの特徴ベクトル MX ; xの平均ベクトル xm " ; 空間変換後の特徴ベクトルのm成分 N ; 訓練パタンの数 σij ; xの共分散行列のij成分 λm ; xの共分散行列のm番目の固有値 φm ; xの共分散行列のm番目の固有ベクトル 距離算出処理5では,距離関数D(x”)を用い,読取
り対象の各クラス毎に入力パタンの特徴ベクトルと参照
パタンの特徴ベクトルとの距離値dが求められる。
Σ ij = Σ (x i −MX i ) (x j −MX j ) / (N−1) where x ′; input pattern feature vector x; training pattern feature vector MX; average vector of x x m "; m component of spatially transformed feature vector N; number of training patterns σ ij ; ij component of x covariance matrix λ m ; m-th eigenvalue of x covariance matrix φ m ; covariance of x In the distance calculation process 5, the distance value d between the feature vector of the input pattern and the feature vector of the reference pattern is obtained for each class to be read, using the distance function D (x ″).

【0014】判別値算出処理7では,判別関数F
(x”)を用い各クラス毎に判別値fが求められる。各
クラスの判別関数F(x”)は,入力パタンがそのクラ
スに属していれば負の値,属していなければ正の値を持
つように設計されている。すなわち,F(x”)は各ク
ラスで他のクラスとの違いを反映する関数である。
In the discriminant value calculation process 7, the discriminant function F
The discriminant value f is obtained for each class using (x "). The discriminant function F (x") of each class is a negative value if the input pattern belongs to the class, and a positive value if the input pattern does not belong to the class. Designed to have That is, F (x ″) is a function that reflects the difference between each class and other classes.

【0015】クラス決定処理9では各クラス毎に, g=d+γ・f を求め,gが最も小さい値を与えるクラスを選択し,入
力パタンの属するクラスを決定する。なお,γは予め決
められた定数である。ここで,距離関数D(x”)とし
てどのような関数を用いるか,判別関数F(x”)をど
のように決定するかが課題となる。
In a class determination process 9, g = d + γ · f is determined for each class, the class giving the smallest value of g is selected, and the class to which the input pattern belongs is determined. Here, γ is a predetermined constant. Here, what kind of function is used as the distance function D (x ″) and how to determine the discriminant function F (x ″) are issues.

【0016】本発明では,D(x”)を用いて識別を行
ったときに求められるライバルパタン集合と各クラスの
パタン集合との間で線形判別分析が行われて,F
(x”)が決定される。以下,D(x”)として重み付
きユークリッド距離を用いた場合の例を示す。
In the present invention, a linear discriminant analysis is performed between a rival pattern set obtained when identification is performed using D (x ″) and a pattern set of each class, and
(X ") is determined. Hereinafter, an example in which a weighted Euclidean distance is used as D (x") will be described.

【0017】重み付きユークリッド距離は,以下のよう
に書くことができる。 D(x”)=Σωm (x”m −μm 2 ただし,x”=(x”1 ,…,x”M t は入力特徴ベ
クトル,μ=(μ1 ,…,μM t は参照パタンベクト
ル,ω=(ω1 ,…,ωM t は重みベクトル,Mは特
徴の次元数である。また,tは転置を表す。Σはm=1
からMまでの総和を表す。ここで,ω1 〜ωM が1であ
ればD(x”)はユークリッド距離となる。識別辞書6
には,各クラスの参照パタンベクトル,重みベクトルが
格納される。判別関数F(x”)は,変数ym ,yM+m
を以下のように定義して求める。
The weighted Euclidean distance can be written as: D (x ″) = Σω m (x ″ m −μ m ) 2 where x ″ = (x ″ 1 ,..., X ″ M ) t is an input feature vector, and μ = (μ 1 ,..., Μ M ) t is a reference pattern vector, ω = (ω 1 ,..., ω M ) t is a weight vector, M is the number of dimensions of a feature, t is transpose, and Σ is m = 1.
To M. Here, if ω 1 to ω M is 1, D (x ″) is the Euclidean distance.
Stores a reference pattern vector and a weight vector of each class. The discriminant function F (x ″) includes variables y m , y M + m
Is defined as follows.

【0018】ym =(x”m −μm 2M+m =(x”m −μm ) すなわち,変数として訓練パタンの特徴ベクトルの各要
素から参照パタンベクトルの各要素を引いたもの,およ
びそれを自乗したものの両方を変数として用いる。
Y m = (x ″ m −μ m ) 2 y M + m = (x ″ m −μ m ) That is, each element of the reference pattern vector is subtracted from each element of the training pattern feature vector as a variable. Both the object and its square are used as variables.

【0019】F(x”)は次のように定義される。 F(x”)=Σam m +Σbm M+m +c =Σam (x”m −μm 2 +Σbm (x”m −μm
+c (Σはm=1からMまでの総和)ただし,x”が着目ク
ラスに属するときは負,ライバルパタン集合に属する時
は正となるように{am },{bm },cの符号が決め
られる。判別辞書8には,{am },{bm },cがク
ラス毎に格納される。{am },{bm },cの具体的
な求め方は後述する。
[0019] F (x ") is defined as follows. F (x") = Σa m y m + Σb m y M + m + c = Σa m (x "m -μ m) 2 + Σb m (x "m m)
+ C (sigma is the sum of the m = 1 to M), however, x "is negative when belonging to the target class, as will be positive when belonging to rival pattern set {a m}, {b m }, the c The codes are determined, and {a m }, {b m }, c are stored for each class in the discrimination dictionary 8. A specific method of obtaining {a m }, {b m }, c will be described later. .

【0020】以上,重み付きユークリッド距離について
説明したが,同様な考え方で他の距離関数,例えばシテ
ィブロック距離等にも適用できる。図2は,{am },
{bm },cの求め方の詳細を示したものである。
Although the weighted Euclidean distance has been described above, the same concept can be applied to other distance functions, such as a city block distance. FIG. 2 shows that {a m },
It shows details of how to find {b m }, c.

【0021】まず,ステップ11で訓練パタンを用意
し,ステップ12で図1の前処理1で述べた前処理を行
う。次にステップ13で図1の特徴抽出処理2で述べた
特徴抽出を行う。ステップ14で図1の空間変換処理3
で述べた値域補正および空間変換を行う。ステップ15
で全訓練パタンに対し,原距離関数D(x”)により認
識を行う。ステップ16では,その認識結果からライバ
ルパタンの編集を行う。ライバルパタンは,各クラス毎
に着目クラス以外のクラスに属するパタンから着目クラ
スに誤認識したパタン,および誤認識しそうになったパ
タンを選択することにより求める。誤認識しそうになっ
たパタンは,着目クラス以外のクラスに属するパタンを
着目パタンからの距離の近い順に並べ,そのうちの一定
個を選ぶことにより求めることができる。
First, in step 11, a training pattern is prepared, and in step 12, the preprocessing described in preprocessing 1 of FIG. 1 is performed. Next, at step 13, the feature extraction described in the feature extraction process 2 of FIG. 1 is performed. At step 14, the space conversion process 3 of FIG.
The range correction and the space conversion described in the above are performed. Step 15
In step 16, recognition is performed using the original distance function D (x ″). In step 16, a rival pattern is edited based on the recognition result. Each rival pattern belongs to a class other than the class of interest for each class. A pattern that is erroneously recognized as the target class and a pattern that is likely to be erroneously recognized are selected from the patterns. They can be obtained by arranging them in order and selecting a certain number of them.

【0022】ついで,ステップ17で線形判別分析を行
うが,この手順は以下の通りである。まず,ベクトルy
=(y1 ,…,yM ,yM+1 ,…,y2M)に関する着目
クラスの共分散行列をSS ,およびライバルパタンの共
分散行列をSR とすると,行列Sを S=qS S +qR R により求める。qS ,qR に関しては共に0.5とする
方法,およびパタン数の比とする方法[qS =着目クラ
スのパタン数/(着目クラスのパタン数+ライバルパタ
ン数),qR =1−qS ]が知られており,どちらを用
いても算出可能である。
Next, linear discriminant analysis is performed in step 17, and this procedure is as follows. First, the vector y
If the covariance matrix of the class of interest for == (y 1 ,..., Y M , y M + 1 ,..., Y 2M ) is S S and the covariance matrix of the rival pattern is S R , the matrix S is S = q obtained by S S S + q R S R . q S and q R are both set to 0.5 and a ratio of the number of patterns [q S = number of patterns in the class of interest / (number of patterns in the class of interest + number of rivals), q R = 1− q S ] is known and can be calculated using either of them.

【0023】次に,a=(a1 ,…,aM ,b1 ,…,
M t とし,着目クラス,およびライバルパタンの平
均ベクトルyS ,yR を用いて,aおよびcを, a=S-1(yR −yS ) c=(1/2)at (yR +yS ) により求める。
Next, a = (a 1 ,..., A M , b 1 ,.
and b M) t, the mean vector y S of given class, and rival pattern, with y R, a and c, a = S -1 (y R -y S) c = (1/2) a t determined by (y R + y S).

【0024】次に,ステップ18,19で最適なγを決
定する。これは全ての訓練パタンを用い,各クラス毎に
距離関数D(x”)の値dと判別関数F(x”)の値f
から, g=d+γ・f を求め,gが最も小さい値を与えるクラスを選択して入
力パタンのクラスを決定したときに,訓練パタンに対し
て最も認識率が高くなるγを選択することにより求める
ことができる。上述のような処理を繰り返し行ったとき
に前回の認識率との差をステップ20で比較し,差が小
さければ終了する。差が大きければステップ20’で前
回までは正読で今回初めて誤読となったパタンをライバ
ルパタン集合に新しく加え,線形判別分析からの処理を
繰り返す。
Next, in steps 18 and 19, the optimum γ is determined. This uses all training patterns, and the value d of the distance function D (x ″) and the value f of the discriminant function F (x ″) are used for each class.
From the above, g = d + γ · f is obtained, and when the class of the input pattern is determined by selecting the class that gives the smallest value of g, the value is obtained by selecting γ with the highest recognition rate for the training pattern. be able to. When the processing as described above is repeatedly performed, the difference from the previous recognition rate is compared in step 20, and if the difference is small, the process is terminated. If the difference is large, in step 20 ', a pattern which has been correctly read up to the previous time and which has been misread for the first time is newly added to the rival pattern set, and the processing from linear discriminant analysis is repeated.

【0025】図3は,本発明の第2の実施例を示す図で
ある。21は前処理,22は特徴抽出処理,23は空間
変換処理,24は空間変換パラメータ格納部,25は距
離算出処理,26は識別判別辞書,27はクラス決定処
理を表す。
FIG. 3 is a diagram showing a second embodiment of the present invention. 21 is a pre-processing, 22 is a feature extraction process, 23 is a space conversion process, 24 is a space conversion parameter storage unit, 25 is a distance calculation process, 26 is an identification discrimination dictionary, and 27 is a class determination process.

【0026】この実施例では,図1に示す識別辞書6の
内容と判別辞書8の内容とを重畳した情報を持つ識別判
別辞書26を用いる。空間変換処理23までの処理は図
1の例と同じである。距離算出処理25では,各クラス
毎に距離関数D(x”)の値と判別関数F(x”)の値
を加えた値G(x”)を求めるようにしている。クラス
決定処理27では,G(x”)の値をもとに入力パタン
のクラスを決定する。この場合の識別判別辞書26の内
容の作成方法の例としては,特願平4−343686号
に述べられている方法がある。
In this embodiment, an identification discrimination dictionary 26 having information obtained by superimposing the contents of the identification dictionary 6 and the contents of the discrimination dictionary 8 shown in FIG. 1 is used. The processing up to the space conversion processing 23 is the same as the example in FIG. In the distance calculation processing 25, a value G (x ″) obtained by adding the value of the distance function D (x ″) and the value of the discriminant function F (x ″) is obtained for each class. , G (x ″) is determined based on the value of the input pattern. As an example of a method of creating the contents of the identification discrimination dictionary 26 in this case, there is a method described in Japanese Patent Application No. 4-343686.

【0027】例えば,重み付きユークリッド距離の場
合, G(x”)=D(x”)+γ・F(x”) =Σωm ′(x”m −μm ′)2 +d ただし, ωm ′=ωm +γam μm ′=μm −(1/2)γbm /ωm ′ d=γc−(1/4)Σ(γbm 2 /ωm ′ であり,識別判別辞書26には各クラス毎にμ′=(μ
1 ′,…,μM ′)t ,ω′=(ω1 ′,…,ωM ′)
t ,dが格納される。なお,Σはm=1からMまでの総
和である。
For example, in the case of a weighted Euclidean distance, G (x ″) = D (x ″) + γ · F (x ″) = Σω m ′ (x ″ m −μ m ′) 2 + d where ω m = ω m + γa m μ m '= μ m - (1/2) γb m / ω m' d = γc- (1/4) is Σ (γb m) 2 / ω m ', the identification determination dictionary 26 Is μ ′ = (μ
1 ', ..., μ M' ) t, ω '= (ω 1', ..., ω M ')
t and d are stored. Note that Σ is the sum of m = 1 to M.

【0028】図4は,本発明の第3の実施例を示す図で
ある。31は前処理,32は特徴抽出処理,33は空間
変換処理,34は空間変換パラメータ格納部,35は次
元圧縮パラメータ格納部,36は距離算出処理,37は
識別判別辞書,38はクラス決定処理を表す。
FIG. 4 is a diagram showing a third embodiment of the present invention. 31 is a pre-process, 32 is a feature extraction process, 33 is a space conversion process, 34 is a space conversion parameter storage unit, 35 is a dimension compression parameter storage unit, 36 is a distance calculation process, 37 is an identification discrimination dictionary, and 38 is a class determination process. Represents

【0029】この実施例では,図1に示す識別辞書6の
内容と判別辞書8の内容とを重畳した情報を持つ識別判
別辞書37を用いる。特徴抽出処理32までは図1の例
と同じである。特徴抽出処理の後,次元圧縮パラメータ
格納部35に格納されている次元に対してのみ特徴ベク
トルの空間変換を行う。
In this embodiment, an identification discrimination dictionary 37 having information obtained by superimposing the contents of the identification dictionary 6 and the contents of the discrimination dictionary 8 shown in FIG. 1 is used. The process up to the feature extraction process 32 is the same as the example of FIG. After the feature extraction processing, the spatial conversion of the feature vector is performed only for the dimensions stored in the dimension compression parameter storage unit 35.

【0030】次元圧縮パラメータ格納部35には予め,
訓練パタンの値域補正後の特徴ベクトルの共分散行列の
固有値がある一定値以下の値となる次元番号が格納され
ている。この一定値は,訓練パタンの認識精度が保てる
範囲で定める。
The dimension compression parameter storage unit 35 stores in advance
A dimension number in which the eigenvalue of the covariance matrix of the feature vector after the range correction of the training pattern is a value equal to or less than a certain value is stored. This constant value is determined within a range where the recognition accuracy of the training pattern can be maintained.

【0031】距離算出処理36以降は図3の例と同じで
ある。
The processing after the distance calculation processing 36 is the same as in the example of FIG.

【0032】[0032]

【発明の効果】以上説明したように,本発明によれば,
各特徴ベクトルの分布を正確に推定できるため,認識精
度の著しい向上が可能である。
As described above, according to the present invention,
Since the distribution of each feature vector can be accurately estimated, the recognition accuracy can be significantly improved.

【0033】また,特徴ベクトルの次元圧縮を行うこと
により,認識精度を損なうことなく,演算量を削減する
ことが可能である。
Further, by performing dimension compression of the feature vector, it is possible to reduce the amount of calculation without impairing the recognition accuracy.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例を示す図である。FIG. 1 is a diagram showing an embodiment of the present invention.

【図2】判別関数を求める場合の手順を示す図である。FIG. 2 is a diagram showing a procedure for obtaining a discriminant function.

【図3】本発明の第2の実施例を示す図である。FIG. 3 is a diagram showing a second embodiment of the present invention.

【図4】本発明の第3の実施例を示す図である。FIG. 4 is a diagram showing a third embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 前処理 2 特徴抽出処理 3 空間変換処理 4 空間変換パラメータ格納部 5 距離算出処理 6 識別辞書 7 判別値算出処理 8 判別辞書 9 クラス決定処理 21 前処理 22 特徴抽出処理 23 空間変換処理 24 空間変換パラメータ格納部 25 距離算出処理 26 識別判別辞書 27 クラス決定処理 31 前処理 32 特徴抽出処理 33 空間変換処理 34 空間変換パラメータ格納部 35 次元圧縮パラメータ格納部 36 距離算出処理 37 識別判別辞書 38 クラス決定処理 Reference Signs List 1 preprocessing 2 feature extraction processing 3 space conversion processing 4 space conversion parameter storage unit 5 distance calculation processing 6 identification dictionary 7 discrimination value calculation processing 8 discrimination dictionary 9 class determination processing 21 preprocessing 22 feature extraction processing 23 space conversion processing 24 space conversion Parameter storage unit 25 Distance calculation processing 26 Identification discrimination dictionary 27 Class determination processing 31 Preprocessing 32 Feature extraction processing 33 Spatial conversion processing 34 Space conversion parameter storage unit 35 Dimensional compression parameter storage unit 36 Distance calculation processing 37 Identification discrimination dictionary 38 Class determination processing

フロントページの続き (56)参考文献 特開 平6−195517(JP,A) 特開 平5−324910(JP,A) 特開 平4−69780(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06K 9/62 640 Continuation of front page (56) References JP-A-6-195517 (JP, A) JP-A-5-324910 (JP, A) JP-A-4-69780 (JP, A) (58) Fields investigated (Int) .Cl. 7 , DB name) G06K 9/62 640

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力パタンから抽出された特徴ベクトル
と,各クラス毎に1つ以上の参照パタンの特徴ベクトル
に関する情報からなる識別辞書とを,識別関数に基づい
て照合することにより得られる識別距離を求める過程
と, 予め訓練パタンに対して前記識別辞書を用いて認識を行
い,誤った,または誤りそうになったエラーパタン集合
を求め,前記エラーパタン集合,または着目クラスに属
するパタン集合,または正読パタン集合のうちの1つ以
上の集合に関する情報を持つ修正辞書と,前記入力パタ
ンから抽出された特徴ベクトルとを修正関数に基づいて
照合することにより得られる修正距離を求める過程と, 前記識別距離および前記修正距離の一方もしくは両方を
用いて得られる値に基づいて,前記入力パタンのクラス
を決定する過程とを有するパタン認識方法において, 前記識別関数と前記修正関数の一方もしくは両方が対称
な関数である場合において,前記入力パタンから抽出さ
れた特徴ベクトルの分布が対称になるように特徴の線形
結合による空間変換を行う空間変換過程を有し, 前記空間変換過程により生成された変換特徴ベクトルを
前記入力パタンから抽出された特徴ベクトルの代わりに
用い, 前記空間変換過程を経た識別辞書と前記変換特徴ベクト
ルとを照合して前記入力パタンの属するクラスを決定す
ることを特徴とするパタン認識方法。
1. An identification distance obtained by collating a feature vector extracted from an input pattern with an identification dictionary including information on feature vectors of one or more reference patterns for each class based on an identification function. And a step of recognizing a training pattern in advance using the identification dictionary to obtain an erroneous or erroneous error pattern set, and obtaining the error pattern set or a pattern set belonging to a class of interest, or A step of obtaining a correction distance obtained by comparing a correction dictionary having information on one or more sets of correct reading pattern sets with a feature vector extracted from the input pattern based on a correction function; Determining the class of the input pattern based on a value obtained using one or both of the identification distance and the correction distance In the pattern recognition method having, in the above case one or both of said correction function and identification function is a symmetric function, the distribution of feature vectors extracted from the input pattern is characterized to be symmetrical linear
A spatial transformation step of performing a spatial transformation by coupling; using a transformed feature vector generated by the spatial transformation step instead of a feature vector extracted from the input pattern; A pattern recognition method comprising: determining a class to which the input pattern belongs by comparing the input pattern with a feature vector.
【請求項2】 入力パタンから抽出された特徴ベクトル
と,各クラス毎に1つ以上の参照パタンの特徴ベクトル
に関する情報からなる識別辞書とを照合することにより
得られる識別距離, および前記入力パタンの特徴ベクトルと,予め訓練パタ
ンに対して前記識別辞書を用いて認識を行い,誤った,
または誤りそうになったエラーパタン集合を求め,前記
エラーパタン集合,または着目クラスに属するパタン集
合,または正読パタン集合のうちの1つ以上の集合に関
する情報を持つ修正辞書とを照合して得られる修正距離
の一方もしくは両方を用いて得られる値に相当する修正
識別距離を, 前記入力パタンの特徴ベクトルと,前記識別辞書および
前記修正辞書を重畳して得られる修正識別辞書とを,修
正識別距離関数に基づいて照合することによって求め, 前記入力パタンのクラスを前記修正識別距離に基づいて
決定する過程を有するパタン認識方法において, 前記修正識別距離関数が対称な関数である場合におい
て,入力されたパタンから抽出された特徴ベクトルの分
布が対称になるように特徴の線形結合による空間変換を
行う空間変換過程を有し, 前記空間変換過程により生成された変換特徴ベクトルを
前記入力パタンから抽出された特徴ベクトルの代わりに
用い, 前記空間変換過程を経た修正識別辞書と前記変換特徴ベ
クトルとを照合して前記入力パタンの属するクラスを決
定することを特徴とするパタン認識方法。
2. An identification distance obtained by comparing a feature vector extracted from an input pattern with an identification dictionary including information on feature vectors of one or more reference patterns for each class, and an identification distance of the input pattern. Recognize the feature vector and the training pattern in advance using the identification dictionary,
Alternatively, an error pattern set that is likely to be erroneous is obtained, and the error pattern set is obtained by collating with a modified dictionary having information on one or more of the error pattern set, the pattern set belonging to the class of interest, or the correct reading pattern set. A correction identification distance corresponding to a value obtained by using one or both of the correction distances obtained by the correction pattern is obtained by correcting the feature vector of the input pattern, the identification dictionary, and the correction identification dictionary obtained by superimposing the correction dictionary. In a pattern recognition method having a step of determining the class of the input pattern based on the modified identification distance, the pattern is obtained by matching based on a distance function. spatial distribution of feature vectors extracted from the pattern performs spatial transformation by linear combination of features to be symmetrical variant Using the transformed feature vector generated by the spatial transformation process in place of the feature vector extracted from the input pattern, collating the modified identification dictionary after the spatial transformation process with the transformed feature vector. A pattern recognition method, wherein a class to which the input pattern belongs is determined.
【請求項3】 請求項1または請求項2記載のパタン認
識方法において, 各クラス毎に新規にそのクラスに誤った,または誤りそ
うになったそのクラスに属さないパタンを該エラーパタ
ン集合に加えつつ繰り返し修正辞書または修正識別辞書
を作成あるいは更新することを特徴とするパタン認識方
法。
3. The pattern recognition method according to claim 1 or 2, wherein for each class, a new pattern that is erroneous to the class or that is likely to be erroneous does not belong to the class is added to the error pattern set. A pattern recognition method characterized by repeatedly creating or updating a correction dictionary or a correction identification dictionary.
【請求項4】 請求項1,請求項2または請求項3記載
のパタン認識方法において, 主成分分析による特徴次元圧縮を行うことを特徴とする
パタン認識方法。
4. The pattern recognition method according to claim 1, wherein feature dimension compression is performed by principal component analysis.
JP6183281A 1994-08-04 1994-08-04 Pattern recognition method Expired - Lifetime JP3019911B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6183281A JP3019911B2 (en) 1994-08-04 1994-08-04 Pattern recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6183281A JP3019911B2 (en) 1994-08-04 1994-08-04 Pattern recognition method

Publications (2)

Publication Number Publication Date
JPH0850636A JPH0850636A (en) 1996-02-20
JP3019911B2 true JP3019911B2 (en) 2000-03-15

Family

ID=16132914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6183281A Expired - Lifetime JP3019911B2 (en) 1994-08-04 1994-08-04 Pattern recognition method

Country Status (1)

Country Link
JP (1) JP3019911B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002099916A (en) * 2000-09-25 2002-04-05 Olympus Optical Co Ltd Pattern-classifying method, its device, and computer- readable storage medium
JP6080580B2 (en) * 2013-02-07 2017-02-15 三菱電機株式会社 Pattern recognition device

Also Published As

Publication number Publication date
JPH0850636A (en) 1996-02-20

Similar Documents

Publication Publication Date Title
US5901244A (en) Feature extraction system and face image recognition system
US6430307B1 (en) Feature extraction system and face image recognition system
Paisitkriangkrai et al. Pedestrian detection with spatially pooled features and structured ensemble learning
US8897503B2 (en) Face recognition with combined PCA-based datasets
KR101117837B1 (en) Multi-image feature matching using multi-scale oriented patches
US7865492B2 (en) Semantic visual search engine
US20210117733A1 (en) Pattern recognition apparatus, pattern recognition method, and computer-readable recording medium
CN107578007A (en) A kind of deep learning face identification method based on multi-feature fusion
JPH0355869B2 (en)
Salscheider Featurenms: Non-maximum suppression by learning feature embeddings
CN111709313B (en) Pedestrian re-identification method based on local and channel combination characteristics
EP0960381B1 (en) Method and apparatus for recognizing patterns
Han et al. Object tracking by adaptive feature extraction
CN111353514A (en) Model training method, image recognition method, device and terminal equipment
JP3019911B2 (en) Pattern recognition method
JP3537949B2 (en) Pattern recognition apparatus and dictionary correction method in the apparatus
JPH10143613A (en) Pattern recognition method
CN111339973A (en) Object identification method, device, equipment and storage medium
CN116051873A (en) Key point matching method and device and electronic equipment
CN112489678B (en) Scene recognition method and device based on channel characteristics
CN111914718B (en) Feature weighted PCA face recognition method based on average influence value data transformation
CN114154569B (en) Noise data identification method, device, terminal and storage medium
JP2951496B2 (en) Pattern recognition method
EP4006775A1 (en) Method and device for object recognition
Skarbek Merging subspace models for face recognition

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090107

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100107

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110107

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110107

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120107

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130107

Year of fee payment: 13

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term