JP3180477B2 - Pattern recognition device - Google Patents

Pattern recognition device

Info

Publication number
JP3180477B2
JP3180477B2 JP33017092A JP33017092A JP3180477B2 JP 3180477 B2 JP3180477 B2 JP 3180477B2 JP 33017092 A JP33017092 A JP 33017092A JP 33017092 A JP33017092 A JP 33017092A JP 3180477 B2 JP3180477 B2 JP 3180477B2
Authority
JP
Japan
Prior art keywords
category
unit
similarity
input
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP33017092A
Other languages
Japanese (ja)
Other versions
JPH06176158A (en
Inventor
良宏 小島
敏行 香田
進 丸野
泰治 〆木
浩司 山本
寿男 丹羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP33017092A priority Critical patent/JP3180477B2/en
Publication of JPH06176158A publication Critical patent/JPH06176158A/en
Priority to US08/513,294 priority patent/US6041141A/en
Priority to US08/965,534 priority patent/US5987170A/en
Application granted granted Critical
Publication of JP3180477B2 publication Critical patent/JP3180477B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、入力されたパターンの
認識を行う装置に関するものである。特に、入力パター
ンに対して、大分類を行ったあとに細分類を行なうとい
うような階層的な認識を行うことによってパターンの認
識を行う装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for recognizing an input pattern. In particular, the present invention relates to an apparatus for recognizing a pattern by performing hierarchical recognition such as performing a large classification and then a fine classification on an input pattern.

【0002】[0002]

【従来の技術】従来の、入力されたパターンに対して、
まず大分類を行って入力パターンが属するカテゴリ群
(ここで、カテゴリ群とは、パターンの特徴ベクトルが
類似するパターンの集合を示す。)を選択し、次に選択
されたカテゴリ群において、細分類を行なうことによっ
て入力パターンの認識を行なうパターン認識装置の例と
しては、例えば、電子情報通信学会論文誌D−II Vol.J
75-D-II No.3 pp545-553「大規模ニューラルネット”C
ombNET−II”」に示されている。
2. Description of the Related Art Conventionally, for an input pattern,
First, a large classification is performed to select a category group to which the input pattern belongs (here, the category group indicates a set of patterns having similar pattern feature vectors), and then the sub-classification is performed on the selected category group. As an example of a pattern recognition apparatus that recognizes an input pattern by performing the following, for example, IEICE Transactions D-II Vol.J
75-D-II No.3 pp545-553 "Large-scale neural network" C
ombNET-II "".

【0003】図9はこの従来のパターン認識装置の構成
図を示すものであり、110は特徴抽出部であり、入力パ
ターンからカテゴリを識別するために用いる特徴ベクト
ルを抽出するものである。111は大分類部であり、入力
パターンを各カテゴリ群に大分類するものである。112
は細分類部であり、入力パターンを各カテゴリ群内で細
分類するものである。113は群選択部であり、大分類部1
11の出力値(以下、適合度と呼ぶ。)から複数個のカテ
ゴリ群を選択するものである。114は細分類部入力信号
選択部であり、群選択部113で得られる群選択情報に基
づいて入力パターンの特徴ベクトルを入力する細分類部
112を選択するものである。115は識別部であり、群選択
部113で選択されたカテゴリ群の適合度と細分類部112の
出力値から入力パターンの識別を行なうものである。
FIG. 9 is a block diagram of this conventional pattern recognition apparatus. Reference numeral 110 denotes a feature extraction unit which extracts a feature vector used to identify a category from an input pattern. Reference numeral 111 denotes a large classification unit, which largely classifies the input pattern into each category group. 112
Denotes a sub-classification unit, which sub-classifies the input pattern in each category group. 113 is a group selection unit, and a large classification unit 1
A plurality of category groups are selected from the eleven output values (hereinafter, referred to as “fitness”). 114 is a sub-classification unit input signal selection unit, which inputs a feature vector of an input pattern based on the group selection information obtained by the group selection unit 113
Select 112. Reference numeral 115 denotes an identification unit that identifies an input pattern based on the degree of conformity of the category group selected by the group selection unit 113 and the output value of the subclassification unit 112.

【0004】大分類部111において、116は入力部であ
り、入力パターンの特徴ベクトルを入力するものであ
る。117は多入力一出力信号処理部であり、入力パター
ンに対する各カテゴリ群の適合度を計算するものであ
る。
In the large classification unit 111, an input unit 116 inputs a feature vector of an input pattern. Reference numeral 117 denotes a multi-input / one-output signal processing unit which calculates the degree of conformity of each category group to an input pattern.

【0005】細分類部112において、118は入力部であ
り、細分類部入力信号選択部114から出力される入力パ
ターンの特徴ベクトルを入力するものである。119は多
入力一出力信号処理部であり、それに接続されている下
層の入力部118、または多入力一出力信号処理部119の出
力と、その連結の度合である重み係数とを各々掛け合わ
せて総和したものをしきい値処理して出力するものであ
る。ここでは、これら複数個の多入力一出力信号処理部
を層構造を持ち、各層内相互の結合がなく、上位層にの
み信号が伝搬するようにネットワーク接続することによ
って、入力パターンに対するカテゴリ群内の各カテゴリ
に類似する度合が求められる。120は最大値選択部であ
り、最上位層の複数個の前記多入力ー出力信号処理部の
出力の中から最大値を選択するものである。
In the sub-classifying section 112, reference numeral 118 denotes an input section for inputting a feature vector of an input pattern outputted from the sub-classifying section input signal selecting section 114. 119 is a multi-input / one-output signal processing unit, and the output of the lower-layer input unit 118 or the multi-input / one-output signal processing unit 119 connected thereto is multiplied by a weight coefficient which is a degree of the connection. The sum is output after threshold processing. Here, the plurality of multi-input / one-output signal processing units have a layered structure, and are connected to a network so that there is no mutual connection in each layer and the signal propagates only to the upper layer. Is determined for each category. Reference numeral 120 denotes a maximum value selection unit which selects the maximum value from the outputs of the plurality of multi-input / output signal processing units in the uppermost layer.

【0006】識別部115において、121は類似度計算部で
あり、群選択部113で選択されたカテゴリ群の適合度
と、そのカテゴリ群に対応する細分類部112の出力値か
ら各カテゴリの類似度を計算するものである。122はカ
テゴリ識別部であり、類似度計算部121から得られた各
カテゴリの類似度の最大値を求めることによって、入力
パターンのカテゴリの識別を行なうものである。
In the identification unit 115, a similarity calculation unit 121 is used to determine the similarity of each category from the fitness of the category group selected by the group selection unit 113 and the output value of the subclassification unit 112 corresponding to the category group. Calculate the degree. A category identification unit 122 identifies the category of the input pattern by obtaining the maximum value of the similarity of each category obtained from the similarity calculation unit 121.

【0007】以上のように構成された従来のパターン認
識装置について、以下その動作を説明する。まず、特徴
抽出部110が、入力されたパターンに対してn個の特徴
データからなる特徴ベクトルX
The operation of the conventional pattern recognition device configured as described above will be described below. First, the feature extraction unit 110 generates a feature vector X composed of n pieces of feature data for an input pattern.

【0008】[0008]

【数1】 (Equation 1)

【0009】を求める。次に、特徴ベクトルXは、大分
類部111の入力部116に入力される。入力部116はパター
ンの特徴データ数に等しくn個用意されており、各特徴
データxiはそれぞれ対応する入力部116に入力される。
大分類部111の各多入力一出力信号処理部117は、それに
接続されている入力部111の入力xjとその連結の度合で
ある重み係数vij (1≦i≦mr;mrはカテゴリ群の
数、1≦j≦n)とを乗算したものの総和を計算した
後、これを特徴ベクトルX及び、各多入力一出力信号処
理部117の重み係数ベクトルVi
Is obtained. Next, the feature vector X is input to the input unit 116 of the large classification unit 111. The input unit 116 is equal to n pieces prepared wherein the number of data patterns, each feature data x i is inputted to the input unit 116 corresponding.
Each multi-input first output signal processing section 117 of the major classification section 111, an input x j and the weighting coefficient v ij (1 ≦ i ≦ m r is the degree of connection of the input section 111 connected thereto; the m r After calculating the sum of the product of the number of category groups and 1 ≦ j ≦ n), the sum is calculated as the feature vector X and the weight coefficient vector V i of each multi-input / one-output signal processing unit 117.

【0010】[0010]

【数2】 (Equation 2)

【0011】のノルム|X|、|Vi|の積で割り算し
たものを出力する。つまり、図10に示す重み係数ベク
トルViをもつ多入力一出力信号処理部117の出力値sim
(X,V i)は、
Norm | X |, | ViDivide by the product of |
Output That is, the weight coefficient vector shown in FIG.
Tor ViOutput value sim of the multi-input one-output signal processing unit 117 having
(X, V i)

【0012】[0012]

【数3】 (Equation 3)

【0013】と表わすことができる。なお、重み係数ベ
クトルViについては、特徴ベクトルXが類似するパタ
ーンの集合に対して決まった多入力一出力信号処理部が
最大出力を発生するように、予め設計しておく。
Can be expressed as The weight coefficient vector V i is designed in advance so that a determined multi-input / one-output signal processing unit generates a maximum output for a set of patterns having similar feature vectors X.

【0014】これらの重み係数ベクトルVi は、従来例
によると、以下のような手法で設計される。まず第1過
程では、重み係数ベクトル設計用のパターンの特徴ベク
トルXを入力する毎に、最もsim(X,Vi)の大きいVC
を求め(このとき、XはVCに最適整合するとい
う。)、VCをXに近づける。また、1つの重み係数ベ
クトルに最適整合する入力パターンがある一定数以上に
なった時には、その重み係数ベクトルが担当する領域を
2つに分割する。第2過程では、重み係数ベクトル設計
用の全パターンに対して、最適整合するViを求め、そ
れが前回と変化したかどうかを調べる。そして、変更が
あれば、そのViを修正する。このとき、第1過程と同
様に、重み係数ベクトルの分裂も行なう。これを重み係
数ベクトルの修正、分裂がなくなるまで繰り返す。
According to the prior art, these weight coefficient vectors V i are designed by the following method. First, in the first process, every time a feature vector X of a pattern for weight coefficient vector design is input, V C having the largest sim (X, V i ) is set.
The calculated (this time, X is that optimally matched to V C.), Closer to V C to X. When the number of input patterns optimally matched to one weight coefficient vector exceeds a certain number, the area assigned to the weight coefficient vector is divided into two. In the second step, the total pattern for weighting coefficient vectors designed to obtain the V i for optimum matching to see if it has changed from the previous. And, if there is a change, to correct the V i. At this time, similarly to the first process, the division of the weight coefficient vector is also performed. This is repeated until the correction and division of the weight coefficient vector are eliminated.

【0015】このようにして、重み係数ベクトルの設計
を行なうことによって、各重み係数ベクトルViは、入
力パターンの特徴ベクトル空間を分割し、量子化するこ
とができる。つまり、入力パターンは各重み係数ベクト
ルViによって、特徴ベクトルが類似する複数のパター
ンの集合、即ち、複数のカテゴリ群に分類される。そし
て、各多入力一出力信号処理部117の出力値は、入力パ
ターンに対する各カテゴリ群の適合度として群選択部11
3に出力される。
[0015] In this way, by performing the design of the weighting coefficient vectors, each weight coefficient vector V i divides the feature vector space of the input pattern, it can be quantized. That is, the input pattern by each weighting coefficient vector V i, a set of a plurality of patterns feature vectors are similar, that is, into categories groups. The output value of each multi-input / one-output signal processing unit 117 is used as the degree of conformity of each category group with respect to the input pattern.
Output to 3.

【0016】群選択部113では、大分類部111で得られた
適合度の大きい順に任意個のカテゴリ群を選び、どのカ
テゴリ群が選択されたかを示す群選択情報とそれに対応
する適合度を出力する。
The group selecting unit 113 selects an arbitrary number of category groups in descending order of the degree of matching obtained by the large classifying unit 111, and outputs group selecting information indicating which category group has been selected and the corresponding degree of matching. I do.

【0017】群選択部113から得られる群選択情報に基
づいて、細分類入力信号選択部114は、入力パターンの
特徴ベクトルXを入力する細分類部112を選択し、Xを
これらの細分類部112へ出力する。
Based on the group selection information obtained from the group selection unit 113, the sub-classification input signal selection unit 114 selects the sub-classification unit 112 for inputting the feature vector X of the input pattern, and replaces X with these sub-classification units. Output to 112.

【0018】群選択部113で選択されたカテゴリ群に対
応する各々の細分類部112(即ち、細分類入力信号選択
部114から入力パターンの特徴ベクトルXを入力された
細分類部112)では、まず、入力部118に、特徴ベクトル
Xが入力される。入力部118は、パターンの特徴データ
数に等しくN個用意されており、各特徴データxiはそ
れぞれ対応する入力部118に入力される。細分類部112の
各多入力一出力信号処理部119はそれに接続されている
下層の入力部118、または多入力一出力信号処理部119の
出力とその連結の度合である重み係数とを掛け合わせた
ものの総和をしきい値関数で変換した後、その値を上層
へ出力する。ここで、各細分類部112の最上位層の多入
力一出力信号処理部119は、各カテゴリ群に含まれるパ
ターンのカテゴリ数と同じ個数に設定され、最上位層の
各多入力一出力信号処理部119は、これらの各カテゴリ
に対応している。最大値選択部120は最上位層の各多入
力一出力信号処理部119の出力値の中で最大のものを選
び、この多入力一出力信号処理部119に対応するカテゴ
リと、その最大出力値を出力する。
In each of the sub-classification units 112 corresponding to the category group selected by the group selection unit 113 (ie, the sub-classification unit 112 to which the feature vector X of the input pattern is input from the sub-classification input signal selection unit 114) First, the input unit 118 receives the feature vector X. The input unit 118 is equal to the N prepared wherein the number of data patterns, each feature data x i is inputted to the input unit 118 corresponding. Each multi-input / one-output signal processing unit 119 of the sub-classification unit 112 multiplies the output of the lower-layer input unit 118 connected thereto or the output of the multi-input / one-output signal processing unit 119 by a weight coefficient which is a degree of connection thereof. After converting the sum of the data by a threshold function, the value is output to the upper layer. Here, the multi-input one-output signal processing unit 119 of the top layer of each sub-classification unit 112 is set to the same number as the number of categories of the pattern included in each category group, and the multi-input one-output signal of the top layer is set. The processing unit 119 corresponds to each of these categories. The maximum value selection unit 120 selects the largest one of the output values of each multi-input one-output signal processing unit 119 of the highest layer, and the category corresponding to the multi-input one-output signal processing unit 119 and the maximum output value Is output.

【0019】なお、各多入力一出力信号処理部119の重
み係数は、カテゴリ群内の各カテゴリをもつパターンの
特徴ベクトルXに対して、その各カテゴリに対応する最
上位層の多入力一出力信号処理部119が最大出力を発生
するように、予め学習されている。
The weight coefficient of each multi-input / one-output signal processing unit 119 is determined based on the feature vector X of the pattern having each category in the category group, and the multi-input / one-output of the top layer corresponding to each category. The signal processing unit 119 is previously learned so as to generate the maximum output.

【0020】具体的には、このような重み係数の学習方
法は、誤差逆伝搬法と呼ばれる学習アルゴリズムによっ
て行われる。誤差逆伝搬法については、例えばD. E. Ru
melhart, G. E.Hinton and R. J. Williams による"Lea
rning Representations by Back-Propagating Errors,"
Nature, vol.323, pp.533-536, Oct. 9, 1986 に示さ
れている。
Specifically, such a learning method of the weight coefficient is performed by a learning algorithm called an error back propagation method. For the error backpropagation method, for example, DE Ru
"Lea" by melhart, GE Hinton and RJ Williams
rning Representations by Back-Propagating Errors, "
Nature, vol. 323, pp. 533-536, Oct. 9, 1986.

【0021】以下、誤差逆伝搬法の概略について説明す
る。まず、重み係数学習用のパターンの特徴ベクトルX
が細分類部112の入力部118に入力される。各多入力一出
力信号処理部119は、既に説明したように、各々それに
接続されている下層の入力部118、または多入力一出力
信号処理部119の出力とその連結の度合である重み係数
とを掛け合わせたものの総和をしきい値関数で変換した
後、その値を上層へ出力する。ここで、全ての最上位層
の多入力一出力信号処理部119の出力信号ok と望まし
い出力信号tk(これを教師信号と呼ぶ)との誤差Eは
(数4)のように求められる。
Hereinafter, an outline of the error back propagation method will be described. First, the feature vector X of the pattern for weight coefficient learning
Is input to the input unit 118 of the sub-classification unit 112. As described above, each multi-input one-output signal processing unit 119 includes a lower-layer input unit 118 connected thereto, or the output of the multi-input one-output signal processing unit 119 and a weighting factor indicating the degree of connection thereof. Is converted by a threshold function, and the value is output to the upper layer. It is where the error E with all of the output signal o k and the desired output signal t k multiple-input first output signal processing section 119 of the top layer (referred to as a teacher signal) is obtained as equation (4) .

【0022】[0022]

【数4】 (Equation 4)

【0023】但し、Σp は教師信号のパターン数に関す
る総和である。学習の目的は、誤差Eを最小にする重み
係数の値を決定することであり、各多入力一出力信号処
理部間119の重み係数の変更量△wij は(数5)に基づ
いて計算される。
Here, Σ p is the total sum regarding the number of patterns of the teacher signal. The purpose of the learning is to determine the value of the weight coefficient that minimizes the error E, and the amount of change △ w ij of the weight coefficient of each multi-input / one-output signal processing unit 119 is calculated based on ( Equation 5). Is done.

【0024】[0024]

【数5】 (Equation 5)

【0025】但し、εは学習レートと呼ばれる正の定数
である。このような(数5)に基づいた重み係数の更新
を、学習用パターンの特徴ベクトルが入力されるたびに
繰り返すことにより、誤差Eを小さくすることができ
る。誤差Eが十分小さくなると、出力信号が望ましい値
に十分近くなったものとして、学習を終了する。
Here, ε is a positive constant called a learning rate. The error E can be reduced by repeating such updating of the weighting coefficient based on (Equation 5) every time the feature vector of the learning pattern is input. When the error E becomes sufficiently small, the learning is terminated on the assumption that the output signal has become sufficiently close to the desired value.

【0026】このような重み係数の学習方法によって、
カテゴリ群内の各カテゴリをもつパターンに対し、その
各カテゴリに対応する最上位層の多入力一出力信号処理
部119が最大出力を発生するようにすることができる。
従って、最上位層の複数個の多入力一出力信号処理部11
9の中で、最大出力を発生するものを最大値選択部120で
選ぶことにより、各カテゴリ群内において、即ち、各細
分類部において入力パターンのカテゴリを識別すること
ができる。
According to such a weight coefficient learning method,
For a pattern having each category in the category group, the multi-input / one-output signal processing unit 119 of the highest layer corresponding to each category can generate the maximum output.
Therefore, a plurality of multi-input one-output signal processing units 11 in the uppermost layer
By selecting the one that generates the maximum output from among the nine in the maximum value selection unit 120, the category of the input pattern can be identified in each category group, that is, in each sub-classification unit.

【0027】識別部115では、まず、類似度計算部121に
おいて、群選択部113で選択されたカテゴリ群の適合度
と、そのカテゴリ群に対応する細分類部112の出力値か
ら(数6)式を用いて細分類部112で得られた各カテゴ
リの類似度を計算し、これらの類似度をカテゴリ識別部
122に出力する。
In the identification section 115, first, in the similarity calculation section 121, the degree of conformity of the category group selected by the group selection section 113 and the output value of the subclassification section 112 corresponding to the category group are expressed by (Equation 6). The similarity of each category obtained by the sub-classification unit 112 is calculated using the equation, and these similarities are calculated by the category identification unit.
Output to 122.

【0028】[0028]

【数6】 (Equation 6)

【0029】但し、a,bは実定数とする。最後に、カ
テゴリ識別部122は、類似度計算部121から得られる各カ
テゴリの類似度を比較し、それらの中で最大となる類似
度に対応するカテゴリを識別結果として出力する。
Here, a and b are real constants. Finally, the category identifying unit 122 compares the similarities of the respective categories obtained from the similarity calculating unit 121, and outputs a category corresponding to the maximum similarity among them as an identification result.

【0030】[0030]

【発明が解決しようとする課題】パターン認識では、パ
ターンを識別するうえで有効な特徴を特徴ベクトルとし
て抽出するが、一般に単一の特徴ベクトルだけでは、十
分な認識能力を実現することは難しく、複数種類の特徴
ベクトルを使用することによって、高い識別機能を実現
することができる。つまり、複数種類の特徴を用いるこ
とによって、ある一つの特徴ベクトルではあいまいな識
別、または誤識別しかできないパターンでも、異なる特
徴ベクトルでは正確な識別が行える場合があり、このと
き正確な識別が行えるほうを重要視することによって識
別性能を向上させることができる可能性があるからであ
る。
In pattern recognition, features that are effective in identifying a pattern are extracted as feature vectors. However, in general, it is difficult to realize a sufficient recognition ability with only a single feature vector. By using a plurality of types of feature vectors, a high identification function can be realized. In other words, by using a plurality of types of features, even a pattern in which a certain feature vector can only be ambiguously or erroneously identified may be able to be accurately identified with a different feature vector. This is because there is a possibility that the discrimination performance can be improved by placing importance on.

【0031】しかしながら、多数のカテゴリをもつパタ
ーンを階層的に認識を行うパターン認識装置において、
従来例のように、特徴抽出部及び認識部をただ一つしか
備えていないような構成では、複数種類の特徴ベクトル
を用いる場合、これらを一つにまとめて入力し、認識を
行わざるを得ない。この場合、単一の特徴ベクトルのみ
を使用する時に比べ、ある程度高い識別性能を確かに実
現できるが、上記説明のような異なる特徴ベクトルを用
いることによって得られる利点を十分有効に活用するこ
とはできないという問題がある。つまり、複数種類の特
徴ベクトルを一つにまとめて使用する場合、識別性能を
高精度化することはできるが、その認識結果を用いて、
上記で述べたようなある特徴ベクトルでは誤認識するパ
ターンを異なる特徴ベクトルによる識別結果によって正
しく認識するということは非常に難しい。
However, in a pattern recognition device that hierarchically recognizes a pattern having many categories,
In a configuration in which only one feature extraction unit and recognition unit are provided, as in the conventional example, if a plurality of types of feature vectors are used, they must be collectively input and recognized. Absent. In this case, it is possible to certainly realize a somewhat higher discrimination performance than when only a single feature vector is used, but it is not possible to make full use of the advantages obtained by using different feature vectors as described above. There is a problem. In other words, when a plurality of types of feature vectors are collectively used, the identification performance can be improved, but using the recognition result,
With a certain feature vector as described above, it is very difficult to correctly recognize a pattern that is erroneously recognized based on the identification result of a different feature vector.

【0032】更に、複数種類の特徴ベクトルを一つにま
とめて使用する場合、特徴ベクトルの次元数の増加に伴
って、認識に多くの計算時間を必要とするなどの課題も
有している。
Further, when a plurality of types of feature vectors are collectively used, there is a problem that a large amount of calculation time is required for recognition as the number of dimensions of the feature vectors increases.

【0033】本発明はかかる従来のパターン認識装置の
課題に鑑み、認識装置において複数種類の特徴ベクトル
を使用する際に、複数種類の特徴ベクトルを併用する利
点を十分有効に活用した高精度の認識が実現でき、更
に、認識に要する時間を短くできるパターン認識装置を
提供することを目的とする。
In view of the problem of the conventional pattern recognition apparatus, the present invention provides a highly accurate recognition method that makes full use of the advantage of using a plurality of types of feature vectors together when a plurality of types of feature vectors are used in the recognition apparatus. It is another object of the present invention to provide a pattern recognition device that can realize the above-described method and can shorten the time required for recognition.

【0034】[0034]

【課題を解決するための手段】本発明は、入力されたパ
ターンから各々異なる特徴ベクトルを求める複数の特徴
抽出部と、前記入力パターンが各カテゴリに属する度合
である類似度を前記特徴ベクトル各々から求める複数の
単一特徴認識部と、複数の前記単一特徴認識部から得ら
れた類似度を用いて前記入力パターンの識別を行なうカ
テゴリ識別部を具備し、前記単一特徴認識部は、前記特
徴ベクトルが類似するパターンの集合から成るカテゴリ
群を代表する群参照用特徴ベクトルが複数個記憶されて
いる群辞書と、前記群参照用特徴ベクトルと前記入力パ
ターンの特徴ベクトルを用いて入力パターンが各カテゴ
リ群に属する度合である群帰属度を計算するファジィ大
分類部と、前記入力パターンの特徴ベクトルを用いて前
記入力パターンがカテゴリ群内に含まれる各カテゴリに
属する度合である群内類似度を求める複数の細分類部
と、前記群帰属度から複数のカテゴリ群を選択する群選
択部と、前記群選択部から得られる群選択情報に基づい
て前記入力パターンの特徴ベクトルを入力する細分類部
を選択する細分類部入力信号選択部と、前記群選択部で
選択されたカテゴリ群の群帰属度と前記細分類部で得ら
れた群内類似度を用いて入力パターンに対する各カテゴ
リの類似度を求める単一特徴類似度計算部を備え、前記
単一特徴類似度計算部は、前記群選択部で選択されたカ
テゴリ群の群帰属度と前記細分類部入力信号選択部から
前記入力パターンの特徴ベクトルを入力された前記細分
類部から得られる全ての群内類似度を乗算する複数個の
乗算器と、各カテゴリ毎に前記乗算器の出力値の大きい
ものを複数個選択し、これらの出力値の総和を求めるカ
テゴリ類似度計算部を備え、前記カテゴリ識別部は、前
記特徴ベクトル各々に対応する前記単一特徴認識部から
得られた各カテゴリの類似度をそれらの類似度の中の最
大値で正規化することによって統合類似度に変換する複
数の統合類似度変換部と、複数の前記統合類似度変換部
から得られた統合類似度を用いて各カテゴリの最終類似
度を求め、最終的な入力パターンの識別を行なうカテゴ
リ判定部とを備えている。
According to the present invention, there are provided a plurality of feature extraction units for obtaining different feature vectors from an input pattern, and a similarity which is a degree to which the input pattern belongs to each category is obtained from each of the feature vectors. A plurality of single feature recognition units to be obtained, and a category identification unit that identifies the input pattern using similarities obtained from the plurality of single feature recognition units, wherein the single feature recognition unit is A group dictionary in which a plurality of group reference feature vectors representing a group of patterns having similar feature vectors is stored, and an input pattern is formed using the group reference feature vector and the feature vector of the input pattern. A fuzzy large classification unit that calculates a group belonging degree, which is a degree belonging to each category group, and the input pattern is obtained by using a feature vector of the input pattern. A plurality of sub-classification units for obtaining intra-group similarity, which is a degree belonging to each category included in the category group, a group selection unit for selecting a plurality of category groups from the group belonging degree, and the group selection unit A sub-classification unit input signal selection unit that selects a sub-classification unit that inputs the feature vector of the input pattern based on group selection information; and a group membership degree of the category group selected by the group selection unit and the sub-classification unit. A single feature similarity calculation unit that obtains a similarity of each category with respect to the input pattern using the obtained intra-group similarity; wherein the single feature similarity calculation unit includes a category group selected by the group selection unit. A plurality of multipliers for multiplying all the intra-group similarities obtained from the sub-classification unit input with the feature vector of the input pattern from the sub-classification unit input signal selecting unit and the sub-classification unit; The multiplier A category similarity calculation unit for selecting a plurality of output values having a large value and calculating the sum of these output values is provided, and the category identification unit is obtained from the single feature recognition unit corresponding to each of the feature vectors. A plurality of integrated similarity converters for converting the similarity of each category into an integrated similarity by normalizing the maximum similarity among the similarities, and integrated similarities obtained from the plurality of integrated similarity converters A category determining unit for determining the final similarity of each category using the degrees and identifying the final input pattern.

【0035】[0035]

【作用】本発明は前記した構成により、まず、各特徴抽
出部が入力パターンから各々異なる特徴ベクトルを抽出
する。次に、これらの特徴ベクトルはそれぞれ対応する
複数の単一特徴認識部に入力される。
According to the present invention, first, each feature extracting unit extracts a different feature vector from an input pattern. Next, these feature vectors are respectively input to a plurality of corresponding single feature recognition units.

【0036】各単一特徴認識部では、まず、特徴ベクト
ルをファジィ大分類部に入力する。ファジィ大分類部
は、群辞書に記憶されている全ての群参照用特徴ベクト
ルを読みだして、前記特徴ベクトルに対して、特徴ベク
トル空間における各カテゴリ群の境界を曖昧に定めた大
分類を行ない、前記入力パターンが各カテゴリ群に属す
る度合である群帰属度を求める。これらの前記群帰属度
を用いて、群選択部は複数のカテゴリ群を選択し、群選
択情報を細分類部入力信号選択部に、対応する群帰属度
を単一特徴類似度計算部に出力する。細分類部入力信号
選択部は、前記特徴ベクトルを前記群選択情報に対応す
る細分類部に出力し、各細分類部は、前記特徴ベクトル
を用いて、前記入力パターンが各カテゴリ群内に含まれ
る各カテゴリに類似する度合である群内類似度を計算
し、単一特徴類似度計算部に出力する。
Each single feature recognition unit first inputs a feature vector to the fuzzy large classification unit. The fuzzy large classification unit reads out all the group reference feature vectors stored in the group dictionary, and performs a large classification on the feature vector in which the boundary of each category group in the feature vector space is ambiguous. , The degree of group membership, which is the degree to which the input pattern belongs to each category group, is determined. Using these group membership degrees, the group selection unit selects a plurality of category groups, outputs group selection information to the subclassification unit input signal selection unit, and outputs the corresponding group membership degrees to the single feature similarity calculation unit. I do. The sub-classification unit input signal selection unit outputs the feature vector to the sub-classification unit corresponding to the group selection information, and each sub-classification unit uses the feature vector to include the input pattern in each category group. In-group similarity, which is the degree of similarity to each category, is calculated and output to the single feature similarity calculation unit.

【0037】単一特徴類似度計算部は、前記群選択部で
選択されたカテゴリ群の群帰属度と前記細分類部入力信
号選択部から前記特徴ベクトルを入力された前記細分類
部から得られる全ての群内類似度を乗算器で乗算し、こ
れをカテゴリ類似度計算部に出力する。カテゴリ類似度
計算部では、各カテゴリ毎に前記乗算器の出力値の大き
いものを複数個選択し、これらの出力値の総和を求め、
これを入力パターンに対する各カテゴリの類似度とす
る。即ち、各々の単一特徴認識部では、この類似度が入
力パターンに対する各特徴ベクトルから得られる類似度
としてカテゴリ識別部に出力される。
The single feature similarity calculation unit is obtained from the group classification degree of the category group selected by the group selection unit and the subclassification unit that receives the feature vector from the subclassification unit input signal selection unit. All intra-group similarities are multiplied by a multiplier and output to the category similarity calculator. In the category similarity calculation unit, a plurality of large output values of the multiplier are selected for each category, and the sum of these output values is calculated.
This is defined as the similarity of each category to the input pattern. That is, each single feature recognition unit outputs this similarity to the category identification unit as a similarity obtained from each feature vector for the input pattern.

【0038】最後に、カテゴリ識別部では、まず、各統
合類似度変換部が、前記特徴ベクトル各々に対応する単
一特徴認識部から得られた各カテゴリの類似度をそれら
の類似度の中の最大値で正規化することによって統合類
似度に変換する。次に、カテゴリ判定部が、これらの統
合類似度を用いて入力パターンに対する各カテゴリの最
終類似度を求め、最終的な入力パターンの識別を行な
う。
Lastly, in the category identification section, each of the integrated similarity conversion sections firstly calculates the similarity of each category obtained from the single feature recognition section corresponding to each of the feature vectors. Convert to the integrated similarity by normalizing with the maximum value. Next, the category determination unit obtains the final similarity of each category with respect to the input pattern using these integrated similarities, and identifies the final input pattern.

【0039】以上により、本パターン認識装置は、複数
種類の特徴ベクトルを各々別個の単一特徴認識部で識別
処理を行って各特徴ベクトルに対する各カテゴリの類似
度を求めたのちに、カテゴリ識別部がこれら全ての類似
度を用いて各単一特徴認識部から得られる識別結果を統
合し、最終的な入力パターンの認識を行う。よって、あ
る特徴ベクトルでは誤認識するパターンでも異なる特徴
ベクトルによる識別結果によって正しく認識するという
ことができるようになり、高精度の認識を実現すること
ができる。また、従来法では、複数種類の特徴ベクトル
の使用によって、認識に要する時間が増加するが、本パ
ターン認識装置では、各単一特徴認識部が各々並列に識
別処理を行うので、認識に要する時間を従来例に比べ、
短くすることができる。
As described above, the present pattern recognition apparatus performs a classification process on each of a plurality of types of feature vectors in separate single feature recognition units to determine the similarity of each category to each feature vector. Integrates the identification results obtained from each single feature recognition unit using all these similarities, and performs final input pattern recognition. Therefore, a pattern that is erroneously recognized in a certain feature vector can be correctly recognized based on an identification result by a different feature vector, and highly accurate recognition can be realized. Further, in the conventional method, the time required for recognition increases due to the use of a plurality of types of feature vectors. However, in the present pattern recognition apparatus, since each single feature recognition unit performs the identification processing in parallel, the time required for recognition is Compared to the conventional example,
Can be shorter.

【0040】[0040]

【実施例】以下、本発明の実施例について図面を参照し
て説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0041】一般にパターン認識装置に入力されるパタ
ーンデータとしては、音声等の時系列パターン、文字・
画像等の空間パターン等などがあるが、本発明において
は、いずれのパターンデータでも構わないものとする。
In general, pattern data input to a pattern recognition device includes time-series patterns such as voices,
Although there are spatial patterns such as images, etc., any pattern data may be used in the present invention.

【0042】図1(a)は本発明の実施例におけるパタ
ーン認識装置のブロック図を示すものである。図1
(a)において、11は特徴抽出部であり、入力パターン
からカテゴリを識別するために用いる特徴ベクトルを抽
出するものである。但し、複数の各特徴抽出部はそれぞ
れ異なる特徴ベクトルを抽出する。12は単一特徴認識部
であり、特徴抽出部11と同じ個数用意され、対応する特
徴ベクトルから入力パターンが各カテゴリに属する度合
である類似度を求めるものである。13はカテゴリ識別部
であり、各々の単一特徴認識部12から得られる入力パタ
ーンの各特徴ベクトルに対する各カテゴリの類似度を用
いて、入力パターンの識別を行うものである。
FIG. 1A is a block diagram of a pattern recognition device according to an embodiment of the present invention. FIG.
In FIG. 7A, reference numeral 11 denotes a feature extraction unit for extracting a feature vector used to identify a category from an input pattern. However, each of the plurality of feature extraction units extracts a different feature vector. Reference numeral 12 denotes a single feature recognizing unit, which is prepared in the same number as the feature extracting unit 11 and obtains a similarity in which an input pattern belongs to each category from a corresponding feature vector. Reference numeral 13 denotes a category identification unit that identifies an input pattern by using the similarity of each category to each feature vector of the input pattern obtained from each single feature recognition unit 12.

【0043】カテゴリ識別部13において、14は統合類似
度変換部であり、特徴抽出部11、単一特徴認識部12と同
じ個数用意され、対応する単一特徴認識部12から得られ
た各カテゴリの類似度をそれらの類似度の中の最大値で
正規化することによって統合類似度に変換するものであ
る。15はカテゴリ判定部であり、全ての統合類似度を用
いて入力パターンに対する各カテゴリの最終類似度を求
め、最終的なカテゴリの識別を行うものである。
In the category discriminating unit 13, reference numeral 14 denotes an integrated similarity converting unit. The same number is prepared as the feature extracting unit 11 and the single feature recognizing unit 12, and each category is obtained from the corresponding single feature recognizing unit 12. Are normalized into the integrated similarity by normalizing the similarity with the maximum value among the similarities. Reference numeral 15 denotes a category determination unit that obtains the final similarity of each category with respect to the input pattern using all the integrated similarities, and identifies the final category.

【0044】また、図1(a)に示すカテゴリ判定部15
は、カテゴリ判定部15の第1の実施例である。図1
(a)において、16は加算器であり、複数の統合類似度
計算部14から得られる各カテゴリの統合類似度を同一カ
テゴリ毎に加算することによって、各カテゴリの最終類
似度を求めるものである。17は最大値選択部であり、各
カテゴリの最終類似度の中から最大値を選択するもので
ある。
The category determining unit 15 shown in FIG.
Is a first example of the category determination unit 15. FIG.
In (a), reference numeral 16 denotes an adder, which obtains the final similarity of each category by adding the integrated similarity of each category obtained from the plurality of integrated similarity calculators 14 for each same category. . Reference numeral 17 denotes a maximum value selection unit for selecting a maximum value from the final similarities of the respective categories.

【0045】図1(b)は、単一特徴認識部12の構成を
具体的に示すブロック図である。図1(b)において、
21は群辞書であり、特徴ベクトルが類似するパターンの
集合から成るカテゴリ群を代表する群参照用特徴ベクト
ルが複数個記憶されているものである。22はファジィ大
分類部であり、群辞書21に記憶されている群参照用特徴
ベクトルを用いて、入力パターンが各カテゴリ群に属す
る度合である群帰属度を計算するものである。23は細分
類部であり、入力パターンがカテゴリ群内に含まれる各
カテゴリに属する度合である群内類似度を計算するもの
である。24は群選択部であり、群帰属度から複数のカテ
ゴリ群を選択するものである。25は細分類部入力信号選
択部であり、群選択部24から得られる群選択情報に基づ
いて入力パターンの特徴ベクトルを入力する細分類部23
を選択するものである。26は単一特徴類似度計算部であ
り、群選択部24で選択されたカテゴリ群の群帰属度と細
分類部23で得られた群内類似度から入力パターンに対す
る各カテゴリの類似度を求めるものである。
FIG. 1B is a block diagram specifically showing the configuration of the single feature recognition unit 12. In FIG. 1B,
Reference numeral 21 denotes a group dictionary in which a plurality of group reference feature vectors representing a category group including a set of patterns having similar feature vectors are stored. Reference numeral 22 denotes a fuzzy large classification unit that calculates a group belonging degree, which is a degree at which an input pattern belongs to each category group, using a group reference feature vector stored in the group dictionary 21. Reference numeral 23 denotes a sub-classification unit which calculates the intra-group similarity, which is the degree to which the input pattern belongs to each category included in the category group. Reference numeral 24 denotes a group selection unit for selecting a plurality of category groups based on the degree of group membership. Reference numeral 25 denotes a sub-classification unit input signal selection unit, which is a sub-classification unit 23 that inputs a feature vector of an input pattern based on group selection information obtained from the group selection unit 24.
Is to select. Reference numeral 26 denotes a single feature similarity calculation unit, which calculates the similarity of each category to the input pattern from the group membership of the category group selected by the group selection unit 24 and the intra-group similarity obtained by the subclassification unit 23 Things.

【0046】単一特徴類似度計算部26において、27は乗
算器であり、群選択部24で選択されたカテゴリ群の群帰
属度と細分類部入力信号選択部25から入力パターンの特
徴ベクトルを入力された細分類部23から得られる群内類
似度を乗算するものである。28はカテゴリ類似度計算部
であり、各カテゴリ毎に乗算器27の出力値の大きいもの
を複数個選択し、これらの出力値の総和を求めるもので
ある。
In the single feature similarity calculating section 26, reference numeral 27 denotes a multiplier, which calculates the group membership degree of the category group selected by the group selecting section 24 and the feature vector of the input pattern from the sub-classifying section input signal selecting section 25. This is to multiply the input intra-group similarity obtained from the sub-classification unit 23. Reference numeral 28 denotes a category similarity calculator for selecting a plurality of output values of the multiplier 27 having a large output value for each category and calculating the sum of these output values.

【0047】図2は、ファジィ大分類部22の構成を具体
的に示すブロック図である。図2において、31は、入力
部であり、入力パターンの特徴ベクトルを入力するもの
である。32は距離計算部であり、群辞書21の全ての群参
照用特徴ベクトルと特徴ベクトルとの距離を計算するも
のである。33は割算器であり、距離計算部32の出力の逆
数を計算するものである。34は加算器であり、各々の割
算器33の出力の総和を求めるものである。35は乗算器で
あり、加算器34の出力と距離計算部32の出力を乗算する
ものである。36は割算器であり、乗算器35の出力の逆数
を計算するものである。
FIG. 2 is a block diagram specifically showing the configuration of the fuzzy large classification unit 22. In FIG. 2, an input unit 31 inputs a feature vector of an input pattern. Reference numeral 32 denotes a distance calculation unit that calculates the distance between all the group reference feature vectors of the group dictionary 21 and the feature vectors. 33 is a divider for calculating the reciprocal of the output of the distance calculator 32. 34 is an adder for calculating the sum of the outputs of the respective dividers 33. A multiplier 35 multiplies the output of the adder 34 by the output of the distance calculator 32. A divider 36 calculates the reciprocal of the output of the multiplier 35.

【0048】図3は、細分類部23の第1の実施例の構成
を具体的に示すブロック図である。図3において、41は
入力部であり、細分類部入力信号選択部25から出力され
る入力パターンの特徴ベクトルを入力するものである。
42はカテゴリ辞書であり、パターンの各カテゴリの代表
値を示すカテゴリ参照用特徴ベクトルが複数個記憶され
ているものである。43は距離計算部であり、カテゴリ辞
書42の全てのカテゴリ参照用特徴ベクトルと入力パター
ンの特徴ベクトルとの距離を計算するものである。44は
割算器であり、距離計算部43の出力の逆数を計算するも
のである。45は加算器であり、各々の割算器44の出力の
総和を求めるものである。46は乗算器であり、加算器45
の出力と距離計算部43の出力を乗算するものである。47
は割算器であり、乗算器36の出力の逆数を計算するもの
である。
FIG. 3 is a block diagram specifically showing the configuration of the first embodiment of the subclassification unit 23. In FIG. 3, reference numeral 41 denotes an input unit for inputting a feature vector of an input pattern output from the sub-classification unit input signal selection unit 25.
Reference numeral 42 denotes a category dictionary which stores a plurality of category reference feature vectors indicating representative values of each category of the pattern. Reference numeral 43 denotes a distance calculation unit that calculates the distance between all the category reference feature vectors of the category dictionary 42 and the feature vectors of the input pattern. 44 is a divider for calculating the reciprocal of the output of the distance calculator 43. Reference numeral 45 denotes an adder for calculating the sum of outputs from the respective dividers 44. 46 is a multiplier and an adder 45
Is multiplied by the output of the distance calculation unit 43. 47
Is a divider for calculating the reciprocal of the output of the multiplier 36.

【0049】以上のように構成されたパターン認識装置
について、以下その動作を説明する。
The operation of the pattern recognition device configured as described above will be described below.

【0050】まず、複数個用意された各特徴抽出部11が
入力されたパターンに対して、各々異なる特徴ベクトル
k(k=1〜NF:NFは特徴ベクトルの種類の数)を
抽出する。ここで、各特徴ベクトルXkはnk個の特徴デ
ータからなり、(数7)のように表わされる。
First, a plurality of prepared feature extraction units 11 extract different feature vectors X k (k = 1 to N F, where N F is the number of types of feature vectors) from the input pattern. I do. Here, each feature vector X k is composed of n k pieces of feature data, and is represented as (Equation 7).

【0051】[0051]

【数7】 (Equation 7)

【0052】なお、複数の異なる特徴ベクトルの例とし
ては、例えばパターンを文字とするならば、以下に示す
ようなものが考えられる。例えば、文字の画像情報を8
×8分割し、各領域内の黒画素の度数を要素とする64次
元の濃淡特徴(メッシュ特徴)や、文字の画像情報を4
×4分割した各領域内における文字輪郭点の方向要素
(水平、垂直、右斜め、左斜めの4方向)の出現度数を
要素とする64次元の輪郭方向密度特徴がある。
As examples of a plurality of different feature vectors, for example, if a pattern is a character, the following can be considered. For example, if the image information of a character is 8
The image is divided into 64 parts, and the image information of a character or a 64-dimensional shading feature (mesh feature) using the frequency of a black pixel as an element is divided into four.
There is a 64-dimensional contour direction density feature in which the frequency of appearance of the direction elements (horizontal, vertical, right diagonal, left diagonal four directions) of the character outline points in each of the four divided areas is an element.

【0053】各特徴抽出部11で特徴抽出された入力パタ
ーンの各特徴ベクトルXkは、対応する単一特徴認識部1
2に入力される。複数個用意された単一特徴認識部12
は、それぞれ独立に以下に示すような識別処理を行い、
各特徴ベクトルXkに対する各カテゴリの類似度を求め
る。なお、以下の単一特徴認識部12の動作説明で用いら
れる特徴ベクトルXkは、ある特徴抽出法によって得ら
れた特徴ベクトルとし、以下、Xk、nkは簡単のため
X、nと記述する。
Each feature vector X k of the input pattern extracted by each feature extraction unit 11 is stored in the corresponding single feature recognition unit 1.
Entered in 2. Multiple single feature recognition units 12
Performs the following identification processing independently,
The similarity of each category to each feature vector X k is determined. Note that a feature vector X k used in the following description of the operation of the single feature recognition unit 12 is a feature vector obtained by a certain feature extraction method, and hereinafter, X k and nk are described as X and n for simplicity. I do.

【0054】以下、単一特徴認識部12の具体的な動作を
説明する。まず、単一特徴認識部12では、特徴ベクトル
Xはファジィ大分類部22に入力される。ファジィ大分類
部22では、入力部31が特徴ベクトルXを入力し、mr
の距離計算部32へXを出力する。各々の距離計算部32
は、群辞書21に記憶されている各カテゴリ群を代表する
群参照用特徴ベクトルVi (1≦i≦mr;mrは群参照
用特徴ベクトルの数、即ち、カテゴリ群の数)を読みだ
し、(数8)式に示すXとVi の距離di を計算し、各
々対応する割算器33、及び乗算器35へ出力する。
Hereinafter, a specific operation of the single feature recognition unit 12 will be described. First, in the single feature recognition unit 12, the feature vector X is input to the fuzzy large classification unit 22. In the fuzzy large classification unit 22, the input unit 31 inputs the feature vector X and outputs X to the m r distance calculation units 32. Each distance calculator 32
Is a group reference feature vector V i (1 ≦ i ≦ m r ; mr is the number of group reference feature vectors, that is, the number of category groups) representing each category group stored in the group dictionary 21. readout, (8) calculates the distance d i between X and V i shown in the expression, and outputs each corresponding divider 33, and to the multiplier 35.

【0055】[0055]

【数8】 (Equation 8)

【0056】但し、fはf>1を満たす実数とする。各
々の割算器33は、距離diの逆数を計算し、その出力を
加算器34へ出力する。加算器34は、全ての割算器33の出
力の総和を計算し、その出力をmr個の乗算器35へ出力
する。各々の乗算器35では、対応する距離計算部32と加
算器34の出力を乗算し、その出力を対応する割算器36に
入力する。各々の割算器36では、対応する乗算器35の出
力の逆数を計算する。最終的にファジィ大分類部22で
は、この各割算器36の出力が入力パターンの特徴ベクト
ルXに対する各カテゴリ群の群帰属度μi(1≦i≦
r)として、群選択部24に出力される。つまり、各カ
テゴリ群の群帰属度μi(1≦i≦mr)は、
Here, f is a real number satisfying f> 1. Each divider 33, the reciprocal of the distance d i is calculated, and its output to the adder 34. The adder 34 calculates the sum of the outputs of all the dividers 33 and outputs the output to the m r multipliers 35. Each multiplier 35 multiplies the output of the corresponding distance calculator 32 and the output of the adder 34, and inputs the output to the corresponding divider 36. Each divider 36 calculates the reciprocal of the output of the corresponding multiplier 35. Finally, in the fuzzy large classification unit 22, the output of each divider 36 is the group membership μ i (1 ≦ i ≦ 1) of each category group with respect to the feature vector X of the input pattern.
m r ) is output to the group selector 24. That is, the group membership degree μ i (1 ≦ i ≦ m r ) of each category group is

【0057】[0057]

【数9】 (Equation 9)

【0058】と表わすことができる。なお、群辞書21に
記憶されている各カテゴリ群を代表する群参照用特徴ベ
クトルは、予め、従来のクラスタリング手法、例えば、
電子情報通信学会編 長尾真著「パターン情報処理」
(コロナ社)に示されているK平均アルゴリズム、及び
Isodataアルゴリズムや、Y.Linde, A.Buzo, and R.M.Gr
ay による"An Algorithmfor Vector Quantizer desig
n," IEEE Trans. Commun.,COM-28, 1, pp.84-95, Jan.1
980 に示されているLBGアルゴリズムを用いて設計さ
れる。
Can be expressed as follows. Note that a group reference feature vector representing each category group stored in the group dictionary 21 is determined in advance by a conventional clustering method, for example,
IEICE, edited by Makoto Nagao, "Pattern Information Processing"
K-means algorithm shown in (Corona), and
Isodata algorithm, Y.Linde, A.Buzo, and RMGr
"An Algorithmfor Vector Quantizer desig by ay
n, "IEEE Trans. Commun., COM-28, 1, pp.84-95, Jan.1
980 is designed using the LBG algorithm.

【0059】以下、K平均アルゴリズムを用いて群辞書
21を設計する方法について簡単に説明する。 (1) 認識対象物の群辞書設計用のパターンの集合か
ら、mr個(但し、mrは予め定められたカテゴリ群数)
のパターンを適当に選び、これらの特徴ベクトルをmr
個の群参照用特徴ベクトルVi(1≦i≦mr)とする。 (2) 全ての群辞書設計用のパターンの特徴ベクトル
Xについて、それぞれ、(数10)に示される距離di
Hereinafter, a group dictionary using the K-means algorithm will be described.
A brief description of how to design 21. (1) From a set of patterns for designing a group dictionary of a recognition target, mr (where mr is a predetermined number of category groups)
Are appropriately selected, and these feature vectors are referred to as m r
It is assumed that the group reference feature vectors V i (1 ≦ i ≦ m r ). (2) For the feature vectors X of all the group dictionary design patterns, distances d i shown in (Equation 10) are respectively given.

【0060】[0060]

【数10】 (Equation 10)

【0061】を最小にするViを求める。このとき、X
はカテゴリ群Si(1≦i≦mr)に属するものとする。 (3) 各Siに属するパターンの特徴ベクトルXの平
均値を求め、これをVi’とする。 (4) Vi’=Viが全てのiについて成立すれば、こ
のときの群参照用特徴ベクトルViを群辞書21に記憶す
る。そうでなければ、Vi’を新たな群参照用パターン
信号Viとして、(2)に戻る。
Is determined to minimize V i . At this time, X
Belong to the category group S i (1 ≦ i ≦ m r ). (3) The average value of the feature vector X of the pattern belonging to each S i is obtained, and this is set as V i ′. (4) if holds for V i '= V i all i, stores the feature vector V i for reference group of this time the group dictionary 21. Otherwise, V i ′ is set as a new group reference pattern signal V i and the process returns to (2).

【0062】このようにして、群参照用特徴ベクトルを
設計することによって、全てのパターンはいくつかのそ
の特徴ベクトルが類似するパターンの部分集合(カテゴ
リ群)に分割することができる。なお、Isodataアルゴ
リズム及び、LBGアルゴリズムもこのK平均アルゴリ
ズムと基本的にはほぼ同じ手法である。
By designing a group reference feature vector in this way, all patterns can be divided into some subsets (category groups) of patterns having similar feature vectors. Note that the Isodata algorithm and the LBG algorithm are basically almost the same as the K-means algorithm.

【0063】群選択部24では、ファジィ大分類部12で得
られた群帰属度の大きい順に複数個のカテゴリ群を選
び、どのカテゴリ群が選択されたかを示す群選択情報を
細分類入力信号選択部25へ、また、それに対応する群帰
属度を単一特徴類似度計算部26へ出力する。なお、カテ
ゴリ群の選択方法としては、あるしきい値以上の群帰属
度をもつカテゴリ群を選択するとしてもよい。
The group selecting unit 24 selects a plurality of category groups in descending order of the degree of group membership obtained by the fuzzy large classifying unit 12, and outputs group selection information indicating which category group has been selected to the sub-classified input signal selection. The unit 25 outputs the group membership degree corresponding thereto to the single feature similarity calculation unit 26. As a method of selecting a category group, a category group having a group membership degree equal to or higher than a certain threshold value may be selected.

【0064】群選択部24から得られる群選択情報に基づ
いて、細分類入力信号選択部25は、入力パターンの特徴
ベクトルXを入力する細分類部23を選択し、特徴ベクト
ルXをこれらの細分類部23へ出力する。
Based on the group selection information obtained from the group selection unit 24, the sub-classification input signal selection unit 25 selects the sub-classification unit 23 for inputting the feature vector X of the input pattern, and converts the feature vector X into these sub-categories. Output to the classification unit 23.

【0065】群選択部24で選択されたカテゴリ群に対応
する各々の細分類部23(即ち、細分類入力信号選択部25
から入力パターンの特徴ベクトルを入力された細分類部
23)では、まず、入力部41が入力パターンの特徴ベクト
ルXを入力し、mc個の距離計算部43へXを出力する。
各々の距離計算部43は、カテゴリ辞書42に記憶されてい
る各カテゴリの代表値を示すカテゴリ参照用特徴ベクト
ルWi (1≦i≦mc;mcはカテゴリ参照用特徴ベクト
ルの数)を読みだし、(数11)式に示すXとWi の距
離di を計算し、各々対応する割算器44、及び乗算器46
へ出力する。
Each of the sub-classification units 23 corresponding to the category group selected by the group selection unit 24 (that is, the sub-classification input signal selection unit 25
Sub-classification unit that receives the feature vector of the input pattern from
In 23), first, the input unit 41 inputs the feature vector X of the input pattern, and outputs the X to m c-number of distance calculator 43.
Each distance calculation unit 43 calculates a category reference feature vector W i (1 ≦ i ≦ mc ; mc is the number of category reference feature vectors) indicating a representative value of each category stored in the category dictionary 42. Then, the distance d i between X and W i shown in Expression (11) is calculated, and the corresponding divider 44 and multiplier 46 are respectively assigned.
Output to

【0066】[0066]

【数11】 [Equation 11]

【0067】但し、fはf>1を満たす実数とする。各
々の割算器44は、距離diの逆数を計算し、その出力を
加算器45へ出力する。加算器45は、全ての割算器44の出
力の総和を計算し、その出力をmc個の乗算器46へ出力
する。各々の乗算器46では、対応する距離計算部43と加
算器45の出力を乗算し、その出力を対応する割算器47に
入力する。各々の割算器47では、対応する乗算器46の出
力の逆数を計算する。最終的に、細分類部23では、この
各割算器47の出力が入力パターンの特徴ベクトルXに対
する各カテゴリの群内類似度νi(1≦i≦mc)とし
て、単一特徴類似度計算部26に出力される。つまり、各
細分類部23における各カテゴリの群内類似度νi(1≦
i≦mc)は、
Here, f is a real number satisfying f> 1. Each divider 44, the reciprocal of the distance d i is calculated, and its output to the adder 45. The adder 45 calculates the sum of outputs of all of the divider 44, and outputs the output to m c multipliers 46. Each multiplier 46 multiplies the output of the corresponding distance calculator 43 and the output of the adder 45 and inputs the output to the corresponding divider 47. Each divider 47 calculates the reciprocal of the output of the corresponding multiplier 46. Finally, in the sub-classifying unit 23, the output of each divider 47 is defined as a single feature similarity ν i (1 ≦ i ≦ mc ) of each category with respect to the feature vector X of the input pattern. It is output to the calculation unit 26. That is, in-group similarity ν i (1 ≦ 1) of each category in each sub-classification unit 23
i ≦ m c )

【0068】[0068]

【数12】 (Equation 12)

【0069】と表わすことができる。なお、カテゴリ辞
書42に記憶されている各カテゴリの代表値を示すカテゴ
リ参照用特徴ベクトルは、カテゴリ群内の各カテゴリを
もつ入力パターンに対して、その各カテゴリに対応する
距離計算部43の出力が他の距離計算部43の出力に比べて
最小出力を発生するように、予め設計されている。
Can be expressed as follows. The category reference feature vector indicating the representative value of each category stored in the category dictionary 42 is output from the distance calculation unit 43 corresponding to each category for an input pattern having each category in the category group. Is designed in advance to generate a minimum output as compared with the output of the other distance calculation units 43.

【0070】これらのカテゴリ参照用特徴ベクトルの設
計方法は、例えば、学習ベクトル量子化法(LVQ)と
呼ばれる学習アルゴリズムによって行われる。学習ベク
トル量子化法については、例えば、T.Kohonenによる"Le
arning Vector Quantizationfor Pattern Recognitio
n",Helsinki University of Technology, Report TKK-
F-A601(1986.11)に示されている。
The design method of these category reference feature vectors is performed, for example, by a learning algorithm called a learning vector quantization method (LVQ). For the learning vector quantization method, see, for example, "Le
arning Vector Quantization for Pattern Recognitio
n ", Helsinki University of Technology, Report TKK-
This is shown in F-A601 (1986.11).

【0071】以下、学習ベクトル量子化法について簡単
に説明する。まず、mc個のカテゴリラベルをもつカテ
ゴリ参照用特徴ベクトルWiが用意される。このWiの初
期値としては、各カテゴリ群に含まれるパターン集合か
らなるカテゴリ辞書設計用のパターンから、各カテゴリ
毎に任意に選択されたパターンの特徴ベクトル及び、群
辞書11の設計の際に説明したK平均アルゴリズム等の従
来のクラスタリング法から得られる参照用特徴ベクトル
が用いられる。次に、カテゴリ辞書設計用のパターンか
ら任意の1個のカテゴリCXをもつパターンの特徴ベク
トルXが選択され、このXについて順次、以下のステッ
プが繰り返される。(1) Xに最も近いカテゴリ参照
用特徴ベクトルWCを選択する。但し、このWCのカテゴ
リラベルをCCとする。(2) もし、CX=CCなら、
CはXの方向に近づける。一方、CX≠CCなら、WC
Xから遠ざけられる。また、WC以外のカテゴリ参照用
特徴ベクトルは更新されない。
Hereinafter, the learning vector quantization method will be briefly described. First, a category reference feature vector W i having m c category labels is prepared. The initial value for this W i, from the pattern for the category dictionary design consisting pattern set in each category group, a feature vector and the pattern selected arbitrarily for each category, in the design of the group dictionary 11 A reference feature vector obtained from a conventional clustering method such as the K-means algorithm described above is used. Then, the selected feature vector X of the pattern with any one category C X from the pattern for the category dictionary design, this X sequentially, the following steps are repeated. (1) Select the category reference feature vector W C closest to X. However, the category label of this W C is C C. (2) If C X = C C ,
W C is close to the direction of the X. On the other hand, if C X ≠ C C , W C is moved away from X. Also, the category reference feature vector other than W C is not updated.

【0072】Xが提示されたときの上記のカテゴリ参照
用特徴ベクトルの更新は、予め用意された全てのカテゴ
リ辞書設計用のパターンに対して繰り返し行なわれる。
The updating of the above-mentioned category reference feature vector when X is presented is repeatedly performed for all the prepared patterns for category dictionary design.

【0073】このようにして、カテゴリ辞書32のカテゴ
リ参照用特徴ベクトルを設計することにより、カテゴリ
群内の各カテゴリをもつパターンの特徴ベクトルに対し
て、常にその各カテゴリのラベルをもつカテゴリ参照用
特徴ベクトルが最も近い距離に位置するようになる。従
って、全ての距離計算部43の中で、最小出力を発生する
距離計算部43を選ぶことによって、各カテゴリ群内にお
いて、入力パターンのカテゴリを認識することができ
る。
By designing the category reference feature vector of the category dictionary 32 in this manner, the category reference pattern having the label of each category is always added to the feature vector of the pattern having each category in the category group. The feature vector is located at the closest distance. Therefore, the category of the input pattern can be recognized in each category group by selecting the distance calculation unit 43 that generates the minimum output from all the distance calculation units 43.

【0074】単一特徴類似度計算部26では、まず、乗算
器27が、群選択部24で選択されたカテゴリ群の群帰属度
と、そのカテゴリ群に対応する各々の細分類部23(即
ち、細分類入力信号選択部25から入力パターンの特徴ベ
クトルを入力された細分類部23)から得られる全ての群
内類似度を乗算し、それらの出力をカテゴリ類似度計算
部28に出力する。つまり、乗算器17は、(群参照用特徴
ベクトルの数×各細分類部におけるカテゴリ参照用特徴
ベクトルの数の総和)個用意されており、群選択部24で
選択されたあるカテゴリ群pの群帰属度μp(1≦p≦
r;mrはカテゴリ群の数)とそのカテゴリ群pに対応
する細分類部13から得られたあるカテゴリqの群内類似
度νpq(1≦q≦mc;mCはパターンデータのカテゴリ
数)が入力される。つまり、乗算器17の出力値ξpqは、
In the single feature similarity calculation unit 26, first, the multiplier 27 determines the group membership of the category group selected by the group selection unit 24 and the sub-classification units 23 corresponding to the category group (ie, , Multiply all the intra-group similarities obtained from the sub-classification unit 23) that has been input with the feature vector of the input pattern from the sub-classification input signal selection unit 25, and output their outputs to the category similarity calculation unit 28. That is, the number of multipliers 17 is prepared (the number of feature vectors for group reference × the sum of the number of feature vectors for category reference in each sub-classification unit), and the number of multipliers 17 of a certain category group p selected by the group selection unit 24 is prepared. group membership μ p (1 ≦ p
m r; m r category group number) and the group in similarity ν pq (1 ≦ q ≦ a certain category q obtained from the fine classification section 13 corresponding to the category group p m c; m C pattern data Category number) is input. That is, the output value ξ pq of the multiplier 17 is

【0075】[0075]

【数13】 (Equation 13)

【0076】と表わされる。カテゴリ類似度計算部28で
は、全ての乗算器27の出力値を、各カテゴリ毎にまとめ
て分類し、その出力値の大きいものを複数個選択する。
そして、各カテゴリ毎に、これらの選択された出力値の
総和を求め、これを単一認識部12における入力パターン
に対する各カテゴリの類似度ri(1≦i≦NC;NC
カテゴリの数)としてカテゴリ識別部13に出力する。な
お、乗算器27の出力値を各カテゴリ毎に複数個選択する
方法としては、乗算器27の出力値があるしきい値以上の
ものを選択するとしてもよい。
Is expressed as follows. The category similarity calculation unit 28 classifies the output values of all the multipliers 27 collectively for each category, and selects a plurality of output values having a large output value.
Then, for each category, the total sum of these selected output values, which the similarity r i (1 ≦ i ≦ N C of each category to the input pattern in a single recognition unit 12; the N C category The number is output to the category identification unit 13. In addition, as a method of selecting a plurality of output values of the multiplier 27 for each category, a method in which the output value of the multiplier 27 is equal to or larger than a certain threshold value may be selected.

【0077】以上説明したように、単一特徴認識部12
は、ある特徴抽出部11から得られた特徴ベクトルに対
し、大分類を行ったあと細分類を行い最後にそれらの出
力を統合する階層的な識別を行なうことによって、ある
特徴に対する入力パターンの各カテゴリの類似度を求め
る。
As described above, the single feature recognition unit 12
Performs a hierarchical classification on the feature vector obtained from a certain feature extracting unit 11 after performing a large classification, and finally integrating their outputs, thereby obtaining each of the input patterns for a certain feature. Find the similarity between categories.

【0078】カテゴリ識別部13では、各々の単一特徴認
識部12から得られた入力パターンの各特徴ベクトルに対
する各カテゴリの類似度をまず、対応する統合類似度変
換部14に入力し、各カテゴリの類似度を統合類似度に変
換する。次に、カテゴリ判定部15が、各々の統合類似度
変換部14から得られる全ての各カテゴリの統合類似度を
用いて入力パターンの最終的な認識を行う。つまり、カ
テゴリ判定部15は、各単一特徴認識部12において入力パ
ターンの各特徴ベクトルを認識処理することによって得
られた識別結果、つまり類似度を最終的に統合してカテ
ゴリの識別を行うものである。また、統合類似度変換部
14は、カテゴリ判定部15において、各特徴ベクトルに関
する識別結果をうまく統合できるような統合類似度に単
一特徴認識部12から得られた類似度を変換するものであ
る。
The category discriminating unit 13 first inputs the similarity of each category to each feature vector of the input pattern obtained from each single feature recognizing unit 12 to the corresponding integrated similarity converting unit 14, Is converted into an integrated similarity. Next, the category determination unit 15 performs final recognition of the input pattern using the integrated similarities of all the categories obtained from each integrated similarity conversion unit 14. In other words, the category determination unit 15 performs classification by finally integrating classification results obtained by recognizing each feature vector of the input pattern in each single feature recognition unit 12, that is, similarity. It is. In addition, the integrated similarity conversion unit
14 converts the similarity obtained from the single feature recognizing unit 12 into an integrated similarity that allows the category discrimination unit 15 to successfully integrate the discrimination results for each feature vector.

【0079】以下、統合類似度変換部14、及びカテゴリ
判定部15の具体的な動作を説明する。
Hereinafter, specific operations of the integrated similarity conversion unit 14 and the category judgment unit 15 will be described.

【0080】統合類似度変換部14では、(数14)に示
すように、対応する単一特徴認識部12から得られる各カ
テゴリの類似度rki(1≦k≦NF:NFは特徴ベクトル
の種類の数、1≦i≦NC;NCはカテゴリの数)をこれ
らの類似度の中の最大値rkm axで割ることによって正規
化を行い、これを統合類似度tki(但し、0≦tki
1、1≦i≦NC;NCはカテゴリの数)とし、カテゴリ
判定部15へ出力する。
In the integrated similarity conversion unit 14, as shown in (Equation 14), the similarity r ki (1 ≦ k ≦ N F : N F) of each category obtained from the corresponding single feature recognition unit 12 is a characteristic. Normalization is performed by dividing the number of types of vectors, 1 ≦ i ≦ N C ; N C is the number of categories) by the maximum value r km ax of these similarities, which is then integrated into the integrated similarity t ki ( Where 0 ≦ t ki
1, 1 ≦ i ≦ N C ; N C is the number of categories) and outputs the result to the category determination unit 15.

【0081】[0081]

【数14】 [Equation 14]

【0082】カテゴリ判定部15では、加算器17が各々の
統合類似度変換部14から得られた各カテゴリの統合類似
度tkiを(数15)に示すように、同一カテゴリ毎に加
算して、最終類似度ui(但し、1≦i≦NC;NCはカ
テゴリの数)を求める。最後に、最大値選択部18が、こ
の最終類似度uiを比較し、それらの中で最大となる類
似度に対応するカテゴリを最終認識結果として出力す
る。
In the category determining section 15, the adder 17 adds the integrated similarity t ki of each category obtained from each integrated similarity converting section 14 for each same category as shown in ( Equation 15). , The final similarity u i (where 1 ≦ i ≦ N C ; N C is the number of categories). Finally, the maximum value selection unit 18, the final similarity u i compared, and outputs as a final recognition result category corresponding to the similarity as the largest of them.

【0083】[0083]

【数15】 (Equation 15)

【0084】ところで、カテゴリ識別部13におけるカテ
ゴリ判定部15が最終的な識別を行ううえで、最も重要な
値は各単一特徴認識部12から得られる各カテゴリの類似
度の最大値及びその近傍の値、つまり、各単一特徴認識
部12で得られる第1、2、…候補の類似度の値である。
しかし、各単一特徴認識部12から得られる最大類似度
は、単一特徴認識部12における各細分類部の出力ユニッ
ト数の総和に影響をうける(具体的には、細分類部の出
力ユニット数の総和が大きいものほど、最大類似度が小
さくなる傾向をもつ。)ので、各単一特徴認識部12から
得られる類似度をそのままカテゴリ判定部15に出力する
と、常に、平均的に最大類似度が大きい単一特徴認識部
12からの識別結果が優先される。よって、このままで
は、複数種類の特徴ベクトルを用いる利点、つまり、あ
る特徴ベクトルで誤認識するパターンを異なる特徴ベク
トルによる識別結果によって正しく認識するということ
が難しい。
The most important value for the category discriminating unit 15 in the category discriminating unit 13 to perform the final discrimination is the maximum similarity of each category obtained from each single feature recognizing unit 12 and its vicinity. , That is, the similarity values of the first, second,... Candidates obtained by each single feature recognition unit 12.
However, the maximum similarity obtained from each single feature recognition unit 12 is affected by the sum of the number of output units of each subclassification unit in the single feature recognition unit 12 (specifically, the output unit of the subclassification unit). The larger the sum of the numbers, the smaller the maximum similarity tends to be.) Therefore, if the similarity obtained from each single feature recognition unit 12 is directly output to the category determination unit 15, the maximum similarity is always averaged. Single feature recognition unit with high degree
The identification result from 12 has priority. Therefore, in this state, it is difficult to use a plurality of types of feature vectors, that is, it is difficult to correctly recognize a pattern that is erroneously recognized by a certain feature vector based on an identification result by a different feature vector.

【0085】しかし、統合類似度変換部14において、各
単一特徴認識部12から得られる各カテゴリの類似度をそ
の最大類似度で正規化することにより、各々の単一特徴
認識部12の最大類似度は常に1となる。よって、カテゴ
リ判定部15における最終的なカテゴリの識別において、
各単一特徴認識部12の識別結果を同等に寄与させること
ができるようになり、常にある単一特徴認識部12からの
識別結果が優先されるようなことはなくなる。
However, the integrated similarity conversion unit 14 normalizes the similarity of each category obtained from each single feature recognizing unit 12 by the maximum similarity, so that the maximum of each single feature recognizing unit 12 is obtained. The similarity is always 1. Therefore, in the final category identification in the category determination unit 15,
The identification result of each single feature recognition unit 12 can be equally contributed, and the identification result from a certain single feature recognition unit 12 is not always given priority.

【0086】ここで、実験的に得られた結果を示す。認
識対象となるパターンデータはマルチフォント(明朝
体、ゴシック体等)の3390字種(記号、英数字、ひらが
な、カタカナ、ギリシャ文字、JIS第1水準漢字)の
文字とした。特徴抽出する特徴ベクトルは64次元の輪郭
方向密度特徴と32次元の背景密度特徴とする。輪郭方向
密度は、局所領域内の文字ストロークの方向、及び複雑
さを示す特徴量であり、背景密度特徴は文字の背景の複
雑度を示す特徴量である。なお、詳細な特徴抽出の方法
は、脇、藤原、竹之内、横江、清水による「文書清書シ
ステム(3)−文字認識アルゴリズムとそのハードウエ
ア−」、昭和61年度電子通信学会総合全国大会、1512、
6-154に示されている。
Here, the results obtained experimentally are shown. The pattern data to be recognized was multi-font (Mincho, Gothic, etc.) 3390 character types (symbols, alphanumeric characters, hiragana, katakana, Greek characters, JIS first-level kanji characters). The feature vectors for feature extraction are a 64-dimensional contour direction density feature and a 32-dimensional background density feature. The contour direction density is a feature amount indicating the direction and complexity of the character stroke in the local area, and the background density feature is a feature amount indicating the complexity of the character background. The method of detailed feature extraction is described in "Document Copy System (3)-Character Recognition Algorithm and its Hardware-" by Waki, Fujiwara, Takenouchi, Yokoe, Shimizu, IEICE General Conference, 1986, 1512,
6-154.

【0087】各特徴ベクトルに対応する単一特徴認識部
12における群辞書21及び、各細分類部23のカテゴリ辞書
42は、8フォント27120文字で設計を行った。ここで、
各単一特徴認識部12におけるファジィ大分類部22は、カ
テゴリ群数(群参照用特徴ベクトルの数)を7とした。
また、各細分類部23のカテゴリ参照用特徴ベクトルの数
は輪郭方向密度特徴に対応するカテゴリ辞書42では、10
70,949,957,562,1029,920,996の総数6483個とし、ま
た、背景密度特徴に対応するカテゴリ辞書42では、112
2,902,633,1287,751,1090,984の総数6769個とした。
Single feature recognition unit corresponding to each feature vector
The group dictionary 21 in 12 and the category dictionary of each subclassification unit 23
42 was designed with 27 fonts in 8 fonts. here,
The fuzzy large classification unit 22 in each single feature recognition unit 12 sets the number of category groups (the number of feature vectors for group reference) to 7.
Also, the number of category reference feature vectors of each subclassification unit 23 is 10 in the category dictionary 42 corresponding to the contour direction density feature.
70,949,957,562,1029,920,996, the total number is 6483, and in the category dictionary 42 corresponding to the background density feature, 112
The total number of 2,902,633,1287,751,1090,984 was 6,769.

【0088】認識に際して、各単一特徴認識部における
ファジィ大分類部22の(数8)におけるfは1.2、また
細分類部23の(数11)におけるfは1.3とした。ま
た、群選択部24で選択するカテゴリ群の数は7で、即
ち、全ての細分類部23に各特徴ベクトルを入力した。ま
た、カテゴリ類似度計算部28において、各カテゴリ毎に
選ぶ乗算器27の出力値の個数は4とした。
At the time of recognition, f in the fuzzy large classification unit 22 in (Equation 8) in each single feature recognition unit was 1.2, and f in (Equation 11) in the fine classification unit 23 was 1.3. The number of category groups selected by the group selection unit 24 was 7, that is, each feature vector was input to all the sub-classification units 23. In the category similarity calculator 28, the number of output values of the multiplier 27 selected for each category is set to four.

【0089】また、比較のために、前記2つの特徴ベク
トルを1つにまとめて、96次元の特徴ベクトルとし、こ
れを認識する単一特徴認識部12も設計した。設計に用い
た学習用のパターンは同じものを使用し、カテゴリ群数
は7、カテゴリ辞書42におけるカテゴリ参照用特徴ベク
トルの数は、905,590,1255,382,933,1272,1083の総数64
20個とした。なお、認識に際して、各パラメータは同じ
値を用いた。
For comparison, a single feature recognizing unit 12 for recognizing the 96-dimensional feature vector by combining the two feature vectors into one was also designed. The same learning pattern was used for the design, the number of category groups was 7, the number of category reference feature vectors in the category dictionary 42 was 905,590,1255,382,933,1272,1083.
20 pieces. At the time of recognition, the same value was used for each parameter.

【0090】評価用の文字パターンとして、各辞書の設
計に用いたデータと異なる8フォント27120文字を用い
た。
As character patterns for evaluation, 27120 characters in 8 fonts different from the data used for designing each dictionary were used.

【0091】実験の結果、本実施例では、98.33%の認
識率が得られた。また、比較のために行った、2つの特
徴ベクトルを1つにまとめて認識を行う認識装置の認識
率は97.98%であった。つまり、本実施例のように、複
数の特徴ベクトルを個別に識別し、その識別結果を統合
して認識を行うほうが、複数の特徴ベクトルを1つにま
とめて認識処理を行うものより、認識率が向上すること
がわかる。
As a result of the experiment, a recognition rate of 98.33% was obtained in this embodiment. In addition, the recognition rate of a recognition device that performs two feature vectors into one and performs recognition for comparison was 97.98%. That is, as in the present embodiment, it is more efficient to individually identify a plurality of feature vectors and perform recognition by integrating the identification results than to perform recognition processing by combining a plurality of feature vectors into one. It can be seen that is improved.

【0092】このように、本実施例によれば、複数種類
の特徴ベクトルを各々別個の単一特徴認識部12で識別処
理して各特徴ベクトルに対する各カテゴリの類似度を求
めたのち、カテゴリ識別部13がこれら全ての類似度を用
いて各単一特徴認識部から得られる識別結果を統合し、
最終的な入力パターンの認識を行う。従って、従来例の
ように複数種類の特徴ベクトルを1つにまとめて用いる
場合には困難であった「ある特徴ベクトルでは誤認識す
るパターンを異なる特徴ベクトルによる識別結果から正
しく認識する」ということが容易にできるようになり、
高精度の認識を実現することができる。
As described above, according to the present embodiment, a plurality of types of feature vectors are discriminated by the separate single feature recognizing unit 12 to determine the similarity of each category with respect to each feature vector. The unit 13 integrates the identification results obtained from each single feature recognition unit using all these similarities,
Recognize the final input pattern. Therefore, it is difficult to collectively use a plurality of types of feature vectors as in the conventional example. That is, "a pattern that is erroneously recognized with a certain feature vector is correctly recognized based on the identification result of a different feature vector". Can be easily done,
Highly accurate recognition can be realized.

【0093】また、従来法では、複数種類の特徴ベクト
ルの使用によって、認識に要する時間が増加するが、本
実施例では、各単一特徴認識部が各々並列に識別処理を
行うので、認識に要する時間を従来例に比べ、短くする
ことができる。
In the conventional method, the time required for recognition increases due to the use of a plurality of types of feature vectors. However, in the present embodiment, since each single feature recognition unit performs the identification processing in parallel, the recognition process is not performed. The required time can be shortened as compared with the conventional example.

【0094】図4は本発明の統合類似度変換部14の第2
の実施例の構成を具体的に示すブロック図である。図4
において、51は類似度正規化部であり、単一特徴認識部
12から得られた各カテゴリの類似度をそれらの類似度の
中の最大値で正規化するものである。52は統合類似度計
算部であり、各カテゴリの正規化類似度を非線形変換
し、それら非線形変換された正規化類似度をその総和値
で各々除算することによって各カテゴリの統合類似度を
求めるものである。
FIG. 4 shows a second example of the integrated similarity conversion unit 14 of the present invention.
FIG. 3 is a block diagram specifically showing the configuration of the embodiment. FIG.
, 51 is a similarity normalization unit, and a single feature recognition unit
The similarity of each category obtained from 12 is normalized by the maximum value among the similarities. Reference numeral 52 denotes an integrated similarity calculation unit that non-linearly converts the normalized similarity of each category and divides each of the non-linearly converted normalized similarities by the sum thereof to obtain an integrated similarity of each category. It is.

【0095】以上のように構成された統合類似度変換部
14の第2の実施例について、以下その動作を説明する。
The integrated similarity converter configured as described above
The operation of the second embodiment will be described below.

【0096】第1の実施例同様に、まず、類似度正規化
部51が(数16)に示すように、対応する単一特徴認識
部12から得られる各カテゴリの類似度rki(1≦k≦N
F:NFは特徴ベクトルの種類の数、1≦i≦NC;NC
カテゴリの数)をこれらの類似度の中の最大値rkmax
割ることによって正規化を行い、これを正規化類似度s
ki(但し、0≦ski≦1、1≦i≦NC;NCはカテゴリ
の数)として、統合類似度計算部52に出力する。
As in the first embodiment, the similarity normalizing unit 51 first obtains the similarity r ki (1 ≦ 1) of each category obtained from the corresponding single feature recognizing unit 12 as shown in (Equation 16). k ≦ N
F: N F is the number of types of feature vectors, 1 ≦ i ≦ N C; N C performs normalization by dividing the number) of the category by the maximum value r kmax in these similarities, normalizing it Similarity s
ki (where 0 ≦ s ki ≦ 1, 1 ≦ i ≦ N C ; N C is the number of categories) and outputs the result to the integrated similarity calculation unit 52.

【0097】[0097]

【数16】 (Equation 16)

【0098】統合類似度計算部52では、類似度正規化部
51から得られた各カテゴリの正規化類似度skiは非線形
変換し、それら非線形変換された各カテゴリの正規化類
似度をそれらの総和値で各々正規化(割算)し、これを
統合類似度tki(但し、1≦i≦NC)として、カテゴ
リ判定部15に出力する。つまり、統合類似度tkiは、非
線形関数をf()とすると
In the integrated similarity calculating section 52, the similarity normalizing section
The normalized similarity s ki of each category obtained from 51 is nonlinearly transformed, and the normalized similarity of each category subjected to the nonlinear transformation is normalized (divided) by the sum of the normalized similarities. The degree t ki (where 1 ≦ i ≦ N C ) is output to the category determination unit 15. That is, if the nonlinear function is f (), the integrated similarity t ki is

【0099】[0099]

【数17】 [Equation 17]

【0100】と表わすことができる。なお、非線形関数
f(x)は、0≦x≦1において、0≦f(x)≦1、f
(0)=0、f(1)=1を満たす単調増加関数である。例
えば、例として(数18)のような関数がある。但し、
0≦a≦1である。
Can be expressed as follows. Note that, when 0 ≦ x ≦ 1, the non-linear function f (x) is 0 ≦ f (x) ≦ 1, f
This is a monotonically increasing function that satisfies (0) = 0 and f (1) = 1. For example, as an example, there is a function as shown in (Expression 18). However,
0 ≦ a ≦ 1.

【0101】[0101]

【数18】 (Equation 18)

【0102】なお、前記統合類似度計算部52では、全て
のカテゴリに対して統合類似度tkiを求めているが、各
カテゴリの正規化類似度skiの値の大きいものを候補カ
テゴリとして複数個選択し、これらに対して統合類似度
を求めてもよい。このとき、統合類似度tkiは、候補カ
テゴリの集合をωとすると
Although the integrated similarity calculating section 52 obtains the integrated similarity t ki for all the categories, a plurality of candidate categories having a large normalized similarity s ki of each category are used as candidate categories. Individuals may be selected and an integrated similarity may be determined for these. At this time, if the set of candidate categories is ω, the integrated similarity t ki

【0103】[0103]

【数19】 [Equation 19]

【0104】と表わすことができる。なお、選択する方
法としては、正規化類似度があるしきい値以上のものを
選択するとしてもよい。ところで、このように、候補カ
テゴリを複数個選択することによって、非線形変換され
るカテゴリ数が制限されるので、統合類似度に関する計
算量を削減することができる。また、通常、認識性能に
影響があるのは類似度の大きいカテゴリだけである。従
って、このように候補カテゴリのみ統合類似度を計算し
ても、認識性能にはほとんど影響を与えずに、認識処理
を高速化することができる。
Can be expressed as follows. As a selection method, a method in which the normalized similarity is equal to or larger than a certain threshold may be selected. By selecting a plurality of candidate categories in this way, the number of categories to be non-linearly converted is limited, so that the amount of calculation regarding the integrated similarity can be reduced. Usually, only the category having a large similarity has an effect on the recognition performance. Therefore, even if the integrated similarity is calculated for only the candidate categories in this way, the recognition processing can be sped up without substantially affecting the recognition performance.

【0105】ところで、各単一特徴認識部12において、
誤認識するときの各カテゴリの類似度をよく観察する
と、 (1) 最大類似度の大きさはあまり誤認識には関係が
ないこと (2) 最大類似度と2番目に大きい類似度の差が小さ
いときに誤認識が多い ということがわかる。そこで、本実施例では、各単一特
徴認識部12から得られる類似度を最大類似度で正規化し
たあと、最大類似度と2番目に大きい類似度の差を強調
する処理、つまり、最大類似度と2番目に大きい類似度
の差が小さい場合には、よりその差を小さくし、さらに
その類似度の大きさ自体を小さくすることにより、誤認
識を生じている可能性のある単一特徴認識部12から得ら
れる識別結果の信頼度(類似度)を下げる処理を行って
いる。故に、カテゴリ判定部15で最終的な識別を行うと
き、他の単一特徴認識部12の結果が重要視されるように
なる。
By the way, in each single feature recognition unit 12,
When closely observing the similarity of each category when misrecognizing, (1) the magnitude of the maximum similarity is not so related to misrecognition. (2) The difference between the maximum similarity and the second largest similarity is It can be seen that there are many false recognitions when the child is small. Therefore, in the present embodiment, after normalizing the similarity obtained from each single feature recognition unit 12 by the maximum similarity, processing for emphasizing the difference between the maximum similarity and the second largest similarity, that is, the maximum similarity When the difference between the degree and the second largest similarity is small, the difference is made smaller, and the magnitude of the similarity itself is made smaller, so that a single feature that may cause erroneous recognition is obtained. A process of lowering the reliability (similarity) of the identification result obtained from the recognition unit 12 is performed. Therefore, when the category discrimination unit 15 performs the final discrimination, the result of the other single feature recognition unit 12 is regarded as important.

【0106】ここで、実験的に得られた結果を示す。実
験は、第1の実施例の場合と同じようにした。但し、統
合類似度計算部52において、用いた非線形関数は(数1
8)に示したものであり、a=0.5とした。
Here, results obtained experimentally are shown. The experiment was the same as in the first embodiment. However, in the integrated similarity calculation unit 52, the nonlinear function used is (Equation 1)
8), where a = 0.5.

【0107】実験の結果、この実施例では、98.38%の認
識率が得られ、第1の実施例に比べ、0.05%認識率が向
上した。
As a result of the experiment, a recognition rate of 98.38% was obtained in this embodiment, and the recognition rate was improved by 0.05% as compared with the first embodiment.

【0108】このようにこの実施例によれば、各単一特
徴認識部12から得られる類似度に上記で述べたような変
換を行うことで、ある特徴ベクトルでは誤認識するパタ
ーンを異なる特徴ベクトルによる識別結果から正しく認
識するということが、第1の実施例以上によりよく行う
ことができ、より高精度の認識を行うことができる。
As described above, according to this embodiment, by performing the above-described conversion on the similarity obtained from each single feature recognizing unit 12, a pattern that is erroneously recognized in a certain feature vector is different from the feature vector. Correct recognition based on the identification result of the first embodiment can be performed better than in the first embodiment, and more accurate recognition can be performed.

【0109】図5は本発明のカテゴリ判定部15の第2の
実施例の構成を具体的に示すブロック図である。図5に
おいて、61は入力部であり、統合類似度変換部14から得
られる各カテゴリの統合類似度を入力するものである。
62は多入力一出力信号処理部であり、それに接続されて
いる下層の入力部61、または多入力一出力信号処理部62
の出力と、その連結の度合である重み係数とを各々掛け
合わせて総和したものをしきい値処理して出力するもの
である。ここでは、これら複数個の多入力一出力信号処
理部62を、層構造を持ち、各層内相互の結合がなく、上
位層にのみ信号が伝搬するようにネットワーク接続する
ことによって、入力パターンに対するカテゴリの最終的
な識別が行なわれる。63は最大値選択部であり、最上位
層の複数個の前記多入力ー出力信号処理部62の出力の中
から最大値を選択するものである。
FIG. 5 is a block diagram specifically showing the configuration of the second embodiment of the category judging section 15 of the present invention. In FIG. 5, reference numeral 61 denotes an input unit for inputting the integrated similarity of each category obtained from the integrated similarity converter 14.
Reference numeral 62 denotes a multi-input one-output signal processing unit, and a lower-layer input unit 61 or a multi-input one-output signal processing unit 62 connected thereto.
Is multiplied by a weighting factor which is a degree of the connection, and the sum is summed and output. Here, the plurality of multi-input / one-output signal processing units 62 are connected to a network so as to have a layered structure, have no mutual coupling in each layer, and propagate signals only to the upper layer, so that the Is finally identified. Reference numeral 63 denotes a maximum value selection unit for selecting the maximum value from the outputs of the plurality of multi-input / output signal processing units 62 in the uppermost layer.

【0110】図6は、前記多入力一出力信号処理部62の
構成を具体的に示すブロック図である。図6において、
71は入力部であり、信号を入力するものである。72は重
み係数記憶部であり、入力部71からの複数の入力信号を
重み付ける重み係数を記憶するものである。73は乗算器
であり、重み係数記憶部72の重み係数と入力部71からの
入力信号を乗算するものである。74は加算器であり、全
ての乗算器73の出力値を総和するものである。75はしき
い値処理部であり、加算器74の出力値を一定範囲の値に
制限するものである。
FIG. 6 is a block diagram specifically showing the configuration of the multi-input one-output signal processing unit 62. In FIG.
An input unit 71 inputs a signal. Reference numeral 72 denotes a weight coefficient storage unit which stores a weight coefficient for weighting a plurality of input signals from the input unit 71. A multiplier 73 multiplies the weight coefficient of the weight coefficient storage unit 72 by the input signal from the input unit 71. An adder 74 sums the output values of all the multipliers 73. A threshold processing unit 75 limits the output value of the adder 74 to a value within a certain range.

【0111】以上のように構成されたカテゴリ判定部15
の第2の実施例について、以下その動作を説明する。
The category judging section 15 configured as described above
The operation of the second embodiment will be described below.

【0112】カテゴリ判定部15では、まず、入力部61
に、各統合類似度変換部14から得られる各カテゴリの統
合類似度tkiが入力される。即ち、入力部61は、(カテ
ゴリ数×特徴ベクトルの種類数)だけ用意されており、
各特徴ベクトルに対する各カテゴリの統合類似度t
ki(1≦k≦NF;NFは特徴ベクトルの種類数、1≦i
≦NC;NCはカテゴリの数)は、それぞれ対応する入力
部61に入力される。各々の多入力一出力信号処理部62
は、図6に示すようにそれに接続されている下層の入力
部61、または多入力一出力信号処理部62の出力と重み係
数記憶部72に記憶されているその接続の度合である重み
係数wijとを乗算器73により掛け合わせ、各々の乗算器
73の出力の総和を加算器74で計算した後、しきい値処理
部75で変換し、その出力値を上層へ出力する。つまり、
図6に示すある層のi番目の多入力一出力信号処理部62
の出力値Iiは、入力部71への入力値をIj 、それに接
続されている入力とその接続の度合である重み係数をw
ij(i番目の多入力一出力信号処理部とj番目の入力と
の結合重み)とすれば、
In the category determination section 15, first, the input section 61
Then, the integrated similarity t ki of each category obtained from each integrated similarity converter 14 is input. That is, as many input units 61 as (the number of categories × the number of types of feature vectors) are provided,
Integrated similarity t of each category for each feature vector
ki (1 ≦ k ≦ N F ; N F is the number of feature vector types, 1 ≦ i
≦ N C; N C is the number of categories) are input to the input unit 61 corresponding. Each multi-input / one-output signal processing unit 62
Is a weighting coefficient w which is the degree of the connection stored in the weighting coefficient storage section 72 and the output of the lower-layer input section 61 connected thereto or the multi-input / one-output signal processing section 62 as shown in FIG. ij is multiplied by a multiplier 73, and each multiplier
After the sum of the outputs from 73 is calculated by the adder 74, it is converted by the threshold value processing unit 75 and the output value is output to the upper layer. That is,
The i-th multi-input one-output signal processing unit 62 of a certain layer shown in FIG.
The output value I i of the input value I j to the input unit 71, the weighting factor is the degree of the input and the connection that is connected to it w
ij (the connection weight between the i-th multi-input one-output signal processing unit and the j-th input)

【0113】[0113]

【数20】 (Equation 20)

【0114】と表わすことができる。なお、しきい値処
理部75の入出力特性は図7に示す。例えば、出力を
(0,1)の範囲に制限するしきい値処理部65の入出力
特性は、
Can be expressed as follows. The input / output characteristics of the threshold processing section 75 are shown in FIG. For example, the input / output characteristics of the threshold processing unit 65 for limiting the output to the range of (0, 1) are as follows:

【0115】[0115]

【数21】 (Equation 21)

【0116】のように数式的に表現できる。但し、aは
しきい値処理部65の入力である。なお、しきい値処理部
75の入出力特性としては上記以外のしきい値関数でもよ
い。
It can be expressed mathematically as shown below. Here, a is an input of the threshold value processing unit 65. The threshold processing unit
As the input / output characteristics of 75, a threshold function other than the above may be used.

【0117】最上位層の多入力一出力信号処理部62は、
パターンのカテゴリ数に設定されており、最上位層の各
多入力一出力信号処理部62は、それぞれ、パターンの各
カテゴリに対応している。最大値選択部63は最上位層の
多入力一出力信号処理部62の出力値の中で最大のものを
選び、対応するカテゴリを入力パターンの最終的な認識
結果として出力する。
The multi-input / one-output signal processing unit 62 in the uppermost layer
The number of categories of the pattern is set, and each multi-input / one-output signal processing unit 62 in the uppermost layer corresponds to each category of the pattern. The maximum value selection unit 63 selects the maximum value among the output values of the multi-input / one-output signal processing unit 62 in the uppermost layer, and outputs the corresponding category as the final recognition result of the input pattern.

【0118】なお、各多入力一出力信号処理部62の重み
係数は、予め、入力パターンの各特徴ベクトルに対する
各カテゴリの統合類似度を用いて、その入力パターンの
カテゴリに対応する最上位層の多入力一出力信号処理部
62が最大出力を発生するように、学習を行なう。これよ
り、カテゴリ判定部15において、入力パターンのカテゴ
リの識別を行なうことができる。なお、これらの重み係
数の設計方法は、誤差逆伝搬法と呼ばれる学習アルゴリ
ズムによって行われる。誤差逆伝搬法については、例え
ば、従来例で示したD. E. Rumelhart, G. E.Hinton and
R. J. Williams による"Learning Representations by
Back-Propagating Errors," Nature, vol.323, pp.533
-536, Oct. 9, 1986) に示されている。
The weighting factor of each multi-input / one-output signal processing unit 62 is determined in advance by using the integrated similarity of each category with respect to each feature vector of the input pattern, using the highest level layer corresponding to the category of the input pattern. Multi-input / one-output signal processing unit
Learning is performed so that 62 generates the maximum output. As a result, the category of the input pattern can be identified in the category determination unit 15. The design method of these weight coefficients is performed by a learning algorithm called an error back propagation method. Regarding the back propagation method, for example, DE Rumelhart, GE Hinton and
"Learning Representations by RJ Williams
Back-Propagating Errors, "Nature, vol.323, pp.533
-536, Oct. 9, 1986).

【0119】このようにこの実施例によれば、各統合類
似度変換部14から得られる全ての各カテゴリの類似度を
用いて、即ち、各特徴ベクトルを識別した結果得られる
全ての類似度を用いて、各カテゴリの最終類似度を求め
る。よって、第1の実施例に比べ、多くの情報を用いて
柔軟にカテゴリを識別できるので、より高精度の認識性
能を得ることができる。
As described above, according to this embodiment, the similarities of all the categories obtained from the integrated similarity conversion units 14 are used, that is, all the similarities obtained as a result of identifying each feature vector are calculated. To calculate the final similarity of each category. Therefore, compared to the first embodiment, the category can be identified more flexibly by using a large amount of information, so that a more accurate recognition performance can be obtained.

【0120】図8は本発明のカテゴリ判定部15の第3の
実施例の構成を具体的に示すブロック図である。図8に
おいて、91は入力部であり、複数の統合類似度計算部14
から得られる統合類似度を1つにまとめて統合類似度ベ
クトルとして入力するものである。92は統合類似度辞書
であり、統合類似度ベクトルの各カテゴリの代表値を示
す参照用統合類似度ベクトルが複数個記憶されているも
のである。93は距離計算部であり、統合類似度ベクトル
と統合類似度辞書92に記憶されている全ての参照用統合
類似度ベクトルとの距離を計算するものである。94は最
小値選択部であり、距離計算部93から得られる距離の中
から最小値を選択するものである。
FIG. 8 is a block diagram specifically showing the configuration of the third embodiment of the category judging section 15 of the present invention. 8, an input unit 91 includes a plurality of integrated similarity calculation units 14.
Are integrated into one and input as an integrated similarity vector. Reference numeral 92 denotes an integrated similarity dictionary in which a plurality of reference integrated similarity vectors indicating representative values of each category of the integrated similarity vector are stored. Reference numeral 93 denotes a distance calculation unit which calculates the distance between the integrated similarity vector and all the reference integrated similarity vectors stored in the integrated similarity dictionary 92. Reference numeral 94 denotes a minimum value selection unit that selects the minimum value from the distances obtained from the distance calculation unit 93.

【0121】以上のように構成されたカテゴリ判定部15
の第3の実施例について、以下その動作を説明する。
The category judging section 15 configured as described above
The operation of the third embodiment will be described below.

【0122】カテゴリ判定部15では、まず、入力部91が
各々の統合類似度計算部14から得られる統合類似度を
(数22)に示すように、1つにまとめて統合類似度ベ
クトルTとして入力し、これをNC個(NCはカテゴリの
数)の距離計算部93へ出力する。
In the category judging section 15, the input section 91 first integrates the integrated similarity obtained from each integrated similarity calculating section 14 into one as an integrated similarity vector T as shown in (Equation 22). It is input and output to N C (N C is the number of categories) distance calculation units 93.

【0123】[0123]

【数22】 (Equation 22)

【0124】各々の距離計算部93は、統合類似度辞書92
に記憶されている各カテゴリの統合類似度の代表値を示
す参照用統合類似度ベクトルZi (1≦i≦NC)を読
みだし、(数23)式に示すTとZi の距離di を計算
し、これを最小値選択部94に出力する。
Each distance calculation unit 93 is provided with an integrated similarity dictionary 92
, The reference integrated similarity vector Z i (1 ≦ i ≦ N C ) indicating the representative value of the integrated similarity of each category stored in the equation (23) is read, and the distance d between T and Z i shown in Expression (23) is read. i is calculated and output to the minimum value selection unit 94.

【0125】[0125]

【数23】 (Equation 23)

【0126】最小値選択部94は、距離計算部93から得ら
れる距離の中で最小のものを選び、対応するカテゴリを
入力パターンの最終的な認識結果として出力する。
The minimum value selecting unit 94 selects the smallest one of the distances obtained from the distance calculating unit 93, and outputs the corresponding category as the final recognition result of the input pattern.

【0127】なお、統合類似度辞書92に記憶されている
各カテゴリの統合類似度の代表値を示す参照用統合類似
度ベクトルは、入力パターンから得られる統合類似度に
対して、そのパターンのカテゴリに対応する距離計算部
93の出力が他の距離計算部93の出力に比べて最小出力を
発生するように、予め設計されている。
Note that the reference integrated similarity vector indicating the representative value of the integrated similarity of each category stored in the integrated similarity dictionary 92 is the same as the integrated similarity obtained from the input pattern. Distance calculator corresponding to
The output of 93 is designed in advance so as to generate a minimum output as compared with the outputs of other distance calculation units 93.

【0128】これらの参照用統合類似度ベクトルの設計
方法は、例えば、学習ベクトル量子化法(LVQ)と呼
ばれる学習アルゴリズムによって行われる。学習ベクト
ル量子化法については、例えば、図3に示す細分類部23
のカテゴリ辞書42の設計法で説明したように、T.Kohone
nによる"Learning Vector Quantization for PatternRe
cognition",Helsinki University of Technology, Rep
ort TKK-F-A601(1986.11)に示されている。
The design method of these reference integrated similarity vectors is performed by, for example, a learning algorithm called a learning vector quantization method (LVQ). For the learning vector quantization method, for example, the sub-classification unit 23 shown in FIG.
As explained in the design method of the category dictionary 42, T. Kohone
"Learning Vector Quantization for PatternRe
cognition ", Helsinki University of Technology, Rep
ort TKK-F-A601 (1986.11).

【0129】このようにこの実施例によれば、各統合類
似度変換部14から得られる全ての各カテゴリの類似度を
用いて、即ち、各特徴ベクトルを識別した結果得られる
全ての類似度を用いて、各カテゴリの最終類似度を求め
る。よって、第1の実施例に比べ、多くの情報を用いて
柔軟にカテゴリを識別できるので、より高精度の認識性
能を得ることができる。
As described above, according to this embodiment, the similarities of all the categories obtained from the integrated similarity converters 14 are used, that is, all the similarities obtained as a result of identifying each feature vector are calculated. To calculate the final similarity of each category. Therefore, compared to the first embodiment, the category can be identified more flexibly by using a large amount of information, so that a more accurate recognition performance can be obtained.

【0130】なお、本実施例の単一認識部12において、
細分類部23は図3に示すような構成ではなく、図5に示
すような、細分類部入力信号選択部25から出力される入
力パターンの特徴ベクトルを入力する入力部と、層構造
をもち、各層内相互の結合がなく、上位層にのみ、信号
が伝搬するようなネットワーク接続された複数の多入力
一出力信号部とによって構成してもよい。
[0130] In the single recognition unit 12 of this embodiment,
The sub-classification unit 23 is not configured as shown in FIG. 3, but has an input unit for inputting a feature vector of an input pattern output from the sub-classification unit input signal selection unit 25 as shown in FIG. Alternatively, a plurality of multi-input / one-output signal units connected to a network such that a signal propagates may be provided only in an upper layer without mutual coupling between layers.

【0131】[0131]

【発明の効果】本発明によれば、複数種類の特徴ベクト
ルを各々別個の単一特徴認識部で識別処理して各特徴ベ
クトルに対する各カテゴリの類似度を求めたのち、カテ
ゴリ識別部がこれら全ての類似度を用いて各単一特徴認
識部から得られる識別結果を統合し、最終的な入力パタ
ーンの認識を行う。従って、従来例のように複数種類の
特徴ベクトルを1つにまとめて用いる場合には困難であ
った「ある特徴ベクトルでは誤認識するパターンを異な
る特徴ベクトルによる識別結果から正しく認識する」と
いうことが容易にできるようになり、高精度の認識を実
現することができる。
According to the present invention, a plurality of types of feature vectors are discriminated by separate single feature recognizing units to determine the similarity of each category to each feature vector. The recognition result obtained from each single feature recognition unit is integrated by using the similarity of, and the final input pattern is recognized. Therefore, it is difficult to collectively use a plurality of types of feature vectors as in the conventional example. That is, "a pattern that is erroneously recognized with a certain feature vector is correctly recognized based on the identification result of a different feature vector". This makes it easy to realize highly accurate recognition.

【0132】また、従来法では、複数種類の特徴ベクト
ルの使用によって、認識に要する時間が増加するが、本
実施例では、各単一特徴認識部が各々並列に識別処理を
行うので、認識に要する時間を従来例に比べ、短くする
ことができる。
In the conventional method, the time required for recognition increases due to the use of a plurality of types of feature vectors. However, in the present embodiment, since each single feature recognition unit performs the identification processing in parallel with each other, the recognition is not performed. The required time can be shortened as compared with the conventional example.

【図面の簡単な説明】[Brief description of the drawings]

【図1】(a)は本発明におけるパターン認識装置の実
施例を示すブロック図 (b)は本発明におけるパターン認識装置の単一特徴認
識部の実施例を示すブロック図
FIG. 1A is a block diagram illustrating an embodiment of a pattern recognition device according to the present invention; FIG. 1B is a block diagram illustrating an embodiment of a single feature recognition unit of the pattern recognition device according to the present invention;

【図2】本発明におけるパターン認識装置のファジィ大
分類部の実施例を示すブロック図
FIG. 2 is a block diagram showing an embodiment of a fuzzy large classification unit of the pattern recognition device according to the present invention.

【図3】本発明におけるパターン認識装置の細分類部の
第1の実施例を示すブロック図
FIG. 3 is a block diagram showing a first embodiment of a fine classification unit of the pattern recognition device according to the present invention.

【図4】本発明におけるパターン認識装置の統合類似度
変換部の第2の実施例を示すブロック図
FIG. 4 is a block diagram showing a second embodiment of the integrated similarity conversion unit of the pattern recognition device according to the present invention.

【図5】本発明におけるパターン認識装置のカテゴリ判
定部の第2の実施例を示すブロック図
FIG. 5 is a block diagram showing a second embodiment of the category determination unit of the pattern recognition device according to the present invention.

【図6】本発明における第2の実施例であるカテゴリ判
定部の多入力一出力信号処理部の実施例を示すブロック
FIG. 6 is a block diagram showing an embodiment of a multi-input / one-output signal processing unit of a category determination unit according to a second embodiment of the present invention;

【図7】本発明における第2の実施例であるカテゴリ判
定部の多入力一出力信号処理部におけるしきい値処理部
の入出力特性図
FIG. 7 is an input / output characteristic diagram of a threshold value processing unit in a multi-input / one-output signal processing unit of a category determination unit according to a second embodiment of the present invention;

【図8】本発明におけるパターン認識装置のカテゴリ判
定部の第3の実施例を示すブロック図
FIG. 8 is a block diagram showing a third embodiment of the category determination unit of the pattern recognition device according to the present invention.

【図9】従来のパターン認識装置の実施例を示すブロッ
ク図
FIG. 9 is a block diagram showing an embodiment of a conventional pattern recognition device.

【符号の説明】[Explanation of symbols]

11 特徴抽出部 12 単一特徴認識部 13 カテゴリ識別部 14 統合類似度変換部 15 カテゴリ判定部 16 類似度正規化部 17 加算器 18 最大値選択部 21 群辞書 22 ファジィ大分類部 23 細分類部 24 群選択部 25 細分類部入力信号選択部 26 単一特徴類似度計算部 27 乗算器 28 カテゴリ類似度計算部 11 Feature extraction unit 12 Single feature recognition unit 13 Category identification unit 14 Integrated similarity conversion unit 15 Category judgment unit 16 Similarity normalization unit 17 Adder 18 Maximum value selection unit 21 Group dictionary 22 Fuzzy large classification unit 23 Fine classification unit 24 Group selector 25 Sub-classifier Input signal selector 26 Single feature similarity calculator 27 Multiplier 28 Category similarity calculator

───────────────────────────────────────────────────── フロントページの続き (72)発明者 〆木 泰治 大阪府門真市大字門真1006番地 松下電 器産業株式会社内 (72)発明者 山本 浩司 大阪府門真市大字門真1006番地 松下電 器産業株式会社内 (72)発明者 丹羽 寿男 大阪府門真市大字門真1006番地 松下電 器産業株式会社内 (56)参考文献 特開 平5−303642(JP,A) 特開 平4−31979(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 G06K 9/00 - 9/03 G06K 9/46 - 9/52 G06K 9/62 - 9/82 JICSTファイル(JOIS)──────────────────────────────────────────────────の Continuing on the front page (72) Inventor Taiji Takagi 1006 Kazuma Kadoma, Osaka Prefecture Inside Matsushita Electric Industrial Co., Ltd. In-company (72) Inventor Toshio Niwa 1006 Kadoma, Kazuma, Osaka Prefecture Inside Matsushita Electric Industrial Co., Ltd. (56) References JP-A-5-303642 (JP, A) JP-A-4-31979 (JP, A (58) Fields surveyed (Int.Cl. 7 , DB name) G06T 7 /00-7/60 G06K 9/00-9/03 G06K 9/46-9/52 G06K 9/62-9/82 JICST File (JOIS)

Claims (8)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】入力されたパターンから各々異なる特徴ベ
クトルを求める複数の特徴抽出部と、前記入力パターン
が各カテゴリに属する度合である類似度を前記特徴ベク
トル各々から求める複数の単一特徴認識部と、複数の前
記単一特徴認識部から得られた類似度を用いて前記入力
パターンの識別を行なうカテゴリ識別部を具備し、 前記単一特徴認識部は、前記特徴ベクトルが類似するパ
ターンの集合から成るカテゴリ群を代表する群参照用特
徴ベクトルが複数個記憶されている群辞書と、前記群参
照用特徴ベクトルと前記入力パターンの特徴ベクトルを
用いて入力パターンが各カテゴリ群に属する度合である
群帰属度を計算するファジィ大分類部と、前記入力パタ
ーンの特徴ベクトルを用いて前記入力パターンがカテゴ
リ群内に含まれる各カテゴリに属する度合である群内類
似度を求める複数の細分類部と、前記群帰属度から複数
のカテゴリ群を選択する群選択部と、前記群選択部から
得られる群選択情報に基づいて前記入力パターンの特徴
ベクトルを入力する細分類部を選択する細分類部入力信
号選択部と、前記群選択部で選択されたカテゴリ群の群
帰属度と前記細分類部で得られた群内類似度を用いて入
力パターンに対する各カテゴリの類似度を求める単一特
徴類似度計算部を備え、 前記単一特徴類似度計算部は、前記群選択部で選択され
たカテゴリ群の群帰属度と前記細分類部入力信号選択部
から前記入力パターンの特徴ベクトルを入力された前記
細分類部から得られる全ての群内類似度を乗算する複数
個の乗算器と、各カテゴリ毎に前記乗算器の出力値の大
きいものを複数個選択し、これらの出力値の総和を求め
るカテゴリ類似度計算部を備え、 前記カテゴリ識別部は、前記特徴ベクトル各々に対応す
る前記単一特徴認識部から得られた各カテゴリの類似度
をそれらの類似度の中の最大値で正規化することによっ
て統合類似度に変換する複数の統合類似度変換部と、複
数の前記統合類似度変換部から得られた統合類似度を用
いて各カテゴリの最終類似度を求め、最終的な入力パタ
ーンの識別を行なうカテゴリ判定部とを備えたことを特
徴とするパターン認識装置。
1. A plurality of feature extracting units for obtaining different feature vectors from an input pattern, and a plurality of single feature recognizing units for obtaining, from each of the feature vectors, a degree of similarity of the input pattern belonging to each category. And a category identification unit that identifies the input pattern using similarities obtained from a plurality of the single feature recognition units. The single feature recognition unit includes a set of patterns having similar feature vectors. A group dictionary in which a plurality of group reference feature vectors representative of a category group consisting of: and a degree to which an input pattern belongs to each category group using the group reference feature vector and the feature vector of the input pattern. A fuzzy large classifying unit for calculating the degree of group membership, and using the feature vector of the input pattern as a function of each category in which the input pattern is included in a category group. A plurality of sub-classification units for obtaining intra-group similarity that is a degree belonging to the category, a group selection unit for selecting a plurality of category groups from the group belonging degree, and the group selection information obtained from the group selection unit. A sub-classification unit for selecting a sub-classification unit for inputting a feature vector of an input pattern; an input signal selection unit; a group membership degree of the category group selected by the group selection unit; and an intra-group similarity obtained by the sub-classification unit. A single feature similarity calculating unit for calculating the similarity of each category with respect to the input pattern by using the single feature similarity calculating unit. A plurality of multipliers for multiplying all the intra-group similarities obtained from the sub-classification unit input with the feature vector of the input pattern from the classification unit input signal selection unit, and an output value of the multiplier for each category Multiple large ones A category similarity calculation unit for selecting the sum of the output values, and the category identification unit calculates the similarity of each category obtained from the single feature recognition unit corresponding to each of the feature vectors. A plurality of integrated similarity conversion units that convert to the integrated similarity by normalizing with the maximum value of the similarities among the similarities, and for each category using the integrated similarity obtained from the plurality of integrated similarity conversion units A pattern recognition apparatus, comprising: a category determining unit that determines a final similarity and identifies a final input pattern.
【請求項2】統合類似度変換部は、単一特徴認識部から
得られた各カテゴリの類似度をそれらの類似度の中の最
大値で正規化する類似度正規化部と、前記類似度正規化
部から得られた各カテゴリの正規化類似度を非線形変換
し、それら非線形変換された前記正規化類似度をその総
和値で各々除算することによって各カテゴリの統合類似
度を求める統合類似度計算部を備えたことを特徴とする
請求項1記載のパターン認識装置。
2. A similarity normalizing unit for normalizing the similarity of each category obtained from the single feature recognizing unit by a maximum value among the similarities; An integrated similarity for non-linearly converting the normalized similarity of each category obtained from the normalization unit and dividing the non-linearly converted normalized similarity by the sum thereof to obtain an integrated similarity of each category. The pattern recognition device according to claim 1, further comprising a calculation unit.
【請求項3】カテゴリ判定部は、複数の統合類似度計算
部から得られる各カテゴリの統合類似度を同一カテゴリ
毎に加算することによって、各カテゴリの最終類似度を
求めることを特徴とする請求項1または2記載のパター
ン認識装置。
3. The method according to claim 1, wherein the category determination unit obtains the final similarity of each category by adding the integrated similarity of each category obtained from the plurality of integrated similarity calculation units for each same category. Item 3. The pattern recognition device according to item 1 or 2.
【請求項4】カテゴリ判定部は、層構造をもち、各層内
相互の結合がなく、上位層にのみ信号が伝搬するように
ネットワーク接続された複数の多入力一出力信号処理部
からなり、前記多入力一出力信号処理部は、複数の重み
係数を保持する重み係数記憶部と、複数の入力信号を入
力する入力部と、前記重み係数記憶部に貯えられた重み
係数で前記入力部からの入力信号を重み付けする乗算手
段と、前記乗算手段で重み付けされた複数の入力信号を
加え合わせる加算手段と、該加算手段の出力を一定範囲
の値に制限するしきい値処理部を備えたことを特徴とす
る請求項1または2記載のパターン認識装置。
4. The category judging section comprises a plurality of multi-input one-output signal processing sections which have a layer structure, are not connected to each other, and are network-connected so that signals propagate only to the upper layer. The multi-input / one-output signal processing unit includes a weight coefficient storage unit that holds a plurality of weight coefficients, an input unit that inputs a plurality of input signals, and a weight coefficient stored in the weight coefficient storage unit. Multiplication means for weighting the input signal, addition means for adding the plurality of input signals weighted by the multiplication means, and a threshold processing section for limiting the output of the addition means to a value within a certain range. The pattern recognition device according to claim 1 or 2, wherein
【請求項5】カテゴリ判定部は、複数の統合類似度計算
部から得られる統合類似度を1つにまとめた統合類似度
ベクトルの各カテゴリの代表値を示す参照用統合類似度
ベクトルが複数個記憶されている統合類似度辞書と、統
合類似度ベクトルと前記統合類似度辞書に記憶されてい
る全ての参照用統合類似度ベクトルとの距離を計算する
複数個の距離計算部を備えたことを特徴とする請求項1
または2記載の認識装置
5. A category judging section, wherein a plurality of reference integrated similarity vectors each representing a representative value of each category of the integrated similarity vector obtained by integrating the integrated similarities obtained from the plurality of integrated similarity calculating sections. A stored integrated similarity dictionary; and a plurality of distance calculation units for calculating distances between the integrated similarity vector and all of the reference integrated similarity vectors stored in the integrated similarity dictionary. Claim 1.
Or the recognition device according to 2.
【請求項6】ファジィ大分類部は、入力パターンの特徴
ベクトルと群辞書に記憶されている全ての群参照用特徴
ベクトルとの距離を計算する複数個の距離計算部と、前
記距離計算部の出力の逆数を計算する複数個の割算器
と、前記割算器の各出力を加算する加算器と、前記加算
器の出力と前記距離計算部の出力を乗算する複数個の乗
算器と、前記乗算器の出力の逆数を計算する複数個の割
算器を備えたことを特徴とする請求項1〜5のいずれか
に記載のパターン認識装置。
6. A large fuzzy classification unit includes: a plurality of distance calculation units for calculating distances between a feature vector of an input pattern and all group reference feature vectors stored in a group dictionary; A plurality of dividers for calculating the reciprocal of the output, an adder for adding each output of the divider, a plurality of multipliers for multiplying the output of the adder and the output of the distance calculation unit, The pattern recognition device according to claim 1, further comprising a plurality of dividers for calculating a reciprocal of an output of the multiplier.
【請求項7】細分類部は、パターンの各カテゴリの代表
値を示すカテゴリ参照用特徴ベクトルが複数個記憶され
ているカテゴリ辞書と、前記特徴ベクトルと前記カテゴ
リ辞書に記憶されている全てのカテゴリ参照用特徴ベク
トルとの距離を計算する複数個の距離計算部と、前記距
離計算部の出力の逆数を計算する複数個の割算器と、前
記割算器の各出力を加算する加算器と、前記加算器の出
力と前記距離計算部の出力を乗算する複数個の乗算器
と、前記乗算器の出力の逆数を計算する複数個の割算器
を備えたことを特徴とする請求項1〜6のいずれかに記
載のパターン認識装置。
7. A category dictionary storing a plurality of category reference feature vectors indicating a representative value of each category of a pattern, and all categories stored in the feature vector and the category dictionary. A plurality of distance calculators for calculating the distance to the reference feature vector, a plurality of dividers for calculating the reciprocal of the output of the distance calculator, and an adder for adding each output of the divider. And a plurality of multipliers for multiplying an output of the adder and an output of the distance calculation unit, and a plurality of dividers for calculating a reciprocal of an output of the multiplier. 7. The pattern recognition device according to any one of claims 1 to 6.
【請求項8】細分類部は、層構造をもち、各層内相互の
結合がなく、上位層にのみ信号が伝搬するようにネット
ワーク接続された複数の多入力ー出力信号処理部からな
り、前記多入力ー出力信号処理部は、複数の重み係数を
保持する重み係数記憶部と、複数の入力信号を入力する
入力部と、前記重み係数記憶部に貯えられた重み係数で
前記入力部からの入力信号を重み付けする乗算手段と、
前記乗算手段で重み付けされた複数の入力信号を加え合
わせる加算手段と、該加算手段の出力を一定範囲の値に
制限するしきい値処理部を備えたことを特徴とする請求
項1〜6のいずれかに記載のパターン認識装置。
8. The sub-classification unit comprises a plurality of multi-input / output signal processing units which have a layer structure, are not connected to each other, and are network-connected so that signals propagate only to upper layers. The multi-input / output signal processing unit includes a weight coefficient storage unit that holds a plurality of weight coefficients, an input unit that inputs a plurality of input signals, and a weight coefficient stored in the weight coefficient storage unit. Multiplication means for weighting the input signal;
7. An apparatus according to claim 1, further comprising an adding means for adding a plurality of input signals weighted by said multiplying means, and a threshold processing unit for limiting an output of said adding means to a value within a certain range. The pattern recognition device according to any one of the above.
JP33017092A 1992-09-28 1992-12-10 Pattern recognition device Expired - Fee Related JP3180477B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP33017092A JP3180477B2 (en) 1992-12-10 1992-12-10 Pattern recognition device
US08/513,294 US6041141A (en) 1992-09-28 1995-08-10 Character recognition machine utilizing language processing
US08/965,534 US5987170A (en) 1992-09-28 1997-11-06 Character recognition machine utilizing language processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33017092A JP3180477B2 (en) 1992-12-10 1992-12-10 Pattern recognition device

Publications (2)

Publication Number Publication Date
JPH06176158A JPH06176158A (en) 1994-06-24
JP3180477B2 true JP3180477B2 (en) 2001-06-25

Family

ID=18229608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33017092A Expired - Fee Related JP3180477B2 (en) 1992-09-28 1992-12-10 Pattern recognition device

Country Status (1)

Country Link
JP (1) JP3180477B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3761937B2 (en) * 1995-09-18 2006-03-29 キヤノン株式会社 Pattern recognition method and apparatus, and computer control apparatus
US7088860B2 (en) 2001-03-28 2006-08-08 Canon Kabushiki Kaisha Dynamically reconfigurable signal processing circuit, pattern recognition apparatus, and image processing apparatus
JP2002358523A (en) 2001-05-31 2002-12-13 Canon Inc Device and method for recognizing and processing pattern, and image input device
JP5636766B2 (en) * 2010-06-28 2014-12-10 富士ゼロックス株式会社 Image processing apparatus and image processing program

Also Published As

Publication number Publication date
JPH06176158A (en) 1994-06-24

Similar Documents

Publication Publication Date Title
KR100442835B1 (en) Face recognition method using artificial neural network, and the apparatus using thereof
Chacko et al. Handwritten character recognition using wavelet energy and extreme learning machine
Héroux et al. Classification method study for automatic form class identification
CN113658100A (en) Three-dimensional target object detection method and device, electronic equipment and storage medium
Zhang et al. A nonlinear neural network model of mixture of local principal component analysis: application to handwritten digits recognition
Carbonetto et al. Learning to recognize objects with little supervision
Cecotti Deep random vector functional link network for handwritten character recognition
Shayegan et al. A new dataset size reduction approach for PCA-based classification in OCR application
JP3180477B2 (en) Pattern recognition device
Chan et al. Multi-stage target recognition using modular vector quantizers and multilayer perceptrons
Kaur et al. Bagging: An Ensemble Approach for Recognition of Handwritten Place Names in Gurumukhi Script
JP2924442B2 (en) Pattern recognition device
Salman et al. Deep Learning Machine using Hierarchical Cluster Features
Kapp et al. Methodology for the design of NN-based month-word recognizers written on Brazilian bank checks
JPH0773276A (en) Character recognition device
Safari MCSM-DEEP: A multi-class soft-max deep learning classifier for image recognition
Vaidya et al. Discrete cosine transform-based feature selection for Marathi numeral recognition system
CN112232398A (en) Semi-supervised multi-class Boosting classification method
JP3337597B2 (en) Learning type recognition judgment device
Bourbakis et al. Handwriting recognition using a reduced character method and neural nets
Watanabe et al. Understanding community structure in layered neural networks
Lam et al. Application of convolutional neural networks for fingerprint recognition
Agahi et al. Handwritten digits recognition using an ensemble technique based on the firefly algorithm
Alaswad et al. Off-Line Recognition System for Handwritten Arabic Words Using Artificial Intelligence
Waziry et al. Character and Digit Recognition Using ANN Back Propagation Algorithm and Image Segmentation

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080420

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090420

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100420

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees