JPH06176158A - Pattern recognizing device - Google Patents

Pattern recognizing device

Info

Publication number
JPH06176158A
JPH06176158A JP4330170A JP33017092A JPH06176158A JP H06176158 A JPH06176158 A JP H06176158A JP 4330170 A JP4330170 A JP 4330170A JP 33017092 A JP33017092 A JP 33017092A JP H06176158 A JPH06176158 A JP H06176158A
Authority
JP
Japan
Prior art keywords
category
unit
similarity
input
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4330170A
Other languages
Japanese (ja)
Other versions
JP3180477B2 (en
Inventor
Yoshihiro Kojima
良宏 小島
Toshiyuki Koda
敏行 香田
Susumu Maruno
進 丸野
泰治 〆木
Taiji Shimeki
Koji Yamamoto
浩司 山本
Toshio Niwa
寿男 丹羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP33017092A priority Critical patent/JP3180477B2/en
Publication of JPH06176158A publication Critical patent/JPH06176158A/en
Priority to US08/513,294 priority patent/US6041141A/en
Priority to US08/965,534 priority patent/US5987170A/en
Application granted granted Critical
Publication of JP3180477B2 publication Critical patent/JP3180477B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To realize highly accurate recognizing performance by respectively and individually recognizing plural kinds of feature vectors to an input pattern, and then integrating the results for final recognition. CONSTITUTION:Plural feature extracting parts 11 obtain respectively different feature vectors from the input pattern, plural single feature recognising parts 2 individually recognize them and a category recognizing part 13 recognizes the input pattern through the use of obtained similarity in this pattern recognizing device. In the single feature recognizing part 12, a fuzzy broadly-classifying part 22 obtains the group attribution degree of each category group to the input pattern and plural thinly-classifying parts 23 obtain the in-group similarity of each category within each category group so as to obtain the similarity of each category to the input pattern through the use of the group attribution degree and the in-group similarity. On the other hand, in the category recognizing part 13, an integrated similarity converting part 14 converts the similarity of each obtained category to the integrated similarity and a category discrimination part 15 obtains the final similarity of each category through the use of the integrated similarity so as to recognize.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、入力されたパターンの
認識を行う装置に関するものである。特に、入力パター
ンに対して、大分類を行ったあとに細分類を行なうとい
うような階層的な認識を行うことによってパターンの認
識を行う装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for recognizing an input pattern. In particular, the present invention relates to a device for recognizing a pattern by performing hierarchical recognition such as performing a major classification on an input pattern and then performing a fine classification.

【0002】[0002]

【従来の技術】従来の、入力されたパターンに対して、
まず大分類を行って入力パターンが属するカテゴリ群
(ここで、カテゴリ群とは、パターンの特徴ベクトルが
類似するパターンの集合を示す。)を選択し、次に選択
されたカテゴリ群において、細分類を行なうことによっ
て入力パターンの認識を行なうパターン認識装置の例と
しては、例えば、電子情報通信学会論文誌D−II Vol.J
75-D-II No.3 pp545-553「大規模ニューラルネット”C
ombNET−II”」に示されている。
2. Description of the Related Art For a conventional input pattern,
First, a major classification is performed to select a category group to which the input pattern belongs (here, the category group refers to a set of patterns having similar pattern feature vectors), and then the subclassification is performed in the selected category group. As an example of a pattern recognition device for recognizing an input pattern by performing the above, for example, the IEICE Transactions D-II Vol.
75-D-II No.3 pp545-553 "Large-scale neural network" C
mbNET-II "".

【0003】図9はこの従来のパターン認識装置の構成
図を示すものであり、110は特徴抽出部であり、入力パ
ターンからカテゴリを識別するために用いる特徴ベクト
ルを抽出するものである。111は大分類部であり、入力
パターンを各カテゴリ群に大分類するものである。112
は細分類部であり、入力パターンを各カテゴリ群内で細
分類するものである。113は群選択部であり、大分類部1
11の出力値(以下、適合度と呼ぶ。)から複数個のカテ
ゴリ群を選択するものである。114は細分類部入力信号
選択部であり、群選択部113で得られる群選択情報に基
づいて入力パターンの特徴ベクトルを入力する細分類部
112を選択するものである。115は識別部であり、群選択
部113で選択されたカテゴリ群の適合度と細分類部112の
出力値から入力パターンの識別を行なうものである。
FIG. 9 shows a block diagram of this conventional pattern recognition apparatus. Reference numeral 110 denotes a feature extraction unit for extracting a feature vector used to identify a category from an input pattern. 111 is a large classification unit, which roughly classifies the input pattern into each category group. 112
Is a sub-classification unit, which sub-classifies the input pattern within each category group. 113 is a group selection unit, which is a large classification unit 1
A plurality of category groups are selected from 11 output values (hereinafter referred to as “fitness”). Reference numeral 114 denotes a fine classification unit input signal selection unit, which inputs the feature vector of the input pattern based on the group selection information obtained by the group selection unit 113.
112 is to be selected. A discriminating unit 115 discriminates the input pattern from the conformance of the category group selected by the group selecting unit 113 and the output value of the fine classifying unit 112.

【0004】大分類部111において、116は入力部であ
り、入力パターンの特徴ベクトルを入力するものであ
る。117は多入力一出力信号処理部であり、入力パター
ンに対する各カテゴリ群の適合度を計算するものであ
る。
In the general classification unit 111, reference numeral 116 is an input unit for inputting a feature vector of an input pattern. Reference numeral 117 denotes a multi-input / single-output signal processing unit, which calculates the matching degree of each category group with respect to the input pattern.

【0005】細分類部112において、118は入力部であ
り、細分類部入力信号選択部114から出力される入力パ
ターンの特徴ベクトルを入力するものである。119は多
入力一出力信号処理部であり、それに接続されている下
層の入力部118、または多入力一出力信号処理部119の出
力と、その連結の度合である重み係数とを各々掛け合わ
せて総和したものをしきい値処理して出力するものであ
る。ここでは、これら複数個の多入力一出力信号処理部
を層構造を持ち、各層内相互の結合がなく、上位層にの
み信号が伝搬するようにネットワーク接続することによ
って、入力パターンに対するカテゴリ群内の各カテゴリ
に類似する度合が求められる。120は最大値選択部であ
り、最上位層の複数個の前記多入力ー出力信号処理部の
出力の中から最大値を選択するものである。
In the fine classification unit 112, reference numeral 118 is an input unit for inputting the feature vector of the input pattern output from the fine classification unit input signal selection unit 114. Reference numeral 119 denotes a multi-input / single-output signal processing unit, which multiplies the output of the lower-layer input unit 118 or the multi-input / single output signal processing unit 119 connected to the multi-input / single-output signal processing unit and the weighting coefficient, which is the degree of connection thereof. The sum total is subjected to threshold processing and output. Here, these multiple multi-input one-output signal processing units have a layered structure and are networked so that signals are propagated only to the upper layer without mutual coupling in each layer, and thus within the category group for the input pattern. The degree of similarity to each category is required. Reference numeral 120 denotes a maximum value selection unit that selects the maximum value from the outputs of the plurality of multi-input / output signal processing units in the uppermost layer.

【0006】識別部115において、121は類似度計算部で
あり、群選択部113で選択されたカテゴリ群の適合度
と、そのカテゴリ群に対応する細分類部112の出力値か
ら各カテゴリの類似度を計算するものである。122はカ
テゴリ識別部であり、類似度計算部121から得られた各
カテゴリの類似度の最大値を求めることによって、入力
パターンのカテゴリの識別を行なうものである。
In the identification unit 115, 121 is a similarity calculation unit, and the similarity of each category is calculated from the goodness of fit of the category group selected by the group selection unit 113 and the output value of the subclassification unit 112 corresponding to the category group. It calculates the degree. A category identification unit 122 identifies the category of the input pattern by obtaining the maximum similarity of each category obtained from the similarity calculation unit 121.

【0007】以上のように構成された従来のパターン認
識装置について、以下その動作を説明する。まず、特徴
抽出部110が、入力されたパターンに対してn個の特徴
データからなる特徴ベクトルX
The operation of the conventional pattern recognition apparatus configured as described above will be described below. First, the feature extraction unit 110 determines the feature vector X consisting of n feature data for the input pattern.

【0008】[0008]

【数1】 [Equation 1]

【0009】を求める。次に、特徴ベクトルXは、大分
類部111の入力部116に入力される。入力部116はパター
ンの特徴データ数に等しくn個用意されており、各特徴
データxiはそれぞれ対応する入力部116に入力される。
大分類部111の各多入力一出力信号処理部117は、それに
接続されている入力部111の入力xjとその連結の度合で
ある重み係数vij (1≦i≦mr;mrはカテゴリ群の
数、1≦j≦n)とを乗算したものの総和を計算した
後、これを特徴ベクトルX及び、各多入力一出力信号処
理部117の重み係数ベクトルVi
Calculating Next, the feature vector X is input to the input unit 116 of the large classification unit 111. There are n input units 116, which are equal in number to the feature data of the pattern, and each feature data x i is input to the corresponding input unit 116.
Each of the multi-input one-output signal processing units 117 of the large classification unit 111 has a weight coefficient v ij (1 ≦ i ≦ m r ; m r that is a degree of connection of the input x j of the input unit 111 connected thereto and After calculating the sum of the product of the number of category groups and 1 ≦ j ≦ n), this is calculated as a feature vector X and a weighting coefficient vector V i of each multi-input one-output signal processing unit 117.

【0010】[0010]

【数2】 [Equation 2]

【0011】のノルム|X|、|Vi|の積で割り算し
たものを出力する。つまり、図10に示す重み係数ベク
トルViをもつ多入力一出力信号処理部117の出力値sim
(X,V i)は、
Norm of | X |, | ViDivided by the product of |
Output That is, the weighting coefficient vector shown in FIG.
Toru ViOutput value sim of the multi-input single-output signal processing unit 117 having
(X, V i) Is

【0012】[0012]

【数3】 [Equation 3]

【0013】と表わすことができる。なお、重み係数ベ
クトルViについては、特徴ベクトルXが類似するパタ
ーンの集合に対して決まった多入力一出力信号処理部が
最大出力を発生するように、予め設計しておく。
It can be expressed as It should be noted that the weighting coefficient vector V i is designed in advance so that a predetermined multi-input / single-output signal processing unit generates a maximum output for a set of patterns having similar feature vectors X.

【0014】これらの重み係数ベクトルVi は、従来例
によると、以下のような手法で設計される。まず第1過
程では、重み係数ベクトル設計用のパターンの特徴ベク
トルXを入力する毎に、最もsim(X,Vi)の大きいVC
を求め(このとき、XはVCに最適整合するとい
う。)、VCをXに近づける。また、1つの重み係数ベ
クトルに最適整合する入力パターンがある一定数以上に
なった時には、その重み係数ベクトルが担当する領域を
2つに分割する。第2過程では、重み係数ベクトル設計
用の全パターンに対して、最適整合するViを求め、そ
れが前回と変化したかどうかを調べる。そして、変更が
あれば、そのViを修正する。このとき、第1過程と同
様に、重み係数ベクトルの分裂も行なう。これを重み係
数ベクトルの修正、分裂がなくなるまで繰り返す。
According to the conventional example, these weighting coefficient vectors V i are designed by the following method. First, in the first process, every time the feature vector X of the pattern for designing the weighting coefficient vector is input, V C having the largest sim (X, V i ) is input.
The calculated (this time, X is that optimally matched to V C.), Closer to V C to X. Further, when the number of input patterns optimally matching one weighting coefficient vector exceeds a certain number, the area covered by the weighting coefficient vector is divided into two. In the second step, the optimum matching V i is obtained for all the patterns for designing the weighting coefficient vector, and it is checked whether or not it has changed from the previous time. Then, if there is a change, the V i is corrected. At this time, as in the first step, the weighting coefficient vector is also divided. This is repeated until the weight coefficient vector is corrected and there is no division.

【0015】このようにして、重み係数ベクトルの設計
を行なうことによって、各重み係数ベクトルViは、入
力パターンの特徴ベクトル空間を分割し、量子化するこ
とができる。つまり、入力パターンは各重み係数ベクト
ルViによって、特徴ベクトルが類似する複数のパター
ンの集合、即ち、複数のカテゴリ群に分類される。そし
て、各多入力一出力信号処理部117の出力値は、入力パ
ターンに対する各カテゴリ群の適合度として群選択部11
3に出力される。
By designing the weight coefficient vector in this manner, each weight coefficient vector V i can be divided and quantized in the feature vector space of the input pattern. That is, the input pattern is classified into a set of a plurality of patterns having similar feature vectors, that is, a plurality of category groups by each weighting coefficient vector V i . Then, the output value of each multi-input one-output signal processing unit 117 is used as the degree of conformity of each category group with respect to the input pattern, and the group selection unit 11
Output to 3.

【0016】群選択部113では、大分類部111で得られた
適合度の大きい順に任意個のカテゴリ群を選び、どのカ
テゴリ群が選択されたかを示す群選択情報とそれに対応
する適合度を出力する。
The group selection unit 113 selects an arbitrary number of category groups in descending order of goodness of fit obtained by the large classification unit 111, and outputs group selection information indicating which category group has been selected and the goodness of fit corresponding thereto. To do.

【0017】群選択部113から得られる群選択情報に基
づいて、細分類入力信号選択部114は、入力パターンの
特徴ベクトルXを入力する細分類部112を選択し、Xを
これらの細分類部112へ出力する。
On the basis of the group selection information obtained from the group selection unit 113, the subclassification input signal selection unit 114 selects the subclassification unit 112 to which the feature vector X of the input pattern is input and sets X to these subclassification units. Output to 112.

【0018】群選択部113で選択されたカテゴリ群に対
応する各々の細分類部112(即ち、細分類入力信号選択
部114から入力パターンの特徴ベクトルXを入力された
細分類部112)では、まず、入力部118に、特徴ベクトル
Xが入力される。入力部118は、パターンの特徴データ
数に等しくN個用意されており、各特徴データxiはそ
れぞれ対応する入力部118に入力される。細分類部112の
各多入力一出力信号処理部119はそれに接続されている
下層の入力部118、または多入力一出力信号処理部119の
出力とその連結の度合である重み係数とを掛け合わせた
ものの総和をしきい値関数で変換した後、その値を上層
へ出力する。ここで、各細分類部112の最上位層の多入
力一出力信号処理部119は、各カテゴリ群に含まれるパ
ターンのカテゴリ数と同じ個数に設定され、最上位層の
各多入力一出力信号処理部119は、これらの各カテゴリ
に対応している。最大値選択部120は最上位層の各多入
力一出力信号処理部119の出力値の中で最大のものを選
び、この多入力一出力信号処理部119に対応するカテゴ
リと、その最大出力値を出力する。
In each subclassification section 112 corresponding to the category group selected by the group selection section 113 (that is, the subclassification section 112 to which the feature vector X of the input pattern is input from the subclassification input signal selection section 114), First, the feature vector X is input to the input unit 118. The number of input units 118 is equal to the number of characteristic data items of the pattern, and each characteristic data item x i is input to the corresponding input unit 118. Each multi-input one-output signal processing unit 119 of the sub-classification unit 112 multiplies the output of the lower-layer input unit 118 or the multi-input one-output signal processing unit 119 connected to the weighting coefficient which is the degree of the connection. After converting the sum of all things with a threshold function, the value is output to the upper layer. Here, the multi-input one-output signal processing unit 119 in the top layer of each subclassification unit 112 is set to the same number as the number of categories of patterns included in each category group, and each multi-input one output signal in the top layer is set. The processing unit 119 corresponds to each of these categories. The maximum value selection unit 120 selects the maximum output value among the output values of each multi-input one-output signal processing unit 119 in the uppermost layer, the category corresponding to this multi-input one-output signal processing unit 119, and its maximum output value. Is output.

【0019】なお、各多入力一出力信号処理部119の重
み係数は、カテゴリ群内の各カテゴリをもつパターンの
特徴ベクトルXに対して、その各カテゴリに対応する最
上位層の多入力一出力信号処理部119が最大出力を発生
するように、予め学習されている。
The weighting factor of each multi-input / single-output signal processing unit 119 is such that for the feature vector X of the pattern having each category in the category group, the multi-input / single output of the highest layer corresponding to each category. The signal processing unit 119 is previously learned so as to generate the maximum output.

【0020】具体的には、このような重み係数の学習方
法は、誤差逆伝搬法と呼ばれる学習アルゴリズムによっ
て行われる。誤差逆伝搬法については、例えばD. E. Ru
melhart, G. E.Hinton and R. J. Williams による"Lea
rning Representations by Back-Propagating Errors,"
Nature, vol.323, pp.533-536, Oct. 9, 1986 に示さ
れている。
Specifically, such a weighting coefficient learning method is performed by a learning algorithm called an error back propagation method. For the error backpropagation method, for example, DE Ru
"Lea by melhart, GEHinton and RJ Williams
rning Representations by Back-Propagating Errors, "
Nature, vol.323, pp.533-536, Oct. 9, 1986.

【0021】以下、誤差逆伝搬法の概略について説明す
る。まず、重み係数学習用のパターンの特徴ベクトルX
が細分類部112の入力部118に入力される。各多入力一出
力信号処理部119は、既に説明したように、各々それに
接続されている下層の入力部118、または多入力一出力
信号処理部119の出力とその連結の度合である重み係数
とを掛け合わせたものの総和をしきい値関数で変換した
後、その値を上層へ出力する。ここで、全ての最上位層
の多入力一出力信号処理部119の出力信号ok と望まし
い出力信号tk(これを教師信号と呼ぶ)との誤差Eは
(数4)のように求められる。
The outline of the error back propagation method will be described below. First, the feature vector X of the pattern for weighting coefficient learning
Is input to the input unit 118 of the subclassification unit 112. As described above, each multi-input / single-output signal processing unit 119 has a lower-layer input unit 118 connected to it, or an output of the multi-input / single-output signal processing unit 119 and a weighting factor which is a degree of connection thereof. After the total sum of those multiplied by is converted by the threshold function, the value is output to the upper layer. Here, the error E between the output signal o k of all the multi-input one-output signal processing units 119 of the uppermost layer and the desired output signal t k (this is called a teacher signal) is obtained as in (Equation 4). .

【0022】[0022]

【数4】 [Equation 4]

【0023】但し、Σp は教師信号のパターン数に関す
る総和である。学習の目的は、誤差Eを最小にする重み
係数の値を決定することであり、各多入力一出力信号処
理部間119の重み係数の変更量△wij は(数5)に基づ
いて計算される。
[Mathematical formula-see original document] Here, [Sigma] p is a total sum regarding the number of patterns of the teacher signal. The purpose of learning is to determine the value of the weighting coefficient that minimizes the error E, and the change amount Δw ij of the weighting coefficient between the multiple input / output signal processing units 119 is calculated based on ( Equation 5). To be done.

【0024】[0024]

【数5】 [Equation 5]

【0025】但し、εは学習レートと呼ばれる正の定数
である。このような(数5)に基づいた重み係数の更新
を、学習用パターンの特徴ベクトルが入力されるたびに
繰り返すことにより、誤差Eを小さくすることができ
る。誤差Eが十分小さくなると、出力信号が望ましい値
に十分近くなったものとして、学習を終了する。
However, ε is a positive constant called a learning rate. The error E can be reduced by repeating such updating of the weighting coefficient based on (Equation 5) each time the feature vector of the learning pattern is input. When the error E becomes sufficiently small, the learning is terminated assuming that the output signal has become sufficiently close to the desired value.

【0026】このような重み係数の学習方法によって、
カテゴリ群内の各カテゴリをもつパターンに対し、その
各カテゴリに対応する最上位層の多入力一出力信号処理
部119が最大出力を発生するようにすることができる。
従って、最上位層の複数個の多入力一出力信号処理部11
9の中で、最大出力を発生するものを最大値選択部120で
選ぶことにより、各カテゴリ群内において、即ち、各細
分類部において入力パターンのカテゴリを識別すること
ができる。
According to such a weighting coefficient learning method,
For a pattern having each category in the category group, the highest input multi-input one-output signal processing unit 119 corresponding to each category can generate the maximum output.
Therefore, the plurality of input / output signal processing units 11
By selecting, among the nine, the one that produces the maximum output by the maximum value selection unit 120, it is possible to identify the category of the input pattern within each category group, that is, in each subclassification unit.

【0027】識別部115では、まず、類似度計算部121に
おいて、群選択部113で選択されたカテゴリ群の適合度
と、そのカテゴリ群に対応する細分類部112の出力値か
ら(数6)式を用いて細分類部112で得られた各カテゴ
リの類似度を計算し、これらの類似度をカテゴリ識別部
122に出力する。
In the identification unit 115, first, in the similarity calculation unit 121, from the goodness of fit of the category group selected by the group selection unit 113 and the output value of the subclassification unit 112 corresponding to the category group (Equation 6). The similarity of each category obtained by the subclassification unit 112 is calculated using the formula, and the similarity is calculated by the category identification unit.
Output to 122.

【0028】[0028]

【数6】 [Equation 6]

【0029】但し、a,bは実定数とする。最後に、カ
テゴリ識別部122は、類似度計算部121から得られる各カ
テゴリの類似度を比較し、それらの中で最大となる類似
度に対応するカテゴリを識別結果として出力する。
However, a and b are real constants. Finally, the category identifying unit 122 compares the similarities of the categories obtained from the similarity calculating unit 121 and outputs the category corresponding to the maximum similarity among them as the identification result.

【0030】[0030]

【発明が解決しようとする課題】パターン認識では、パ
ターンを識別するうえで有効な特徴を特徴ベクトルとし
て抽出するが、一般に単一の特徴ベクトルだけでは、十
分な認識能力を実現することは難しく、複数種類の特徴
ベクトルを使用することによって、高い識別機能を実現
することができる。つまり、複数種類の特徴を用いるこ
とによって、ある一つの特徴ベクトルではあいまいな識
別、または誤識別しかできないパターンでも、異なる特
徴ベクトルでは正確な識別が行える場合があり、このと
き正確な識別が行えるほうを重要視することによって識
別性能を向上させることができる可能性があるからであ
る。
In pattern recognition, features that are effective in identifying patterns are extracted as feature vectors, but it is generally difficult to realize sufficient recognition ability with only a single feature vector. A high identification function can be realized by using a plurality of types of feature vectors. In other words, by using multiple types of features, even if a pattern that can only be ambiguous or misidentified with a single feature vector, accurate identification may be possible with different feature vectors. This is because there is a possibility that the identification performance can be improved by placing importance on.

【0031】しかしながら、多数のカテゴリをもつパタ
ーンを階層的に認識を行うパターン認識装置において、
従来例のように、特徴抽出部及び認識部をただ一つしか
備えていないような構成では、複数種類の特徴ベクトル
を用いる場合、これらを一つにまとめて入力し、認識を
行わざるを得ない。この場合、単一の特徴ベクトルのみ
を使用する時に比べ、ある程度高い識別性能を確かに実
現できるが、上記説明のような異なる特徴ベクトルを用
いることによって得られる利点を十分有効に活用するこ
とはできないという問題がある。つまり、複数種類の特
徴ベクトルを一つにまとめて使用する場合、識別性能を
高精度化することはできるが、その認識結果を用いて、
上記で述べたようなある特徴ベクトルでは誤認識するパ
ターンを異なる特徴ベクトルによる識別結果によって正
しく認識するということは非常に難しい。
However, in a pattern recognition device for hierarchically recognizing patterns having a large number of categories,
In a configuration in which only one feature extraction unit and a recognition unit are provided as in the conventional example, when using a plurality of types of feature vectors, it is necessary to collectively input these and perform recognition. Absent. In this case, compared to the case of using only a single feature vector, it is possible to achieve a certain degree of high discrimination performance, but the advantages obtained by using different feature vectors as described above cannot be fully utilized effectively. There is a problem. That is, when a plurality of types of feature vectors are used together, the identification performance can be improved, but using the recognition result,
It is very difficult to correctly recognize a pattern that is erroneously recognized with a certain feature vector as described above, based on the identification result of a different feature vector.

【0032】更に、複数種類の特徴ベクトルを一つにま
とめて使用する場合、特徴ベクトルの次元数の増加に伴
って、認識に多くの計算時間を必要とするなどの課題も
有している。
Further, when a plurality of types of feature vectors are used together, there is a problem in that recognition requires a lot of calculation time as the number of dimensions of the feature vector increases.

【0033】本発明はかかる従来のパターン認識装置の
課題に鑑み、認識装置において複数種類の特徴ベクトル
を使用する際に、複数種類の特徴ベクトルを併用する利
点を十分有効に活用した高精度の認識が実現でき、更
に、認識に要する時間を短くできるパターン認識装置を
提供することを目的とする。
In view of the above problems of the conventional pattern recognition apparatus, the present invention recognizes with high accuracy by effectively utilizing the advantage of using plural kinds of feature vectors together when using plural kinds of feature vectors in the recognition apparatus. It is an object of the present invention to provide a pattern recognition device capable of realizing the above and further shortening the time required for recognition.

【0034】[0034]

【課題を解決するための手段】本発明は、入力されたパ
ターンから各々異なる特徴ベクトルを求める複数の特徴
抽出部と、前記入力パターンが各カテゴリに属する度合
である類似度を前記特徴ベクトル各々から求める複数の
単一特徴認識部と、複数の前記単一特徴認識部から得ら
れた類似度を用いて前記入力パターンの識別を行なうカ
テゴリ識別部を具備し、前記単一特徴認識部は、前記特
徴ベクトルが類似するパターンの集合から成るカテゴリ
群を代表する群参照用特徴ベクトルが複数個記憶されて
いる群辞書と、前記群参照用特徴ベクトルと前記入力パ
ターンの特徴ベクトルを用いて入力パターンが各カテゴ
リ群に属する度合である群帰属度を計算するファジィ大
分類部と、前記入力パターンの特徴ベクトルを用いて前
記入力パターンがカテゴリ群内に含まれる各カテゴリに
属する度合である群内類似度を求める複数の細分類部
と、前記群帰属度から複数のカテゴリ群を選択する群選
択部と、前記群選択部から得られる群選択情報に基づい
て前記入力パターンの特徴ベクトルを入力する細分類部
を選択する細分類部入力信号選択部と、前記群選択部で
選択されたカテゴリ群の群帰属度と前記細分類部で得ら
れた群内類似度を用いて入力パターンに対する各カテゴ
リの類似度を求める単一特徴類似度計算部を備え、前記
単一特徴類似度計算部は、前記群選択部で選択されたカ
テゴリ群の群帰属度と前記細分類部入力信号選択部から
前記入力パターンの特徴ベクトルを入力された前記細分
類部から得られる全ての群内類似度を乗算する複数個の
乗算器と、各カテゴリ毎に前記乗算器の出力値の大きい
ものを複数個選択し、これらの出力値の総和を求めるカ
テゴリ類似度計算部を備え、前記カテゴリ識別部は、前
記特徴ベクトル各々に対応する前記単一特徴認識部から
得られた各カテゴリの類似度をそれらの類似度の中の最
大値で正規化することによって統合類似度に変換する複
数の統合類似度変換部と、複数の前記統合類似度変換部
から得られた統合類似度を用いて各カテゴリの最終類似
度を求め、最終的な入力パターンの識別を行なうカテゴ
リ判定部とを備えている。
SUMMARY OF THE INVENTION According to the present invention, a plurality of feature extraction units for obtaining different feature vectors from input patterns and a similarity degree, which is the degree to which the input pattern belongs to each category, are obtained from each of the feature vectors. A plurality of single feature recognition units to be obtained, and a category identification unit that identifies the input pattern by using the similarity obtained from the plurality of single feature recognition units, wherein the single feature recognition unit is A group dictionary that stores a plurality of group reference feature vectors that represent a category group composed of a set of patterns having similar feature vectors, and an input pattern that uses the group reference feature vector and the feature vector of the input pattern A fuzzy major classification unit that calculates a group membership degree, which is a degree of belonging to each category group, and the input pattern using the feature vector of the input pattern It is obtained from a plurality of sub-classification units that obtain the degree of similarity within a group, which is the degree of belonging to each category included in the category, a group selection unit that selects a plurality of category groups from the group membership degree, and the group selection unit. A subclassification section input signal selection section for selecting a subclassification section for inputting a feature vector of the input pattern based on group selection information, a group membership degree of the category group selected by the group selection section, and the subclassification section. A single feature similarity calculation unit that obtains the similarity of each category to the input pattern using the obtained in-group similarity is provided, and the single feature similarity calculation unit is the category group selected by the group selection unit. A plurality of multipliers for multiplying the degree of group membership and all the in-group similarities obtained from the subclassification section, which are input with the feature vector of the input pattern from the subclassification section input signal selection section, and for each category To the multiplier A category similarity calculation unit that selects a plurality of output values and calculates the sum of these output values is provided, and the category identification unit is obtained from the single feature recognition unit corresponding to each of the feature vectors. A plurality of integrated similarity conversion units for converting the similarity of each category into the integrated similarity by normalizing the similarity with the maximum value among the similarities, and the integrated similarity obtained from the plurality of integrated similarity conversion units. And a category determination unit that determines the final similarity of each category by using the degree and finally identifies the input pattern.

【0035】[0035]

【作用】本発明は前記した構成により、まず、各特徴抽
出部が入力パターンから各々異なる特徴ベクトルを抽出
する。次に、これらの特徴ベクトルはそれぞれ対応する
複数の単一特徴認識部に入力される。
According to the present invention, with the above-described structure, each feature extraction unit first extracts a different feature vector from the input pattern. Next, these feature vectors are input to the corresponding single feature recognition units.

【0036】各単一特徴認識部では、まず、特徴ベクト
ルをファジィ大分類部に入力する。ファジィ大分類部
は、群辞書に記憶されている全ての群参照用特徴ベクト
ルを読みだして、前記特徴ベクトルに対して、特徴ベク
トル空間における各カテゴリ群の境界を曖昧に定めた大
分類を行ない、前記入力パターンが各カテゴリ群に属す
る度合である群帰属度を求める。これらの前記群帰属度
を用いて、群選択部は複数のカテゴリ群を選択し、群選
択情報を細分類部入力信号選択部に、対応する群帰属度
を単一特徴類似度計算部に出力する。細分類部入力信号
選択部は、前記特徴ベクトルを前記群選択情報に対応す
る細分類部に出力し、各細分類部は、前記特徴ベクトル
を用いて、前記入力パターンが各カテゴリ群内に含まれ
る各カテゴリに類似する度合である群内類似度を計算
し、単一特徴類似度計算部に出力する。
In each single feature recognition section, first, the feature vector is input to the fuzzy major classification section. The fuzzy major classification unit reads all the group-referenced feature vectors stored in the group dictionary, and performs major classification on the feature vector by ambiguously defining the boundaries of each category group in the feature vector space. , The degree of group membership, which is the degree to which the input pattern belongs to each category group, is obtained. Using these group membership degrees, the group selection unit selects a plurality of category groups and outputs group selection information to the subclassification unit input signal selection unit and the corresponding group membership degree to the single feature similarity calculation unit. To do. The subclassification unit input signal selection unit outputs the feature vector to the subclassification unit corresponding to the group selection information, and each subclassification unit uses the feature vector to include the input pattern in each category group. The in-group similarity, which is the degree of similarity to each category, is calculated and output to the single feature similarity calculation unit.

【0037】単一特徴類似度計算部は、前記群選択部で
選択されたカテゴリ群の群帰属度と前記細分類部入力信
号選択部から前記特徴ベクトルを入力された前記細分類
部から得られる全ての群内類似度を乗算器で乗算し、こ
れをカテゴリ類似度計算部に出力する。カテゴリ類似度
計算部では、各カテゴリ毎に前記乗算器の出力値の大き
いものを複数個選択し、これらの出力値の総和を求め、
これを入力パターンに対する各カテゴリの類似度とす
る。即ち、各々の単一特徴認識部では、この類似度が入
力パターンに対する各特徴ベクトルから得られる類似度
としてカテゴリ識別部に出力される。
The single feature similarity calculation unit is obtained from the subclassification unit to which the group membership of the category group selected by the group selection unit and the feature vector from the subclassification unit input signal selection unit are input. All the in-group similarities are multiplied by the multiplier and output to the category similarity calculation unit. In the category similarity calculation unit, a plurality of output values of the multiplier are selected for each category, and the sum of these output values is calculated.
This is the similarity of each category to the input pattern. That is, in each single feature recognition unit, this similarity is output to the category identification unit as the similarity obtained from each feature vector for the input pattern.

【0038】最後に、カテゴリ識別部では、まず、各統
合類似度変換部が、前記特徴ベクトル各々に対応する単
一特徴認識部から得られた各カテゴリの類似度をそれら
の類似度の中の最大値で正規化することによって統合類
似度に変換する。次に、カテゴリ判定部が、これらの統
合類似度を用いて入力パターンに対する各カテゴリの最
終類似度を求め、最終的な入力パターンの識別を行な
う。
Finally, in the category identification section, first, each integrated similarity conversion section determines the similarity of each category obtained from the single feature recognition section corresponding to each of the feature vectors among the similarities. It is converted to an integrated similarity by normalizing with the maximum value. Next, the category determination unit obtains the final similarity of each category with respect to the input pattern by using these integrated similarities, and identifies the final input pattern.

【0039】以上により、本パターン認識装置は、複数
種類の特徴ベクトルを各々別個の単一特徴認識部で識別
処理を行って各特徴ベクトルに対する各カテゴリの類似
度を求めたのちに、カテゴリ識別部がこれら全ての類似
度を用いて各単一特徴認識部から得られる識別結果を統
合し、最終的な入力パターンの認識を行う。よって、あ
る特徴ベクトルでは誤認識するパターンでも異なる特徴
ベクトルによる識別結果によって正しく認識するという
ことができるようになり、高精度の認識を実現すること
ができる。また、従来法では、複数種類の特徴ベクトル
の使用によって、認識に要する時間が増加するが、本パ
ターン認識装置では、各単一特徴認識部が各々並列に識
別処理を行うので、認識に要する時間を従来例に比べ、
短くすることができる。
As described above, the present pattern recognition apparatus performs the classification processing on a plurality of types of feature vectors by the separate single feature recognition units to obtain the similarity of each category to each feature vector, and then the category recognition unit. Uses all of these similarities to integrate the identification results obtained from each single feature recognition unit to recognize the final input pattern. Therefore, even a pattern that is erroneously recognized by a certain feature vector can be correctly recognized by the identification result by a different feature vector, and highly accurate recognition can be realized. Further, in the conventional method, the time required for recognition is increased by using a plurality of types of feature vectors, but in the present pattern recognition device, since each single feature recognition unit performs identification processing in parallel, the time required for recognition is increased. Compared to the conventional example,
Can be shortened.

【0040】[0040]

【実施例】以下、本発明の実施例について図面を参照し
て説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0041】一般にパターン認識装置に入力されるパタ
ーンデータとしては、音声等の時系列パターン、文字・
画像等の空間パターン等などがあるが、本発明において
は、いずれのパターンデータでも構わないものとする。
Generally, pattern data input to a pattern recognition device includes time-series patterns such as voices, characters,
Although there are spatial patterns such as images, etc., any pattern data may be used in the present invention.

【0042】図1(a)は本発明の実施例におけるパタ
ーン認識装置のブロック図を示すものである。図1
(a)において、11は特徴抽出部であり、入力パターン
からカテゴリを識別するために用いる特徴ベクトルを抽
出するものである。但し、複数の各特徴抽出部はそれぞ
れ異なる特徴ベクトルを抽出する。12は単一特徴認識部
であり、特徴抽出部11と同じ個数用意され、対応する特
徴ベクトルから入力パターンが各カテゴリに属する度合
である類似度を求めるものである。13はカテゴリ識別部
であり、各々の単一特徴認識部12から得られる入力パタ
ーンの各特徴ベクトルに対する各カテゴリの類似度を用
いて、入力パターンの識別を行うものである。
FIG. 1A shows a block diagram of a pattern recognition apparatus according to an embodiment of the present invention. Figure 1
In (a), 11 is a feature extraction unit that extracts a feature vector used to identify a category from an input pattern. However, each of the plurality of feature extraction units extracts a different feature vector. Reference numeral 12 denotes a single feature recognition unit, which is prepared in the same number as that of the feature extraction unit 11, and calculates the degree of similarity of the input pattern belonging to each category from the corresponding feature vector. A category identification unit 13 identifies the input pattern by using the similarity of each category to each feature vector of the input pattern obtained from each single feature recognition unit 12.

【0043】カテゴリ識別部13において、14は統合類似
度変換部であり、特徴抽出部11、単一特徴認識部12と同
じ個数用意され、対応する単一特徴認識部12から得られ
た各カテゴリの類似度をそれらの類似度の中の最大値で
正規化することによって統合類似度に変換するものであ
る。15はカテゴリ判定部であり、全ての統合類似度を用
いて入力パターンに対する各カテゴリの最終類似度を求
め、最終的なカテゴリの識別を行うものである。
In the category discriminating unit 13, 14 is an integrated similarity converting unit, which is prepared in the same number as the feature extracting unit 11 and the single feature recognizing unit 12, and each category obtained from the corresponding single feature recognizing unit 12 The similarity is converted into an integrated similarity by normalizing the similarity with the maximum value among the similarities. A category determination unit 15 obtains the final similarity of each category with respect to the input pattern using all the integrated similarities, and identifies the final category.

【0044】また、図1(a)に示すカテゴリ判定部15
は、カテゴリ判定部15の第1の実施例である。図1
(a)において、16は加算器であり、複数の統合類似度
計算部14から得られる各カテゴリの統合類似度を同一カ
テゴリ毎に加算することによって、各カテゴリの最終類
似度を求めるものである。17は最大値選択部であり、各
カテゴリの最終類似度の中から最大値を選択するもので
ある。
Further, the category judgment unit 15 shown in FIG.
Is a first embodiment of the category determination unit 15. Figure 1
In (a), 16 is an adder, which obtains the final similarity of each category by adding the integrated similarity of each category obtained from the plurality of integrated similarity calculation units 14 for each same category. . Reference numeral 17 denotes a maximum value selection unit, which selects the maximum value from the final similarity of each category.

【0045】図1(b)は、単一特徴認識部12の構成を
具体的に示すブロック図である。図1(b)において、
21は群辞書であり、特徴ベクトルが類似するパターンの
集合から成るカテゴリ群を代表する群参照用特徴ベクト
ルが複数個記憶されているものである。22はファジィ大
分類部であり、群辞書21に記憶されている群参照用特徴
ベクトルを用いて、入力パターンが各カテゴリ群に属す
る度合である群帰属度を計算するものである。23は細分
類部であり、入力パターンがカテゴリ群内に含まれる各
カテゴリに属する度合である群内類似度を計算するもの
である。24は群選択部であり、群帰属度から複数のカテ
ゴリ群を選択するものである。25は細分類部入力信号選
択部であり、群選択部24から得られる群選択情報に基づ
いて入力パターンの特徴ベクトルを入力する細分類部23
を選択するものである。26は単一特徴類似度計算部であ
り、群選択部24で選択されたカテゴリ群の群帰属度と細
分類部23で得られた群内類似度から入力パターンに対す
る各カテゴリの類似度を求めるものである。
FIG. 1B is a block diagram specifically showing the structure of the single feature recognition unit 12. In FIG. 1 (b),
Reference numeral 21 denotes a group dictionary, which stores a plurality of group reference characteristic vectors representing a category group composed of a set of patterns having similar characteristic vectors. Reference numeral 22 denotes a fuzzy major classification unit, which uses the group reference feature vector stored in the group dictionary 21 to calculate the degree of group membership, which is the degree to which the input pattern belongs to each category group. A sub-classification unit 23 calculates the intra-group similarity, which is the degree to which the input pattern belongs to each category included in the category group. A group selection unit 24 selects a plurality of category groups from the degree of group membership. Reference numeral 25 denotes a fine classification unit input signal selection unit, which inputs the feature vector of the input pattern based on the group selection information obtained from the group selection unit 24.
Is to be selected. Reference numeral 26 is a single feature similarity calculation unit, which obtains the similarity of each category to the input pattern from the group membership of the category group selected by the group selection unit 24 and the in-group similarity obtained by the subclassification unit 23. It is a thing.

【0046】単一特徴類似度計算部26において、27は乗
算器であり、群選択部24で選択されたカテゴリ群の群帰
属度と細分類部入力信号選択部25から入力パターンの特
徴ベクトルを入力された細分類部23から得られる群内類
似度を乗算するものである。28はカテゴリ類似度計算部
であり、各カテゴリ毎に乗算器27の出力値の大きいもの
を複数個選択し、これらの出力値の総和を求めるもので
ある。
In the single feature similarity calculation unit 26, 27 is a multiplier, which calculates the group membership degree of the category group selected by the group selection unit 24 and the feature vector of the input pattern from the subclassification unit input signal selection unit 25. This is for multiplying the input intra-group similarity obtained from the sub-classification unit 23. Reference numeral 28 denotes a category similarity calculation unit, which selects a plurality of output values of the multiplier 27 for each category and calculates the sum of these output values.

【0047】図2は、ファジィ大分類部22の構成を具体
的に示すブロック図である。図2において、31は、入力
部であり、入力パターンの特徴ベクトルを入力するもの
である。32は距離計算部であり、群辞書21の全ての群参
照用特徴ベクトルと特徴ベクトルとの距離を計算するも
のである。33は割算器であり、距離計算部32の出力の逆
数を計算するものである。34は加算器であり、各々の割
算器33の出力の総和を求めるものである。35は乗算器で
あり、加算器34の出力と距離計算部32の出力を乗算する
ものである。36は割算器であり、乗算器35の出力の逆数
を計算するものである。
FIG. 2 is a block diagram specifically showing the configuration of the fuzzy large classification unit 22. In FIG. 2, reference numeral 31 denotes an input unit for inputting the feature vector of the input pattern. A distance calculator 32 calculates the distances between all the group reference feature vectors in the group dictionary 21 and the feature vectors. Reference numeral 33 is a divider, which calculates the reciprocal of the output of the distance calculation unit 32. Reference numeral 34 is an adder, which calculates the total sum of the outputs of the respective dividers 33. A multiplier 35 multiplies the output of the adder 34 and the output of the distance calculator 32. A divider 36 calculates the reciprocal of the output of the multiplier 35.

【0048】図3は、細分類部23の第1の実施例の構成
を具体的に示すブロック図である。図3において、41は
入力部であり、細分類部入力信号選択部25から出力され
る入力パターンの特徴ベクトルを入力するものである。
42はカテゴリ辞書であり、パターンの各カテゴリの代表
値を示すカテゴリ参照用特徴ベクトルが複数個記憶され
ているものである。43は距離計算部であり、カテゴリ辞
書42の全てのカテゴリ参照用特徴ベクトルと入力パター
ンの特徴ベクトルとの距離を計算するものである。44は
割算器であり、距離計算部43の出力の逆数を計算するも
のである。45は加算器であり、各々の割算器44の出力の
総和を求めるものである。46は乗算器であり、加算器45
の出力と距離計算部43の出力を乗算するものである。47
は割算器であり、乗算器36の出力の逆数を計算するもの
である。
FIG. 3 is a block diagram specifically showing the configuration of the first embodiment of the subclassification section 23. In FIG. 3, reference numeral 41 denotes an input unit for inputting the feature vector of the input pattern output from the subclassification unit input signal selection unit 25.
Reference numeral 42 is a category dictionary, which stores a plurality of category reference feature vectors indicating representative values of each category of the pattern. Reference numeral 43 denotes a distance calculation unit that calculates the distances between all the category reference feature vectors of the category dictionary 42 and the feature vector of the input pattern. Reference numeral 44 is a divider, which calculates the reciprocal of the output of the distance calculation unit 43. Reference numeral 45 is an adder, which calculates the total sum of the outputs of the respective dividers 44. 46 is a multiplier, and an adder 45
Is multiplied by the output of the distance calculation unit 43. 47
Is a divider that calculates the reciprocal of the output of the multiplier 36.

【0049】以上のように構成されたパターン認識装置
について、以下その動作を説明する。
The operation of the pattern recognition apparatus configured as described above will be described below.

【0050】まず、複数個用意された各特徴抽出部11が
入力されたパターンに対して、各々異なる特徴ベクトル
k(k=1〜NF:NFは特徴ベクトルの種類の数)を
抽出する。ここで、各特徴ベクトルXkはnk個の特徴デ
ータからなり、(数7)のように表わされる。
First, different feature vectors X k (k = 1 to N F : N F is the number of types of feature vectors) are extracted from the input patterns by the plurality of prepared feature extraction units 11. To do. Here, each feature vector X k consists of n k pieces of feature data and is expressed as in (Equation 7).

【0051】[0051]

【数7】 [Equation 7]

【0052】なお、複数の異なる特徴ベクトルの例とし
ては、例えばパターンを文字とするならば、以下に示す
ようなものが考えられる。例えば、文字の画像情報を8
×8分割し、各領域内の黒画素の度数を要素とする64次
元の濃淡特徴(メッシュ特徴)や、文字の画像情報を4
×4分割した各領域内における文字輪郭点の方向要素
(水平、垂直、右斜め、左斜めの4方向)の出現度数を
要素とする64次元の輪郭方向密度特徴がある。
As an example of a plurality of different feature vectors, if the pattern is a character, for example, the following may be considered. For example, if the character image information is 8
It is divided into 8 parts, and 64-dimensional grayscale features (mesh features) that have the frequency of black pixels in each region as an element and image information of characters are divided into 4 regions.
There is a 64-dimensional contour direction density feature that has the appearance frequency of the directional elements (4 directions of horizontal, vertical, right diagonal, and left diagonal) of the character contour points in each of the 4 divided areas.

【0053】各特徴抽出部11で特徴抽出された入力パタ
ーンの各特徴ベクトルXkは、対応する単一特徴認識部1
2に入力される。複数個用意された単一特徴認識部12
は、それぞれ独立に以下に示すような識別処理を行い、
各特徴ベクトルXkに対する各カテゴリの類似度を求め
る。なお、以下の単一特徴認識部12の動作説明で用いら
れる特徴ベクトルXkは、ある特徴抽出法によって得ら
れた特徴ベクトルとし、以下、Xk、nkは簡単のため
X、nと記述する。
Each feature vector X k of the input pattern extracted by each feature extraction unit 11 corresponds to the corresponding single feature recognition unit 1
Entered in 2. Multiple single feature recognition unit 12
Respectively perform the following identification processing independently,
The similarity of each category with respect to each feature vector X k is obtained . Note that the feature vector X k used in the following description of the operation of the single feature recognition unit 12 is a feature vector obtained by a certain feature extraction method, and hereinafter, X k and n k are described as X and n for simplicity. To do.

【0054】以下、単一特徴認識部12の具体的な動作を
説明する。まず、単一特徴認識部12では、特徴ベクトル
Xはファジィ大分類部22に入力される。ファジィ大分類
部22では、入力部31が特徴ベクトルXを入力し、mr
の距離計算部32へXを出力する。各々の距離計算部32
は、群辞書21に記憶されている各カテゴリ群を代表する
群参照用特徴ベクトルVi (1≦i≦mr;mrは群参照
用特徴ベクトルの数、即ち、カテゴリ群の数)を読みだ
し、(数8)式に示すXとVi の距離di を計算し、各
々対応する割算器33、及び乗算器35へ出力する。
The specific operation of the single feature recognition unit 12 will be described below. First, in the single feature recognition unit 12, the feature vector X is input to the fuzzy large classification unit 22. In the fuzzy major classification unit 22, the input unit 31 inputs the feature vector X and outputs X to the m r distance calculation units 32. Each distance calculator 32
Is a group reference feature vector V i (1 ≦ i ≦ m r ; m r is the number of group reference feature vectors, that is, the number of category groups) representing each category group stored in the group dictionary 21. Then, the distance d i between X and V i shown in (Equation 8) is calculated and output to the corresponding divider 33 and multiplier 35, respectively.

【0055】[0055]

【数8】 [Equation 8]

【0056】但し、fはf>1を満たす実数とする。各
々の割算器33は、距離diの逆数を計算し、その出力を
加算器34へ出力する。加算器34は、全ての割算器33の出
力の総和を計算し、その出力をmr個の乗算器35へ出力
する。各々の乗算器35では、対応する距離計算部32と加
算器34の出力を乗算し、その出力を対応する割算器36に
入力する。各々の割算器36では、対応する乗算器35の出
力の逆数を計算する。最終的にファジィ大分類部22で
は、この各割算器36の出力が入力パターンの特徴ベクト
ルXに対する各カテゴリ群の群帰属度μi(1≦i≦
r)として、群選択部24に出力される。つまり、各カ
テゴリ群の群帰属度μi(1≦i≦mr)は、
However, f is a real number satisfying f> 1. Each divider 33 calculates the reciprocal of the distance d i and outputs the output to the adder 34. The adder 34 calculates the sum of the outputs of all the dividers 33 and outputs the output to the m r multipliers 35. Each of the multipliers 35 multiplies the output of the corresponding distance calculation unit 32 and the output of the adder 34, and inputs the output to the corresponding divider 36. Each divider 36 calculates the reciprocal of the output of the corresponding multiplier 35. Finally, in the fuzzy major classification unit 22, the output of each divider 36 is the group membership degree μ i (1 ≦ i ≦ of each category group with respect to the feature vector X of the input pattern).
m r ) is output to the group selection unit 24. That is, the group membership degree μ i (1 ≦ i ≦ m r ) of each category group is

【0057】[0057]

【数9】 [Equation 9]

【0058】と表わすことができる。なお、群辞書21に
記憶されている各カテゴリ群を代表する群参照用特徴ベ
クトルは、予め、従来のクラスタリング手法、例えば、
電子情報通信学会編 長尾真著「パターン情報処理」
(コロナ社)に示されているK平均アルゴリズム、及び
Isodataアルゴリズムや、Y.Linde, A.Buzo, and R.M.Gr
ay による"An Algorithmfor Vector Quantizer desig
n," IEEE Trans. Commun.,COM-28, 1, pp.84-95, Jan.1
980 に示されているLBGアルゴリズムを用いて設計さ
れる。
It can be expressed as The group reference feature vector representing each category group stored in the group dictionary 21 is a conventional clustering method, for example,
The Institute of Electronics, Information and Communication Engineers Makoto Nagao "Pattern Information Processing"
The K-means algorithm shown in (Corona), and
Isodata algorithm, Y.Linde, A.Buzo, and RMGr
"An Algorithm for Vector Quantizer desig" by ay
n, "IEEE Trans. Commun., COM-28, 1, pp.84-95, Jan.1
It is designed using the LBG algorithm shown in 980.

【0059】以下、K平均アルゴリズムを用いて群辞書
21を設計する方法について簡単に説明する。 (1) 認識対象物の群辞書設計用のパターンの集合か
ら、mr個(但し、mrは予め定められたカテゴリ群数)
のパターンを適当に選び、これらの特徴ベクトルをmr
個の群参照用特徴ベクトルVi(1≦i≦mr)とする。 (2) 全ての群辞書設計用のパターンの特徴ベクトル
Xについて、それぞれ、(数10)に示される距離di
In the following, the group dictionary is calculated using the K-means algorithm.
A brief description of how to design 21. (1) m r pieces (where m r is a predetermined number of category groups) from a set of patterns for designing a group dictionary of recognition objects
, And select these feature vectors as m r
It is assumed that each group reference feature vector V i (1 ≦ i ≦ m r ). (2) The distance d i shown in (Equation 10) for each of the feature vectors X of all the group dictionary design patterns.

【0060】[0060]

【数10】 [Equation 10]

【0061】を最小にするViを求める。このとき、X
はカテゴリ群Si(1≦i≦mr)に属するものとする。 (3) 各Siに属するパターンの特徴ベクトルXの平
均値を求め、これをVi’とする。 (4) Vi’=Viが全てのiについて成立すれば、こ
のときの群参照用特徴ベクトルViを群辞書21に記憶す
る。そうでなければ、Vi’を新たな群参照用パターン
信号Viとして、(2)に戻る。
V i that minimizes is obtained. At this time, X
Shall belong to the category group S i (1 ≦ i ≦ m r ). (3) The average value of the feature vector X of the pattern belonging to each S i is obtained, and this is set as V i ′. (4) If V i ′ = V i holds for all i, the group reference feature vector V i at this time is stored in the group dictionary 21. If not, V i 'is set as a new group reference pattern signal V i and the process returns to (2).

【0062】このようにして、群参照用特徴ベクトルを
設計することによって、全てのパターンはいくつかのそ
の特徴ベクトルが類似するパターンの部分集合(カテゴ
リ群)に分割することができる。なお、Isodataアルゴ
リズム及び、LBGアルゴリズムもこのK平均アルゴリ
ズムと基本的にはほぼ同じ手法である。
By designing the group reference feature vector in this manner, all patterns can be divided into some subsets (category groups) of patterns having similar feature vectors. The Isodata algorithm and LBG algorithm are basically the same as the K-means algorithm.

【0063】群選択部24では、ファジィ大分類部12で得
られた群帰属度の大きい順に複数個のカテゴリ群を選
び、どのカテゴリ群が選択されたかを示す群選択情報を
細分類入力信号選択部25へ、また、それに対応する群帰
属度を単一特徴類似度計算部26へ出力する。なお、カテ
ゴリ群の選択方法としては、あるしきい値以上の群帰属
度をもつカテゴリ群を選択するとしてもよい。
The group selection unit 24 selects a plurality of category groups in the descending order of the degree of group membership obtained by the fuzzy large classification unit 12, and selects group selection information indicating which category group has been selected by the fine classification input signal selection. It outputs the group membership degree corresponding to the unit 25 to the single feature similarity calculation unit 26. As a method of selecting a category group, a category group having a group membership degree equal to or higher than a certain threshold may be selected.

【0064】群選択部24から得られる群選択情報に基づ
いて、細分類入力信号選択部25は、入力パターンの特徴
ベクトルXを入力する細分類部23を選択し、特徴ベクト
ルXをこれらの細分類部23へ出力する。
On the basis of the group selection information obtained from the group selection unit 24, the subclassification input signal selection unit 25 selects the subclassification unit 23 to which the feature vector X of the input pattern is input, and sets the feature vector X to these subclassifications. Output to the classification unit 23.

【0065】群選択部24で選択されたカテゴリ群に対応
する各々の細分類部23(即ち、細分類入力信号選択部25
から入力パターンの特徴ベクトルを入力された細分類部
23)では、まず、入力部41が入力パターンの特徴ベクト
ルXを入力し、mc個の距離計算部43へXを出力する。
各々の距離計算部43は、カテゴリ辞書42に記憶されてい
る各カテゴリの代表値を示すカテゴリ参照用特徴ベクト
ルWi (1≦i≦mc;mcはカテゴリ参照用特徴ベクト
ルの数)を読みだし、(数11)式に示すXとWi の距
離di を計算し、各々対応する割算器44、及び乗算器46
へ出力する。
Each subclassification section 23 (that is, the subclassification input signal selection section 25) corresponding to the category group selected by the group selection section 24.
Subclassification section that receives the feature vector of the input pattern from
In 23), first, the input unit 41 inputs the feature vector X of the input pattern and outputs X to the m c distance calculation units 43.
Each distance calculation unit 43 calculates a category reference feature vector W i (1 ≦ i ≦ m c ; m c is the number of category reference feature vectors) representing the representative value of each category stored in the category dictionary 42. The distance d i between X and W i shown in (Equation 11) is read out, and the corresponding divider 44 and multiplier 46 are respectively calculated.
Output to.

【0066】[0066]

【数11】 [Equation 11]

【0067】但し、fはf>1を満たす実数とする。各
々の割算器44は、距離diの逆数を計算し、その出力を
加算器45へ出力する。加算器45は、全ての割算器44の出
力の総和を計算し、その出力をmc個の乗算器46へ出力
する。各々の乗算器46では、対応する距離計算部43と加
算器45の出力を乗算し、その出力を対応する割算器47に
入力する。各々の割算器47では、対応する乗算器46の出
力の逆数を計算する。最終的に、細分類部23では、この
各割算器47の出力が入力パターンの特徴ベクトルXに対
する各カテゴリの群内類似度νi(1≦i≦mc)とし
て、単一特徴類似度計算部26に出力される。つまり、各
細分類部23における各カテゴリの群内類似度νi(1≦
i≦mc)は、
However, f is a real number satisfying f> 1. Each divider 44 calculates the reciprocal of the distance d i and outputs its output to the adder 45. The adder 45 calculates the total sum of the outputs of all the dividers 44 and outputs the output to the m c multipliers 46. Each of the multipliers 46 multiplies the outputs of the corresponding distance calculation unit 43 and the adder 45, and inputs the output to the corresponding divider 47. Each divider 47 calculates the reciprocal of the output of the corresponding multiplier 46. Finally, in the sub-classification unit 23, the output of each divider 47 is the single feature similarity ν i (1 ≦ i ≦ m c ) of each category with respect to the feature vector X of the input pattern. It is output to the calculation unit 26. That is, the in-group similarity ν i (1 ≦
i ≦ m c ) is

【0068】[0068]

【数12】 [Equation 12]

【0069】と表わすことができる。なお、カテゴリ辞
書42に記憶されている各カテゴリの代表値を示すカテゴ
リ参照用特徴ベクトルは、カテゴリ群内の各カテゴリを
もつ入力パターンに対して、その各カテゴリに対応する
距離計算部43の出力が他の距離計算部43の出力に比べて
最小出力を発生するように、予め設計されている。
It can be expressed as The category reference feature vector indicating the representative value of each category stored in the category dictionary 42 is an output of the distance calculation unit 43 corresponding to each category for an input pattern having each category in the category group. Is designed in advance so as to generate the minimum output as compared with the outputs of the other distance calculation units 43.

【0070】これらのカテゴリ参照用特徴ベクトルの設
計方法は、例えば、学習ベクトル量子化法(LVQ)と
呼ばれる学習アルゴリズムによって行われる。学習ベク
トル量子化法については、例えば、T.Kohonenによる"Le
arning Vector Quantizationfor Pattern Recognitio
n",Helsinki University of Technology, Report TKK-
F-A601(1986.11)に示されている。
The method for designing the feature vector for category reference is performed by, for example, a learning algorithm called a learning vector quantization method (LVQ). For the learning vector quantization method, see, for example, "Le by T. Kohonen.
arning Vector Quantization for Pattern Recognitio
n ", Helsinki University of Technology, Report TKK-
It is shown in F-A601 (1986.11).

【0071】以下、学習ベクトル量子化法について簡単
に説明する。まず、mc個のカテゴリラベルをもつカテ
ゴリ参照用特徴ベクトルWiが用意される。このWiの初
期値としては、各カテゴリ群に含まれるパターン集合か
らなるカテゴリ辞書設計用のパターンから、各カテゴリ
毎に任意に選択されたパターンの特徴ベクトル及び、群
辞書11の設計の際に説明したK平均アルゴリズム等の従
来のクラスタリング法から得られる参照用特徴ベクトル
が用いられる。次に、カテゴリ辞書設計用のパターンか
ら任意の1個のカテゴリCXをもつパターンの特徴ベク
トルXが選択され、このXについて順次、以下のステッ
プが繰り返される。(1) Xに最も近いカテゴリ参照
用特徴ベクトルWCを選択する。但し、このWCのカテゴ
リラベルをCCとする。(2) もし、CX=CCなら、
CはXの方向に近づける。一方、CX≠CCなら、WC
Xから遠ざけられる。また、WC以外のカテゴリ参照用
特徴ベクトルは更新されない。
The learning vector quantization method will be briefly described below. First, a category reference feature vector W i having m c category labels is prepared. As an initial value of this W i , a feature vector of a pattern arbitrarily selected for each category from a pattern for designing a category dictionary composed of a pattern set included in each category group and a group dictionary 11 at the time of designing A reference feature vector obtained from a conventional clustering method such as the K-means algorithm described above is used. Then, the selected feature vector X of the pattern with any one category C X from the pattern for the category dictionary design, this X sequentially, the following steps are repeated. (1) Select the category reference feature vector W C closest to X. However, the category label of this W C is C C. (2) If C X = C C ,
W C approaches the X direction. On the other hand, if C X ≠ C C , W C is moved away from X. In addition, category reference feature vectors other than W C are not updated.

【0072】Xが提示されたときの上記のカテゴリ参照
用特徴ベクトルの更新は、予め用意された全てのカテゴ
リ辞書設計用のパターンに対して繰り返し行なわれる。
The above-mentioned updating of the category reference feature vector when X is presented is repeated for all the prepared categories dictionary design patterns.

【0073】このようにして、カテゴリ辞書32のカテゴ
リ参照用特徴ベクトルを設計することにより、カテゴリ
群内の各カテゴリをもつパターンの特徴ベクトルに対し
て、常にその各カテゴリのラベルをもつカテゴリ参照用
特徴ベクトルが最も近い距離に位置するようになる。従
って、全ての距離計算部43の中で、最小出力を発生する
距離計算部43を選ぶことによって、各カテゴリ群内にお
いて、入力パターンのカテゴリを認識することができ
る。
By designing the category reference feature vector of the category dictionary 32 in this way, for the feature vector of the pattern having each category in the category group, the category reference feature vector having the label of each category is always used. The feature vectors will be located at the closest distance. Therefore, the category of the input pattern can be recognized in each category group by selecting the distance calculation section 43 that generates the minimum output among all the distance calculation sections 43.

【0074】単一特徴類似度計算部26では、まず、乗算
器27が、群選択部24で選択されたカテゴリ群の群帰属度
と、そのカテゴリ群に対応する各々の細分類部23(即
ち、細分類入力信号選択部25から入力パターンの特徴ベ
クトルを入力された細分類部23)から得られる全ての群
内類似度を乗算し、それらの出力をカテゴリ類似度計算
部28に出力する。つまり、乗算器17は、(群参照用特徴
ベクトルの数×各細分類部におけるカテゴリ参照用特徴
ベクトルの数の総和)個用意されており、群選択部24で
選択されたあるカテゴリ群pの群帰属度μp(1≦p≦
r;mrはカテゴリ群の数)とそのカテゴリ群pに対応
する細分類部13から得られたあるカテゴリqの群内類似
度νpq(1≦q≦mc;mCはパターンデータのカテゴリ
数)が入力される。つまり、乗算器17の出力値ξpqは、
In the single feature similarity calculation unit 26, the multiplier 27 first causes the group membership degree of the category group selected by the group selection unit 24 and each subclassification unit 23 (that is, each subclassification unit 23 corresponding to the category group). , All the in-group similarities obtained from the fine classification unit 23) to which the feature vector of the input pattern is input from the fine classification input signal selection unit 25 are multiplied, and the outputs are output to the category similarity calculation unit 28. That is, the number of multipliers 17 provided is (the number of group-reference feature vectors × the sum of the number of category-reference feature vectors in each subclassification unit), and one of the category groups p selected by the group selection unit 24 is selected. Group membership degree μ p (1 ≦ p ≦
m r ; m r is the number of category groups) and the in-group similarity ν pq (1 ≦ q ≦ m c ; m C is pattern data for a certain category q obtained from the subclassification unit 13 corresponding to the category group p Number of categories) is input. That is, the output value ξ pq of the multiplier 17 is

【0075】[0075]

【数13】 [Equation 13]

【0076】と表わされる。カテゴリ類似度計算部28で
は、全ての乗算器27の出力値を、各カテゴリ毎にまとめ
て分類し、その出力値の大きいものを複数個選択する。
そして、各カテゴリ毎に、これらの選択された出力値の
総和を求め、これを単一認識部12における入力パターン
に対する各カテゴリの類似度ri(1≦i≦NC;NC
カテゴリの数)としてカテゴリ識別部13に出力する。な
お、乗算器27の出力値を各カテゴリ毎に複数個選択する
方法としては、乗算器27の出力値があるしきい値以上の
ものを選択するとしてもよい。
It is represented by The category similarity calculation unit 28 classifies the output values of all the multipliers 27 into each category, and selects a plurality of output values having a large output value.
Then, the sum of these selected output values is calculated for each category, and the sum of the similarity r i (1 ≦ i ≦ N C ; N C of the categories to the input pattern in the single recognition unit 12 is the category Number) to the category identification unit 13. As a method of selecting a plurality of output values of the multiplier 27 for each category, it is possible to select an output value of the multiplier 27 having a certain threshold value or more.

【0077】以上説明したように、単一特徴認識部12
は、ある特徴抽出部11から得られた特徴ベクトルに対
し、大分類を行ったあと細分類を行い最後にそれらの出
力を統合する階層的な識別を行なうことによって、ある
特徴に対する入力パターンの各カテゴリの類似度を求め
る。
As described above, the single feature recognition unit 12
For each of the input patterns for a certain feature, the feature vector obtained from the certain feature extraction unit 11 is subjected to a large classification, a fine classification, and finally a hierarchical identification that integrates the outputs thereof. Find the similarity of categories.

【0078】カテゴリ識別部13では、各々の単一特徴認
識部12から得られた入力パターンの各特徴ベクトルに対
する各カテゴリの類似度をまず、対応する統合類似度変
換部14に入力し、各カテゴリの類似度を統合類似度に変
換する。次に、カテゴリ判定部15が、各々の統合類似度
変換部14から得られる全ての各カテゴリの統合類似度を
用いて入力パターンの最終的な認識を行う。つまり、カ
テゴリ判定部15は、各単一特徴認識部12において入力パ
ターンの各特徴ベクトルを認識処理することによって得
られた識別結果、つまり類似度を最終的に統合してカテ
ゴリの識別を行うものである。また、統合類似度変換部
14は、カテゴリ判定部15において、各特徴ベクトルに関
する識別結果をうまく統合できるような統合類似度に単
一特徴認識部12から得られた類似度を変換するものであ
る。
In the category identifying section 13, the similarity of each category with respect to each feature vector of the input pattern obtained from each single feature recognizing section 12 is first input to the corresponding integrated similarity converting section 14, and each category is input. The degree of similarity of is converted into an integrated degree of similarity. Next, the category determination unit 15 performs final recognition of the input pattern using the integrated similarities of all the categories obtained from the integrated similarity conversion units 14. That is, the category determination unit 15 performs the final identification of the classification result obtained by performing the recognition process of each feature vector of the input pattern in each single feature recognition unit 12, that is, the category identification. Is. In addition, the integrated similarity conversion unit
The category determination unit 15 converts the similarity obtained from the single feature recognition unit 12 into an integrated similarity that allows the identification results regarding each feature vector to be integrated well.

【0079】以下、統合類似度変換部14、及びカテゴリ
判定部15の具体的な動作を説明する。
Specific operations of the integrated similarity conversion unit 14 and the category determination unit 15 will be described below.

【0080】統合類似度変換部14では、(数14)に示
すように、対応する単一特徴認識部12から得られる各カ
テゴリの類似度rki(1≦k≦NF:NFは特徴ベクトル
の種類の数、1≦i≦NC;NCはカテゴリの数)をこれ
らの類似度の中の最大値rkm axで割ることによって正規
化を行い、これを統合類似度tki(但し、0≦tki
1、1≦i≦NC;NCはカテゴリの数)とし、カテゴリ
判定部15へ出力する。
In the integrated similarity conversion unit 14, as shown in (Equation 14), the similarity r ki (1 ≦ k ≦ N F : N F of each category obtained from the corresponding single feature recognition unit 12 is a feature. Normalization is performed by dividing (the number of vector types, 1 ≦ i ≦ N C ; N C is the number of categories) by the maximum value r km ax among these similarities, and the integrated similarity t ki ( However, 0 ≦ t ki
1, 1 ≦ i ≦ N C ; N C is the number of categories), and output to the category determination unit 15.

【0081】[0081]

【数14】 [Equation 14]

【0082】カテゴリ判定部15では、加算器17が各々の
統合類似度変換部14から得られた各カテゴリの統合類似
度tkiを(数15)に示すように、同一カテゴリ毎に加
算して、最終類似度ui(但し、1≦i≦NC;NCはカ
テゴリの数)を求める。最後に、最大値選択部18が、こ
の最終類似度uiを比較し、それらの中で最大となる類
似度に対応するカテゴリを最終認識結果として出力す
る。
In the category determination unit 15, the adder 17 adds the integrated similarity t ki of each category obtained from each integrated similarity conversion unit 14 for each same category as shown in ( Equation 15). , The final similarity u i (where 1 ≦ i ≦ N C ; N C is the number of categories). Finally, the maximum value selection unit 18 compares the final similarities u i and outputs the category corresponding to the maximum similarity among them as the final recognition result.

【0083】[0083]

【数15】 [Equation 15]

【0084】ところで、カテゴリ識別部13におけるカテ
ゴリ判定部15が最終的な識別を行ううえで、最も重要な
値は各単一特徴認識部12から得られる各カテゴリの類似
度の最大値及びその近傍の値、つまり、各単一特徴認識
部12で得られる第1、2、…候補の類似度の値である。
しかし、各単一特徴認識部12から得られる最大類似度
は、単一特徴認識部12における各細分類部の出力ユニッ
ト数の総和に影響をうける(具体的には、細分類部の出
力ユニット数の総和が大きいものほど、最大類似度が小
さくなる傾向をもつ。)ので、各単一特徴認識部12から
得られる類似度をそのままカテゴリ判定部15に出力する
と、常に、平均的に最大類似度が大きい単一特徴認識部
12からの識別結果が優先される。よって、このままで
は、複数種類の特徴ベクトルを用いる利点、つまり、あ
る特徴ベクトルで誤認識するパターンを異なる特徴ベク
トルによる識別結果によって正しく認識するということ
が難しい。
By the way, the most important value for the category discriminating unit 15 in the category discriminating unit 13 to make the final discrimination is the maximum value of the similarity of each category obtained from each single feature recognition unit 12 and its vicinity. , That is, the value of the similarity of the first, second, ... Candidates obtained by each single feature recognition unit 12.
However, the maximum similarity obtained from each single feature recognition unit 12 is affected by the total number of output units of each subclassification unit in the single feature recognition unit 12 (specifically, the output units of the subclassification unit). The larger the total number is, the smaller the maximum similarity tends to be.) Therefore, if the similarity obtained from each single feature recognition unit 12 is directly output to the category determination unit 15, the maximum similarity is always averaged. Single feature recognition unit with high degree
The identification result from 12 has priority. Therefore, as it is, it is difficult to recognize the advantage of using a plurality of types of feature vectors, that is, to correctly recognize a pattern that is erroneously recognized by a certain feature vector based on the identification result by different feature vectors.

【0085】しかし、統合類似度変換部14において、各
単一特徴認識部12から得られる各カテゴリの類似度をそ
の最大類似度で正規化することにより、各々の単一特徴
認識部12の最大類似度は常に1となる。よって、カテゴ
リ判定部15における最終的なカテゴリの識別において、
各単一特徴認識部12の識別結果を同等に寄与させること
ができるようになり、常にある単一特徴認識部12からの
識別結果が優先されるようなことはなくなる。
However, in the integrated similarity conversion unit 14, by normalizing the similarity of each category obtained from each single feature recognition unit 12 by its maximum similarity, the maximum similarity of each single feature recognition unit 12 is increased. The similarity is always 1. Therefore, in the final category identification in the category determination unit 15,
The identification result of each single feature recognition unit 12 can be equally contributed, and the identification result from a certain single feature recognition unit 12 is not always given priority.

【0086】ここで、実験的に得られた結果を示す。認
識対象となるパターンデータはマルチフォント(明朝
体、ゴシック体等)の3390字種(記号、英数字、ひらが
な、カタカナ、ギリシャ文字、JIS第1水準漢字)の
文字とした。特徴抽出する特徴ベクトルは64次元の輪郭
方向密度特徴と32次元の背景密度特徴とする。輪郭方向
密度は、局所領域内の文字ストロークの方向、及び複雑
さを示す特徴量であり、背景密度特徴は文字の背景の複
雑度を示す特徴量である。なお、詳細な特徴抽出の方法
は、脇、藤原、竹之内、横江、清水による「文書清書シ
ステム(3)−文字認識アルゴリズムとそのハードウエ
ア−」、昭和61年度電子通信学会総合全国大会、1512、
6-154に示されている。
Here, the results obtained experimentally are shown. The pattern data to be recognized was a character of multi-font (Mincho, Gothic, etc.) 3390 character type (symbol, alphanumeric, hiragana, katakana, Greek character, JIS first level kanji). The feature vector for feature extraction is a 64-dimensional contour direction density feature and a 32-dimensional background density feature. The contour direction density is a feature amount indicating the direction and complexity of the character stroke in the local area, and the background density feature is a feature amount indicating the complexity of the background of the character. The detailed feature extraction method is Waki, Fujiwara, Takenouchi, Yokoe, and Shimizu, "Document fair copy system (3) -character recognition algorithm and its hardware-", 1986 IEICE General Conference, 1512,
6-154.

【0087】各特徴ベクトルに対応する単一特徴認識部
12における群辞書21及び、各細分類部23のカテゴリ辞書
42は、8フォント27120文字で設計を行った。ここで、
各単一特徴認識部12におけるファジィ大分類部22は、カ
テゴリ群数(群参照用特徴ベクトルの数)を7とした。
また、各細分類部23のカテゴリ参照用特徴ベクトルの数
は輪郭方向密度特徴に対応するカテゴリ辞書42では、10
70,949,957,562,1029,920,996の総数6483個とし、ま
た、背景密度特徴に対応するカテゴリ辞書42では、112
2,902,633,1287,751,1090,984の総数6769個とした。
Single feature recognition unit corresponding to each feature vector
Group dictionary 21 in 12 and category dictionary of each subclassification unit 23
42 was designed with 27 fonts of 8 fonts. here,
The fuzzy major classification unit 22 in each single feature recognition unit 12 sets the number of category groups (the number of group reference feature vectors) to 7.
Further, the number of category reference feature vectors of each subclassification unit 23 is 10 in the category dictionary 42 corresponding to the contour direction density feature.
The total number of 70,949,957,562,1029,920,996 is 6483, and 112 in the category dictionary 42 corresponding to the background density feature.
The total number of 2,902,633,1287,751,1090,984 was 6769.

【0088】認識に際して、各単一特徴認識部における
ファジィ大分類部22の(数8)におけるfは1.2、また
細分類部23の(数11)におけるfは1.3とした。ま
た、群選択部24で選択するカテゴリ群の数は7で、即
ち、全ての細分類部23に各特徴ベクトルを入力した。ま
た、カテゴリ類似度計算部28において、各カテゴリ毎に
選ぶ乗算器27の出力値の個数は4とした。
At the time of recognition, f in the fuzzy major classification unit 22 (Equation 8) in each single feature recognition unit was set to 1.2, and f in the fine classification unit 23 (Equation 11) was set to 1.3. The number of category groups selected by the group selection unit 24 is 7, that is, each feature vector is input to all the subclassification units 23. Further, in the category similarity calculation unit 28, the number of output values of the multiplier 27 selected for each category is set to 4.

【0089】また、比較のために、前記2つの特徴ベク
トルを1つにまとめて、96次元の特徴ベクトルとし、こ
れを認識する単一特徴認識部12も設計した。設計に用い
た学習用のパターンは同じものを使用し、カテゴリ群数
は7、カテゴリ辞書42におけるカテゴリ参照用特徴ベク
トルの数は、905,590,1255,382,933,1272,1083の総数64
20個とした。なお、認識に際して、各パラメータは同じ
値を用いた。
For comparison, a single feature recognition section 12 was also designed in which the two feature vectors were combined into one and made into a 96-dimensional feature vector. The same learning pattern used in the design was used, the number of category groups was 7, and the number of category reference feature vectors in the category dictionary 42 was 905,590,1255,382,933,1272,1083, a total of 64.
I made 20 pieces. For recognition, the same value was used for each parameter.

【0090】評価用の文字パターンとして、各辞書の設
計に用いたデータと異なる8フォント27120文字を用い
た。
As the character pattern for evaluation, 27120 characters of 8 fonts different from the data used for designing each dictionary were used.

【0091】実験の結果、本実施例では、98.33%の認
識率が得られた。また、比較のために行った、2つの特
徴ベクトルを1つにまとめて認識を行う認識装置の認識
率は97.98%であった。つまり、本実施例のように、複
数の特徴ベクトルを個別に識別し、その識別結果を統合
して認識を行うほうが、複数の特徴ベクトルを1つにま
とめて認識処理を行うものより、認識率が向上すること
がわかる。
As a result of the experiment, a recognition rate of 98.33% was obtained in this example. In addition, the recognition rate of the recognition device, which was used for comparison and recognized by combining two feature vectors into one, was 97.98%. In other words, as in the present embodiment, it is better to identify a plurality of feature vectors individually and perform recognition by integrating the identification results than to perform a recognition process by combining a plurality of feature vectors into one. It can be seen that

【0092】このように、本実施例によれば、複数種類
の特徴ベクトルを各々別個の単一特徴認識部12で識別処
理して各特徴ベクトルに対する各カテゴリの類似度を求
めたのち、カテゴリ識別部13がこれら全ての類似度を用
いて各単一特徴認識部から得られる識別結果を統合し、
最終的な入力パターンの認識を行う。従って、従来例の
ように複数種類の特徴ベクトルを1つにまとめて用いる
場合には困難であった「ある特徴ベクトルでは誤認識す
るパターンを異なる特徴ベクトルによる識別結果から正
しく認識する」ということが容易にできるようになり、
高精度の認識を実現することができる。
As described above, according to the present embodiment, a plurality of types of feature vectors are subjected to identification processing by the separate single feature recognition units 12 to obtain the similarity of each category to each feature vector, and then the category identification is performed. The unit 13 integrates the identification results obtained from each single feature recognition unit using all these similarities,
The final input pattern is recognized. Therefore, it is difficult to use a plurality of types of feature vectors collectively as in the conventional example, "correctly recognizing a pattern that is erroneously recognized by a certain feature vector from the identification result by a different feature vector". It ’s easy to do,
Highly accurate recognition can be realized.

【0093】また、従来法では、複数種類の特徴ベクト
ルの使用によって、認識に要する時間が増加するが、本
実施例では、各単一特徴認識部が各々並列に識別処理を
行うので、認識に要する時間を従来例に比べ、短くする
ことができる。
Further, in the conventional method, the time required for recognition increases due to the use of a plurality of types of feature vectors, but in the present embodiment, since each single feature recognition unit performs the identification processing in parallel, the recognition is performed. The time required can be shortened as compared with the conventional example.

【0094】図4は本発明の統合類似度変換部14の第2
の実施例の構成を具体的に示すブロック図である。図4
において、51は類似度正規化部であり、単一特徴認識部
12から得られた各カテゴリの類似度をそれらの類似度の
中の最大値で正規化するものである。52は統合類似度計
算部であり、各カテゴリの正規化類似度を非線形変換
し、それら非線形変換された正規化類似度をその総和値
で各々除算することによって各カテゴリの統合類似度を
求めるものである。
FIG. 4 shows a second example of the integrated similarity conversion unit 14 of the present invention.
It is a block diagram which shows the structure of the Example of this concretely. Figure 4
, 51 is a similarity normalization unit, and a single feature recognition unit
The similarity of each category obtained from 12 is normalized by the maximum value of those similarities. Reference numeral 52 denotes an integrated similarity calculation unit, which non-linearly transforms the normalized similarity of each category and obtains the integrated similarity of each category by dividing the non-linearly transformed normalized similarity by its sum value. Is.

【0095】以上のように構成された統合類似度変換部
14の第2の実施例について、以下その動作を説明する。
Integrated similarity conversion unit configured as described above
The operation of the 14th second embodiment will be described below.

【0096】第1の実施例同様に、まず、類似度正規化
部51が(数16)に示すように、対応する単一特徴認識
部12から得られる各カテゴリの類似度rki(1≦k≦N
F:NFは特徴ベクトルの種類の数、1≦i≦NC;NC
カテゴリの数)をこれらの類似度の中の最大値rkmax
割ることによって正規化を行い、これを正規化類似度s
ki(但し、0≦ski≦1、1≦i≦NC;NCはカテゴリ
の数)として、統合類似度計算部52に出力する。
Similar to the first embodiment, first, the similarity normalization unit 51, as shown in (Equation 16), obtains the similarity r ki (1 ≦ 1) of each category obtained from the corresponding single feature recognition unit 12. k ≦ N
F : N F is the number of types of feature vectors, 1 ≦ i ≦ N C ; N C is the number of categories), and normalization is performed by dividing by the maximum value r kmax among these similarities. Similarity s
Ki (where 0 ≦ s ki ≦ 1, 1 ≦ i ≦ N C ; N C is the number of categories) is output to the integrated similarity calculation unit 52.

【0097】[0097]

【数16】 [Equation 16]

【0098】統合類似度計算部52では、類似度正規化部
51から得られた各カテゴリの正規化類似度skiは非線形
変換し、それら非線形変換された各カテゴリの正規化類
似度をそれらの総和値で各々正規化(割算)し、これを
統合類似度tki(但し、1≦i≦NC)として、カテゴ
リ判定部15に出力する。つまり、統合類似度tkiは、非
線形関数をf()とすると
In the integrated similarity calculation unit 52, the similarity normalization unit
The normalized similarity s ki of each category obtained from 51 is nonlinearly transformed, and the normalized similarity of each nonlinearly transformed category is each normalized (divided) by their sum value, and this is integrated similarity. It is output to the category determination unit 15 as the degree t ki (where 1 ≦ i ≦ N C ). In other words, the integrated similarity t ki is f () when the nonlinear function is

【0099】[0099]

【数17】 [Equation 17]

【0100】と表わすことができる。なお、非線形関数
f(x)は、0≦x≦1において、0≦f(x)≦1、f
(0)=0、f(1)=1を満たす単調増加関数である。例
えば、例として(数18)のような関数がある。但し、
0≦a≦1である。
It can be expressed as The nonlinear function f (x) is 0 ≦ f (x) ≦ 1, f, where 0 ≦ x ≦ 1.
It is a monotonically increasing function that satisfies (0) = 0 and f (1) = 1. For example, there is a function such as (Equation 18). However,
0 ≦ a ≦ 1.

【0101】[0101]

【数18】 [Equation 18]

【0102】なお、前記統合類似度計算部52では、全て
のカテゴリに対して統合類似度tkiを求めているが、各
カテゴリの正規化類似度skiの値の大きいものを候補カ
テゴリとして複数個選択し、これらに対して統合類似度
を求めてもよい。このとき、統合類似度tkiは、候補カ
テゴリの集合をωとすると
Although the integrated similarity calculation unit 52 obtains the integrated similarity t ki for all categories, a plurality of candidates having a large normalized similarity s ki in each category are selected as candidate categories. Individual selection may be performed and integrated similarity may be calculated for these. At this time, the integrated similarity t ki is ω where the set of candidate categories is ω.

【0103】[0103]

【数19】 [Formula 19]

【0104】と表わすことができる。なお、選択する方
法としては、正規化類似度があるしきい値以上のものを
選択するとしてもよい。ところで、このように、候補カ
テゴリを複数個選択することによって、非線形変換され
るカテゴリ数が制限されるので、統合類似度に関する計
算量を削減することができる。また、通常、認識性能に
影響があるのは類似度の大きいカテゴリだけである。従
って、このように候補カテゴリのみ統合類似度を計算し
ても、認識性能にはほとんど影響を与えずに、認識処理
を高速化することができる。
It can be expressed as In addition, as a method of selection, the normalized similarity may be selected to be a threshold value or more. By the way, by selecting a plurality of candidate categories in this way, the number of categories subjected to non-linear conversion is limited, so that the amount of calculation regarding the integrated similarity can be reduced. Further, normally, only the category having a high degree of similarity affects the recognition performance. Therefore, even if the integrated similarity is calculated only for the candidate categories in this manner, the recognition performance is hardly affected and the recognition processing can be speeded up.

【0105】ところで、各単一特徴認識部12において、
誤認識するときの各カテゴリの類似度をよく観察する
と、 (1) 最大類似度の大きさはあまり誤認識には関係が
ないこと (2) 最大類似度と2番目に大きい類似度の差が小さ
いときに誤認識が多い ということがわかる。そこで、本実施例では、各単一特
徴認識部12から得られる類似度を最大類似度で正規化し
たあと、最大類似度と2番目に大きい類似度の差を強調
する処理、つまり、最大類似度と2番目に大きい類似度
の差が小さい場合には、よりその差を小さくし、さらに
その類似度の大きさ自体を小さくすることにより、誤認
識を生じている可能性のある単一特徴認識部12から得ら
れる識別結果の信頼度(類似度)を下げる処理を行って
いる。故に、カテゴリ判定部15で最終的な識別を行うと
き、他の単一特徴認識部12の結果が重要視されるように
なる。
By the way, in each single feature recognition section 12,
When observing the similarity of each category when erroneously recognizing, (1) the magnitude of the maximum similarity is not so related to the erroneous recognition (2) the difference between the maximum similarity and the second largest similarity. It turns out that there are many false recognitions when it is small. Therefore, in the present embodiment, after the similarity obtained from each single feature recognition unit 12 is normalized by the maximum similarity, the process of emphasizing the difference between the maximum similarity and the second largest similarity, that is, the maximum similarity. When the difference between the degree of similarity and the second largest similarity is small, the difference is made smaller and the magnitude of the similarity itself is made smaller, so that a single feature that may cause misrecognition. A process of reducing the reliability (similarity) of the identification result obtained from the recognition unit 12 is performed. Therefore, when the final determination is performed by the category determination unit 15, the result of the other single feature recognition unit 12 becomes important.

【0106】ここで、実験的に得られた結果を示す。実
験は、第1の実施例の場合と同じようにした。但し、統
合類似度計算部52において、用いた非線形関数は(数1
8)に示したものであり、a=0.5とした。
Here, the results obtained experimentally are shown. The experiment was the same as in the first example. However, in the integrated similarity calculation unit 52, the nonlinear function used is (Equation 1
8) and a = 0.5.

【0107】実験の結果、この実施例では、98.38%の認
識率が得られ、第1の実施例に比べ、0.05%認識率が向
上した。
As a result of the experiment, the recognition rate of 98.38% was obtained in this example, and the recognition rate was improved by 0.05% as compared with the first example.

【0108】このようにこの実施例によれば、各単一特
徴認識部12から得られる類似度に上記で述べたような変
換を行うことで、ある特徴ベクトルでは誤認識するパタ
ーンを異なる特徴ベクトルによる識別結果から正しく認
識するということが、第1の実施例以上によりよく行う
ことができ、より高精度の認識を行うことができる。
As described above, according to this embodiment, by performing the above-described conversion on the similarity obtained from each single feature recognizing unit 12, a pattern which is erroneously recognized by a certain feature vector may be a different feature vector. The correct recognition based on the discrimination result by can be performed better than in the first embodiment, and the recognition can be performed with higher accuracy.

【0109】図5は本発明のカテゴリ判定部15の第2の
実施例の構成を具体的に示すブロック図である。図5に
おいて、61は入力部であり、統合類似度変換部14から得
られる各カテゴリの統合類似度を入力するものである。
62は多入力一出力信号処理部であり、それに接続されて
いる下層の入力部61、または多入力一出力信号処理部62
の出力と、その連結の度合である重み係数とを各々掛け
合わせて総和したものをしきい値処理して出力するもの
である。ここでは、これら複数個の多入力一出力信号処
理部62を、層構造を持ち、各層内相互の結合がなく、上
位層にのみ信号が伝搬するようにネットワーク接続する
ことによって、入力パターンに対するカテゴリの最終的
な識別が行なわれる。63は最大値選択部であり、最上位
層の複数個の前記多入力ー出力信号処理部62の出力の中
から最大値を選択するものである。
FIG. 5 is a block diagram specifically showing the configuration of the second embodiment of the category determination section 15 of the present invention. In FIG. 5, 61 is an input unit for inputting the integrated similarity of each category obtained from the integrated similarity conversion unit 14.
Reference numeral 62 denotes a multi-input / single-output signal processing unit, which is the lower-layer input unit 61 connected to it or the multi-input / single-output signal processing unit 62
Is multiplied by a weighting factor, which is the degree of connection, and the sum is summed to output a threshold value. Here, the plurality of multi-input / single-output signal processing units 62 have a layered structure, are networked so that signals are propagated only to upper layers without mutual coupling in each layer, and thus to a category for an input pattern. A final identification is made. Reference numeral 63 is a maximum value selection unit that selects the maximum value from the outputs of the plurality of multi-input / output signal processing units 62 in the uppermost layer.

【0110】図6は、前記多入力一出力信号処理部62の
構成を具体的に示すブロック図である。図6において、
71は入力部であり、信号を入力するものである。72は重
み係数記憶部であり、入力部71からの複数の入力信号を
重み付ける重み係数を記憶するものである。73は乗算器
であり、重み係数記憶部72の重み係数と入力部71からの
入力信号を乗算するものである。74は加算器であり、全
ての乗算器73の出力値を総和するものである。75はしき
い値処理部であり、加算器74の出力値を一定範囲の値に
制限するものである。
FIG. 6 is a block diagram specifically showing the structure of the multi-input / single-output signal processing unit 62. In FIG.
Reference numeral 71 is an input unit for inputting a signal. Reference numeral 72 denotes a weighting coefficient storage unit that stores a weighting coefficient for weighting a plurality of input signals from the input unit 71. A multiplier 73 multiplies the weight coefficient of the weight coefficient storage unit 72 by the input signal from the input unit 71. 74 is an adder, which sums the output values of all the multipliers 73. Reference numeral 75 denotes a threshold processing unit, which limits the output value of the adder 74 to a value within a certain range.

【0111】以上のように構成されたカテゴリ判定部15
の第2の実施例について、以下その動作を説明する。
The category determination unit 15 configured as described above
The operation of the second embodiment will be described below.

【0112】カテゴリ判定部15では、まず、入力部61
に、各統合類似度変換部14から得られる各カテゴリの統
合類似度tkiが入力される。即ち、入力部61は、(カテ
ゴリ数×特徴ベクトルの種類数)だけ用意されており、
各特徴ベクトルに対する各カテゴリの統合類似度t
ki(1≦k≦NF;NFは特徴ベクトルの種類数、1≦i
≦NC;NCはカテゴリの数)は、それぞれ対応する入力
部61に入力される。各々の多入力一出力信号処理部62
は、図6に示すようにそれに接続されている下層の入力
部61、または多入力一出力信号処理部62の出力と重み係
数記憶部72に記憶されているその接続の度合である重み
係数wijとを乗算器73により掛け合わせ、各々の乗算器
73の出力の総和を加算器74で計算した後、しきい値処理
部75で変換し、その出力値を上層へ出力する。つまり、
図6に示すある層のi番目の多入力一出力信号処理部62
の出力値Iiは、入力部71への入力値をIj 、それに接
続されている入力とその接続の度合である重み係数をw
ij(i番目の多入力一出力信号処理部とj番目の入力と
の結合重み)とすれば、
In the category judgment unit 15, first, the input unit 61
The integrated similarity t ki of each category obtained from each integrated similarity conversion unit 14 is input to. That is, the input unit 61 is prepared by (the number of categories × the number of types of feature vectors),
Integrated similarity t of each category for each feature vector
ki (1 ≦ k ≦ N F ; N F is the number of types of feature vectors, 1 ≦ i
≦ N C ; N C is the number of categories) are input to the corresponding input units 61. Each multi-input one-output signal processing unit 62
Is a weighting factor w, which is the degree of connection stored in the weighting factor storage unit 72 and the output of the lower-layer input unit 61 connected to it as shown in FIG. 6, or the multiple-input one-output signal processing unit 62. ij is multiplied by the multiplier 73, and each multiplier
After the sum of the outputs of 73 is calculated by the adder 74, the threshold value processing unit 75 converts the sum and outputs the output value to the upper layer. That is,
The i-th multi-input one-output signal processing unit 62 of a certain layer shown in FIG.
The output value I i of the input unit 71 is I j , the input value connected to the input unit 71, and the weighting coefficient w that is the degree of the connection.
ij (the connection weight of the i-th multi-input one-output signal processing unit and the j-th input),

【0113】[0113]

【数20】 [Equation 20]

【0114】と表わすことができる。なお、しきい値処
理部75の入出力特性は図7に示す。例えば、出力を
(0,1)の範囲に制限するしきい値処理部65の入出力
特性は、
It can be expressed as The input / output characteristics of the threshold processing unit 75 are shown in FIG. For example, the input / output characteristic of the threshold value processing unit 65 that limits the output to the range of (0, 1) is

【0115】[0115]

【数21】 [Equation 21]

【0116】のように数式的に表現できる。但し、aは
しきい値処理部65の入力である。なお、しきい値処理部
75の入出力特性としては上記以外のしきい値関数でもよ
い。
It can be expressed mathematically as follows. However, a is an input of the threshold processing unit 65. The threshold processing unit
The input / output characteristic of 75 may be a threshold function other than the above.

【0117】最上位層の多入力一出力信号処理部62は、
パターンのカテゴリ数に設定されており、最上位層の各
多入力一出力信号処理部62は、それぞれ、パターンの各
カテゴリに対応している。最大値選択部63は最上位層の
多入力一出力信号処理部62の出力値の中で最大のものを
選び、対応するカテゴリを入力パターンの最終的な認識
結果として出力する。
The multi-input / single-output signal processing unit 62 in the uppermost layer is
The number of categories of patterns is set, and each multi-input one-output signal processing unit 62 in the uppermost layer corresponds to each category of patterns. The maximum value selection unit 63 selects the maximum output value among the output values of the multi-input one-output signal processing unit 62 in the uppermost layer, and outputs the corresponding category as the final recognition result of the input pattern.

【0118】なお、各多入力一出力信号処理部62の重み
係数は、予め、入力パターンの各特徴ベクトルに対する
各カテゴリの統合類似度を用いて、その入力パターンの
カテゴリに対応する最上位層の多入力一出力信号処理部
62が最大出力を発生するように、学習を行なう。これよ
り、カテゴリ判定部15において、入力パターンのカテゴ
リの識別を行なうことができる。なお、これらの重み係
数の設計方法は、誤差逆伝搬法と呼ばれる学習アルゴリ
ズムによって行われる。誤差逆伝搬法については、例え
ば、従来例で示したD. E. Rumelhart, G. E.Hinton and
R. J. Williams による"Learning Representations by
Back-Propagating Errors," Nature, vol.323, pp.533
-536, Oct. 9, 1986) に示されている。
The weighting factor of each multi-input / single-output signal processing unit 62 uses the integrated similarity of each category with respect to each feature vector of the input pattern in advance, and determines the weight of the highest layer corresponding to the category of the input pattern. Multi-input / single-output signal processor
The learning is performed so that 62 produces the maximum output. As a result, the category determination unit 15 can identify the category of the input pattern. The design method of these weighting factors is performed by a learning algorithm called an error back propagation method. For the error backpropagation method, for example, DE Rumelhart, GEHinton and
"Learning Representations by RJ Williams
Back-Propagating Errors, "Nature, vol.323, pp.533
-536, Oct. 9, 1986).

【0119】このようにこの実施例によれば、各統合類
似度変換部14から得られる全ての各カテゴリの類似度を
用いて、即ち、各特徴ベクトルを識別した結果得られる
全ての類似度を用いて、各カテゴリの最終類似度を求め
る。よって、第1の実施例に比べ、多くの情報を用いて
柔軟にカテゴリを識別できるので、より高精度の認識性
能を得ることができる。
As described above, according to this embodiment, the similarities of all the respective categories obtained from the respective integrated similarity converting units 14 are used, that is, all the similarities obtained as a result of identifying the respective feature vectors are calculated. Then, the final similarity of each category is obtained. Therefore, as compared with the first embodiment, the category can be flexibly identified by using a lot of information, so that the recognition performance with higher accuracy can be obtained.

【0120】図8は本発明のカテゴリ判定部15の第3の
実施例の構成を具体的に示すブロック図である。図8に
おいて、91は入力部であり、複数の統合類似度計算部14
から得られる統合類似度を1つにまとめて統合類似度ベ
クトルとして入力するものである。92は統合類似度辞書
であり、統合類似度ベクトルの各カテゴリの代表値を示
す参照用統合類似度ベクトルが複数個記憶されているも
のである。93は距離計算部であり、統合類似度ベクトル
と統合類似度辞書92に記憶されている全ての参照用統合
類似度ベクトルとの距離を計算するものである。94は最
小値選択部であり、距離計算部93から得られる距離の中
から最小値を選択するものである。
FIG. 8 is a block diagram specifically showing the configuration of the third embodiment of the category determination section 15 of the present invention. In FIG. 8, reference numeral 91 is an input unit, and a plurality of integrated similarity calculation units 14
The integrated similarities obtained from are combined and input as an integrated similarity vector. Reference numeral 92 denotes an integrated similarity dictionary, which stores a plurality of reference integrated similarity vectors indicating representative values of each category of the integrated similarity vector. A distance calculation unit 93 calculates the distance between the integrated similarity vector and all reference integrated similarity vectors stored in the integrated similarity dictionary 92. A minimum value selection unit 94 selects the minimum value from the distances obtained from the distance calculation unit 93.

【0121】以上のように構成されたカテゴリ判定部15
の第3の実施例について、以下その動作を説明する。
The category determination unit 15 configured as described above
The operation of the third embodiment will be described below.

【0122】カテゴリ判定部15では、まず、入力部91が
各々の統合類似度計算部14から得られる統合類似度を
(数22)に示すように、1つにまとめて統合類似度ベ
クトルTとして入力し、これをNC個(NCはカテゴリの
数)の距離計算部93へ出力する。
In the category judging section 15, first, the input section 91 collects the integrated similarities obtained from the respective integrated similarity calculating sections 14 into one as an integrated similarity vector T as shown in (Equation 22). It is input and output to N C (N C is the number of categories) distance calculation units 93.

【0123】[0123]

【数22】 [Equation 22]

【0124】各々の距離計算部93は、統合類似度辞書92
に記憶されている各カテゴリの統合類似度の代表値を示
す参照用統合類似度ベクトルZi (1≦i≦NC)を読
みだし、(数23)式に示すTとZi の距離di を計算
し、これを最小値選択部94に出力する。
Each distance calculation unit 93 has an integrated similarity dictionary 92.
The reference integrated similarity vector Z i (1 ≦ i ≦ N C ) indicating the representative value of the integrated similarity of each category stored in is read out, and the distance d between T and Z i shown in the equation (23) is read. i is calculated and output to the minimum value selection unit 94.

【0125】[0125]

【数23】 [Equation 23]

【0126】最小値選択部94は、距離計算部93から得ら
れる距離の中で最小のものを選び、対応するカテゴリを
入力パターンの最終的な認識結果として出力する。
The minimum value selection unit 94 selects the smallest distance among the distances obtained from the distance calculation unit 93, and outputs the corresponding category as the final recognition result of the input pattern.

【0127】なお、統合類似度辞書92に記憶されている
各カテゴリの統合類似度の代表値を示す参照用統合類似
度ベクトルは、入力パターンから得られる統合類似度に
対して、そのパターンのカテゴリに対応する距離計算部
93の出力が他の距離計算部93の出力に比べて最小出力を
発生するように、予め設計されている。
The reference integrated similarity vector indicating the representative value of the integrated similarity of each category stored in the integrated similarity dictionary 92 is the category of the pattern with respect to the integrated similarity obtained from the input pattern. Distance calculator corresponding to
The output of 93 is designed in advance so as to generate the minimum output as compared with the outputs of the other distance calculation units 93.

【0128】これらの参照用統合類似度ベクトルの設計
方法は、例えば、学習ベクトル量子化法(LVQ)と呼
ばれる学習アルゴリズムによって行われる。学習ベクト
ル量子化法については、例えば、図3に示す細分類部23
のカテゴリ辞書42の設計法で説明したように、T.Kohone
nによる"Learning Vector Quantization for PatternRe
cognition",Helsinki University of Technology, Rep
ort TKK-F-A601(1986.11)に示されている。
The method of designing the reference integrated similarity vector is performed by, for example, a learning algorithm called a learning vector quantization method (LVQ). Regarding the learning vector quantization method, for example, the fine classification unit 23 shown in FIG.
T.Kohone as described in the design method of category dictionary 42 of
"Learning Vector Quantization for PatternRe" by n
cognition ", Helsinki University of Technology, Rep
ort TKK-F-A601 (1986.11).

【0129】このようにこの実施例によれば、各統合類
似度変換部14から得られる全ての各カテゴリの類似度を
用いて、即ち、各特徴ベクトルを識別した結果得られる
全ての類似度を用いて、各カテゴリの最終類似度を求め
る。よって、第1の実施例に比べ、多くの情報を用いて
柔軟にカテゴリを識別できるので、より高精度の認識性
能を得ることができる。
As described above, according to this embodiment, the similarities of all the respective categories obtained from the respective integrated similarity converting units 14 are used, that is, all the similarities obtained as a result of identifying the respective feature vectors are calculated. Then, the final similarity of each category is obtained. Therefore, as compared with the first embodiment, the category can be flexibly identified by using a lot of information, so that the recognition performance with higher accuracy can be obtained.

【0130】なお、本実施例の単一認識部12において、
細分類部23は図3に示すような構成ではなく、図5に示
すような、細分類部入力信号選択部25から出力される入
力パターンの特徴ベクトルを入力する入力部と、層構造
をもち、各層内相互の結合がなく、上位層にのみ、信号
が伝搬するようなネットワーク接続された複数の多入力
一出力信号部とによって構成してもよい。
In the single recognition unit 12 of this embodiment,
The subclassification unit 23 does not have the configuration shown in FIG. 3, but has an input unit for inputting the feature vector of the input pattern output from the subclassification unit input signal selection unit 25, as shown in FIG. 5, and a layer structure. Alternatively, there may be a plurality of multi-input one-output signal units connected in a network so that signals propagate only to an upper layer without mutual coupling in each layer.

【0131】[0131]

【発明の効果】本発明によれば、複数種類の特徴ベクト
ルを各々別個の単一特徴認識部で識別処理して各特徴ベ
クトルに対する各カテゴリの類似度を求めたのち、カテ
ゴリ識別部がこれら全ての類似度を用いて各単一特徴認
識部から得られる識別結果を統合し、最終的な入力パタ
ーンの認識を行う。従って、従来例のように複数種類の
特徴ベクトルを1つにまとめて用いる場合には困難であ
った「ある特徴ベクトルでは誤認識するパターンを異な
る特徴ベクトルによる識別結果から正しく認識する」と
いうことが容易にできるようになり、高精度の認識を実
現することができる。
According to the present invention, a plurality of types of feature vectors are discriminated by separate single feature recognition units to obtain the similarity of each category to each feature vector, and then the category discrimination unit determines all of these. The final input pattern is recognized by integrating the recognition results obtained from the single feature recognition units by using the similarity of. Therefore, it is difficult to use a plurality of types of feature vectors collectively as in the conventional example, "correctly recognizing a pattern that is erroneously recognized by a certain feature vector from the identification result by a different feature vector". It becomes easy and highly accurate recognition can be realized.

【0132】また、従来法では、複数種類の特徴ベクト
ルの使用によって、認識に要する時間が増加するが、本
実施例では、各単一特徴認識部が各々並列に識別処理を
行うので、認識に要する時間を従来例に比べ、短くする
ことができる。
Further, in the conventional method, the time required for recognition increases due to the use of a plurality of types of feature vectors, but in the present embodiment, since each single feature recognition unit performs the identification processing in parallel, the recognition is performed. The time required can be shortened as compared with the conventional example.

【図面の簡単な説明】[Brief description of drawings]

【図1】(a)は本発明におけるパターン認識装置の実
施例を示すブロック図 (b)は本発明におけるパターン認識装置の単一特徴認
識部の実施例を示すブロック図
FIG. 1A is a block diagram showing an embodiment of a pattern recognition apparatus according to the present invention. FIG. 1B is a block diagram showing an embodiment of a single feature recognition unit of the pattern recognition apparatus according to the present invention.

【図2】本発明におけるパターン認識装置のファジィ大
分類部の実施例を示すブロック図
FIG. 2 is a block diagram showing an embodiment of a fuzzy major classification unit of the pattern recognition device according to the present invention.

【図3】本発明におけるパターン認識装置の細分類部の
第1の実施例を示すブロック図
FIG. 3 is a block diagram showing a first embodiment of a subclassification unit of the pattern recognition device according to the present invention.

【図4】本発明におけるパターン認識装置の統合類似度
変換部の第2の実施例を示すブロック図
FIG. 4 is a block diagram showing a second embodiment of the integrated similarity conversion unit of the pattern recognition device in the present invention.

【図5】本発明におけるパターン認識装置のカテゴリ判
定部の第2の実施例を示すブロック図
FIG. 5 is a block diagram showing a second embodiment of a category determination unit of the pattern recognition device according to the present invention.

【図6】本発明における第2の実施例であるカテゴリ判
定部の多入力一出力信号処理部の実施例を示すブロック
FIG. 6 is a block diagram showing an embodiment of a multi-input / output signal processing unit of a category judging unit which is a second embodiment of the present invention.

【図7】本発明における第2の実施例であるカテゴリ判
定部の多入力一出力信号処理部におけるしきい値処理部
の入出力特性図
FIG. 7 is an input / output characteristic diagram of a threshold value processing unit in the multi-input / single-output signal processing unit of the category determination unit according to the second embodiment of the present invention.

【図8】本発明におけるパターン認識装置のカテゴリ判
定部の第3の実施例を示すブロック図
FIG. 8 is a block diagram showing a third embodiment of the category determination section of the pattern recognition device in the present invention.

【図9】従来のパターン認識装置の実施例を示すブロッ
ク図
FIG. 9 is a block diagram showing an embodiment of a conventional pattern recognition device.

【符号の説明】[Explanation of symbols]

11 特徴抽出部 12 単一特徴認識部 13 カテゴリ識別部 14 統合類似度変換部 15 カテゴリ判定部 16 類似度正規化部 17 加算器 18 最大値選択部 21 群辞書 22 ファジィ大分類部 23 細分類部 24 群選択部 25 細分類部入力信号選択部 26 単一特徴類似度計算部 27 乗算器 28 カテゴリ類似度計算部 11 Feature extraction unit 12 Single feature recognition unit 13 Category identification unit 14 Integrated similarity conversion unit 15 Category determination unit 16 Similarity normalization unit 17 Adder 18 Maximum value selection unit 21 Group dictionary 22 Fuzzy large classification unit 23 Fine classification unit 24 Group selection unit 25 Fine classification unit Input signal selection unit 26 Single feature similarity calculation unit 27 Multiplier 28 Category similarity calculation unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 〆木 泰治 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 山本 浩司 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 丹羽 寿男 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Taiji Yuki, 1006 Kadoma, Kadoma City, Osaka Prefecture Matsushita Electric Industrial Co., Ltd. (72) Koji Yamamoto, 1006 Kadoma, Kadoma City, Osaka Matsushita Electric Industrial Co., Ltd. (72) Inventor Toshio Niwa 1006 Kadoma, Kadoma City, Osaka Prefecture Matsushita Electric Industrial Co., Ltd.

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】入力されたパターンから各々異なる特徴ベ
クトルを求める複数の特徴抽出部と、前記入力パターン
が各カテゴリに属する度合である類似度を前記特徴ベク
トル各々から求める複数の単一特徴認識部と、複数の前
記単一特徴認識部から得られた類似度を用いて前記入力
パターンの識別を行なうカテゴリ識別部を具備し、 前記単一特徴認識部は、前記特徴ベクトルが類似するパ
ターンの集合から成るカテゴリ群を代表する群参照用特
徴ベクトルが複数個記憶されている群辞書と、前記群参
照用特徴ベクトルと前記入力パターンの特徴ベクトルを
用いて入力パターンが各カテゴリ群に属する度合である
群帰属度を計算するファジィ大分類部と、前記入力パタ
ーンの特徴ベクトルを用いて前記入力パターンがカテゴ
リ群内に含まれる各カテゴリに属する度合である群内類
似度を求める複数の細分類部と、前記群帰属度から複数
のカテゴリ群を選択する群選択部と、前記群選択部から
得られる群選択情報に基づいて前記入力パターンの特徴
ベクトルを入力する細分類部を選択する細分類部入力信
号選択部と、前記群選択部で選択されたカテゴリ群の群
帰属度と前記細分類部で得られた群内類似度を用いて入
力パターンに対する各カテゴリの類似度を求める単一特
徴類似度計算部を備え、 前記単一特徴類似度計算部は、前記群選択部で選択され
たカテゴリ群の群帰属度と前記細分類部入力信号選択部
から前記入力パターンの特徴ベクトルを入力された前記
細分類部から得られる全ての群内類似度を乗算する複数
個の乗算器と、各カテゴリ毎に前記乗算器の出力値の大
きいものを複数個選択し、これらの出力値の総和を求め
るカテゴリ類似度計算部を備え、 前記カテゴリ識別部は、前記特徴ベクトル各々に対応す
る前記単一特徴認識部から得られた各カテゴリの類似度
をそれらの類似度の中の最大値で正規化することによっ
て統合類似度に変換する複数の統合類似度変換部と、複
数の前記統合類似度変換部から得られた統合類似度を用
いて各カテゴリの最終類似度を求め、最終的な入力パタ
ーンの識別を行なうカテゴリ判定部とを備えたことを特
徴とするパターン認識装置。
1. A plurality of feature extraction units that obtain different feature vectors from input patterns, and a plurality of single feature recognition units that obtain a degree of similarity, which is the degree to which the input pattern belongs to each category, from each of the feature vectors. And a category discriminating unit that discriminates the input pattern using the similarity obtained from a plurality of the single feature recognizing units, and the single feature recognizing unit is a set of patterns in which the feature vectors are similar. A group dictionary in which a plurality of group reference feature vectors representing a category group consisting of are stored, and the degree to which an input pattern belongs to each category group using the group reference feature vector and the feature vector of the input pattern. A fuzzy major classification unit that calculates the degree of group membership and each feature pattern of each of the input patterns included in the category group using the feature vector of the input pattern. Based on group selection information obtained from the group selection unit, a plurality of sub-classification units that obtain the degree of similarity within a group that is a degree of belonging to the category, a group selection unit that selects a plurality of category groups from the group membership degree, and Fine classification unit for selecting a fine classification unit for inputting a feature vector of an input pattern, an input signal selection unit, a group membership degree of the category group selected by the group selection unit, and an intra-group similarity obtained by the fine classification unit Using a single feature similarity calculation unit for calculating the similarity of each category with respect to the input pattern, wherein the single feature similarity calculation unit includes the group membership degree of the category group selected by the group selection unit and the fineness. A plurality of multipliers for multiplying all the in-group similarities obtained from the fine classification unit, which are input with the feature vector of the input pattern from the classification unit input signal selection unit, and the output value of the multiplier for each category A large number of A category similarity calculation unit that selects individual pieces and obtains the sum of these output values, wherein the category identification unit calculates the similarity of each category obtained from the single feature recognition unit corresponding to each of the feature vectors. Of a plurality of integrated similarity conversion unit, which is converted to integrated similarity by normalizing with the maximum value of the similarity, and the integrated similarity obtained from the plurality of integrated similarity conversion units A pattern recognition apparatus comprising: a category determination unit that obtains a final similarity and identifies a final input pattern.
【請求項2】統合類似度変換部は、単一特徴認識部から
得られた各カテゴリの類似度をそれらの類似度の中の最
大値で正規化する類似度正規化部と、前記類似度正規化
部から得られた各カテゴリの正規化類似度を非線形変換
し、それら非線形変換された前記正規化類似度をその総
和値で各々除算することによって各カテゴリの統合類似
度を求める統合類似度計算部を備えたことを特徴とする
請求項1記載のパターン認識装置。
2. The integrated similarity conversion unit includes a similarity normalization unit that normalizes the similarity of each category obtained from the single feature recognition unit by the maximum value of the similarity, and the similarity. Non-linear conversion of the normalized similarity of each category obtained from the normalization unit, and the integrated similarity of each category is obtained by dividing the non-linearly converted normalized similarity by its sum value. The pattern recognition apparatus according to claim 1, further comprising a calculation unit.
【請求項3】カテゴリ判定部は、複数の統合類似度計算
部から得られる各カテゴリの統合類似度を同一カテゴリ
毎に加算することによって、各カテゴリの最終類似度を
求めることを特徴とする請求項1または2記載のパター
ン認識装置。
3. The category determination unit obtains the final similarity of each category by adding the integrated similarity of each category obtained from a plurality of integrated similarity calculation units for each same category. The pattern recognition device according to item 1 or 2.
【請求項4】カテゴリ判定部は、層構造をもち、各層内
相互の結合がなく、上位層にのみ信号が伝搬するように
ネットワーク接続された複数の多入力一出力信号処理部
からなり、前記多入力一出力信号処理部は、複数の重み
係数を保持する重み係数記憶部と、複数の入力信号を入
力する入力部と、前記重み係数記憶部に貯えられた重み
係数で前記入力部からの入力信号を重み付けする乗算手
段と、前記乗算手段で重み付けされた複数の入力信号を
加え合わせる加算手段と、該加算手段の出力を一定範囲
の値に制限するしきい値処理部を備えたことを特徴とす
る請求項1または2記載のパターン認識装置。
4. The category determination unit comprises a plurality of multi-input one-output signal processing units having a layered structure, network-connected so that signals are propagated only to upper layers without mutual coupling in each layer, and The multi-input / single-output signal processing unit includes a weight coefficient storage unit that holds a plurality of weight coefficients, an input unit that inputs a plurality of input signals, and a weight coefficient stored in the weight coefficient storage unit from the input unit. A multiplying means for weighting the input signal; an adding means for adding the plurality of input signals weighted by the multiplying means; and a threshold processing section for limiting the output of the adding means to a value within a certain range. The pattern recognition device according to claim 1 or 2, which is characterized in that.
【請求項5】カテゴリ判定部は、複数の統合類似度計算
部から得られる統合類似度を1つにまとめた統合類似度
ベクトルの各カテゴリの代表値を示す参照用統合類似度
ベクトルが複数個記憶されている統合類似度辞書と、統
合類似度ベクトルと前記統合類似度辞書に記憶されてい
る全ての参照用統合類似度ベクトルとの距離を計算する
複数個の距離計算部を備えたことを特徴とする請求項1
または2記載の認識装置
5. The category determination unit has a plurality of reference integrated similarity vectors indicating a representative value of each category of integrated similarity vectors obtained by combining the integrated similarities obtained from a plurality of integrated similarity calculation units. And a plurality of distance calculation units that calculate the distances between the stored integrated similarity dictionary and the integrated similarity vector and all reference integrated similarity vectors stored in the integrated similarity dictionary. Claim 1 characterized by
Or the recognition device described in 2.
【請求項6】ファジィ大分類部は、入力パターンの特徴
ベクトルと群辞書に記憶されている全ての群参照用特徴
ベクトルとの距離を計算する複数個の距離計算部と、前
記距離計算部の出力の逆数を計算する複数個の割算器
と、前記割算器の各出力を加算する加算器と、前記加算
器の出力と前記距離計算部の出力を乗算する複数個の乗
算器と、前記乗算器の出力の逆数を計算する複数個の割
算器を備えたことを特徴とする請求項1〜5のいずれか
に記載のパターン認識装置。
6. A fuzzy major classification unit, a plurality of distance calculation units for calculating distances between a feature vector of an input pattern and all group reference feature vectors stored in a group dictionary, and the distance calculation unit. A plurality of dividers for calculating the reciprocal of the output, an adder for adding the outputs of the divider, a plurality of multipliers for multiplying the output of the adder and the output of the distance calculator, The pattern recognition apparatus according to claim 1, further comprising a plurality of dividers that calculate an inverse number of an output of the multiplier.
【請求項7】細分類部は、パターンの各カテゴリの代表
値を示すカテゴリ参照用特徴ベクトルが複数個記憶され
ているカテゴリ辞書と、前記特徴ベクトルと前記カテゴ
リ辞書に記憶されている全てのカテゴリ参照用特徴ベク
トルとの距離を計算する複数個の距離計算部と、前記距
離計算部の出力の逆数を計算する複数個の割算器と、前
記割算器の各出力を加算する加算器と、前記加算器の出
力と前記距離計算部の出力を乗算する複数個の乗算器
と、前記乗算器の出力の逆数を計算する複数個の割算器
を備えたことを特徴とする請求項1〜6のいずれかに記
載のパターン認識装置。
7. The subclassification unit includes a category dictionary that stores a plurality of category-reference feature vectors that represent representative values of each category of a pattern, and the feature vectors and all categories that are stored in the category dictionary. A plurality of distance calculators for calculating the distance to the reference feature vector, a plurality of dividers for calculating the reciprocal of the output of the distance calculator, and an adder for adding the outputs of the dividers 2. A plurality of multipliers for multiplying the output of the adder and the output of the distance calculation unit, and a plurality of dividers for calculating the reciprocal of the output of the multiplier. The pattern recognition device according to any one of 1 to 6.
【請求項8】細分類部は、層構造をもち、各層内相互の
結合がなく、上位層にのみ信号が伝搬するようにネット
ワーク接続された複数の多入力ー出力信号処理部からな
り、前記多入力ー出力信号処理部は、複数の重み係数を
保持する重み係数記憶部と、複数の入力信号を入力する
入力部と、前記重み係数記憶部に貯えられた重み係数で
前記入力部からの入力信号を重み付けする乗算手段と、
前記乗算手段で重み付けされた複数の入力信号を加え合
わせる加算手段と、該加算手段の出力を一定範囲の値に
制限するしきい値処理部を備えたことを特徴とする請求
項1〜6のいずれかに記載のパターン認識装置。
8. The subclassification unit comprises a plurality of multi-input / output signal processing units having a layered structure, having no mutual coupling in each layer, and being network-connected so that signals propagate only to an upper layer. The multi-input-output signal processing unit includes a weighting factor storage unit that holds a plurality of weighting factors, an input unit that inputs a plurality of input signals, and a weighting factor stored in the weighting factor storage unit from the input unit. Multiplication means for weighting the input signal,
7. An adding means for adding together a plurality of input signals weighted by the multiplying means, and a threshold processing section for limiting the output of the adding means to a value within a certain range. The pattern recognition device according to any one of claims.
JP33017092A 1992-09-28 1992-12-10 Pattern recognition device Expired - Fee Related JP3180477B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP33017092A JP3180477B2 (en) 1992-12-10 1992-12-10 Pattern recognition device
US08/513,294 US6041141A (en) 1992-09-28 1995-08-10 Character recognition machine utilizing language processing
US08/965,534 US5987170A (en) 1992-09-28 1997-11-06 Character recognition machine utilizing language processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33017092A JP3180477B2 (en) 1992-12-10 1992-12-10 Pattern recognition device

Publications (2)

Publication Number Publication Date
JPH06176158A true JPH06176158A (en) 1994-06-24
JP3180477B2 JP3180477B2 (en) 2001-06-25

Family

ID=18229608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33017092A Expired - Fee Related JP3180477B2 (en) 1992-09-28 1992-12-10 Pattern recognition device

Country Status (1)

Country Link
JP (1) JP3180477B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981730A (en) * 1995-09-18 1997-03-28 Canon Inc Method and device for pattern recognition and computer controller
US7088860B2 (en) 2001-03-28 2006-08-08 Canon Kabushiki Kaisha Dynamically reconfigurable signal processing circuit, pattern recognition apparatus, and image processing apparatus
US7274819B2 (en) 2001-05-31 2007-09-25 Canon Kabushiki Kaisha Pattern recognition apparatus using parallel operation
JP2012008909A (en) * 2010-06-28 2012-01-12 Fuji Xerox Co Ltd Image processing device and image processing program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981730A (en) * 1995-09-18 1997-03-28 Canon Inc Method and device for pattern recognition and computer controller
US7088860B2 (en) 2001-03-28 2006-08-08 Canon Kabushiki Kaisha Dynamically reconfigurable signal processing circuit, pattern recognition apparatus, and image processing apparatus
US7512271B2 (en) 2001-03-28 2009-03-31 Canon Kabushiki Kaisha Dynamically reconfigurable signal processing circuit, pattern recognition apparatus, and image processing apparatus
US7274819B2 (en) 2001-05-31 2007-09-25 Canon Kabushiki Kaisha Pattern recognition apparatus using parallel operation
JP2012008909A (en) * 2010-06-28 2012-01-12 Fuji Xerox Co Ltd Image processing device and image processing program

Also Published As

Publication number Publication date
JP3180477B2 (en) 2001-06-25

Similar Documents

Publication Publication Date Title
Gu et al. Self-organising fuzzy logic classifier
Chacko et al. Handwritten character recognition using wavelet energy and extreme learning machine
Price et al. Pairwise neural network classifiers with probabilistic outputs
KR100442835B1 (en) Face recognition method using artificial neural network, and the apparatus using thereof
Sabourin et al. Optical character recognition by a neural network
Carbonetto et al. Learning to recognize objects with little supervision
AL-Behadili Classification algorithms for determining handwritten digit
KR20200071865A (en) Image object detection system and method based on reduced dimensional
Shayegan et al. A new dataset size reduction approach for PCA-based classification in OCR application
Prakash et al. Growing subspace pattern recognition methods and their neural-network models
JP3180477B2 (en) Pattern recognition device
Kaur et al. Bagging: An Ensemble Approach for Recognition of Handwritten Place Names in Gurumukhi Script
JP2924442B2 (en) Pattern recognition device
Sarker et al. An optimal clustering for fuzzy categorization of cursive handwritten text with weight learning in textual attributes
Kapp et al. Methodology for the design of NN-based month-word recognizers written on Brazilian bank checks
JPH0773276A (en) Character recognition device
Nagu et al. A novel method for handwritten digit recognition with neural networks
Bourbakis et al. Handwriting recognition using a reduced character method and neural nets
JP3337597B2 (en) Learning type recognition judgment device
Lam et al. Application of convolutional neural networks for fingerprint recognition
Alaswad et al. Off-Line Recognition System for Handwritten Arabic Words Using Artificial Intelligence
Bazanov et al. Hybrid and parallel face classifier based on artificial neural networks and principal component analysis
Perez et al. Genetic selection of non-linear product terms in the inputs to a linear classifier for handwritten digit recognition
Kaladgi et al. Handwritten Character Recognition Using CNN with Extended MNIST Dataset
Waziry et al. Character and Digit Recognition Using ANN Back Propagation Algorithm and Image Segmentation

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080420

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090420

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100420

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees