JPH0773276A - Character recognition device - Google Patents

Character recognition device

Info

Publication number
JPH0773276A
JPH0773276A JP5221766A JP22176693A JPH0773276A JP H0773276 A JPH0773276 A JP H0773276A JP 5221766 A JP5221766 A JP 5221766A JP 22176693 A JP22176693 A JP 22176693A JP H0773276 A JPH0773276 A JP H0773276A
Authority
JP
Japan
Prior art keywords
character
unit
category
group
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5221766A
Other languages
Japanese (ja)
Inventor
Yoshihiro Kojima
良宏 小島
Toshiyuki Koda
敏行 香田
Susumu Maruno
進 丸野
泰治 〆木
Taiji Shimeki
Koji Yamamoto
浩司 山本
Toshio Niwa
寿男 丹羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP5221766A priority Critical patent/JPH0773276A/en
Publication of JPH0773276A publication Critical patent/JPH0773276A/en
Priority to US08/513,294 priority patent/US6041141A/en
Priority to US08/965,534 priority patent/US5987170A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

PURPOSE:To provide a character recognition device which can shorten the recognition time and can assure the highly accurate recognition performance. CONSTITUTION:The different feature vectors are acquired from the character patterns respectively. Plural single feature recognizing parts 13 recognize individually the feature vectors. A candidate character selecting part 14 selects plural candidate character categories to the character patterns based on all acquired resemblance, and a recognition post-processing part 15 decides a recognizing character category. Under such conditions, a recognizing part 13 calculates the reversion degree of each category group to the character pattern through a rough sorting part and calculates the intra- group resemblance of each character category through plural fine sorting parts. Then the part 13 calculates the resemblance of each character category to the character pattern based on the group reversion degree and the intra-group resemblance. At the part 14, a converting part 15 converts the resemblance of each character category received from each part 13 into the integrated resemblance. Then a 1st selecting part 16 selects plural candidate characters based on the integrated resemblance, the size information on the character pattern, etc., and a 2nd selecting part 17 calculates the final resemblance of each character category based on the integrated resemblance of selected candidate characters to select the final candidate character category.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、文書上の手書き及び印
刷文字のパターンを認識する文字認識装置に関するもの
であり、特に、文字パターンに対して、大分類を行った
あとに細分類を行なうというような階層的な認識を行う
ことによって文字パターンの認識を行う装置に関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character recognition device for recognizing patterns of handwritten and printed characters on a document, and in particular, character patterns are roughly classified and then finely classified. The present invention relates to an apparatus for recognizing a character pattern by performing such hierarchical recognition.

【0002】[0002]

【従来の技術】従来の、入力された文字パターンに対し
て、まず大分類を行って入力文字パターンが属する文字
カテゴリ群(ここで、文字カテゴリ群とは、文字パター
ンの特徴ベクトルが類似する文字パターンの集合を示
す。)を選択し、次に選択された文字カテゴリ群におい
て、細分類を行なうことによって文字パターンの認識を
行なう文字認識装置の例としては、例えば、電子情報通
信学会論文誌D−II Vol.J75-D-II No.3 pp545-553「大
規模ニューラルネット”CombNET−II”」に示さ
れている。
2. Description of the Related Art Conventionally, an input character pattern is first roughly classified, and a character category group to which the input character pattern belongs (here, the character category group is a character having a similar feature vector to the character pattern). , Which is a set of patterns), and an example of a character recognition device for recognizing a character pattern by finely classifying the selected character category group is, for example, IEICE Transactions D. -II Vol.J75-D-II No.3 pp545-553 "Large-scale neural network" CombNET-II "".

【0003】図12はこの従来の文字認識装置の構成図
を示すものであり、110はイメージスキャナ等の画像入
力部であり、認識対象の文書画像を入力するものであ
る。111は文字切り出し部であり、画像入力部110で入力
された文書画像から文字パターンを1文字領域づつ切り
出すものである。112は特徴抽出部であり、文字切り出
し部110で切り出された文字パターンから文字カテゴリ
を識別するために用いる特徴ベクトルを抽出するもので
ある。113は大分類部であり、特徴抽出部112で抽出され
た特徴ベクトルを用いて、前記文字パターンを各文字カ
テゴリ群に大分類するものである。114は細分類部であ
り、前記特徴ベクトルを用いて、前記文字パターンを各
文字カテゴリ群内で細分類するものである。115は群選
択部であり、大分類部113の出力値(以下、適合度と呼
ぶ。)から複数個の文字カテゴリ群を選択するものであ
る。116は細分類部入力信号選択部であり、群選択部115
で得られる群選択情報に基づいて前記特徴ベクトルを入
力する細分類部114を選択するものである。117は識別部
であり、群選択部115で選択された文字カテゴリ群の適
合度と細分類部114の出力値から前記文字パターンの識
別を行なうものである。
FIG. 12 shows a block diagram of this conventional character recognition apparatus. Reference numeral 110 denotes an image input unit such as an image scanner for inputting a document image to be recognized. Reference numeral 111 denotes a character cutout unit, which cuts out a character pattern for each character area from the document image input by the image input unit 110. A feature extraction unit 112 extracts a feature vector used to identify a character category from the character pattern cut out by the character cutout unit 110. Reference numeral 113 denotes a large classification unit, which uses the feature vector extracted by the feature extraction unit 112 to roughly classify the character patterns into respective character category groups. A sub-classification unit 114 sub-classifies the character pattern in each character category group using the feature vector. A group selection unit 115 selects a plurality of character category groups from the output value (hereinafter referred to as the goodness of fit) of the large classification unit 113. 116 is a subclassification unit input signal selection unit, which is a group selection unit 115
The sub-classification unit 114 for inputting the feature vector is selected on the basis of the group selection information obtained in. Reference numeral 117 denotes an identification unit, which identifies the character pattern based on the goodness of fit of the character category group selected by the group selection unit 115 and the output value of the fine classification unit 114.

【0004】大分類部113において、118は入力部であ
り、特徴抽出部112で抽出された文字パターンの特徴ベ
クトルを入力するものである。119は多入力一出力信号
処理部であり、文字パターンに対する各文字カテゴリ群
の適合度を計算するものである。 細分類部114におい
て、120は入力部であり、細分類部入力信号選択部116か
ら出力された特徴ベクトルを入力するものである。121
は多入力一出力信号処理部であり、それに接続されてい
る下層の入力部120、または多入力一出力信号処理部121
の出力と、その連結の度合である重み係数とを各々掛け
合わせて総和したものをしきい値処理して出力するもの
である。ここでは、これら複数個の多入力一出力信号処
理部121を、層構造にし、各層内相互の結合がない、上
位層にのみ信号が伝搬するようにネットワーク接続する
ことによって、前記文字パターンに対する文字カテゴリ
群内の各文字カテゴリに類似する度合が求められる。12
2は最大値選択部であり、最上位層の複数個の前記多入
力ー出力信号処理部の出力値の中から最大値を選択する
ものである。
In the general classification unit 113, 118 is an input unit for inputting the feature vector of the character pattern extracted by the feature extraction unit 112. A multi-input / single-output signal processing unit 119 calculates the degree of conformity of each character category group to the character pattern. In the subclassification unit 114, 120 is an input unit for inputting the feature vector output from the subclassification unit input signal selection unit 116. 121
Is a multi-input / single-output signal processing unit, which is connected to the lower input unit 120 or multi-input / single-output signal processing unit 121.
Is multiplied by a weighting factor, which is the degree of connection, and the sum is summed to output a threshold value. Here, the plurality of multi-input one-output signal processing units 121 are formed into a layered structure, and are connected to the network so that signals are propagated only to an upper layer without mutual coupling in each layer, so that the characters corresponding to the character pattern are formed. The degree of similarity to each character category in the category group is obtained. 12
Reference numeral 2 denotes a maximum value selection unit that selects the maximum value from the output values of the plurality of multi-input / output signal processing units in the uppermost layer.

【0005】識別部117において、123は類似度計算部で
あり、群選択部115で選択された文字カテゴリ群の適合
度と、その文字カテゴリ群に対応する細分類部114の出
力値から各文字カテゴリの類似度を計算するものであ
る。124はカテゴリ識別部であり、類似度計算部123から
得られた各文字カテゴリの類似度の最大値を求めること
によって、入力された文字パターンの文字カテゴリの識
別を行なうものである。
In the identification unit 117, 123 is a similarity calculation unit, and each character is selected from the conformity of the character category group selected by the group selection unit 115 and the output value of the subclassification unit 114 corresponding to the character category group. This is to calculate the similarity of categories. A category identifying unit 124 identifies the character category of the input character pattern by obtaining the maximum value of the similarity of each character category obtained from the similarity calculating unit 123.

【0006】以上のように構成された従来の文字認識装
置について、以下その動作を説明する。
The operation of the conventional character recognition device configured as described above will be described below.

【0007】画像入力部110により入力された文書画像
から、文字切り出し部111が文字パターンを1文字づつ
抽出する。特徴抽出部112は、文字切り出し部111によっ
て切り出された文字パターンに対してn個の特徴データ
からなる特徴ベクトルX
From the document image input by the image input unit 110, the character cutting unit 111 extracts character patterns one by one. The feature extraction unit 112 uses the feature vector X consisting of n feature data for the character pattern cut out by the character cutout unit 111.

【0008】[0008]

【数1】X=(x1,x2,…,xn) を求める。ここで特徴データは濃淡メッシュ法によって
求められる。濃淡メッシュ法は、入力された文字パター
ンをn個の小領域に分割し、各小領域毎に文字部の面積
(小領域に含まれる黒画素の数)を小領域の面積によっ
て正規化したものを特徴データとするものである。
## EQU1 ## X = (x 1 , x 2 , ..., X n ) is calculated. Here, the feature data is obtained by the density mesh method. In the light and shade mesh method, the input character pattern is divided into n small areas, and the area of the character part (the number of black pixels contained in the small area) is normalized by the area of the small area for each small area. Is the characteristic data.

【0009】このように特徴抽出部112で抽出された特
徴ベクトルXが、次に大分類部113の入力部118に入力さ
れる。入力部118は文字パターンの特徴データ数に等し
くn個用意されており、各特徴データxiはそれぞれ対
応する入力部118に入力される。大分類部113における各
多入力一出力信号処理部119は、それに接続されている
入力部118の入力xjとその連結の度合である重み係数v
ij (1≦i≦mr;mrは文字カテゴリ群の数、1≦j≦
n)とを乗算したものの総和を計算したあと、これを特
徴ベクトルX及び、各多入力一出力信号処理部119の重
み係数ベクトルVi
The feature vector X thus extracted by the feature extraction unit 112 is then input to the input unit 118 of the large classification unit 113. There are n input units 118, which are equal in number to the feature data of the character pattern, and each feature data x i is input to the corresponding input unit 118. Each multi-input one-output signal processing unit 119 in the general classification unit 113 has an input x j of the input unit 118 connected thereto and a weighting factor v that is the degree of connection thereof.
ij (1 ≦ i ≦ m r ; m r is the number of character category groups, 1 ≦ j ≦
n) and the sum of those multiplied by n are calculated, and then this is calculated as a feature vector X and a weighting coefficient vector V i of each multi-input one-output signal processing unit 119.

【0010】[0010]

【数2】Vi=(vi1,vi2,…,vin) のノルム|X|、|Vi|の積で割り算したものを出力
する。つまり、図12に示す重み係数ベクトルViをも
つ多入力一出力信号処理部119の出力値sim(X,Vi)
は、(数3)式のように表わすことができる。
## EQU2 ## The output is obtained by dividing the norm | X | and | V i | of V i = (v i1 , v i2 , ..., V in ). That is, the output value sim multiple input first output signal processing section 119 with the weighting coefficient vector V i shown in FIG. 12 (X, V i)
Can be expressed as in equation (3).

【0011】[0011]

【数3】 [Equation 3]

【0012】なお、重み係数ベクトルViについては、
特徴ベクトルXが類似する文字パターンの集合に対して
決まった多入力一出力信号処理部119が最大出力を発生
するように、予め設計しておく。
As for the weighting coefficient vector V i ,
The multi-input / single-output signal processing unit 119 is designed in advance so as to generate the maximum output for a set of character patterns having similar feature vectors X.

【0013】これらの重み係数ベクトルVi は、従来例
によると、以下のような手法で設計される。まず第1過
程では、重み係数ベクトル設計用の文字パターンの特徴
ベクトルXを入力する毎に、最もsim(X,Vi)の大きい
Cを求め(このとき、XはVCに最適整合するとい
う。)、VCをXに近づける。また、1つの重み係数ベ
クトルに最適整合する文字パターンがある一定数以上に
なった時には、その重み係数ベクトルが担当する領域を
2つに分割し、もう一つ重み係数ベクトルを生成する。
第2過程では、重み係数ベクトル設計用の全文字パター
ンに対して、最適整合するViを求め、それが前回と変
化したかどうかを調べる。そして、変更があれば、その
iを修正する。このとき、第1過程と同様に、重み係
数ベクトルの生成も行なう。以上の操作を重み係数ベク
トルの修正、生成がなくなるまで繰り返す。
According to the conventional example, these weighting coefficient vectors V i are designed by the following method. First, in the first step, to each input of the feature vector X of a character pattern for weighting coefficient vector design, most sim (X, V i) determined a large V C (in this case, X is optimally matched to the V C ,), And bring V C closer to X. Further, when the number of character patterns optimally matching one weighting coefficient vector exceeds a certain number, the area covered by the weighting coefficient vector is divided into two, and another weighting coefficient vector is generated.
In the second step, the optimum matching V i is obtained for all character patterns for designing the weighting coefficient vector, and it is checked whether or not it has changed from the previous time. Then, if there is a change, the V i is corrected. At this time, the weighting coefficient vector is also generated as in the first step. The above operation is repeated until the weight coefficient vector is no longer modified or generated.

【0014】このようにして、重み係数ベクトルの設計
を行なうことによって、各重み係数ベクトルViは、文
字パターンの特徴ベクトル空間を分割し、量子化するこ
とができる。つまり、入力された文字パターンは各重み
係数ベクトルViによって、その特徴ベクトルが類似す
る複数の文字パターンの集合、即ち、複数の文字カテゴ
リ群に分類される。そして、各多入力一出力信号処理部
119の出力値は、文字パターンに対する各文字カテゴリ
群の適合度として群選択部115に出力される。
By designing the weight coefficient vector in this manner, each weight coefficient vector V i can be divided and quantized in the feature vector space of the character pattern. That is, the input character pattern is classified into a set of a plurality of character patterns having similar feature vectors, that is, a plurality of character category groups by each weighting coefficient vector V i . And each multi-input one-output signal processing unit
The output value of 119 is output to the group selection unit 115 as the suitability of each character category group for the character pattern.

【0015】群選択部115では、大分類部113で得られた
適合度の大きい順に任意個の文字カテゴリ群を選び、ど
の文字カテゴリ群が選択されたかを示す群選択情報とそ
れに対応する適合度を出力する。
The group selection unit 115 selects an arbitrary number of character category groups in descending order of goodness of fit obtained by the large classification unit 113, and selects grouped character information indicating which character category group has been selected and the corresponding goodness of fit. Is output.

【0016】群選択部115から得られる群選択情報に基
づいて、細分類入力信号選択部116は、入力された文字
パターンの特徴ベクトルXを入力する細分類部114を選
択し、Xをこれらの細分類部114へ出力する。
Based on the group selection information obtained from the group selection unit 115, the subclassification input signal selection unit 116 selects the subclassification unit 114 for inputting the feature vector X of the input character pattern, and sets X as these. It outputs to the subclassification unit 114.

【0017】群選択部115で選択された文字カテゴリ群
に対応する各々の細分類部114(即ち、細分類入力信号
選択部116から文字パターンの特徴ベクトルXを入力さ
れた細分類部114)では、まず、入力部120に、特徴ベク
トルXが入力される。入力部120は、文字パターンの特
徴データ数に等しくn個用意されており、各特徴データ
iはそれぞれ対応する入力部120に入力される。細分類
部114の各多入力一出力信号処理部121はそれに接続され
ている下層の入力部120、または多入力一出力信号処理
部121の出力とその連結の度合である重み係数とを掛け
合わせたものの総和をしきい値関数で変換した後、その
値を上層へ出力する。ここで、各細分類部114の最上位
層の多入力一出力信号処理部121は、各文字カテゴリ群
に含まれる文字パターンの文字カテゴリの数と同じ個数
に設定され、最上位層の各多入力一出力信号処理部121
は、これらの各文字カテゴリに対応している。最大値選
択部122は最上位層の各多入力一出力信号処理部121の出
力値の中で最大のものを選び、この多入力一出力信号処
理部121に対応する文字カテゴリと、その最大出力値を
出力する。
In each subclassification section 114 corresponding to the character category group selected by the group selection section 115 (that is, the subclassification section 114 to which the feature vector X of the character pattern is input from the subclassification input signal selection section 116), First, the feature vector X is input to the input unit 120. There are n input units 120, which are equal in number to the feature data of the character patterns, and each feature data x i is input to the corresponding input unit 120. Each multi-input / single-output signal processing unit 121 of the subclassification unit 114 multiplies the output of the lower-layer input unit 120 or the multi-input / single output signal processing unit 121 connected to the weighting coefficient, which is the degree of the connection. After converting the sum of all things with a threshold function, the value is output to the upper layer. Here, the highest-level multi-input / single-output signal processing section 121 of each subclassification section 114 is set to the same number as the number of character categories of the character pattern included in each character category group. Input / output signal processing unit 121
Corresponds to each of these character categories. The maximum value selection unit 122 selects the maximum output value among the output values of each multi-input / output signal processing unit 121 in the uppermost layer, the character category corresponding to this multi-input / output signal processing unit 121, and its maximum output. Output the value.

【0018】なお、各多入力一出力信号処理部121の重
み係数は、文字カテゴリ群内の各文字カテゴリをもつ文
字パターンの特徴ベクトルXに対して、その各文字カテ
ゴリに対応する最上位層の多入力一出力信号処理部121
が最大出力を発生するように、予め学習されている。
The weighting factor of each multi-input one-output signal processing section 121 is such that for the feature vector X of a character pattern having each character category in the character category group, the weighting coefficient of the highest layer corresponding to each character category is set. Multi-input / single-output signal processing unit 121
Are pre-learned to generate maximum output.

【0019】具体的には、このような重み係数の学習方
法は、誤差逆伝搬法と呼ばれる学習アルゴリズムによっ
て行われる。誤差逆伝搬法については、例えばD. E. ラメ
ルハート(Rumelhart), G. E.ヒントン(Hinton) and R. J. ウイリアム
ス゛(Williams)による"ラーニンク゛リフ゜リセ゛ンテーションス゛ ハ゛イ ハ゛ックフ゜
ロハ゜ケ゛ーティンク゛ エラース゛(Learning Representations by Back
-Propagating Errors),"ネイチャー(Nature), vol.323, pp.5
33-536, Oct. 9, 1986 に示されている。
Specifically, such a weighting coefficient learning method is performed by a learning algorithm called an error back propagation method. The error backpropagation method is described, for example, by DE Rumelhart, GE Hinton and RJ Williams in "Learning Reproducible by Learning Learning Representations by Back".
-Propagating Errors), "Nature, vol.323, pp.5
33-536, Oct. 9, 1986.

【0020】以下、誤差逆伝搬法の概略について説明す
る。
The outline of the error back propagation method will be described below.

【0021】まず、重み係数学習用の文字パターンの特
徴ベクトルXが細分類部114の入力部120に入力される。
各多入力一出力信号処理部121は、既に説明したよう
に、各々それに接続されている下層の入力部120、また
は多入力一出力信号処理部121の出力とその連結の度合
である重み係数とを掛け合わせたものの総和をしきい値
関数で変換した後、その値を上層へ出力する。ここで、
全ての最上位層の多入力一出力信号処理部121の出力ok
と望ましい出力tk(これを教師信号と呼ぶ)との誤差
Eは(数4)式のように求められる。
First, the feature vector X of the character pattern for weighting coefficient learning is input to the input unit 120 of the fine classification unit 114.
As described above, each multi-input one-output signal processing unit 121 has a lower-layer input unit 120 connected thereto, or an output of the multi-input one-output signal processing unit 121 and a weighting factor which is the degree of connection thereof. After the total sum of those multiplied by is converted by the threshold function, the value is output to the upper layer. here,
Outputs o k of all the top-level multi-input one-output signal processing units 121
The error E between the desired output t k (referred to as a teacher signal) and the desired output t k is obtained by the equation (4).

【0022】[0022]

【数4】E=0.5ΣpΣk(tk−ok2 但し、Σp は教師信号の文字パターンの数に関する総和
である。学習の目的は、誤差Eを最小にする重み係数の
値を決定することであり、各多入力一出力信号処理部間
121の重み係数の変更量△wij は(数5)式に基づいて
計算される。
## EQU4 ## E = 0.5 Σ p Σ k (t k −o k ) 2 where Σ p is the sum of the number of character patterns of the teacher signal. The purpose of learning is to determine the value of the weighting coefficient that minimizes the error E.
The change amount Δw ij of the weight coefficient 121 is calculated based on the equation (5).

【0023】[0023]

【数5】△wij = −ε∂E/∂wij 但し、εは学習レートと呼ばれる正の定数である。この
ような(数5)に基づいた重み係数の更新を、学習用文
字パターンの特徴ベクトルXが入力されるたびに繰り返
すことにより、誤差Eを小さくすることができる。誤差
Eが十分小さくなると、出力信号が望ましい値に十分近
くなったものとして、学習を終了する。
[Expression 5] Δw ij = −ε∂E / ∂w ij where ε is a positive constant called a learning rate. The error E can be reduced by repeating such updating of the weighting coefficient based on (Equation 5) each time the feature vector X of the learning character pattern is input. When the error E becomes sufficiently small, the learning is terminated assuming that the output signal has become sufficiently close to the desired value.

【0024】このような重み係数の学習方法によって、
文字カテゴリ群内の各文字カテゴリをもつ文字パターン
に対し、その各文字カテゴリに対応する最上位層の多入
力一出力信号処理部121が最大出力を発生するようにす
ることができる。従って、最上位層の複数個の多入力一
出力信号処理部121の中で、最大出力を発生するものを
最大値選択部122で選ぶことにより、各文字カテゴリ群
内において、即ち、各細分類部において入力された文字
パターンの文字カテゴリを識別することができる。 識
別部117では、まず、類似度計算部123において、群選択
部115で選択された文字カテゴリ群の適合度と、その文
字カテゴリ群に対応する細分類部114の出力値から(数
6)式を用いて細分類部114で得られた各文字カテゴリ
の類似度を計算し、これらの類似度をカテゴリ識別部12
4に出力する。
By such a weighting coefficient learning method,
For a character pattern having each character category in the character category group, the highest input multi-input single-output signal processing unit 121 corresponding to each character category can generate the maximum output. Therefore, among the plurality of multi-input one-output signal processing units 121 in the uppermost layer, the one that produces the maximum output is selected by the maximum value selection unit 122, so that each character category group, that is, each sub-classification is performed. It is possible to identify the character category of the character pattern input in the section. In the identification unit 117, first, in the similarity calculation unit 123, from the suitability of the character category group selected by the group selection unit 115 and the output value of the subclassification unit 114 corresponding to the character category group, the expression (6) is obtained. Is used to calculate the similarity of each character category obtained by the subclassification unit 114, and the similarity is calculated by the category identification unit 12
Output to 4.

【0025】[0025]

【数6】(類似度)=(適合度)a(出力値)b 但し、a,bは実定数とする。(Similarity) = (Fitness) a (Output value) b where a and b are real constants.

【0026】最後に、カテゴリ識別部124は、類似度計
算部123から得られる各文字カテゴリの類似度を比較
し、それらの中で最大となる類似度に対応する文字カテ
ゴリを識別結果として出力する。
Finally, the category identifying unit 124 compares the similarities of the character categories obtained from the similarity calculating unit 123 and outputs the character category corresponding to the maximum similarity among them as the identification result. .

【0027】[0027]

【発明が解決しようとする課題】文字認識では、文字パ
ターンを識別するうえで有効な特徴を特徴ベクトルとし
て抽出するが、一般に単一の特徴ベクトルだけでは、十
分な認識能力を実現することは難しく、複数種類の特徴
ベクトルを使用することによって、高い識別機能を実現
することができる。つまり、複数種類の特徴を用いるこ
とによって、ある一つの特徴ベクトルではあいまいな識
別、または誤識別しかできない文字パターンでも、異な
る特徴ベクトルでは正確な識別が行える場合があり、こ
のとき正確な識別が行えるほうを重要視することによっ
て識別性能を向上させることができる可能性があるから
である。
In character recognition, a feature that is effective in identifying a character pattern is extracted as a feature vector, but it is generally difficult to realize sufficient recognition ability with only a single feature vector. By using a plurality of types of feature vectors, a high identification function can be realized. That is, by using a plurality of types of features, even a character pattern that can only be ambiguous or misidentified by a certain feature vector may be accurately identified by different feature vectors. At this time, accurate identification can be performed. This is because there is a possibility that the identification performance can be improved by placing more importance on this.

【0028】しかしながら、多数の文字カテゴリをもつ
文字パターンを階層的に認識を行う文字認識装置におい
て、従来例のように、特徴抽出部及び認識部をただ一つ
しか備えていないような構成では、複数種類の特徴ベク
トルを用いる場合、これらを一つにまとめて入力し、認
識を行わざるを得ない。この場合、単一の特徴ベクトル
のみを使用する時に比べ、ある程度高い識別性能を確か
に実現できるが、上記説明のような異なる特徴ベクトル
を用いることによって得られる利点を十分有効に活用す
ることはできないという問題がある。つまり、複数種類
の特徴ベクトルを一つにまとめて使用する場合、識別性
能を高精度化することはできるが、その認識結果を用い
て、上記で述べたようなある特徴ベクトルでは誤認識す
る文字パターンを異なる特徴ベクトルによる識別結果に
よって正しく認識するということは非常に難しい。
However, in the character recognition device for hierarchically recognizing a character pattern having a large number of character categories, as in the conventional example, in a structure having only one feature extraction section and recognition section, When a plurality of types of feature vectors are used, they must be input together and recognized. In this case, compared to the case of using only a single feature vector, it is possible to achieve a certain degree of high discrimination performance, but the advantages obtained by using different feature vectors as described above cannot be fully utilized effectively. There is a problem. In other words, when multiple types of feature vectors are used together, the recognition performance can be improved, but the recognition result is used to identify characters that are erroneously recognized by a certain feature vector as described above. It is very difficult to correctly recognize a pattern based on the identification result of different feature vectors.

【0029】更に、複数種類の特徴ベクトルを一つにま
とめて使用する場合、特徴ベクトルの次元数の増加に伴
って、認識に多くの計算時間を必要とするなどの課題も
有している。
Further, when a plurality of types of feature vectors are used together, there is a problem in that recognition requires a lot of calculation time as the number of dimensions of the feature vector increases.

【0030】本発明はかかる従来の文字認識装置の課題
に鑑み、認識装置において複数種類の特徴ベクトルを使
用する際に、複数種類の特徴ベクトルを併用する利点を
十分有効に活用した高精度の認識が実現でき、更に、認
識に要する時間を短くできる文字認識装置を提供するこ
とを目的とする。
In view of the problems of the conventional character recognition device, the present invention recognizes with high accuracy by sufficiently effectively utilizing the advantage of using a plurality of types of feature vectors when using a plurality of types of feature vectors in the recognition device. It is an object of the present invention to provide a character recognition device capable of realizing the above and further shortening the time required for recognition.

【0031】[0031]

【課題を解決するための手段】請求項1の本発明は、文
書画像を入力する画像入力部と、画像入力部で入力され
た文書画像から文字を1文字領域づつ切り出して文字パ
ターンを得る文字切り出し部と、文字パターンから各々
異なる特徴ベクトルを求める複数の特徴抽出部と、文字
パターンが各文字カテゴリに属する度合である類似度を
特徴ベクトル各々から求める複数の単一特徴認識部と、
複数の単一特徴認識部から得られた各文字カテゴリの類
似度を、各同一文字カテゴリ毎に統合し、その結果を利
用して認識文字カテゴリを決定する文字選択認識後処理
部とを備え、単一特徴認識部は、特徴ベクトルが類似す
る文字パターンの集合から成る文字カテゴリ群を代表す
る群参照用特徴ベクトルが複数個記憶されている群辞書
と、群参照用特徴ベクトルと文字パターンの特徴ベクト
ルを用いて文字パターンが各文字カテゴリ群に属する度
合である群帰属度を計算するファジィ大分類部と、文字
パターンの特徴ベクトルを用いて文字パターンが文字カ
テゴリ群内に含まれる各文字カテゴリに属する度合であ
る群内類似度を求める複数の細分類部と、群帰属度から
複数の文字カテゴリ群を選択する群選択部と、群選択部
から得られる群選択情報に基づいて文字パターンの特徴
ベクトルを入力する細分類部を選択する細分類部入力信
号選択部と、群選択部で選択された文字カテゴリ群の群
帰属度と細分類部で得られた群内類似度を用いて文字パ
ターンに対する各文字カテゴリの類似度を求める単一特
徴類似度計算部を備え、単一特徴類似度計算部は、群選
択部で選択された文字カテゴリ群の群帰属度と細分類部
入力信号選択部から文字パターンの特徴ベクトルを入力
された細分類部から得られる全ての群内類似度を乗算す
る複数個の乗算器と、各文字カテゴリ毎に乗算器の出力
値の大きいものを複数個選択し、これらの出力値の総和
を求めるカテゴリ類似度計算部を備える文字認識装置で
ある。
According to a first aspect of the present invention, an image input section for inputting a document image, and a character for cutting out a character from the document image input by the image input section for each character area to obtain a character pattern. A cutout unit, a plurality of feature extraction units that obtain different feature vectors from the character patterns, and a plurality of single feature recognition units that obtain the degree of similarity of the character patterns belonging to each character category from each feature vector,
And a character selection recognition post-processing unit that integrates the similarity of each character category obtained from a plurality of single feature recognition units for each same character category and determines the recognized character category using the result, The single feature recognizing unit stores a group dictionary in which a plurality of group reference feature vectors representing a character category group consisting of a set of character patterns having similar feature vectors are stored, a group reference feature vector, and a feature of a character pattern. A fuzzy major classification unit that calculates the degree of group membership, which is the degree to which a character pattern belongs to each character category group using a vector, and a character pattern for each character category included in the character category group, using the feature vector of the character pattern. A plurality of sub-classification units that obtain the degree of belonging within a group, a group selection unit that selects a plurality of character category groups from the group membership degree, and a group selection unit that is obtained from the group selection unit. A subclassification unit that selects the subclassification unit that inputs the feature vector of the character pattern based on the information Input signal selection unit, the group membership degree of the character category group selected by the group selection unit, and the group obtained by the subclassification unit The single feature similarity calculator calculates the similarity of each character category to the character pattern using the internal similarity, and the single feature similarity calculator calculates the group membership of the character category group selected by the group selector. And a plurality of multipliers for multiplying all the in-group similarities obtained from the fine classification unit, which are input with the feature vector of the character pattern from the input signal selection unit, and the output value of the multiplier for each character category Is a character recognition device including a category similarity calculation unit that selects a plurality of large output values and calculates the sum of these output values.

【0032】請求項2の本発明は、文書画像を入力する
画像入力部と、複数のパラメータ値を用いて画像入力部
で入力された文書画像から文字を1文字領域づつ切り出
して文字パターン及び文字パターンのサイズ情報、位置
情報を得る文字切り出し部と、文字パターンから各々異
なる特徴ベクトルを求める複数の特徴抽出部と、文字パ
ターンが各文字カテゴリに属する度合である類似度を特
徴ベクトル各々から求める複数の単一特徴認識部と、複
数の単一特徴認識部から得られた各文字カテゴリの類似
度を用いて文字パターンに対する複数の第2次候補文字
カテゴリを求める候補文字選択部と、文字パターンのサ
イズ情報、位置情報を用いて複数の第2次候補文字カテ
ゴリの中から認識文字カテゴリを決定する認識後処理部
を具備し、単一特徴認識部は、特徴ベクトルが類似する
文字パターンの集合から成る文字カテゴリ群を代表する
群参照用特徴ベクトルが複数個記憶されている群辞書
と、群参照用特徴ベクトルと文字パターンの特徴ベクト
ルを用いて文字パターンが各文字カテゴリ群に属する度
合である群帰属度を計算するファジィ大分類部と、文字
パターンの特徴ベクトルを用いて文字パターンが文字カ
テゴリ群内に含まれる各文字カテゴリに属する度合であ
る群内類似度を求める複数の細分類部と、群帰属度から
複数の文字カテゴリ群を選択する群選択部と、群選択部
から得られる群選択情報に基づいて文字パターンの特徴
ベクトルを入力する細分類部を選択する細分類部入力信
号選択部と、群選択部で選択された文字カテゴリ群の群
帰属度と細分類部で得られた群内類似度を用いて文字パ
ターンに対する各文字カテゴリの類似度を求める単一特
徴類似度計算部を備え、単一特徴類似度計算部は、群選
択部で選択された文字カテゴリ群の群帰属度と細分類部
入力信号選択部から文字パターンの特徴ベクトルを入力
された細分類部から得られる全ての群内類似度を乗算す
る複数個の乗算器と、各文字カテゴリ毎に乗算器の出力
値の大きいものを複数個選択し、これらの出力値の総和
を求めるカテゴリ類似度計算部を備え、候補文字選択部
は、特徴ベクトル各々に対応する単一特徴認識部から得
られた各文字カテゴリの類似度をそれらの類似度の中の
最大値で正規化することによって統合類似度に変換する
複数の統合類似度変換部と、統合類似度と文字パターン
のサイズ情報、位置情報を用いて全ての文字カテゴリの
中から複数の第1次候補文字カテゴリを選択する複数の
第1次候補文字選択部と、各々選択された第1次候補文
字カテゴリの統合類似度を同一カテゴリ毎に加算するこ
とによって、全ての第1次候補文字カテゴリの最終類似
度を求め、この最終類似度の値の大きいものを第2次候
補文字カテゴリとして複数個選択する第2次候補文字選
択部を備えた文字認識装置である。
According to the second aspect of the present invention, an image input unit for inputting a document image, and a character pattern and a character are obtained by cutting out a character for each character region from the document image input by the image input unit using a plurality of parameter values. A character segmenting unit that obtains pattern size information and position information, a plurality of feature extraction units that obtain different feature vectors from the character patterns, and a plurality of feature vectors that determine the degree of similarity that character patterns belong to each character category. A single feature recognition unit, a candidate character selection unit that obtains a plurality of secondary candidate character categories for a character pattern using the similarity of each character category obtained from the plurality of single feature recognition units, and a character pattern A post-recognition processing unit that determines a recognition character category from a plurality of secondary candidate character categories using size information and position information is provided, and The recognition unit uses a group dictionary in which a plurality of group reference feature vectors representing a character category group composed of a set of character patterns having similar feature vectors are stored, and a group reference feature vector and a character pattern feature vector. A fuzzy major classification part that calculates the degree of group membership, which is the degree to which a character pattern belongs to each character category group, and the degree to which the character pattern belongs to each character category included in the character category group using the feature vector of the character pattern. Input a character pattern feature vector based on the group selection information obtained from the group selection unit that selects a plurality of character category groups from the group membership degree Select a subclassification section to be selected Subclassification section Input signal selection section, group membership degree of character category group selected in group selection section and similarity within group obtained in subclassification section Equipped with a single feature similarity calculator that finds the similarity of each character category to a character pattern, the single feature similarity calculator calculates the group membership and subclassification of the character category group selected by the group selector. Multiple multipliers for multiplying all the intra-group similarities obtained from the sub-classification unit, which are input with the feature vector of the character pattern from the input signal selection unit, and the output value of the multiplier for each character category is large And a category similarity calculation unit that calculates the sum of these output values.The candidate character selection unit determines the similarity of each character category obtained from the single feature recognition unit corresponding to each feature vector. A plurality of integrated similarity conversion units that convert to the integrated similarity by normalizing with the maximum value among those similarities, and using the integrated similarity and the size information and position information of the character pattern of all character categories During ~ By adding a plurality of primary candidate character selection units for selecting a plurality of primary candidate character categories from each of the selected primary candidate character categories and the integrated similarities of the selected primary candidate character categories for each same category. The character recognition device is provided with a secondary candidate character selection unit that obtains the final similarity of the primary candidate character category and selects a plurality of those having a large final similarity value as the secondary candidate character category.

【0033】[0033]

【作用】本発明は、構成により、まず、画像入力部で入
力された文書画像から、文字切り出し部が文字パターン
を1文字領域づつ抽出し、文字パターンを各特徴抽出部
に、また文字パターンのサイズ情報、位置情報を候補文
字選択部における第1次候補文字選択部と認識後処理部
へ出力する。各々の特徴抽出部では、1文字領域づつ切
り出された文字パターンから各々異なる特徴ベクトルを
抽出し、それぞれ対応する複数の単一特徴認識部に出力
する。
According to the present invention, according to the configuration, first, the character cutout unit extracts a character pattern for each character region from the document image input by the image input unit, and the character pattern is extracted by each feature extraction unit and also by the character pattern. The size information and the position information are output to the primary candidate character selection unit and the post-recognition processing unit in the candidate character selection unit. Each feature extraction unit extracts a different feature vector from the character pattern cut out for each character region and outputs it to a plurality of corresponding single feature recognition units.

【0034】各単一特徴認識部では、まず、特徴ベクト
ルをファジィ大分類部に入力する。ファジィ大分類部
は、群辞書に記憶されている全ての群参照用特徴ベクト
ルを読みだして、特徴ベクトルに対し、特徴ベクトル空
間における各文字カテゴリ群の境界を曖昧に定めた大分
類を行ない、文字パターンが各文字カテゴリ群に属する
度合である群帰属度を求める。これらの群帰属度を用い
て、群選択部は複数の文字カテゴリ群を選択し、群選択
情報を細分類部入力信号選択部に、対応する群帰属度を
単一特徴類似度計算部に出力する。細分類部入力信号選
択部は、特徴ベクトルを群選択情報に対応する細分類部
に出力し、各細分類部は、特徴ベクトルを用いて、文字
パターンが各文字カテゴリ群内に含まれる各文字カテゴ
リに類似する度合である群内類似度を計算し、単一特徴
類似度計算部に出力する。単一特徴類似度計算部は、群
選択部で選択された文字カテゴリ群の群帰属度と細分類
部入力信号選択部から特徴ベクトルを入力された細分類
部から得られる全ての群内類似度を乗算器で乗算し、こ
れをカテゴリ類似度計算部に出力する。カテゴリ類似度
計算部では、各文字カテゴリ毎に乗算器の出力値の大き
いものを複数個選択し、これらの出力値の総和を求め、
これを文字パターンに対する各文字カテゴリの類似度と
する。このように、各々の単一特徴認識部では、対応す
る各特徴抽出部から入力された各特徴ベクトルから、入
力された文字パターンに対する各文字カテゴリの類似度
を求め、これを候補文字選択部へ出力する。
In each single feature recognition unit, first, the feature vector is input to the fuzzy major classification unit. The fuzzy major classification unit reads all the group-referenced feature vectors stored in the group dictionary, and performs major classification on the feature vector by ambiguously defining the boundaries of each character category group in the feature vector space, A group membership degree, which is the degree to which a character pattern belongs to each character category group, is obtained. Using these group membership degrees, the group selection unit selects a plurality of character category groups, and outputs the group selection information to the subclassification unit input signal selection unit and the corresponding group membership degree to the single feature similarity calculation unit. To do. The fine classification unit input signal selection unit outputs the feature vector to the fine classification unit corresponding to the group selection information, and each fine classification unit uses the feature vector to generate a character pattern for each character included in each character category group. The within-group similarity, which is the degree of similarity to the category, is calculated and output to the single feature similarity calculation unit. The single feature similarity calculation unit calculates the group membership of the character category group selected by the group selection unit and all in-group similarity obtained from the subclassification unit to which the feature vector is input from the subclassification unit input signal selection unit. Is multiplied by a multiplier, and this is output to the category similarity calculation unit. In the category similarity calculation unit, a plurality of output values of the multiplier are selected for each character category, and the sum of these output values is calculated.
This is the similarity of each character category to the character pattern. Thus, in each single feature recognition unit, from each feature vector input from each corresponding feature extraction unit, the similarity of each character category with respect to the input character pattern is obtained, and this is sent to the candidate character selection unit. Output.

【0035】候補文字選択部では、まず各々の統合類似
度変換部が、特徴ベクトル各々に対応する単一特徴認識
部から得られる各カテゴリの類似度をそれらの類似度の
中の最大値で正規化することによって統合類似度に変換
する。各第1次候補文字選択部では、対応する統合類似
度変換部から得られる統合類似度と文字切り出し部から
得られる文字パターンのサイズ情報、位置情報を用い
て、全ての文字カテゴリの中から複数の候補文字カテゴ
リを選択し、これを第1次候補文字カテゴリとする。第
2次候補文字選択部は、各々の第1次候補文字選択部か
ら得られる第1次候補文字カテゴリの統合類似度を同一
カテゴリ毎に加算することによって、全ての第1次候補
文字カテゴリに対する最終類似度を求めたのち、この最
終類似度の値の大きいものを複数個選択し、これを第2
次候補文字カテゴリとして認識後処理部に出力する。こ
のように、候補文字選択部では、複数の単一特徴認識部
から得られる各文字カテゴリの類似度と、文字切り出し
部から得られる文字パターンのサイズ情報と位置情報を
用いて、複数個の候補文字カテゴリを選択し、これを認
識後処理部へ出力する。
In the candidate character selection unit, each integrated similarity conversion unit first normalizes the similarity of each category obtained from the single feature recognition unit corresponding to each feature vector by the maximum value of those similarities. It is converted into an integrated similarity by converting it to Each of the primary candidate character selection units uses the integrated similarity obtained from the corresponding integrated similarity conversion unit and the size information and position information of the character pattern obtained from the character cutout unit to select a plurality of character categories from all character categories. The candidate character category of is selected as the primary candidate character category. The secondary candidate character selection unit adds up the integrated similarities of the primary candidate character categories obtained from each of the primary candidate character selection units for each same category, so that all the primary candidate character categories are added. After the final similarity is calculated, a plurality of ones having a large final similarity value are selected and the second similarity is selected.
The next candidate character category is output to the post-recognition processing unit. As described above, the candidate character selection unit uses the similarity of each character category obtained from the plurality of single feature recognition units and the size information and position information of the character pattern obtained from the character cutout unit to obtain a plurality of candidate characters. A character category is selected and output to the post-recognition processing unit.

【0036】最後に、認識後処理部では、文字切り出し
部から得られる文字パターンのサイズ情報と位置情報を
用いて、候補文字選択部から得られる複数の第2次候補
文字カテゴリの中から最終的な文字カテゴリの決定を行
う。
Finally, the post-recognition processing unit uses the size information and the position information of the character pattern obtained from the character cutting unit to finally select from the plurality of secondary candidate character categories obtained from the candidate character selection unit. Character categories.

【0037】以上により、本文字認識装置は、複数種類
の特徴ベクトルを各々別個の単一特徴認識部で識別処理
を行って各特徴ベクトルに対する各文字カテゴリの類似
度を求めたのちに、候補文字選択部がこれら全ての類似
度を用いて各単一特徴認識部から得られる識別結果を統
合し、入力された文字パターンの認識を行う。よって、
ある特徴ベクトルでは誤認識する文字パターンでも異な
る特徴ベクトルによる識別結果によって正しく認識する
ということができるようになり、高精度の認識を実現す
ることができる。また、従来法では、複数種類の特徴ベ
クトルの使用によって、認識に要する時間が増加する
が、本文字認識装置では、各単一特徴認識部が各々並列
に識別処理を行うので、認識に要する時間を従来例に比
べ、短くすることができる。
As described above, the present character recognition apparatus performs the discrimination processing of a plurality of types of feature vectors by the separate single feature recognition units to obtain the similarity of each character category to each feature vector, and then the candidate characters. The selection unit integrates the identification results obtained from the single feature recognition units using all of these similarities, and recognizes the input character pattern. Therefore,
Even a character pattern that is erroneously recognized by a certain feature vector can be correctly recognized by the identification result by a different feature vector, and highly accurate recognition can be realized. Further, in the conventional method, the time required for recognition is increased by using a plurality of types of feature vectors, but in the present character recognition device, since each single feature recognition unit performs the identification processing in parallel, the time required for recognition is increased. Can be shortened as compared with the conventional example.

【0038】[0038]

【実施例】以下、本発明の実施例について図面を参照し
て説明する。 (実施例1)図1は本発明の第1の実施例における文字
認識装置のブロック図を示すものである。
Embodiments of the present invention will be described below with reference to the drawings. (Embodiment 1) FIG. 1 is a block diagram of a character recognition apparatus according to a first embodiment of the present invention.

【0039】図1において、10はイメージスキャナ等の
画像入力部であり、認識対象の文書画像を入力するもの
である。11は文字切り出し部であり、複数のパラメータ
値を用いて画像入力部10で入力された文書画像から文字
パターンを1文字領域づつ切り出すと共に文字パターン
のサイズ情報、位置情報を抽出するものである。12は特
徴抽出部であり、文字切り出し部11で切り出された文字
パターンから文字カテゴリを識別するために用いる特徴
ベクトルを抽出するものである。但し、複数の各特徴抽
出部12はそれぞれ異なる特徴ベクトルを抽出する。13は
単一特徴認識部であり、特徴抽出部12と同じ個数用意さ
れており、各々対応する特徴ベクトルを入力して文字パ
ターンが各文字カテゴリに属する度合である類似度を求
めるものである。14は候補文字選択部であり、各々の単
一特徴認識部13から得られる文字パターンの各特徴ベク
トルに対する各文字カテゴリの類似度を用いて、文字パ
ターンに対する複数の候補文字カテゴリを求めるもので
ある。15は認識後処理部であり、文字切り出し部から得
られる文字パターンのサイズ情報と位置情報を用いて、
候補文字選択部14から得られる複数の候補文字カテゴリ
の中から最終的な文字カテゴリの決定を行うものであ
る。
In FIG. 1, reference numeral 10 denotes an image input unit such as an image scanner for inputting a document image to be recognized. Reference numeral 11 denotes a character cutout unit, which cuts out character patterns from the document image input by the image input unit 10 for each character area using a plurality of parameter values, and extracts size information and position information of the character patterns. A feature extracting unit 12 extracts a feature vector used for identifying a character category from the character pattern cut out by the character cutting unit 11. However, each of the plurality of feature extraction units 12 extracts a different feature vector. Reference numeral 13 denotes a single feature recognition unit, which is prepared in the same number as that of the feature extraction unit 12, and which inputs the corresponding feature vectors to obtain the similarity, which is the degree to which the character pattern belongs to each character category. Reference numeral 14 denotes a candidate character selection unit, which obtains a plurality of candidate character categories for a character pattern by using the similarity of each character category for each feature vector of the character pattern obtained from each single feature recognition unit 13. . A post-recognition processing unit 15 uses the size information and the position information of the character pattern obtained from the character cutting unit,
The final character category is determined from a plurality of candidate character categories obtained from the candidate character selection unit 14.

【0040】候補文字選択部14において、16は統合類似
度変換部であり、単一特徴認識部13と同じ個数用意され
ており、各々対応する単一特徴認識部13から得られた各
文字カテゴリの類似度を統合類似度に変換するものであ
る。17は第1次候補文字選択部であり、統合類似度変換
部16同様、単一特徴認識部13と同じ個数用意されてお
り、各々対応する統合類似度変換部16から得られた統合
類似度と文字切り出し部11から得られる文字パターンの
サイズ情報、位置情報と、後述する文字情報記憶部50に
記憶されている各文字カテゴリの標準サイズ情報と標準
位置情報を用いて、全ての文字カテゴリの中から複数の
候補文字カテゴリ(これを第1次候補文字カテゴリと呼
ぶ。)を選択するものである。18は第2次候補文字選択
部であり、各第1次候補文字選択部17から得られる第1
次候補文字カテゴリの統合類似度を用いて、全ての第1
次候補文字カテゴリの中から複数個の候補カテゴリ(こ
れを第2次候補カテゴリと呼ぶ)を選択して、認識後処
理部15に出力するものである。また、図1では、第2次
候補文字選択部18の構成が具体的に示されており、ここ
で181は加算器であり、複数の第1次候補文字選択部17
から得られる第1次候補文字カテゴリの統合類似度を同
一カテゴリ毎に加算することによって、各文字カテゴリ
の最終類似度を求めるものである。182は最終候補文字
選択部であり、各文字カテゴリの最終類似度の中から複
数の第2次候補文字カテゴリを選択するものである。
In the candidate character selection unit 14, 16 is an integrated similarity conversion unit, the same number as the single feature recognition unit 13 is prepared, and each character category obtained from the corresponding single feature recognition unit 13 Is converted into an integrated similarity. Reference numeral 17 denotes a primary candidate character selection unit, which is provided in the same number as the single feature recognition unit 13 like the integrated similarity conversion unit 16, and the integrated similarity obtained from the corresponding integrated similarity conversion unit 16 respectively. And character pattern size information and position information obtained from the character cutout unit 11, and standard size information and standard position information of each character category stored in the character information storage unit 50, which will be described later, are used for all character categories. A plurality of candidate character categories (this is called a primary candidate character category) is selected from among them. Reference numeral 18 denotes a secondary candidate character selection unit, which is a first candidate character obtained from each primary candidate character selection unit 17.
Using the integrated similarity of the next candidate character category, all first
A plurality of candidate categories (which are called secondary candidate categories) are selected from the next candidate character categories and output to the post-recognition processing unit 15. Further, in FIG. 1, the configuration of the secondary candidate character selection unit 18 is specifically shown, where 181 is an adder, and a plurality of primary candidate character selection units 17 are provided.
The final similarity of each character category is obtained by adding the integrated similarity of the primary candidate character categories obtained from the above for each same category. A final candidate character selection unit 182 selects a plurality of secondary candidate character categories from the final similarity of each character category.

【0041】認識後処理部15において、50は文字情報記
憶部であり、各文字カテゴリ毎に文字パターンの標準サ
イズ情報と標準位置情報が記憶されているものである。
51は後処理対象文字集合記憶部であり、認識後処理が必
要な文字カテゴリの組合せ(後処理対象文字カテゴリ集
合)が記憶されているものである。52は後処理対象文字
集合判定部であり、候補文字選択部14から得られた第2
次候補文字カテゴリの第1候補文字カテゴリが後処理対
象文字カテゴリ集合である場合には、文字情報記憶部50
に格納された後処理対象文字カテゴリ集合に対応する各
文字カテゴリの標準サイズ情報、標準位置情報と入力さ
れた文字パターンのサイズ情報、位置情報とを用いて、
前記後処理対象文字カテゴリ集合のいずれかの文字カテ
ゴリを認識文字カテゴリと判定するものである。
In the post-recognition processing unit 15, a character information storage unit 50 stores standard size information and standard position information of character patterns for each character category.
A post-processing target character set storage unit 51 stores a combination of character categories that require post-recognition processing (post-processing target character category set). 52 is a post-processing target character set determination unit, which is the second character obtained from the candidate character selection unit 14.
When the first candidate character category of the next candidate character category is the post-processing target character category set, the character information storage unit 50
Using the standard size information of each character category corresponding to the post-processing target character category set stored in, the standard position information, the size information of the input character pattern, and the position information,
Any one of the character categories in the post-processing target character category set is determined as a recognized character category.

【0042】図2は、単一特徴認識部13の構成を具体的
に示すブロック図である。図2において、20は群辞書で
あり、特徴ベクトルが類似する文字パターンの集合から
成る文字カテゴリ群を代表する群参照用特徴ベクトルが
複数個記憶されているものである。21はファジィ大分類
部であり、群辞書20に記憶されている群参照用特徴ベク
トルと特徴抽出部12から得られる特徴ベクトルを用い
て、文字切り出し部11から抽出された文字パターンが各
文字カテゴリ群に属する度合である群帰属度を計算する
ものである。22は細分類部であり、前記特徴ベクトルを
用いて前記文字パターンが文字カテゴリ群内に含まれる
各文字カテゴリに属する度合である群内類似度を計算す
るものである。23は群選択部であり、群帰属度から複数
の文字カテゴリ群を選択するものである。24は細分類部
入力信号選択部であり、群選択部23から得られる群選択
情報に基づいて前記文字パターンの特徴ベクトルを入力
する細分類部22を選択するものである。25は単一特徴類
似度計算部であり、群選択部23で選択された文字カテゴ
リ群の群帰属度と細分類部22で得られた群内類似度から
前記文字パターンに対する各文字カテゴリの類似度を求
めるものである。
FIG. 2 is a block diagram specifically showing the configuration of the single feature recognition unit 13. In FIG. 2, reference numeral 20 denotes a group dictionary in which a plurality of group reference characteristic vectors representing a character category group composed of a set of character patterns having similar characteristic vectors are stored. Reference numeral 21 is a fuzzy major classification unit, which uses the group reference feature vector stored in the group dictionary 20 and the feature vector obtained from the feature extraction unit 12 to extract the character pattern extracted from the character extraction unit 11 into each character category. The degree of group membership, which is the degree of belonging to a group, is calculated. A sub-classification unit 22 calculates the intra-group similarity, which is the degree to which the character pattern belongs to each character category included in the character category group, using the feature vector. A group selection unit 23 selects a plurality of character category groups from the degree of group membership. A subclassification unit input signal selection unit 24 selects the subclassification unit 22 to which the feature vector of the character pattern is input, based on the group selection information obtained from the group selection unit 23. Reference numeral 25 denotes a single feature similarity calculation unit, which determines the similarity of each character category to the character pattern from the group membership of the character category group selected by the group selection unit 23 and the intra-group similarity obtained by the subclassification unit 22. It is to seek the degree.

【0043】単一特徴類似度計算部25において、26は乗
算器であり、群選択部23で選択された文字カテゴリ群の
群帰属度と細分類部入力信号選択部24から前記文字パタ
ーンの特徴ベクトルを入力された細分類部22から得られ
る群内類似度を乗算するものである。27はカテゴリ類似
度計算部であり、各文字カテゴリ毎に乗算器26の出力値
の大きいものを複数個選択し、これらの出力値の総和を
求めるものである。
In the single feature similarity calculation unit 25, 26 is a multiplier, and the character belonging to the character category group selected by the group selection unit 23 and the feature of the character pattern from the subclassification unit input signal selection unit 24. The vector is multiplied by the in-group similarity obtained from the sub-classification unit 22. A category similarity calculation unit 27 selects a plurality of output values of the multiplier 26 for each character category and calculates the sum of these output values.

【0044】図3は、ファジィ大分類部21の構成を具体
的に示すブロック図である。図3において、30は、入力
部であり、特徴抽出部12から得られる特徴ベクトルを入
力するものである。31は距離計算部であり、群辞書20の
全ての群参照用特徴ベクトルと前記特徴ベクトルとの距
離を計算するものである。32は割算器であり、距離計算
部31の出力の逆数を計算するものである。33は加算器で
あり、各々の割算器32の出力の総和を求めるものであ
る。34は乗算器であり、加算器33の出力と距離計算部31
の出力を乗算するものである。35は割算器であり、乗算
器34の出力の逆数を計算するものである。
FIG. 3 is a block diagram specifically showing the configuration of the fuzzy major classification unit 21. In FIG. 3, reference numeral 30 is an input unit for inputting the feature vector obtained from the feature extraction unit 12. Reference numeral 31 denotes a distance calculation unit, which calculates the distance between all the group reference feature vectors of the group dictionary 20 and the feature vectors. Reference numeral 32 is a divider that calculates the reciprocal of the output of the distance calculation unit 31. Reference numeral 33 denotes an adder, which calculates the total sum of the outputs of the respective dividers 32. 34 is a multiplier, and the output of the adder 33 and the distance calculation unit 31
Is to multiply the output of. A divider 35 calculates the reciprocal of the output of the multiplier 34.

【0045】図4は、細分類部22の第1の実施例の構成
を具体的に示すブロック図である。図4において、40は
入力部であり、細分類部入力信号選択部24から出力され
る文字パターンの特徴ベクトルを入力するものである。
41は文字カテゴリ辞書であり、文字パターンの各文字カ
テゴリの代表値を示す文字カテゴリ参照用特徴ベクトル
が複数個記憶されているものである。42は距離計算部で
あり、文字カテゴリ辞書41の全ての文字カテゴリ参照用
特徴ベクトルと前記特徴ベクトルとの距離を計算するも
のである。43は割算器であり、距離計算部42の出力の逆
数を計算するものである。44は加算器であり、各々の割
算器43の出力の総和を求めるものである。45は乗算器で
あり、加算器44の出力と距離計算部42の出力を乗算する
ものである。46は割算器であり、乗算器45の出力の逆数
を計算するものである。以上のように構成された文字認
識装置について、以下その動作を説明する。
FIG. 4 is a block diagram specifically showing the configuration of the first embodiment of the subclassification section 22. In FIG. 4, reference numeral 40 denotes an input unit for inputting the feature vector of the character pattern output from the subclassification unit input signal selection unit 24.
Reference numeral 41 denotes a character category dictionary, which stores a plurality of character category reference feature vectors indicating a representative value of each character category of a character pattern. Reference numeral 42 is a distance calculation unit that calculates the distances between all the character category reference feature vectors of the character category dictionary 41 and the feature vectors. A divider 43 calculates the reciprocal of the output of the distance calculator 42. Reference numeral 44 is an adder, which calculates the total sum of the outputs of the respective dividers 43. A multiplier 45 multiplies the output of the adder 44 and the output of the distance calculation unit 42. 46 is a divider, which calculates the reciprocal of the output of the multiplier 45. The operation of the character recognition device configured as described above will be described below.

【0046】画像入力部10で入力された文書画像から、
複数のパラメータを用いて文字切り出し部11が図5に示
すように、文字パターンを1文字領域づつ抽出し、文字
パターンを各特徴抽出部12に、また、抽出された文字パ
ターンのサイズ情報(文字パターンの幅a、高さb)、
位置情報hを候補文字選択部14における第1次候補文字
選択部17と認識後処理部15へ出力する。ここで、文字切
り出し部11におけるパラメータの具体例としては、文字
領域の標準サイズ、ピッチ、隣接する文字領域のスペー
ス長等があり、例えば、日本語文書では、文字領域の標
準サイズは全角漢字の文字サイズに設定される。
From the document image input by the image input unit 10,
As shown in FIG. 5, the character segmentation unit 11 extracts a character pattern for each character region using a plurality of parameters, and the character pattern is extracted to each feature extraction unit 12, and the size information of the extracted character pattern (character Pattern width a, height b),
The position information h is output to the primary candidate character selection unit 17 and the post-recognition processing unit 15 in the candidate character selection unit 14. Here, specific examples of the parameter in the character cutout unit 11 include a standard size of a character area, a pitch, a space length of an adjacent character area, and the like.For example, in a Japanese document, the standard size of the character area is a full-width Kanji character. Set to font size.

【0047】複数個用意された各特徴抽出部12では、文
字切り出し部11から抽出された文字パターンから各々異
なる特徴ベクトルXk(k=1〜NF:NFは特徴ベクトル
の種類の数)を抽出する。ここで、各特徴ベクトルXk
k個の特徴データからなり、
In each of the plurality of feature extraction units 12 prepared, a different feature vector X k (k = 1 to N F : N F is the number of types of feature vectors) from the character pattern extracted from the character extraction unit 11. To extract. Here, each feature vector X k is composed of n k feature data,

【0048】[0048]

【数7】Xk=(xk1,xk2,…,xknk) のように表わされる。## EQU7 ## This is expressed as X k = (x k1 , x k2 , ..., X knk ).

【0049】なお、複数の異なる文字パターンの特徴ベ
クトルの例としては、以下に示すようなものがあるが、
下記以外の特徴ベクトルでも別に構わない。 (a)従来例で既に説明した文字パターンの画像情報を
例えば8×8分割し、各領域内の黒画素の度数を要素と
する64次元の濃淡特徴メッシュ特徴 (b)文字パターンの画像情報を例えば4×4分割し、
各小領域内における文字輪郭点の方向要素(水平、垂
直、右斜め、左斜めの4方向)の出現度数を要素とする
64次元の輪郭方向密度特徴 (c)文字パターンの画像情報を例えば4×4分割し、
一方の外接枠から他方の外接枠に向かって最初の文字部
に出会うまでの文字部でない領域の面積を計数する。こ
の操作を4つの外接枠に対して行って求められる16次元
の第1次ペリフェラル特徴と、同様に、最初の文字部の
出会いは計数を続け、2度目の文字部に出会うまでの面
積を計数して求められる16次元の第2次ペリフェラル特
徴を併せた32次元のペリフェラル特徴 (d)文字パターンの画像情報を水平、及び垂直方向に
走査し、文字部を横切る回数を特徴量とするストローク
密度特徴 各特徴抽出部12で特徴抽出された文字パターンの各特徴
ベクトルXkは、対応する単一特徴認識部13に入力され
る。複数個用意された単一特徴認識部13は、それぞれ独
立に以下に示すような識別処理を行い、各特徴ベクトル
kに対する各文字カテゴリの類似度を求める。なお、
以下の単一特徴認識部13の動作説明で用いられる特徴ベ
クトルXkは、ある特徴抽出法によって得られた特徴ベ
クトルとし、以下、Xk、nkは簡単のためX、nと記述
する。
The following are examples of feature vectors of a plurality of different character patterns.
Feature vectors other than the following may be used. (A) The image information of the character pattern already described in the conventional example is divided into, for example, 8 × 8, and the 64-dimensional grayscale feature mesh feature having the frequency of black pixels in each area as an element (b) The image information of the character pattern For example, divide into 4x4,
An element is the appearance frequency of the direction elements (horizontal, vertical, diagonally right, diagonally left) of the character contour points in each small area.
64-dimensional contour direction density feature (c) Image information of a character pattern is divided into, for example, 4 × 4,
The area of a region that is not the character part from the one circumscribing frame to the first circumscribing frame until the first character part is encountered is counted. This operation is performed on four circumscribing frames, and 16-dimensional primary peripheral features are obtained. Similarly, the first encounter of the character part continues counting, and the area until the second character part is encountered is counted. 32 dimensional peripheral features combined with 16 dimensional secondary peripheral features obtained by Each feature vector X k of the character pattern extracted by each feature extraction unit 12 is input to the corresponding single feature recognition unit 13. The plurality of prepared single feature recognition units 13 independently perform the following identification processing to obtain the similarity of each character category with respect to each feature vector X k . In addition,
The feature vector X k used in the following description of the operation of the single feature recognizing unit 13 is a feature vector obtained by a certain feature extraction method, and hereinafter, X k and n k are described as X and n for simplicity.

【0050】以下、単一特徴認識部13の具体的な動作を
説明する。
The specific operation of the single feature recognition unit 13 will be described below.

【0051】単一特徴認識部13では、まず特徴ベクトル
Xはファジィ大分類部21に入力される。ファジィ大分類
部21では、入力部30に特徴ベクトルXが入力され、mr
個の距離計算部31へXが出力される。各々の距離計算部
31は、群辞書20に記憶されている各文字カテゴリ群を代
表する群参照用特徴ベクトルVi (1≦i≦mr;mr
群参照用特徴ベクトルの数、即ち、文字カテゴリ群の
数)を読みだし、(数8)式に示すXとVi の距離di
を計算し、各々対応する割算器32、及び乗算器34へ出力
する。
In the single feature recognition unit 13, first, the feature vector X is input to the fuzzy major classification unit 21. In the fuzzy major classification unit 21, the feature vector X is input to the input unit 30 and m r
X is output to the individual distance calculation units 31. Each distance calculator
31 is a group reference feature vector V i (1 ≦ i ≦ m r ; m r is the number of group reference feature vectors representing the character category groups stored in the group dictionary 20; (Number) is read out, and the distance d i between X and V i shown in equation (8)
Are calculated and output to the corresponding divider 32 and multiplier 34, respectively.

【0052】[0052]

【数8】di=‖X−Vi2/(f-1) (1≦i≦mr) 但し、fはf>1を満たす実数とする。各々の割算器32
は、距離diの逆数を計算し、その出力を加算器33へ出
力する。加算器33は、全ての割算器32の出力の総和を計
算し、その出力をmr個の乗算器34へ出力する。各々の
乗算器34では、対応する距離計算部31と加算器33の出力
を乗算し、その出力を対応する割算器35に入力する。各
々の割算器35では、対応する乗算器34の出力の逆数を計
算する。最終的にファジィ大分類部21では、この各割算
器35の出力が入力された文字パターンの特徴ベクトルX
に対する各文字カテゴリ群の群帰属度μi(1≦i≦
r)として、群選択部23に出力される。つまり、各文
字カテゴリ群の群帰属度μi(1≦i≦mr)は、(数
9)式のように表わすことができる。
D i = ‖X−V i2 / (f-1) (1 ≦ i ≦ m r ) where f is a real number that satisfies f> 1. Each divider 32
Calculates the reciprocal of the distance d i and outputs the output to the adder 33. The adder 33 calculates the sum of the outputs of all the dividers 32 and outputs the output to the m r multipliers 34. Each of the multipliers 34 multiplies the outputs of the corresponding distance calculation unit 31 and the adder 33, and inputs the output to the corresponding divider 35. Each divider 35 calculates the reciprocal of the output of the corresponding multiplier 34. Finally, in the fuzzy major classification unit 21, the feature vector X of the character pattern to which the output of each divider 35 is input.
Group membership degree μ i (1 ≦ i ≦
m r ) is output to the group selection unit 23. In other words, the group membership degree μ i (1 ≦ i ≦ m r ) of each character category group can be expressed as in Expression (9).

【0053】[0053]

【数9】 [Equation 9]

【0054】なお、群辞書20に記憶されている各文字カ
テゴリ群を代表する群参照用特徴ベクトルは、予め、従
来のクラスタリング手法、例えば、電子情報通信学会編
長尾真著「文字パターン情報処理」(コロナ社)に示
されているK平均アルゴリズム、及びIsodataアルゴリ
ズムや、Y.リンテ゛(Linde), A.フ゛ソ゛ー(Buzo), and R.M.ク゛レイ
(Gray)による"アン アルコ゛リス゛ム フォ ヘ゛クトル クァンタイセ゛ーション(An A
lgorithm for Vector Quantizer design),"アイ・イー・イー・イー
・トランサ゛クション オン コミュニケーション ホ゛リュームー28 84頁から95頁 19
80年1月(IEEE Trans. Commun.,COM-28, 1, pp.84-95, J
an.1980) に示されているLBGアルゴリズムを用いて
設計される。
The group reference feature vector representing each of the character category groups stored in the group dictionary 20 is stored in advance by a conventional clustering method, for example, “Character pattern information processing” by Shin Nagao edited by the Institute of Electronics, Information and Communication Engineers. (Corona) K-means algorithm and Isodata algorithm, Y. Linde, A. Buzo, and RM gray
(Gray)
lgorithm for Vector Quantizer design), "I-E-E-Transaction-on-Communication-Volume 28, pages 84-95 19
January 80 (IEEE Trans. Commun., COM-28, 1, pp.84-95, J
It is designed using the LBG algorithm shown in an.

【0055】以下、K平均アルゴリズムを用いて群辞書
20を設計する方法について簡単に説明する。 (1)認識対象物の群辞書設計用の文字パターンの集合
から、mr個(但し、mrは予め定められた文字カテゴリ
群の数)の文字パターンを適当に選び、これらの特徴ベ
クトルをmr個の群参照用特徴ベクトルVi(1≦i≦m
r)とする。 (2)全ての群辞書設計用の文字パターンの特徴ベクト
ルXについて、それぞれ、(数10)式に示される距離
i
In the following, the group dictionary will be calculated using the K-means algorithm.
A brief description of how to design the 20. (1) From the set of character patterns for designing a group dictionary of recognition objects, m r (where m r is the predetermined number of character category groups) character patterns are appropriately selected, and these feature vectors are set. m r group reference feature vectors V i (1 ≦ i ≦ m
r ). (2) For all feature vectors X of the character patterns for designing the group dictionary, the distances d i shown in the equation (10)

【0056】[0056]

【数10】di=‖X−Vi‖ を最小にするViを求める。このとき、Xは文字カテゴ
リ群Si(1≦i≦mr)に属するものとする。 (3) 各Siに属する文字パターンの特徴ベクトルX
の平均値を求め、これをVi’とする。 (4) Vi’=Viが全てのiについて成立すれば、こ
のときの群参照用特徴ベクトルViを群辞書20に記憶す
る。そうでなければ、Vi’を新たな群参照用文字パタ
ーン信号Viとして、(2)に戻る。
[Number 10] seek a d i = ‖X-V i ‖ a to minimize V i. At this time, X is assumed to belong to the character category group S i (1 ≦ i ≦ m r ). (3) Feature vector X of the character pattern belonging to each S i
Of V i 'is obtained. (4) If V i ′ = V i holds for all i, the group reference feature vector V i at this time is stored in the group dictionary 20. If not, V i 'is set as a new group reference character pattern signal V i and the process returns to (2).

【0057】このようにして、群参照用特徴ベクトルを
設計することによって、全ての文字パターンはいくつか
のその特徴ベクトルが類似する文字パターンの部分集合
(文字カテゴリ群)に分割することができる。なお、Is
odataアルゴリズム及び、LBGアルゴリズムもこのK
平均アルゴリズムと基本的にはほぼ同じ手法である。
By designing the group reference feature vector in this manner, all the character patterns can be divided into some subsets (character category groups) of the character patterns having similar feature vectors. Note that Is
odata algorithm and LBG algorithm are also K
The method is basically the same as the averaging algorithm.

【0058】群選択部23では、ファジィ大分類部21で得
られた群帰属度の大きい順に複数個の文字カテゴリ群を
選び、どの文字カテゴリ群が選択されたかを示す群選択
情報を細分類入力信号選択部24へ、また、それに対応す
る群帰属度を単一特徴類似度計算部25へ出力する。な
お、文字カテゴリ群の選択方法としては、あるしきい値
以上の群帰属度をもつカテゴリ群を選択するとしてもよ
い。
The group selection unit 23 selects a plurality of character category groups in the descending order of group membership obtained by the fuzzy large classification unit 21 and finely inputs group selection information indicating which character category group has been selected. The signal selecting unit 24 and the corresponding group membership degree are output to the single feature similarity calculating unit 25. As a method of selecting the character category group, a category group having a group membership degree equal to or higher than a certain threshold may be selected.

【0059】群選択部23から得られる群選択情報に基づ
いて、細分類入力信号選択部24は、入力された文字パタ
ーンの特徴ベクトルXを入力する細分類部22を選択し、
特徴ベクトルXをこれらの細分類部22へ出力する。
Based on the group selection information obtained from the group selection unit 23, the fine classification input signal selection unit 24 selects the fine classification unit 22 to which the feature vector X of the input character pattern is input,
The feature vector X is output to these subclassification units 22.

【0060】群選択部23で選択された文字カテゴリ群に
対応する各々の細分類部22(即ち、細分類入力信号選択
部24から特徴ベクトルを入力された細分類部22)では、
まず、入力部40に文字パターンの特徴ベクトルXが入力
され、mc個の距離計算部42へXが出力される。各々の
距離計算部42は、文字カテゴリ辞書41に記憶されている
各文字カテゴリの代表値を示す文字カテゴリ参照用特徴
ベクトルWi (1≦i≦mc;mcは文字カテゴリ参照用
特徴ベクトルの数)を読みだし、(数11)式に示すX
とWiの距離di を計算し、各々対応する割算器43、及
び乗算器45へ出力する。
In each subclassification section 22 corresponding to the character category group selected by the group selection section 23 (that is, the subclassification section 22 to which the feature vector is input from the subclassification input signal selection section 24),
First, the character vector feature vector X is input to the input unit 40, and X is output to the m c distance calculation units 42. Each distance calculation unit 42 is a character category reference feature vector W i (1 ≦ i ≦ m c ; m c is a character category reference feature vector) indicating a representative value of each character category stored in the character category dictionary 41. X) shown in (Equation 11)
And the distance d i between W i and W i are calculated and output to the corresponding divider 43 and multiplier 45, respectively.

【0061】[0061]

【数11】 di=‖X−Wi2/(f-1) (1≦i≦mc) 但し、fはf>1を満たす実数とする。各々の割算器43
は、距離diの逆数を計算し、その出力を加算器44へ出
力する。加算器44は、全ての割算器43の出力の総和を計
算し、その出力をmc個の乗算器45へ出力する。各々の
乗算器45では、対応する距離計算部42と加算器44の出力
を乗算し、その出力を対応する割算器46に入力する。各
々の割算器46では、対応する乗算器45の出力の逆数を計
算する。最終的に、細分類部22では、この各割算器46の
出力が文字パターンの特徴ベクトルXに対する各文字カ
テゴリの群内類似度νi(1≦i≦mc)として、単一特
徴類似度計算部25に出力される。つまり、各細分類部22
における各文字カテゴリの群内類似度νi(1≦i≦
c)は、(数12)式のように表わすことができる。
D i = ‖X−W i2 / (f-1) (1 ≦ i ≦ m c ), where f is a real number satisfying f> 1. Each divider 43
Calculates the reciprocal of the distance d i and outputs the output to the adder 44. The adder 44 calculates the total sum of the outputs of all the dividers 43 and outputs the output to the m c multipliers 45. Each of the multipliers 45 multiplies the output of the corresponding distance calculation unit 42 and the output of the adder 44, and inputs the output to the corresponding divider 46. Each divider 46 calculates the reciprocal of the output of the corresponding multiplier 45. Finally, in the sub-classification unit 22, the output of each divider 46 is the single feature similarity as the intra-group similarity ν i (1 ≦ i ≦ m c ) of each character category with respect to the feature vector X of the character pattern. It is output to the degree calculation unit 25. That is, each subclassification unit 22
In-group similarity ν i (1 ≦ i ≦
m c ) can be expressed as in Expression (12).

【0062】[0062]

【数12】 [Equation 12]

【0063】なお、文字カテゴリ辞書41に記憶されてい
る各文字カテゴリの代表値を示す文字カテゴリ参照用特
徴ベクトルは、文字カテゴリ群内の各文字カテゴリをも
つ文字パターンに対して、その各文字カテゴリに対応す
る距離計算部42の出力が他の距離計算部42の出力に比べ
て最小出力を発生するように、予め設計されている。
The character category reference feature vector, which indicates the representative value of each character category stored in the character category dictionary 41, is used for a character pattern having each character category in the character category group. Is designed in advance so that the output of the distance calculation unit 42 corresponding to the? Generates the minimum output as compared with the output of the other distance calculation units 42.

【0064】これらの文字カテゴリ参照用特徴ベクトル
の設計方法は、例えば、学習ベクトル量子化法(LV
Q)と呼ばれる学習アルゴリズムによって行われる。学
習ベクトル量子化法については、例えば、T.コホネン(Kohon
en)による"ラーンニンク゛ ヘ゛クトル クァンタイセ゛イション フォ ハ゜ターン レコク゛ニ
ション(Learning Vector Quantization for Pattern Recog
nition)",ヘルシンキ工科大学(Helsinki University of Tec
hnology),レホ゜ート TKK-F-A601,1986年11月(Report TKK-F-
A601(1986.11)に示されている。
The method for designing the character category reference feature vector is, for example, a learning vector quantization method (LV).
This is done by a learning algorithm called Q). As for the learning vector quantization method, for example, T. Kohonen (Kohon
en) "Learning Vector Quantization for Pattern Recog"
nition) ", Helsinki University of Tec
hnology), Report TKK-F-A601, November 1986 (Report TKK-F-
It is shown in A601 (1986.11).

【0065】以下、学習ベクトル量子化法について簡単
に説明する。
The learning vector quantization method will be briefly described below.

【0066】まず、mc個の文字カテゴリをもつ文字カ
テゴリ参照用特徴ベクトルWiが用意される。このWi
初期値としては、各文字カテゴリ群に含まれる文字パタ
ーン集合からなる文字カテゴリ辞書の設計用の文字パタ
ーンから、各文字カテゴリ毎に任意に選択された文字パ
ターンの特徴ベクトル及び、群辞書20の設計の際に説明
したK平均アルゴリズム等の従来のクラスタリング法に
よって得られる参照用特徴ベクトルが用いられる。次
に、文字カテゴリ辞書の設計用の文字パターンから任意
の1個のカテゴリCXをもつ文字パターンの特徴ベクト
ルXが選択され、このXについて順次、以下のステップ
が繰り返される。 (1) Xに最も近い文字カテゴリ参照用特徴ベクトル
Cを選択する。但し、このWCの文字カテゴリをCC
する。 (2) もし、CX=CCなら、WCはXの方向に近づけ
る。一方、CX≠CCなら、WCはXから遠ざけられる。
また、WC以外の文字カテゴリ参照用特徴ベクトルは更
新されない。
First, a character category reference feature vector W i having m c character categories is prepared. As the initial value of this W i , a feature vector of a character pattern arbitrarily selected for each character category from a character pattern for designing a character category dictionary including a set of character patterns included in each character category group, and a group A reference feature vector obtained by a conventional clustering method such as the K-means algorithm explained when designing the dictionary 20 is used. Then, the selected feature vector X of the character pattern from the character pattern for the design of the character category dictionary with any one category C X is, for this X sequentially, the following steps are repeated. (1) Select the character category reference feature vector W C closest to X. However, the character category of this W C is C C. (2) If C X = C C , W C approaches the X direction. On the other hand, if C X ≠ C C , W C is moved away from X.
Further, character category reference feature vectors other than W C are not updated.

【0067】Xが提示されたときの上記の文字カテゴリ
参照用特徴ベクトルの更新は、予め用意された全ての文
字カテゴリ辞書の設計用の文字パターンに対して繰り返
し行なわれる。
The above-mentioned updating of the character category reference feature vector when X is presented is repeatedly performed for all the designed character patterns of the character category dictionaries prepared in advance.

【0068】このようにして、文字カテゴリ辞書41の文
字カテゴリ参照用特徴ベクトルを設計することにより、
文字カテゴリ群内の各文字カテゴリをもつ文字パターン
の特徴ベクトルに対して、常にその各文字カテゴリをも
つ文字カテゴリ参照用特徴ベクトルが最も近い距離に位
置するようになる。従って、全ての距離計算部42の中
で、最小出力を発生する距離計算部42を選ぶことによっ
て、各文字カテゴリ群内において、入力された文字パタ
ーンの文字カテゴリを認識することができる。
In this way, by designing the character category reference feature vector of the character category dictionary 41,
The character vector reference feature vector having each character category is always located at the closest distance to the feature vector of the character pattern having each character category in the character category group. Therefore, the character category of the input character pattern can be recognized in each character category group by selecting the distance calculation section 42 that produces the minimum output among all the distance calculation sections 42.

【0069】単一特徴類似度計算部25では、まず、乗算
器26が、群選択部23で選択された文字カテゴリ群の群帰
属度と、その文字カテゴリ群に対応する各々の細分類部
22(即ち、細分類入力信号選択部24から特徴ベクトルを
入力された細分類部22)から得られる全ての群内類似度
を乗算し、それらの出力をカテゴリ類似度計算部27に出
力する。つまり、乗算器26は、(群参照用特徴ベクトル
の数×各細分類部における文字カテゴリ参照用特徴ベク
トルの数の総和)個用意されており、群選択部23で選択
されたあるカテゴリ群pの群帰属度μp(1≦p≦mr
rは文字カテゴリ群の数)とその文字カテゴリ群pに
対応する細分類部22から得られたある文字カテゴリqの
群内類似度νpq(1≦q≦mc;mCは文字パターンデー
タの文字カテゴリ数)が入力される。つまり、乗算器26
の出力値ξpqは、
In the single feature similarity calculation unit 25, first, the multiplier 26 determines the group membership degree of the character category group selected by the group selection unit 23 and each subclassification unit corresponding to the character category group.
22. That is, all the in-group similarities obtained from 22 (that is, the fine classification unit 22 to which the feature vector is input from the fine classification input signal selection unit 24) are multiplied, and the outputs are output to the category similarity calculation unit 27. That is, the number of multipliers 26 provided is (the number of group-reference feature vectors × the sum of the number of character category-reference feature vectors in each subclassification unit), and one category group p selected by the group selection unit 23. Group membership degree μ p (1 ≦ p ≦ m r ;
m r is the number of character category groups) and the in-group similarity ν pq (1 ≦ q ≦ m c ; m C is a character pattern) of a certain character category q obtained from the fine classification unit 22 corresponding to the character category group p The number of character categories of data) is input. That is, the multiplier 26
The output value ξ pq of

【0070】[0070]

【数13】ξpq=μp・νpq と表わされる。[ Expression 13] ξ pq = μ p · ν pq

【0071】カテゴリ類似度計算部27では、全ての乗算
器26の出力値を、各文字カテゴリ毎にまとめて分類し、
その出力値の大きいものを複数個選択する。そして、各
文字カテゴリ毎に、これらの選択された出力値の総和を
求め、これを単一特徴認識部13に入力された文字パター
ンの特徴ベクトルに対する各文字カテゴリの類似度ri
(1≦i≦NC;NCは文字カテゴリの数)として候補文
字選択部14に出力する。なお、乗算器26の出力値を各カ
テゴリ毎に複数個選択する方法としては、乗算器26の出
力値があるしきい値以上のものを選択するとしてもよ
い。
The category similarity calculator 27 classifies the output values of all the multipliers 26 into each character category,
A plurality of ones having a large output value are selected. Then, the sum of these selected output values is calculated for each character category, and this is calculated as the similarity r i of each character category to the feature vector of the character pattern input to the single feature recognition unit 13.
(1 ≦ i ≦ N C ; N C is the number of character categories) is output to the candidate character selection unit 14. As a method of selecting a plurality of output values of the multiplier 26 for each category, it is possible to select an output value of the multiplier 26 that is equal to or higher than a certain threshold value.

【0072】以上説明したように、単一特徴認識部13
は、ある特徴抽出部12から得られた文字パターンの特徴
ベクトルに対し、大分類を行ったあと細分類を行い最後
にそれらの出力を統合する階層的な識別を行なうことに
よって、ある特徴データに対する文字パターンの各文字
カテゴリの類似度を求める。
As described above, the single feature recognition unit 13
The feature vector of the character pattern obtained from a certain feature extraction unit 12 is subjected to a large classification, then a sub-classification, and finally a hierarchical identification that integrates the outputs thereof, whereby a certain feature data is obtained. The similarity of each character category of the character pattern is calculated.

【0073】候補文字選択部14では、まず、各々の統合
類似度変換部16が、それぞれ対応する単一特徴認識部13
から入力文字パターンの各特徴ベクトルに対する各文字
カテゴリの類似度を入力し、この類似度を各文字カテゴ
リ毎に統合類似度に変換する。具体的には、(数14)
式に示すように、対応する単一特徴認識部13から得られ
る各文字カテゴリの類似度rki(1≦k≦NF:NFは特
徴ベクトルの種類の数、1≦i≦NC;NCは文字カテゴ
リの数)をこれらの類似度の中の最大値rkmaxで割るこ
とによって正規化を行い、これを統合類似度tki(但
し、0≦tki≦1、1≦i≦NC;NCは文字カテゴリの
数)として、各々対応する第1次候補文字選択部17へ出
力する。
In the candidate character selection section 14, first, the respective integrated similarity conversion sections 16 have their corresponding single feature recognition sections 13 respectively.
From, the similarity of each character category to each feature vector of the input character pattern is input, and this similarity is converted into an integrated similarity for each character category. Specifically, (Equation 14)
As shown in the formula, the similarity r ki of each character category obtained from the corresponding single feature recognition unit 13 (1 ≦ k ≦ N F : N F is the number of types of feature vectors, 1 ≦ i ≦ N C ; N C is the number of character categories) and is divided by the maximum value r kmax among these similarities to perform normalization, and the integrated similarity t ki (where 0 ≦ t ki ≦ 1, 1 ≦ i ≦ N C ; N C is the number of character categories) and is output to the corresponding primary candidate character selection unit 17.

【0074】[0074]

【数14】tki=rki/rkmax 各第1次候補文字選択部17では、文字切り出し部11で得
られた文字パターンのサイズ情報(文字パターンの幅
a、高さb)、位置情報hと文字情報記憶部50に記憶さ
れている全ての文字カテゴリの標準サイズ情報(標準文
字パターンの幅Ai、高さBi)、標準位置情報Hi(1
≦i≦NC;NCは文字カテゴリの数)とを比較して複数
個の候補文字カテゴリ(第1次候補文字カテゴリ)を選
択し、これを第2次候補文字選択部18に出力する。例え
ば、具体的な候補文字カテゴリの選択方法としては、
(数15)、(数16)、(数17)式に示すような文
字幅評価関数F(a)、文字高さ評価関数F(b)、文字位置
評価関数F(h)を
[ Mathematical formula-see original document ] t ki = r ki / r kmax In each primary candidate character selection unit 17, the size information (width a and height b of the character pattern) of the character pattern and the position information obtained by the character cutting unit 11 h and standard size information (width A i , height B i of standard character pattern) of all character categories stored in the character information storage unit 50, standard position information H i (1
≦ i ≦ N C ; N C is the number of character categories) and a plurality of candidate character categories (primary candidate character categories) are selected and output to the secondary candidate character selection unit 18. . For example, as a method of selecting a specific candidate character category,
The character width evaluation function F (a), the character height evaluation function F (b), and the character position evaluation function F (h) as shown in the formulas (15), (16), and (17) are

【0075】[0075]

【数15】F(a)=|a−AiF (a) = | a−A i |

【0076】[0076]

【数16】F(b)=|b−Bi## EQU16 ## F (b) = | b−B i |

【0077】[0077]

【数17】F(h)=|h−Hi| を定めて、それぞれの関数Fの値があるしきい値より小
さいものを候補カテゴリとして選択すればよい。なお、
評価関数としては、文字幅と文字高さの比、つまり、文
字形状情報a/bと標準文字形状情報Ai/Biとを用い
た(数18)式に示されるような文字形状評価関数に用
いてもよい。
## EQU17 ## F (h) = | h−H i | may be set, and one having a value of each function F smaller than a certain threshold may be selected as a candidate category. In addition,
As the evaluation function, the ratio between the character width and the character height, that is, the character shape evaluation function as shown in the formula (18) using the character shape information a / b and the standard character shape information A i / B i May be used for.

【0078】[0078]

【数18】F(a/b)=|(a/b)−(Ai/Bi)| なお、第1次候補文字選択部17における第1次候補文字
カテゴリの選択方法としては、文字パターンのサイズ情
報s、位置情報hのみを用いて候補文字カテゴリを選択
するだけではなく、対応する統合類似度変換部16から得
られる各文字カテゴリの統合類似度があるしきい値以上
である文字カテゴリをまず複数個選択したのち、前述し
たような、文字パターンのサイズ情報s、位置情報hと
文字情報記憶部50に記憶されている全ての文字カテゴリ
の標準サイズ情報(Ai、Bi)、標準位置情報Hiとを
比較して第1次候補文字カテゴリを選択してもよい。
[Equation 18] F (a / b) = | (a / b) − (A i / B i ) | In addition, as a method of selecting the primary candidate character category in the primary candidate character selection unit 17, Characters that not only select a candidate character category using only the size information s and position information h of the pattern but also have a combined similarity of each character category obtained from the corresponding integrated similarity conversion unit 16 that is equal to or greater than a certain threshold value First, after selecting a plurality of categories, the size information s of the character pattern, the position information h, and the standard size information (A i , B i ) of all the character categories stored in the character information storage unit 50 as described above. , The standard position information H i may be compared to select the primary candidate character category.

【0079】第2次候補文字選択部18では、まず加算器
181が、複数個ある第1次候補文字選択部17から得られ
る全ての第1次候補文字カテゴリの統合類似度tki
(数19)式に示すように、同一カテゴリ毎に加算し
て、最終類似度ui(但し、1≦i≦NC;NCはカテゴ
リの数)を求める。
In the secondary candidate character selection section 18, first, the adder
181 adds the integrated similarities t ki of all the primary candidate character categories obtained from the plurality of primary candidate character selecting units 17 for each same category as shown in the formula (19), The final similarity u i (where 1 ≦ i ≦ N C ; N C is the number of categories) is calculated.

【0080】[0080]

【数19】 [Formula 19]

【0081】最終候補文字選択部182は、この最終類似
度uiを比較して、これら最終類似度の値の大きいもの
を複数個選択し、これを第2次候補文字カテゴリとして
認識後処理部15へ出力する。
The final candidate character selection unit 182 compares the final similarities u i and selects a plurality of those having a large final similarity value, and the post-recognition processing unit selects them as secondary candidate character categories. Output to 15.

【0082】以上説明したように、候補文字選択部14
は、各単一特徴認識部13において入力された文字パター
ンの各特徴ベクトルを認識処理することによって得られ
た識別結果、つまり類似度を統合して複数の候補文字カ
テゴリを選択するものである。ここで、統合類似度変換
部16は、第2次候補文字選択部18において、各特徴ベク
トルに関する識別結果をうまく統合できるような統合類
似度に単一特徴認識部12から得られた類似度を変換する
ものである。具体的に説明すると、第2次候補文字選択
部18が最終的に確信度の高い候補文字カテゴリを選択す
るうえで、最も重要な値は各単一特徴認識部13から得ら
れる各文字カテゴリの類似度の最大値及びその近傍の
値、つまり、各単一特徴認識部13で得られる第1、2、
…、候補文字カテゴリの類似度の値である。しかし、各
単一特徴認識部13から得られる最大類似度は、単一特徴
認識部13における各細分類部の出力ユニット数の総和に
影響をうける(具体的には、細分類部の出力ユニット数
の総和が大きいものほど、最大類似度が小さくなる傾向
をもつ。)ので、各単一特徴認識部13から得られる類似
度をそのまま第1次候補文字選択部17に出力すると、常
に、平均的に最大類似度が大きい単一特徴認識部13から
の識別結果が優先される。よって、このままでは、複数
種類の特徴ベクトルを用いる利点、つまり、ある特徴ベ
クトルで誤認識する文字パターンを異なる特徴ベクトル
による識別結果によって正しく認識するということが難
しい。しかし、統合類似度変換部16において、各単一特
徴認識部13から得られる各文字カテゴリの類似度をその
最大類似度で正規化することにより、各々の単一特徴認
識部13の最大類似度は常に1となる。よって、候補文字
選択部14における最終的な候補文字カテゴリの選択にお
いて、各単一特徴認識部13の識別結果を同等に寄与させ
ることができるようになり、常にある単一特徴認識部13
からの識別結果が優先されるようなことはなくなり、信
頼度の高い候補文字カテゴリを求めることができる。
As described above, the candidate character selection unit 14
Is for selecting a plurality of candidate character categories by integrating the identification results, that is, the degrees of similarity, obtained by recognizing the respective feature vectors of the character patterns input in each single feature recognizing unit 13. Here, the integrated similarity conversion unit 16 sets the similarity obtained from the single feature recognition unit 12 to the integrated similarity that enables the secondary candidate character selection unit 18 to successfully integrate the identification results regarding each feature vector. It is to convert. Specifically, in order for the secondary candidate character selection unit 18 to finally select a candidate character category with high confidence, the most important value is the value of each character category obtained from each single feature recognition unit 13. The maximum value of the similarity and values in the vicinity thereof, that is, the first and second values obtained by each single feature recognition unit 13,
..., the value of the similarity of the candidate character category. However, the maximum similarity obtained from each single feature recognition unit 13 is affected by the total number of output units of each subclassification unit in the single feature recognition unit 13 (specifically, the output units of the subclassification unit). The larger the total number is, the smaller the maximum similarity tends to be.) Therefore, if the similarity obtained from each single feature recognition unit 13 is directly output to the primary candidate character selection unit 17, the average is always averaged. The priority is given to the identification result from the single feature recognizing unit 13 that has the largest maximum similarity. Therefore, as it is, it is difficult to recognize the advantage of using a plurality of types of feature vectors, that is, to correctly recognize a character pattern that is erroneously recognized by a certain feature vector based on the identification result by different feature vectors. However, in the integrated similarity conversion unit 16, by normalizing the similarity of each character category obtained from each single feature recognition unit 13 by its maximum similarity, the maximum similarity of each single feature recognition unit 13 Is always 1. Therefore, in the final selection of the candidate character category in the candidate character selection unit 14, it is possible to equally contribute the identification result of each single feature recognition unit 13, it is always a certain single feature recognition unit 13
The identification result from is no longer given priority, and a highly reliable candidate character category can be obtained.

【0083】また、特徴抽出部12で得られる特徴ベクト
ルは、正規化された文字パターンから特徴ベクトルが抽
出されるため、このままでは、”I”,”1”,”−”
等の縦長、横長の文字パターンの形状を特徴とする文字
カテゴリの正確な識別は行えない。しかし、第1次候補
文字選択部17において、文字サイズ情報、位置情報を有
効に利用することによって、本実施例では、これらの文
字カテゴリの識別を正確に行うことができる。
The feature vector obtained by the feature extraction unit 12 is "I", "1", "-" as it is because the feature vector is extracted from the normalized character pattern.
It is not possible to accurately identify a character category that is characterized by the shape of a vertically or horizontally long character pattern such as. However, by effectively using the character size information and the position information in the primary candidate character selection unit 17, in the present embodiment, these character categories can be accurately identified.

【0084】最後に、候補文字選択部14で得られた複数
の第2次候補文字カテゴリは、認識後処理部15に入力さ
れ、文字切り出し部11で得られた文字パターンのサイズ
情報、位置情報を用いて、最終的な認識文字カテゴリの
決定が行われる。具体的には、後処理対象文字集合判定
部52において、次のような処理が行われる。
Finally, the plurality of secondary candidate character categories obtained by the candidate character selection unit 14 are input to the post-recognition processing unit 15, and the size information and position information of the character pattern obtained by the character cutout unit 11 are input. Is used to determine the final recognized character category. Specifically, the post-processing target character set determination unit 52 performs the following processing.

【0085】まず、後処理文字対記憶部51に記憶されて
いる全ての後処理対象文字カテゴリ集合を読みだし、第
2次候補文字カテゴリの第1候補文字カテゴリとを比較
する。このとき、第1候補文字カテゴリが後処理対象文
字カテゴリ集合である場合には、文字情報記憶部50に記
憶されている第1候補文字カテゴリとそれと同じ後処理
対象文字カテゴリ集合に含まれる各後処理対象文字カテ
ゴリの文字サイズ情報、位置情報を読みだし、文字切り
出し部11で得られた文字パターンのサイズ情報(文字パ
ターンの幅a、高さb)、位置情報hとそれぞれ比較
し、入力された文字パターンのサイズ情報、位置情報と
より類似している文字カテゴリを認識文字カテゴリと決
定し出力する。認識文字カテゴリを決定する具体的な方
法としては、(数15)〜(数18)式に既に示された
評価関数を用いて、その値が小さい文字カテゴリを認識
文字カテゴリと決定する等がある。なお、後処理対象文
字カテゴリ集合とは、”X,x”、”つ、っ”等類似大
小文字のことを示す。例えば、いま、第2次候補文字カ
テゴリの第1候補文字が”X”であるとする。文字情報
記憶部50に記憶されている標準文字幅、標準文字高さ、
標準位置情報を文字カテゴリ”X”では、順に(0.6, 0.
9, 0.5)であり、”x”では(0.5, 0.6, 0.3)であるとす
る。そして、このとき、文字切り出し部11から得られる
文字パターンの文字幅、文字高さ、位置情報が(0.52,
0.7, 0.32)であるとすると、例えば、評価関数として、
式(15)+式(16)+式(17)(F(a,b,h)=F(a)+F(b)+
F(h))を用いれば、”X”に対しては、Fの値は0.4
6、また、”x”に対しては0.14となり、最終的な認識
文字カテゴリは”x”となる。
First, all post-processing target character category sets stored in the post-processing character pair storage unit 51 are read out and compared with the first candidate character category of the secondary candidate character categories. At this time, if the first candidate character category is the post-processing target character category set, the first candidate character category stored in the character information storage unit 50 and each post-processing target character category set that is the same as the first candidate character category stored in the character information storage unit 50. The character size information and position information of the character category to be processed are read out, and the character pattern size information (character pattern width a and height b) and position information h obtained by the character cutout unit 11 are respectively compared and input. The character category that is more similar to the size information and the position information of the character pattern is determined as the recognized character category and is output. As a specific method of determining the recognized character category, there is a method of determining the character category having a small value as the recognized character category by using the evaluation function already shown in the equations (15) to (18). . The post-processing target character category set indicates similar upper and lower case letters such as "X, x", "tsu, tsu". For example, assume that the first candidate character of the secondary candidate character category is "X". Standard character width, standard character height stored in the character information storage unit 50,
In the character category "X", the standard position information is (0.6, 0.
9, 0.5), and "x" is (0.5, 0.6, 0.3). Then, at this time, the character width, the character height, and the position information of the character pattern obtained from the character cutout unit 11 are (0.52,
0.7, 0.32), for example, as an evaluation function,
Formula (15) + Formula (16) + Formula (17) (F (a, b, h) = F (a) + F (b) +
If F (h)) is used, the value of F is 0.4 for "X".
6 and 0.14 for "x", and the final recognized character category is "x".

【0086】このように、認識後処理部15では、特徴ベ
クトルだけでは正確な識別が行うことが困難な類似大小
文字の識別を、文字サイズ情報、位置情報を有効に利用
することによって、これらの文字カテゴリの識別を正確
に行う。
As described above, the post-recognition processing section 15 effectively uses the character size information and the position information for the identification of the similar case which is difficult to be accurately identified only by the feature vector. Accurately identify character categories.

【0087】以上が本実施例の文字認識装置の動作説明
である。
The above is the description of the operation of the character recognition apparatus of this embodiment.

【0088】ここで、実験的に得られた本実施例の文字
認識の結果を示す。認識対象となる文字パターンデータ
はマルチフォント(明朝体、ゴシック体等)の3390字種
(記号、英数字、ひらがな、カタカナ、ギリシャ文字、
JIS第1水準漢字)の文字とした。特徴抽出する特徴
ベクトルは64次元の輪郭方向密度特徴と32次元の背景密
度特徴とする。輪郭方向密度は、局所領域内の文字スト
ロークの方向、及び複雑さを示す特徴量であり、背景密
度特徴は文字の背景の複雑度を示す特徴量である。な
お、詳細な特徴抽出の方法は、脇、藤原、竹之内、横
江、清水による「文書清書システム(3)−文字認識ア
ルゴリズムとそのハードウエア−」、昭和61年度電子通
信学会総合全国大会、1512、6-154に示されている。
Here, experimentally obtained results of character recognition in this embodiment will be shown. The character pattern data to be recognized is 3390 multi-font (Mincho, Gothic, etc.) character types (symbols, alphanumeric characters, hiragana, katakana, Greek characters,
JIS first level Kanji) characters were used. The feature vector for feature extraction is a 64-dimensional contour direction density feature and a 32-dimensional background density feature. The contour direction density is a feature amount indicating the direction and complexity of the character stroke in the local area, and the background density feature is a feature amount indicating the complexity of the background of the character. The detailed feature extraction method is Waki, Fujiwara, Takenouchi, Yokoe, and Shimizu, "Document Clean Copy System (3) -Character Recognition Algorithm and Its Hardware-", 1986 IEICE General Conference, 1512, 6-154.

【0089】各特徴ベクトルに対応する単一特徴認識部
13における群辞書20及び、各細分類部22の文字カテゴリ
辞書41、認識後処理部15における文字情報記憶部50は、
8フォント27120文字で設計を行った。ここで、各単一
特徴認識部13におけるファジィ大分類部21は、文字カテ
ゴリ群数(群参照用特徴ベクトルの数)を7とした。ま
た、各細分類部22の文字カテゴリ参照用特徴ベクトルの
数は輪郭方向密度特徴に対応する文字カテゴリ辞書41で
は、1070,949,957,562,1029,920,996の総数6483個と
し、また、背景密度特徴に対応する文字カテゴリ辞書41
では、1122,902,633,1287,751,1090,984の総数6769個と
した。
Single feature recognition unit corresponding to each feature vector
The group dictionary 20 in 13, the character category dictionary 41 of each subclassification unit 22, the character information storage unit 50 in the post-recognition processing unit 15,
Designed with 27 fonts of 8 fonts. Here, the fuzzy major classification unit 21 in each single feature recognition unit 13 sets the number of character category groups (the number of feature vectors for group reference) to 7. Further, the number of character category reference feature vectors of each subclassification unit 22 is a total of 6483 of 1070,949,957,562,1029,920,996 in the character category dictionary 41 corresponding to the contour direction density feature, and also corresponds to the background density feature. Character category dictionary 41
Then, the total number of 1122,902,633,1287,751,1090,984 is 6769.

【0090】認識に際して、各単一特徴認識部における
ファジィ大分類部21の(数8)式におけるfは1.2、ま
た細分類部22の(数11)式におけるfは1.3とした。
また、群選択部23で選択する文字カテゴリ群の数は7
で、即ち、全ての細分類部22に各特徴ベクトルを入力し
た。また、カテゴリ類似度計算部27において、各文字カ
テゴリ毎に選ぶ乗算器26の出力値の個数は4とした。
At the time of recognition, f in the formula 8 of the fuzzy major classification unit 21 in each single feature recognition unit was 1.2, and f in the formula 11 of the fine classification unit 22 was 1.3.
The number of character category groups selected by the group selection unit 23 is 7
That is, each feature vector is input to all the subclassification units 22. Further, in the category similarity calculation unit 27, the number of output values of the multiplier 26 selected for each character category is set to 4.

【0091】また、比較のために、前記2つの特徴ベク
トルを1つにまとめて、96次元の特徴ベクトルとし、こ
れを認識する単一特徴認識部13も設計した。設計に用い
た学習用の文字パターンは同じものを使用し、文字カテ
ゴリ群数は7、文字カテゴリ辞書41における文字カテゴ
リ参照用特徴ベクトルの数は、905,590,1255,382,933,1
272,1083の総数6420個とした。なお、認識に際して、各
パラメータは同じ値を用いた。
For comparison, a single feature recognition unit 13 was also designed in which the two feature vectors were combined into a one-dimensional 96-dimensional feature vector. The same character pattern for learning used in the design is used, the number of character category groups is 7, and the number of character category reference feature vectors in the character category dictionary 41 is 905,590,1255,382,933,1.
The total number of 272,1083 was 6420. For recognition, the same value was used for each parameter.

【0092】評価用の文字パターンとして、各辞書の設
計に用いたデータと異なる8フォント27120文字を用い
た。
As the character pattern for evaluation, 27120 characters of 8 fonts different from the data used for designing each dictionary were used.

【0093】実験の結果、本実施例では、98.33%の認
識率が得られた。また、比較のために行った、2つの特
徴ベクトルを1つにまとめて認識を行う文字認識装置の
認識率は97.98%であった。つまり、本実施例のよう
に、複数の特徴ベクトルを個別に識別し、その識別結果
を統合して認識を行うほうが、複数の特徴ベクトルを1
つにまとめて認識処理を行うものより、認識率が向上す
ることがわかる。
As a result of the experiment, a recognition rate of 98.33% was obtained in this example. In addition, the recognition rate of the character recognition device that was used for comparison and recognized by combining two feature vectors into one was 97.98%. That is, as in the present embodiment, it is better to identify a plurality of feature vectors individually and perform recognition by integrating the identification results, and
It can be seen that the recognition rate is improved as compared with the case where the recognition processing is collectively performed.

【0094】このように、本実施例によれば、複数種類
の特徴ベクトルを各々別個の単一特徴認識部13で識別処
理して各特徴ベクトルに対する各文字カテゴリの類似度
を求めたのち、候補文字選択部14がこれら全ての類似度
を用いて各単一特徴認識部13から得られる識別結果を統
合して、最終的な文字パターンの認識を行う。従って、
従来例のように複数種類の特徴ベクトルを1つにまとめ
て用いる場合には困難であった「ある特徴ベクトルでは
誤認識する文字パターンを異なる特徴ベクトルによる識
別結果から正しく認識する」ということが容易にできる
ようになり、高精度の認識を実現することができる。
As described above, according to the present embodiment, a plurality of types of feature vectors are identified by the separate single feature recognition units 13 to obtain the similarity of each character category to each feature vector, The character selection unit 14 integrates the identification results obtained from the single feature recognition units 13 using all of these similarities, and finally recognizes the character pattern. Therefore,
It is easy to "correctly recognize a character pattern that is erroneously recognized by a certain feature vector from the identification result by different feature vectors", which is difficult when using a plurality of types of feature vectors together as in the conventional example. Therefore, it is possible to realize highly accurate recognition.

【0095】また、従来法では、複数種類の特徴ベクト
ルの使用によって、認識に要する時間が増加するが、本
実施例では、各単一特徴認識部が各々並列に識別処理を
行うので、認識に要する時間を従来例に比べ、短くする
ことができる。
Further, in the conventional method, the time required for recognition increases due to the use of a plurality of types of feature vectors. The time required can be shortened as compared with the conventional example.

【0096】なお、本実施例の単一特徴認識部13におい
て、細分類部22は図4に示すような構成ではなく、以下
に示すような構成にしてもよい。
In the single feature recognition section 13 of this embodiment, the subclassification section 22 may have the following configuration instead of the configuration shown in FIG.

【0097】図6は細分類部22の第2の実施例の構成を
具体的に示すブロック図である。60は入力部であり、細
分類部入力信号選択部24から出力される文字パターンの
特徴ベクトルを入力するものである。61は多入力一出力
信号処理部であり、それに接続されている下層の入力部
60、または多入力一出力信号処理部61の出力と、その連
結の度合である重み係数とを各々掛け合わせて総和した
ものをしきい値処理して出力するものである。ここで
は、これら複数個の多入力一出力信号処理部を層構造に
し、各層内相互の結合がなく、上位層にのみ信号が伝搬
するようにネットワーク接続することによって、入力さ
れた文字パターンの特徴ベクトルに対する文字カテゴリ
群内の各文字カテゴリに類似する度合である群内類似度
が求められる。
FIG. 6 is a block diagram specifically showing the configuration of the second embodiment of the subclassification unit 22. An input unit 60 is for inputting the feature vector of the character pattern output from the subclassification unit input signal selection unit 24. Reference numeral 61 is a multi-input / single-output signal processing unit, and the lower-layer input unit connected to it.
60, or the output of the multi-input / single-output signal processing unit 61 and the weighting factor, which is the degree of connection thereof, are multiplied and summed, and the result is thresholded and output. Here, these multiple input / output signal processing units have a layered structure and are connected to the network so that signals are propagated only to the upper layer without mutual coupling in each layer and the characteristics of the input character pattern are The in-group similarity, which is the degree of similarity to each character category in the character category group for the vector, is obtained.

【0098】図7は、前記多入力一出力信号処理部61の
構成を具体的に示すブロック図である。図7において、
62は入力部であり、入力信号を入力するものである。63
は重み係数記憶部であり、入力部62からの複数の入力信
号を重み付ける重み係数を記憶するものである。64は乗
算器であり、重み係数記憶部63の重み係数と入力部62か
らの入力信号を乗算するものである。65は加算器であ
り、全ての乗算器64の出力値を総和するものである。66
はしきい値処理部であり、加算器65の出力値を一定範囲
の値に制限するものである。
FIG. 7 is a block diagram specifically showing the configuration of the multi-input / single-output signal processing section 61. In FIG.
Reference numeral 62 is an input unit for inputting an input signal. 63
Is a weighting coefficient storage unit that stores a weighting coefficient for weighting a plurality of input signals from the input unit 62. Reference numeral 64 denotes a multiplier that multiplies the weight coefficient of the weight coefficient storage unit 63 by the input signal from the input unit 62. An adder 65 sums up the output values of all the multipliers 64. 66
Is a threshold processing unit, which limits the output value of the adder 65 to a value within a certain range.

【0099】以上のように構成された細分類部22の第2
の実施例について、以下その動作を説明する。
Second sub-classifying section 22 constructed as described above
The operation of the embodiment will be described below.

【0100】第1の実施例同様に、群選択部23で選択さ
れた文字カテゴリ群に対応する各々の細分類部22(即
ち、細分類入力信号選択部24から特徴ベクトルを入力さ
れた細分類部22)では、まず、入力部60に文字パターン
の特徴ベクトルXが入力される。入力部60は、文字パタ
ーンの特徴データ数に等しくn個用意されており、各特
徴データxiはそれぞれ対応する入力部60に入力され
る。細分類部22の各多入力一出力信号処理部61は、図6
に示すようにそれに接続されている下層の入力部60、ま
たは多入力一出力信号処理部61の出力と重み係数記憶部
63に記憶されているその接続の度合である重み係数wij
とを乗算器64により掛け合わせ、各々の乗算器64の出力
の総和を加算器65で計算した後、しきい値処理部66で変
換し、その出力値を上層へ出力する。つまり、図7に示
すある層のi番目の多入力一出力信号処理部61の出力値
iは、入力部62への入力値をIj 、それに接続されて
いる入力とその接続の度合である重み係数をwij(i番
目の多入力一出力信号処理部とj番目の入力との結合重
み)とすれば、(数20)式のように表わせる。
Similarly to the first embodiment, each subclassification section 22 corresponding to the character category group selected by the group selection section 23 (that is, the subclassification in which the feature vector is input from the subclassification input signal selection section 24). In the section 22), the feature vector X of the character pattern is first input to the input section 60. There are n input units 60, which are equal in number to the characteristic data of character patterns, and each characteristic data x i is input to the corresponding input unit 60. Each of the multi-input one-output signal processing units 61 of the sub-classification unit 22 is shown in FIG.
The input unit 60 in the lower layer connected to it, or the output of the multi-input one-output signal processing unit 61 and the weighting coefficient storage unit, as shown in FIG.
The weighting factor w ij stored in 63, which is the degree of the connection.
Are multiplied by the multiplier 64, the sum of the outputs of the respective multipliers 64 is calculated by the adder 65, the result is converted by the threshold processing unit 66, and the output value is output to the upper layer. That is, the output value I i of the i-th multi-input / single-output signal processing unit 61 of a certain layer shown in FIG. 7 is I j which is the input value to the input unit 62, and the input connected thereto and the degree of the connection. If a certain weighting coefficient is w ij (the connection weight of the i-th multi-input one-output signal processing section and the j-th input), it can be expressed as in (Equation 20).

【0101】[0101]

【数20】 [Equation 20]

【0102】なお、しきい値処理部66の入出力特性を図
8に示す。例えば、出力を(0,1)の範囲に制限する
しきい値処理部66の入出力特性は(数21)式のように
表現できる。
The input / output characteristics of the threshold value processing unit 66 are shown in FIG. For example, the input / output characteristics of the threshold value processing unit 66 that limits the output to the range of (0, 1) can be expressed as in the equation (21).

【0103】[0103]

【数21】f(a) = 1 / (1 + exp(-a+θ)) 但し、aはしきい値処理部66の入力である。なお、しき
い値処理部66の入出力特性としては上記以外のしきい値
関数でもよい。
F (a) = 1 / (1 + exp (-a + θ)) where a is an input of the threshold processing unit 66. The input / output characteristic of the threshold value processing unit 66 may be a threshold value function other than the above.

【0104】最上位層の多入力一出力信号処理部61は、
各文字カテゴリ群に含まれる文字パターンの文字カテゴ
リの数と同じ個数に設定され、最上位層の各多入力一出
力信号処理部61は、これらの各文字カテゴリに対応して
いる。つまり、最上位層の各多入力一出力信号処理部61
の出力が、文字パターンの特徴ベクトルXに対する文字
カテゴリ群内の各文字カテゴリに類似する度合である群
内類似度νi(1≦i≦mc;mcは文字カテゴリ参照用
特徴ベクトルの数)として、単一特徴類似度計算部25に
出力される。
The multi-input / single-output signal processing unit 61 in the uppermost layer is
It is set to the same number as the number of character categories of the character pattern included in each character category group, and each multi-input / one-output signal processing unit 61 in the uppermost layer corresponds to each of these character categories. That is, each multi-input one-output signal processing unit 61 in the top layer
Is the degree of similarity to each character category in the character category group with respect to the feature vector X of the character pattern, ν i (1 ≦ i ≦ m c ; m c is the number of character category reference feature vectors) ) Is output to the single feature similarity calculator 25.

【0105】なお、各多入力一出力信号処理部61の重み
係数は、文字カテゴリ群内の各文字カテゴリをもつ文字
パターンに対して、その各文字カテゴリに対応する最上
位層の多入力一出力信号処理部61が最大出力を発生する
ように、予め設計しておく。これより、各細分類部22に
おいて、文字パターンの文字カテゴリを認識することが
できる。なお、これらの重み係数の設計方法は、誤差逆
伝搬法と呼ばれる学習アルゴリズムによって行われる。
誤差逆伝搬法については、例えば、D. E. ラメルハート(Rumel
hart), G. E.ヒントン(Hinton) and R. J. ウイリアムス゛(William
s)による"ラーニンク゛ リフ゜リセ゛ンテーションス゛ ハ゛イ ハ゛ックフ゜ロハ゜ケ゛ーティン
ク゛ エラース゛(Learning Representations byBack-Propagati
ng Errors),"ネイチャー(Nature), vol.323, pp.533-536, Oc
t. 9, 1986 に示されており、その概略は既に従来例に
おいて説明したとおりである。
The weighting factor of each multi-input one-output signal processing unit 61 is such that, for a character pattern having each character category in the character category group, the multi-input one output of the uppermost layer corresponding to each character category. The signal processing unit 61 is designed in advance so as to generate the maximum output. As a result, each subclassification unit 22 can recognize the character category of the character pattern. The design method of these weighting factors is performed by a learning algorithm called an error back propagation method.
For the error backpropagation method, for example, DE Ramelhart (Rumel
hart), GE Hinton and RJ Williams (William
s) "Learning Representation by Back-Propagati
ng Errors), "Nature, vol.323, pp.533-536, Oc
t. 9, 1986, and its outline is as already explained in the conventional example.

【0106】また、図9は本発明の第1の実施例におけ
る候補文字選択部14の第2の実施例の構成を具体的に示
すブロック図である。図9において、70は類似度正規化
部であり、単一特徴認識部13と同じ個数用意されてお
り、各々対応する単一特徴認識部13から得られた各文字
カテゴリの類似度をそれらの類似度の中の最大値で正規
化するものである。71は第1次候補文字選択部であり、
類似度正規化部70同様、単一特徴認識部13と同じ個数用
意されており、各々対応する類似度正規化部70から得ら
れた正規化類似度と文字切り出し部11から得られる文字
パターンのサイズ情報、位置情報と、文字情報記憶部50
に記憶されている各文字カテゴリの標準サイズ情報と標
準位置情報を用いて、全ての文字カテゴリの中から複数
の候補文字カテゴリ(これを第1次候補文字カテゴリと
呼ぶ。)を選択するものである。72は統合類似度計算部
であり、類似度正規化部70同様、単一特徴認識部13と同
じ個数用意されており、各第1次候補文字カテゴリの正
規化類似度を非線形変換し、それら非線形変換された正
規化類似度をその総和値で各々除算することによって各
第1次候補文字カテゴリの統合類似度を求めるものであ
る。17は第2次候補文字選択部であり、第1の実施例同
様の構成で、各統合類似度計算部72から得られる第1次
候補文字カテゴリの統合類似度を用いて、全ての第1次
候補文字カテゴリの中から複数個の候補カテゴリ(これ
を第2次候補カテゴリと呼ぶ)を選択して、認識後処理
部15に出力するものである。
FIG. 9 is a block diagram specifically showing the configuration of the second embodiment of the candidate character selection section 14 in the first embodiment of the present invention. In FIG. 9, 70 is a similarity normalization unit, the same number as the single feature recognition unit 13 is prepared, and the similarity of each character category obtained from the corresponding single feature recognition unit 13 The maximum value of the similarities is used for normalization. 71 is a primary candidate character selection section,
Similar to the similarity normalization unit 70, the same number as the single feature recognition unit 13 is prepared, and the normalized similarity obtained from the corresponding similarity normalization unit 70 and the character pattern obtained from the character cutout unit 11 respectively. Size information, position information, and character information storage unit 50
Using the standard size information and the standard position information of each character category stored in, a plurality of candidate character categories (which are called primary candidate character categories) are selected from all the character categories. is there. Reference numeral 72 denotes an integrated similarity calculation unit, which, like the similarity normalization unit 70, is provided in the same number as the single feature recognition unit 13, and performs non-linear conversion of the normalized similarity of each primary candidate character category to obtain them. The integrated similarity of each primary candidate character category is obtained by dividing the non-linearly converted normalized similarity by its sum value. Reference numeral 17 denotes a secondary candidate character selection unit, which has the same configuration as that of the first embodiment and uses the integrated similarities of the primary candidate character categories obtained from the integrated similarity calculation units 72 for all the first candidate character categories. A plurality of candidate categories (which are called secondary candidate categories) are selected from the next candidate character categories and output to the post-recognition processing unit 15.

【0107】以上のように構成された候補文字選択部14
の第2の実施例について、以下その動作を説明する。
Candidate character selection unit 14 configured as described above
The operation of the second embodiment will be described below.

【0108】まず、各々の類似度正規化部70が(数2
2)式に示すように、それぞれ対応する単一特徴認識部
13から得られる各文字カテゴリの類似度rki(1≦k≦
F:NFは特徴ベクトルの種類の数、1≦i≦NC;NC
は文字カテゴリの数)をこれらの類似度の中の最大値r
kmaxで割ることによって正規化を行い、これを正規化類
似度ski(但し、0≦ski≦1、1≦i≦NC;NCは文
字カテゴリの数)として、各々対応する第1次候補文字
選択部71へ出力する。
First, the similarity normalization units 70 (Equation 2)
As shown in equation (2), the corresponding single feature recognizers
Similarity r ki (1 ≦ k ≦
N F : N F is the number of types of feature vectors, 1 ≦ i ≦ N C ; N C
Is the number of character categories) and the maximum value r among these similarities
Normalization is performed by dividing by kmax , and the normalized similarity s ki (where 0 ≦ s ki ≦ 1, 1 ≦ i ≦ N C ; N C is the number of character categories) corresponds to the first Output to the next candidate character selection unit 71.

【0109】[0109]

【数22】ski=rki/rkmax 各第1次候補文字選択部71では、各文字カテゴリの統合
類似度の代わりに正規化類似度を用いるだけで、基本的
には候補文字選択部14の第1の実施例と同様の動作を行
い、複数個の候補文字カテゴリ(第1次候補文字カテゴ
リ)を選択して、これを統合類似度計算部72に出力す
る。
S ki = r ki / r kmax Each primary candidate character selection section 71 basically uses the normalized similarity instead of the integrated similarity of each character category. The same operation as in the 14th embodiment is performed to select a plurality of candidate character categories (primary candidate character categories) and output them to the integrated similarity calculation unit 72.

【0110】各統合類似度計算部72では、各第1次候補
文字選択部71から得られた各第1次候補文字カテゴリの
正規化類似度ski(但し、0≦ski≦1、1≦i≦
C;MCは第1次候補文字カテゴリの数)を非線形変換
し、それら非線形変換された各第1次候補文字カテゴリ
の正規化類似度をそれらの総和値で各々正規化(割算)
し、これを統合類似度tki(但し、1≦i≦MC)とし
て、第2次候補文字選択部18に出力する。つまり、統合
類似度tkiは、非線形関数をf(X)とすると(数23)
式のように表わすことができる。
In each integrated similarity calculation unit 72, the normalized similarity s ki of each primary candidate character category obtained from each primary candidate character selection unit 71 (where 0 ≦ s ki ≦ 1,1 ≦ i ≦
M C ; M C is the number of primary candidate character categories) is non-linearly transformed, and the normalized similarity of each non-linearly transformed primary candidate character category is normalized (divided) by their sum value.
Then, this is output to the secondary candidate character selection unit 18 as the integrated similarity t ki (where 1 ≦ i ≦ M C ). That is, the integrated similarity t ki is expressed by the following equation (23) when the nonlinear function is f (X).
It can be expressed like an expression.

【0111】[0111]

【数23】 [Equation 23]

【0112】なお、非線形関数f(x)は、0≦x≦1に
おいて、0≦f(x)≦1、f(0)=0、f(1)=1を満
たす単調増加関数である。例えば、例として(数24)
式のような関数がある。但し、0≦a≦1である。
The nonlinear function f (x) is a monotonically increasing function satisfying 0 ≦ f (x) ≦ 1, f (0) = 0, f (1) = 1 in 0 ≦ x ≦ 1. For example, as an example (Equation 24)
There are functions like expressions. However, 0 ≦ a ≦ 1.

【0113】[0113]

【数24】f(x) = xa 第2次候補文字選択部18は、第1の実施例と同様の動作
を行って、各統合類似度計算部71から得られる全ての第
1次候補文字カテゴリの統合類似度を用いて、全ての第
1次候補文字カテゴリの中から複数個の第2次候補文字
カテゴリを選択して、認識後処理部15に出力する。
F (x) = x a The secondary candidate character selection unit 18 performs the same operation as that of the first embodiment to obtain all the primary candidates obtained from each integrated similarity calculation unit 71. A plurality of secondary candidate character categories are selected from all the primary candidate character categories using the integrated similarity of the character categories and output to the post-recognition processing unit 15.

【0114】さて、各単一特徴認識部13において、誤認
識するときの各文字カテゴリの類似度をよく観察する
と、 (1) 最大類似度の大きさはあまり誤認識には関係が
ないこと (2) 最大類似度と2番目に大きい類似度の差が小さ
いときに誤認識が多いということがわかる。そこで、本
実施例では、各単一特徴認識部13から得られる類似度を
最大類似度で正規化したあと、最大類似度と2番目に大
きい類似度の差を強調する処理、つまり、最大類似度と
2番目に大きい類似度の差が小さい場合には、よりその
差を小さくし、さらにその類似度の大きさ自体を小さく
することにより、誤認識を生じている可能性のある単一
特徴認識部13から得られる識別結果の信頼度(類似度)
を下げる処理を行っている。故に、第2次候補文字選択
部18で最終的な候補文字カテゴリを選択するときには、
他の単一特徴認識部13の識別結果が重要視されるように
なり、その結果、信頼度の高い候補文字カテゴリを求め
ることができる。
Now, in each single feature recognizing unit 13, when closely observing the similarity of each character category when erroneously recognizing, (1) the magnitude of the maximum similarity is not so much related to erroneous recognition ( 2) It can be seen that there are many false recognitions when the difference between the maximum similarity and the second largest similarity is small. Therefore, in this embodiment, after the similarity obtained from each single feature recognition unit 13 is normalized by the maximum similarity, a process of emphasizing the difference between the maximum similarity and the second largest similarity, that is, the maximum similarity. When the difference between the degree of similarity and the second largest similarity is small, the difference is made smaller and the magnitude of the similarity itself is made smaller, so that a single feature that may cause misrecognition. Reliability (similarity) of the identification result obtained from the recognition unit 13
Is being lowered. Therefore, when the final candidate character category is selected by the secondary candidate character selection unit 18,
The identification result of the other single feature recognizing unit 13 becomes more important, and as a result, a highly reliable candidate character category can be obtained.

【0115】ここで、候補文字選択部14の第2の実施例
を用いた文字認識装置において、実験的に得られた認識
結果を示す。実験は、第1の実施例の場合と同じように
行った。但し、統合類似度計算部72において、用いた非
線形関数は(数24)式に示したものであり、a=0.5と
した。
Here, the recognition results obtained experimentally in the character recognition device using the second embodiment of the candidate character selection unit 14 will be shown. The experiment was performed in the same manner as in the first example. However, in the integrated similarity calculation unit 72, the non-linear function used is shown in the equation (24), and a = 0.5.

【0116】実験の結果、この実施例では、98.38%の認
識率が得られ、第1の実施例に比べ、0.05%認識率が向
上した。
As a result of the experiment, the recognition rate of 98.38% was obtained in this example, and the recognition rate was improved by 0.05% as compared with the first example.

【0117】このようにこの実施例によれば、各単一特
徴認識部13から得られる類似度に上記で述べたような変
換を行うことで、ある特徴ベクトルでは誤認識する文字
パターンを異なる特徴ベクトルによる識別結果から正し
く認識するということが、第1の実施例以上によりよく
行うことができ、より高精度の認識を行うことができ
る。 (実施例2)図10は、本発明の第2の実施例における
文字認識装置のブロック図を示すものである。図10に
おいて、10〜18は図1に示した第1の実施例における文
字認識装置と同一のものである。80は文字切り出し制御
部であり、各々の第1次候補文字選択部17から得られる
第1次候補文字カテゴリの数によって、文字切り出し部
11の動作を制御するものである。即ち、第2の実施例
は、前述の文字認識装置の第1の実施例に、文字切り出
し制御部80を付加したものである。
As described above, according to this embodiment, by performing the conversion as described above on the similarity obtained from each single feature recognizing unit 13, the character pattern which is erroneously recognized by a certain feature vector becomes different from the different feature patterns. Correct recognition based on the vector identification result can be performed better than in the first embodiment, and more accurate recognition can be performed. (Embodiment 2) FIG. 10 is a block diagram of a character recognition apparatus according to the second embodiment of the present invention. In FIG. 10, 10 to 18 are the same as the character recognition device in the first embodiment shown in FIG. Reference numeral 80 denotes a character cutout control unit, which determines the character cutout unit according to the number of primary candidate character categories obtained from each primary candidate character selection unit 17.
It controls 11 operations. That is, in the second embodiment, the character clipping control unit 80 is added to the first embodiment of the character recognition device described above.

【0118】以上のように構成された文字認識装置につ
いて、以下その動作を説明する。なお、本実施例では、
文字切り出し制御部80を除いて、基本的に、他の構成要
素は第1の実施例と同じ動作を行って文字認識処理をす
るので、ここでは、それらの動作については簡単に説明
を行う。
The operation of the character recognition device configured as described above will be described below. In this example,
Except for the character cut-out control unit 80, basically, the other constituent elements perform the same operation as in the first embodiment to perform the character recognition processing, and therefore, those operations will be briefly described here.

【0119】第1の実施例同様、まず、画像入力部10で
入力された文書画像から、複数のパラメータを用いて文
字切り出し部11が図5に示すように、文字パターンを1
文字領域づつ抽出し、文字パターンを各特徴抽出部12
に、また、抽出された文字パターンのサイズ情報、位置
情報を候補文字選択部14における第1次候補文字選択部
17と認識後処理部15へ出力する。各々の特徴抽出部12で
は、文字切り出し部11から抽出された文字パターンから
各々異なる特徴ベクトルXk(k=1〜NF:NFは特徴
ベクトルの種類の数)を抽出し、それぞれ対応する単一
特徴認識部13へに出力する。複数個用意された各単一特
徴認識部13は、それぞれ独立に、第1の実施例と同様の
識別処理を行い、各特徴ベクトルXkに対する各文字カ
テゴリの類似度を求め、これを候補文字選択部14に出力
する。候補文字選択部14では、まず、各々の統合類似度
変換部16が、特徴ベクトル各々に対応する単一特徴認識
部13から得られる各文字カテゴリの類似度をそれらの類
似度の中の最大値で正規化することによって統合類似度
に変換する。各第1次候補文字選択部17では、文字切り
出し部11で得られた文字パターンのサイズ情報、位置情
報と文字情報記憶部50に記憶されている全ての文字カテ
ゴリの標準サイズ情報、標準位置情報とを比較して複数
個の第1次候補文字カテゴリを選択し、これを第2次候
補文字選択部18に出力する。なお、第1の実施例でも示
したように、第1次候補文字選択部17における第1次候
補文字カテゴリの選択方法は、文字パターンのサイズ情
報、位置情報のみを用いて候補文字カテゴリを選択する
だけではなく、対応する統合類似度変換部16から得られ
る各文字カテゴリの統合類似度があるしきい値以上であ
る文字カテゴリをまず複数個選択したのち、前述したよ
うな、文字パターンのサイズ情報、位置情報と文字情報
記憶部50に記憶されている全ての文字カテゴリの標準サ
イズ情報、標準位置情報とを比較して第1次候補文字カ
テゴリを選択する方法を用いてもよい。
As in the first embodiment, first, the character cutting unit 11 uses a plurality of parameters to extract a character pattern from the document image input by the image input unit 10 as shown in FIG.
Each character area is extracted and the character pattern is extracted by each feature extraction unit 12
In addition, the size information and position information of the extracted character pattern are used as the primary candidate character selection unit in the candidate character selection unit 14.
17 and output to the post-recognition processing unit 15. Each of the feature extraction units 12 extracts different feature vectors X k (k = 1 to N F : N F is the number of types of feature vectors) from the character patterns extracted from the character cutout unit 11, and they correspond to each other. Output to the single feature recognition unit 13. Each of the plurality of single feature recognition units 13 independently performs the same identification processing as in the first embodiment to obtain the similarity of each character category with respect to each feature vector X k , and obtains this as a candidate character. Output to the selection unit 14. In the candidate character selection unit 14, first, each integrated similarity conversion unit 16, the similarity of each character category obtained from the single feature recognition unit 13 corresponding to each feature vector, the maximum value of those similarities. It is converted to integrated similarity by normalizing with. In each primary candidate character selection unit 17, the size information and position information of the character pattern obtained by the character cutout unit 11 and the standard size information and standard position information of all character categories stored in the character information storage unit 50. And a plurality of primary candidate character categories are selected and output to the secondary candidate character selection unit 18. As shown in the first embodiment, the method of selecting the primary candidate character category in the primary candidate character selection unit 17 is to select the candidate character category using only the size information and the position information of the character pattern. In addition, first select a plurality of character categories whose integrated similarity of each character category obtained from the corresponding integrated similarity conversion unit 16 is a certain threshold or more, and then, as described above, the size of the character pattern. A method of comparing the information and position information with the standard size information and standard position information of all the character categories stored in the character information storage unit 50 and selecting the primary candidate character category may be used.

【0120】ここで、文字切り出し制御部80は、各々の
第1次候補文字選択部17から得られる第1次候補文字カ
テゴリの数を総和し、その総和が0であれば、即ち、選
択される第1次候補文字カテゴリが全くない場合には、
文字切り出し部11において文字パターンを1文字領域づ
つ抽出する際に用いる複数のパラメータ(既に、第1の
実施例で説明したように、文字領域の標準サイズ、ピッ
チ、隣接する文字領域のスペース長等)を変化させて、
再度、文字切り出し部11に文字領域の抽出を行なわせ、
再度抽出した文字パターンを各単一特徴認識部13に再入
力する。
Here, the character cut-out control unit 80 sums up the numbers of the primary candidate character categories obtained from the respective primary candidate character selection units 17, and if the total is 0, that is, it is selected. If there is no primary candidate character category
A plurality of parameters used when the character cutting unit 11 extracts a character pattern for each character area (as already described in the first embodiment, the standard size of a character area, the pitch, the space length of adjacent character areas, etc.). ) Is changed,
Once again, let the character cutout section 11 extract the character area,
The extracted character pattern is re-input to each single feature recognition unit 13.

【0121】一方、第2次候補文字選択部18は、各々の
第1次候補文字選択部17から得られる第1次候補文字カ
テゴリの統合類似度を同一カテゴリ毎に加算することに
よって、全ての第1次候補文字カテゴリに対する最終類
似度を求めたのち、この最終類似度の値の大きいものを
複数個選択し、これを第2次候補文字カテゴリとして認
識後処理部15へ出力する。
On the other hand, the secondary candidate character selection unit 18 adds all the integrated similarities of the primary candidate character categories obtained from the respective primary candidate character selection units 17 for each same category, thereby After obtaining the final similarity to the primary candidate character category, a plurality of those having a large final similarity value are selected and output to the post-recognition processing unit 15 as secondary candidate character categories.

【0122】最後に、認識後処理部15では、文字切り出
し部11から得られる文字パターンのサイズ情報と位置情
報を用いて、候補文字選択部から得られる複数の第2次
候補文字カテゴリの中から最終的な文字カテゴリの決定
を行う。
Finally, the post-recognition processing unit 15 uses the size information and position information of the character pattern obtained from the character cutting unit 11 to select from among the plurality of secondary candidate character categories obtained from the candidate character selection unit. Determine the final character category.

【0123】一般に、全角文字で書かれた日本語文書に
おいて、半角英数字、及び”い”等の分離しやすい文字
が連続している場合、文字パターンは誤って切り出され
ることが多く、このような場合、従来例では、文字パタ
ーンを正しく認識することは困難であった。しかし、本
実施例によれば、第1候補文字選択部17で、文字切り出
し部11で抽出された文字パターンのサイズ情報、位置情
報と各文字カテゴリの標準的なサイズ情報、位置情報を
比較することによって、複数の第1次候補文字カテゴリ
の選択を行うので、もし、入力された文字パターンが各
文字カテゴリの標準サイズ、位置情報とある程度以上異
なる場合には、候補文字カテゴリが0となる。このと
き、文字切り出し制御部80が、文字切り出し部11におい
て文字パターンの切り出し誤りが生じたと判断し、文字
切り出し部11において文字パターンの切り出しを行う際
に用いる複数のパラメータを微小変化させて、文字パタ
ーンの再切り出しを行う。そして、再度認識処理を行う
ので、前述したような切り出し誤りが生じ易い文字列に
対しても、正確な文字の切り出しが可能であり、高精度
な認識を実現することができる。 (実施例3)図11は、本発明の第3の実施例における
文字認識装置のブロック図を示すものである。図11に
おいて、10〜18は図1に示した第1の実施例における文
字認識装置と同一のものである。90は教師信号生成部で
あり、認識後処理部15から得られた認識文字カテゴリと
文字切り出し部11で抽出された文字パターンの正解文字
カテゴリを用いて教師信号を生成するものである。91は
誤認識頻度記憶部であり、教師信号(正解文字カテゴ
リ)と認識文字カテゴリとの組合せが後処理対象文字集
合記憶部51に記憶されている後処理対象文字カテゴリ集
合と一致した回数である誤認識頻度が後処理対象文字カ
テゴリ集合毎に記憶されているものである。92は誤認識
頻度更新部であり、正解文字カテゴリと認識文字カテゴ
リとの組合せと後処理対象文字集合記憶部91に記憶され
ている各後処理対象文字カテゴリ集合とを比較すること
によって誤認識頻度記憶部に記憶されている各後処理対
象文字カテゴリ集合の誤認識頻度を更新し、なおかつ、
誤認識頻度が任意の許容回数より大きくなった場合には
対応する後処理対象文字カテゴリ集合を出力するもので
ある。93は文字情報修正部であり、文字情報記憶部50に
記憶されている誤認識頻度更新部92から得られる後処理
対象文字カテゴリ集合の標準サイズ情報、標準位置情報
を入力文字パターンのサイズ情報、位置情報を用いて修
正するものである。
Generally, in a Japanese document written in full-width characters, when a half-width alphanumeric character and a character that is easy to separate such as "i" are consecutive, the character pattern is often cut out by mistake. In such a case, in the conventional example, it was difficult to correctly recognize the character pattern. However, according to the present embodiment, the first candidate character selection unit 17 compares the size information and position information of the character pattern extracted by the character cutout unit 11 with the standard size information and position information of each character category. By doing so, a plurality of primary candidate character categories are selected. Therefore, if the input character pattern differs from the standard size and position information of each character category to some extent or more, the candidate character category becomes 0. At this time, the character cutout control unit 80 determines that a character pattern cutout error has occurred in the character cutout unit 11, and minutely changes a plurality of parameters used when cutting out the character pattern in the character cutout unit 11 to change the character. Re-cut out the pattern. Then, since the recognition process is performed again, it is possible to accurately cut out a character string even with respect to a character string in which the above-described cutout error easily occurs, and it is possible to realize highly accurate recognition. (Embodiment 3) FIG. 11 is a block diagram of a character recognition apparatus according to a third embodiment of the present invention. In FIG. 11, 10 to 18 are the same as the character recognition device in the first embodiment shown in FIG. Reference numeral 90 denotes a teacher signal generation unit that generates a teacher signal using the recognized character category obtained from the post-recognition processing unit 15 and the correct character category of the character pattern extracted by the character cutout unit 11. Reference numeral 91 denotes an erroneous recognition frequency storage unit, which is the number of times the combination of the teacher signal (correct character category) and the recognized character category matches the post-processing target character category set stored in the post-processing target character set storage unit 51. The misrecognition frequency is stored for each post-processing target character category set. Reference numeral 92 denotes an erroneous recognition frequency updating unit that compares the combination of the correct answer character category and the recognized character category with each post-processing target character category set stored in the post-processing target character set storage unit 91 to detect the erroneous recognition frequency. The misrecognition frequency of each post-processing target character category set stored in the storage unit is updated, and
When the misrecognition frequency becomes higher than an arbitrary allowable number, the corresponding post-processing target character category set is output. 93 is a character information correction unit, which is standard size information of the post-processing target character category set obtained from the misrecognition frequency update unit 92 stored in the character information storage unit 50, standard position information is input character pattern size information, It is corrected by using the position information.

【0124】以上のように構成された文字認識装置につ
いて、以下その動作を説明する。なお、本実施例では、
教師信号出力部90、誤認識頻度記憶部91、誤認識頻度更
新部92及び文字情報修正部93を除いて、基本的に、他の
構成要素は第1の実施例と同じ動作を行って文字認識処
理をするので、ここでは、それらの動作については簡単
に説明を行う。
The operation of the character recognition device configured as described above will be described below. In this example,
Except for the teacher signal output unit 90, the erroneous recognition frequency storage unit 91, the erroneous recognition frequency updating unit 92, and the character information correction unit 93, basically, the other components perform the same operation as in the first embodiment, Since recognition processing is performed, these operations will be briefly described here.

【0125】第1の実施例同様、まず、画像入力部10で
入力された文書画像から、複数のパラメータを用いて文
字切り出し部11が図5に示すように、文字パターンを1
文字領域づつ抽出し、文字パターンを各特徴抽出部12
に、また、抽出された文字パターンのサイズ情報、位置
情報を候補文字選択部14における第1次候補文字選択部
17と認識後処理部15へ出力する。各々の特徴抽出部12で
は、文字切り出し部11から抽出された文字パターンから
各々異なる特徴ベクトルXk(k=1〜NF:NFは特徴
ベクトルの種類の数)を抽出し、それぞれ対応する単一
特徴認識部13へに出力する。複数個用意された各単一特
徴認識部13は、それぞれ独立に、第1の実施例と同様の
識別処理を行い、各特徴ベクトルXkに対する各文字カ
テゴリの類似度を求め、これを候補文字選択部14に出力
する。候補文字選択部14では、まず、各々の統合類似度
変換部16が、特徴ベクトル各々に対応する単一特徴認識
部13から得られる各文字カテゴリの類似度をそれらの類
似度の中の最大値で正規化することによって統合類似度
に変換する。各第1次候補文字選択部17では、文字切り
出し部11で得られた文字パターンのサイズ情報、位置情
報と文字情報記憶部50に記憶されている全ての文字カテ
ゴリの標準サイズ情報、標準位置情報とを比較して複数
個の第1次候補文字カテゴリを選択し、これを第2次候
補文字選択部18に出力する。第2次候補文字選択部18
は、各々の第1次候補文字選択部17から得られる第1次
候補文字カテゴリの統合類似度を同一カテゴリ毎に加算
することによって、全ての第1次候補文字カテゴリに対
する最終類似度を求めたのち、この最終類似度の値の大
きいものを複数個選択し、これを第2次候補文字カテゴ
リとして認識後処理部15へ出力する。認識後処理部15で
は、文字切り出し部11から得られる文字パターンのサイ
ズ情報と位置情報を用いて、候補文字選択部14から得ら
れる複数の第2次候補文字カテゴリの中から最終的な認
識文字カテゴリの決定を行う。
As in the first embodiment, first, the character cutting unit 11 uses a plurality of parameters to extract a character pattern from the document image input by the image input unit 10 as shown in FIG.
Each character area is extracted and the character pattern is extracted by each feature extraction unit 12
In addition, the size information and position information of the extracted character pattern are used as the primary candidate character selection unit in the candidate character selection unit 14.
17 and output to the post-recognition processing unit 15. Each of the feature extraction units 12 extracts different feature vectors X k (k = 1 to N F : N F is the number of types of feature vectors) from the character patterns extracted from the character cutout unit 11, and they correspond to each other. Output to the single feature recognition unit 13. Each of the plurality of single feature recognition units 13 independently performs the same identification processing as in the first embodiment to obtain the similarity of each character category with respect to each feature vector X k , and obtains this as a candidate character. Output to the selection unit 14. In the candidate character selection unit 14, first, each integrated similarity conversion unit 16, the similarity of each character category obtained from the single feature recognition unit 13 corresponding to each feature vector, the maximum value of those similarities. It is converted to integrated similarity by normalizing with. In each primary candidate character selection unit 17, the size information and position information of the character pattern obtained by the character cutout unit 11 and the standard size information and standard position information of all character categories stored in the character information storage unit 50. And a plurality of primary candidate character categories are selected and output to the secondary candidate character selection unit 18. Secondary candidate character selection unit 18
Calculates the final similarity to all the primary candidate character categories by adding the integrated similarity of the primary candidate character categories obtained from each primary candidate character selection unit 17 for each same category. After that, a plurality of ones having a large final similarity value are selected and output to the post-recognition processing unit 15 as secondary candidate character categories. The post-recognition processing unit 15 uses the size information and position information of the character pattern obtained from the character cutting unit 11 to determine the final recognized character from the plurality of secondary candidate character categories obtained from the candidate character selection unit 14. Determine the category.

【0126】ここで、教師信号生成部90は、認識後処理
部15から得られた認識文字カテゴリと文字切り出し部11
で抽出された文字パターンの正解文字カテゴリとを比較
し、互いに異なる場合には、この正解文字カテゴリを教
師信号として誤認識頻度更新部92に出力する。誤認識頻
度更新部92では、後処理対象文字集合記憶部51に記憶さ
れている全ての後処理対象文字カテゴリ集合を読みだ
し、教師信号(正解文字カテゴリ)と認識文字カテゴリ
との組合せを順番に比較する。もし教師信号(正解文字
カテゴリ)と認識文字カテゴリとの組合せがある後処理
対象文字カテゴリ集合と一致した場合には、誤認識頻度
記憶部91に記憶されている前記組合せに対応する後処理
対象文字カテゴリ集合の誤認識頻度を1つ増やす。この
とき、もし、この後処理対象文字カテゴリ集合の誤認識
頻度が任意の許容回数より大きくなった場合にはこの後
処理対象文字カテゴリ集合を文字情報修正部93へ出力す
る。そして、文字情報修正部93では、後処理対象文字カ
テゴリ集合が入力されると、文字情報記憶部50に記憶さ
れているこの後処理文字カテゴリ対の各標準サイズ情
報、標準位置情報を実際に文字切り出し部11で抽出され
た文字パターンのサイズ情報、位置情報に基づいて修正
する。修正方法を具体的に示すと、いま後処理文字カテ
ゴリ対(C1、C2)(例えば、”X”、”x”)におい
て、文字情報記憶部50に記憶されている文字カテゴリC
1の標準文字パターン幅をA1、標準文字高さをB1、標
準位置情報をH1とし、また、文字カテゴリC2の標準文
字パターン幅をA2、標準文字高さをB2、標準位置情報
をH2とする。ここで、C1をC2に誤認識する頻度があ
る回数を越えると、対応する各文字カテゴリの文字情報
(A1、B1、H1)及び(A2、B2、H2)を既に入力さ
れた文字パターンの各文字カテゴリの文字情報(a1
1、h1)及び(a2、b2、h2)に基づいて例えば、
(数25)式のように修正する。
Here, the teacher signal generation unit 90 has the recognized character category and the character cutout unit 11 obtained from the post-recognition processing unit 15.
The correct answer character category of the character pattern extracted in step S1 is compared, and if they are different from each other, this correct answer character category is output to the misrecognition frequency update unit 92 as a teacher signal. The misrecognition frequency updating unit 92 reads all post-processing target character category sets stored in the post-processing target character set storage unit 51, and sequentially outputs a combination of a teacher signal (correct answer character category) and a recognized character category. Compare. If a combination of the teacher signal (correct answer character category) and the recognized character category matches the post-processing target character category set, the post-processing target character corresponding to the combination stored in the misrecognition frequency storage unit 91. Increase the misrecognition frequency of the category set by one. At this time, if the erroneous recognition frequency of the post-processing target character category set is higher than an arbitrary allowable number of times, the post-processing target character category set is output to the character information correction unit 93. Then, in the character information correction unit 93, when the post-processing target character category set is input, the standard size information and the standard position information of the post-processed character category pair stored in the character information storage unit 50 are actually used as characters. Correction is performed based on the size information and position information of the character pattern extracted by the cutout unit 11. Specifically, the correction method will now be described. In the post-processing character category pair (C 1 , C 2 ) (for example, “X”, “x”), the character category C stored in the character information storage unit 50 is described.
1 of the standard character pattern width A 1, the standard character height B 1, the standard position information and H 1, also standard character pattern width A 2 of the character category C 2, B 2 a standard character height, standard The position information is H 2 . Here, when the frequency of erroneously recognizing C 1 as C 2 is exceeded, the character information (A 1 , B 1 , H 1 ) and (A 2 , B 2 , H 2 ) of the corresponding character categories are obtained. Character information of each character category of the character pattern already input (a 1 ,
Based on b 1 , h 1 ) and (a 2 , b 2 , h 2 ), for example,
It is corrected as in the equation (25).

【0127】[0127]

【数25】A1 = A1 + α(A1−a1) B1 = B1 + β(B1−b1) H1 = H1 + γ(H1−h1) A2 = A2 + α(A2−a2) B2 = B2 + β(B2−b2) H2 = H2 + γ(H2−h2) 但し、α、β、γは任意の実数 なお、ここで各文字カテゴリC1、C2において、文字情
報の修正基準となる(a1、b1、h1)及び(a2
2、h2)は、既に入力された文字パターンの文字情報
の平均値とする。
[Expression 25] A 1 = A 1 + α (A 1 −a 1 ) B 1 = B 1 + β (B 1 −b 1 ) H 1 = H 1 + γ (H 1 −h 1 ) A 2 = A 2 + α (A 2 −a 2 ) B 2 = B 2 + β (B 2 −b 2 ) H 2 = H 2 + γ (H 2 −h 2 ) where α, β, and γ are arbitrary real numbers. , (A 1 , b 1 , h 1 ) and (a 2 , which are correction criteria for character information in each of the character categories C 1 and C 2 ).
b 2 and h 2 ) are average values of the character information of the character patterns already input.

【0128】このように、本実施例によれば、認識後処
理部15で”X”、”x”等の類似大小文字の識別を行う
際に用いる文字情報記憶部50に記憶されている各文字カ
テゴリの標準文字サイズ情報、位置情報を実際に入力さ
れた文字パターンのサイズ情報、位置情報に基づいて修
正することが可能である。即ち、文書画像の認識処理を
リアルタイムで行うことによって、類似大小文字のサイ
ズ情報、位置情報を学習していくので、認識後処理部15
における類似大小文字の識別を適応的に向上させること
ができ、最終的に高精度な認識性能を実現できる。
As described above, according to this embodiment, each of the characters stored in the character information storage unit 50 used when the post-recognition processing unit 15 discriminates between similar case letters such as “X” and “x”. It is possible to correct the standard character size information and position information of the character category based on the size information and position information of the actually input character pattern. That is, since the size information and the position information of the similar case are learned by performing the recognition process of the document image in real time, the post-recognition processing unit 15
It is possible to adaptively improve the identification of the similar case in, and finally realize a highly accurate recognition performance.

【0129】また、請求項1の本発明の文字選択認識後
処理部とは、上記実施例では候補文字選択部14及び認
識後処理部15に相当する。
Further, the character selection / recognition post-processing unit of the present invention according to claim 1 corresponds to the candidate character selection unit 14 and the post-recognition processing unit 15 in the above embodiment.

【0130】[0130]

【発明の効果】以上述べたところから明らかなように、
本発明によれば、複数種類の文字パターンの特徴ベクト
ルを各々別個の単一特徴認識部で識別処理して文字パタ
ーンの各特徴ベクトルに対する各文字カテゴリの類似度
を求めたのち、候補文字選択部がこれら全ての類似度を
用いて各単一特徴認識部から得られる識別結果を統合
し、最終的な入力文字パターンの認識を行う。従って、
従来例のように複数種類の文字パターンの特徴ベクトル
を1つにまとめて用いる場合には困難であった「ある特
徴ベクトルでは誤認識する文字パターンを異なる特徴ベ
クトルによる識別結果から正しく認識する」ということ
が容易にできるようになり、高精度の文字認識を実現す
ることができる。
As is apparent from the above description,
According to the present invention, feature vectors of a plurality of types of character patterns are identified by separate single feature recognition units to determine the similarity of each character category to each feature vector of a character pattern, and then the candidate character selection unit is selected. Integrates the identification results obtained from each single feature recognizing unit using all of these similarities, and finally recognizes the input character pattern. Therefore,
It is difficult to collectively use the feature vectors of a plurality of types of character patterns as in the conventional example, “correctly recognize a character pattern that is erroneously recognized by a certain feature vector from the identification result by a different feature vector”. This makes it possible to realize highly accurate character recognition.

【0131】また、従来法では、複数種類の文字パター
ンの特徴ベクトルの使用によって、認識に要する時間が
増加するが、本実施例では、各単一特徴認識部が各々並
列に識別処理を行うので、認識に要する時間を従来例に
比べ、短くすることができる。
Further, in the conventional method, the time required for recognition is increased by using the feature vectors of a plurality of types of character patterns, but in the present embodiment, each single feature recognition section carries out the identification processing in parallel. The time required for recognition can be shortened as compared with the conventional example.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例における文字認識装置の
ブロック図。
FIG. 1 is a block diagram of a character recognition device according to a first embodiment of the present invention.

【図2】本発明の第1の実施例における単一特徴認識部
のブロック図。
FIG. 2 is a block diagram of a single feature recognizing unit according to the first embodiment of the present invention.

【図3】本発明の第1の実施例におけるファジィ大分類
部のブロック図。
FIG. 3 is a block diagram of a fuzzy major classification unit according to the first embodiment of the present invention.

【図4】本発明の第1の実施例における細分類部の第1
の実施例を示すブロック図。
FIG. 4 is a first subclassification section in the first embodiment of the present invention.
FIG.

【図5】本発明の第1の実施例における文字切り出し部
が抽出した文字パターンとその文字サイズ情報、位置情
報の一例を示す説明図。
FIG. 5 is an explanatory diagram showing an example of a character pattern extracted by a character cutout unit and its character size information and position information according to the first embodiment of the present invention.

【図6】本発明の第1の実施例における細分類部の第2
の実施例を示すブロック図。
FIG. 6 is a second subclassification section in the first embodiment of the present invention.
FIG.

【図7】本発明の第1の実施例における細分類部の第2
の実施例における多入力一出力信号処理部のブロック
図。
FIG. 7 is a second subclassification section according to the first embodiment of the present invention.
Block diagram of a multi-input single-output signal processing unit in the embodiment of FIG.

【図8】本発明の第1の実施例における細分類部の第2
の実施例における多入力一出力信号処理部におけるしき
い値処理部の入出力特性図である。
FIG. 8 is a second subclassification section according to the first embodiment of the present invention.
FIG. 7 is an input / output characteristic diagram of a threshold processing unit in the multi-input / single-output signal processing unit in the example of FIG.

【図9】本発明の第1の実施例における候補文字選択部
の第2の実施例を示すブロック図。
FIG. 9 is a block diagram showing a second embodiment of a candidate character selection unit in the first embodiment of the present invention.

【図10】本発明の第2の実施例における文字認識装置
のブロック図。
FIG. 10 is a block diagram of a character recognition device according to a second embodiment of the present invention.

【図11】本発明の第3の実施例における文字認識装置
のブロック図。
FIG. 11 is a block diagram of a character recognition device according to a third embodiment of the present invention.

【図12】従来の文字認識装置の実施例を示すブロック
図である。
FIG. 12 is a block diagram showing an embodiment of a conventional character recognition device.

【符号の説明】[Explanation of symbols]

10 画像入力部 11 文字切り出し部 12 特徴抽出部 13 単一特徴認識部 14 候補文字選択部 15 認識後処理部 16 統合類似度変換部 17 第1次候補文字選択部 18 第2次候補文字選択部 181 加算器 182 最終候補文字選択部 50 文字情報記憶部 51 後処理対象文字集合記憶部 52 後処理対象文字集合判定部 20 群辞書 21 ファジィ大分類部 22 細分類部 23 群選択部 24 細分類部入力信号選択部 25 単一特徴類似度計算部 26 乗算器 27 カテゴリ類似度計算部 30 入力部 31 距離計算部 32 割算器 33 加算器 34 乗算器 35 割算器 40 入力部 41 文字カテゴリ辞書 42 距離計算部 43 割算器 44 加算器 45 乗算器 46 割算器 60 入力部 61 多入力一出力信号処理部 62 入力部 63 重み係数記憶部 64 乗算器 65 加算器 66 しきい値処理部 70 類似度正規化部 71 第1次候補文字選択部 72 統合類似度計算部 80 文字切り出し制御部 90 教師信号生成部 91 誤認識頻度記憶部 92 誤認識頻度更新部 93 文字情報修正部 10 Image input unit 11 Character cutout unit 12 Feature extraction unit 13 Single feature recognition unit 14 Candidate character selection unit 15 Post-recognition processing unit 16 Integrated similarity conversion unit 17 Primary candidate character selection unit 18 Secondary candidate character selection unit 181 Adder 182 Final candidate character selection unit 50 Character information storage unit 51 Post-processing target character set storage unit 52 Post-processing target character set determination unit 20 Group dictionary 21 Fuzzy large classification unit 22 Fine classification unit 23 Group selection unit 24 Fine classification unit Input signal selector 25 Single feature similarity calculator 26 Multiplier 27 Category similarity calculator 30 Input 31 Distance calculator 32 Divider 33 Adder 34 Multiplier 35 Divider 40 Input 41 Character category dictionary 42 Distance calculation unit 43 Divider 44 Adder 45 Multiplier 46 Divider 60 Input unit 61 Multi-input one-output signal processing unit 62 Input unit 63 Weighting coefficient storage unit 64 Multiplier 65 Adder 66 Threshold processing unit 70 Similar Degree normalization unit 71 primary candidate character selection unit 72 integrated similarity calculation unit 80 Shaped cutout control unit 90 teacher signal generator 91 misrecognized frequency storage unit 92 misrecognized frequency updating unit 93 character information correction unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 〆木 泰治 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 山本 浩司 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 丹羽 寿男 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Taiji Yuki, 1006 Kadoma, Kadoma City, Osaka Prefecture Matsushita Electric Industrial Co., Ltd. (72) Koji Yamamoto, 1006 Kadoma, Kadoma City, Osaka Matsushita Electric Industrial Co., Ltd. (72) Inventor Toshio Niwa 1006 Kadoma, Kadoma City, Osaka Prefecture Matsushita Electric Industrial Co., Ltd.

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 文書画像を入力する画像入力部と、前記
画像入力部で入力された文書画像から文字を1文字領域
づつ切り出して文字パターンを得る文字切り出し部と、
前記文字パターンから各々異なる特徴ベクトルを求める
複数の特徴抽出部と、前記文字パターンが各文字カテゴ
リに属する度合である類似度を前記特徴ベクトル各々か
ら求める複数の単一特徴認識部と、複数の前記単一特徴
認識部から得られた各文字カテゴリの類似度を、各同一
文字カテゴリ毎に統合し、その結果を利用して認識文字
カテゴリを決定する文字選択認識後処理部とを備え、 前記単一特徴認識部は、前記特徴ベクトルが類似する文
字パターンの集合から成る文字カテゴリ群を代表する群
参照用特徴ベクトルが複数個記憶されている群辞書と、
前記群参照用特徴ベクトルと前記文字パターンの特徴ベ
クトルを用いて文字パターンが各文字カテゴリ群に属す
る度合である群帰属度を計算するファジィ大分類部と、
前記文字パターンの特徴ベクトルを用いて前記文字パタ
ーンが文字カテゴリ群内に含まれる各文字カテゴリに属
する度合である群内類似度を求める複数の細分類部と、
前記群帰属度から複数の文字カテゴリ群を選択する群選
択部と、前記群選択部から得られる群選択情報に基づい
て前記文字パターンの特徴ベクトルを入力する細分類部
を選択する細分類部入力信号選択部と、前記群選択部で
選択された文字カテゴリ群の群帰属度と前記細分類部で
得られた群内類似度を用いて文字パターンに対する各文
字カテゴリの類似度を求める単一特徴類似度計算部を備
え、 前記単一特徴類似度計算部は、前記群選択部で選択され
た文字カテゴリ群の群帰属度と前記細分類部入力信号選
択部から前記文字パターンの特徴ベクトルを入力された
前記細分類部から得られる全ての群内類似度を乗算する
複数個の乗算器と、各文字カテゴリ毎に前記乗算器の出
力値の大きいものを複数個選択し、これらの出力値の総
和を求めるカテゴリ類似度計算部を備えることを特徴と
する文字認識装置。
1. An image input section for inputting a document image, and a character cutout section for cutting out a character from the document image input by the image input section for each character area to obtain a character pattern.
A plurality of feature extraction units that obtain different feature vectors from the character patterns; a plurality of single feature recognition units that obtain a similarity, which is the degree to which the character pattern belongs to each character category, from each of the feature vectors; And a character selection recognition post-processing unit that integrates the similarity of each character category obtained from the single feature recognition unit for each same character category and determines the recognized character category using the result. One feature recognition unit, a group dictionary in which a plurality of group reference feature vectors representing a character category group consisting of a set of character patterns having similar feature vectors are stored,
A fuzzy large classification unit that calculates a group membership degree that is a degree to which a character pattern belongs to each character category group using the group reference characteristic vector and the characteristic vector of the character pattern,
A plurality of sub-classification units that obtain the intra-group similarity that is the degree to which the character pattern belongs to each character category included in the character category group using the feature vector of the character pattern;
A group selection unit that selects a plurality of character category groups from the group membership degree, and a subclassification unit input that selects a subclassification unit that inputs the feature vector of the character pattern based on the group selection information obtained from the group selection unit A single feature that obtains the similarity of each character category to a character pattern using the signal selection unit, the group membership degree of the character category group selected by the group selection unit, and the intra-group similarity obtained by the sub-classification unit A similarity calculation unit, wherein the single feature similarity calculation unit inputs the group attribution of the character category group selected by the group selection unit and the feature vector of the character pattern from the subclassification unit input signal selection unit. A plurality of multipliers for multiplying all the in-group similarities obtained from the subclassifying unit, and a plurality of multipliers having a large output value for each character category are selected, The power to find the sum A character recognition device comprising a territory similarity calculation unit.
【請求項2】 文書画像を入力する画像入力部と、複数
のパラメータ値を用いて前記画像入力部で入力された文
書画像から文字を1文字領域づつ切り出して文字パター
ン及び文字パターンのサイズ情報、位置情報を得る文字
切り出し部と、前記文字パターンから各々異なる特徴ベ
クトルを求める複数の特徴抽出部と、前記文字パターン
が各文字カテゴリに属する度合である類似度を前記特徴
ベクトル各々から求める複数の単一特徴認識部と、複数
の前記単一特徴認識部から得られた各文字カテゴリの類
似度を用いて前記文字パターンに対する複数の第2次候
補文字カテゴリを求める候補文字選択部と、前記文字パ
ターンのサイズ情報、位置情報を用いて前記複数の第2
次候補文字カテゴリの中から認識文字カテゴリを決定す
る認識後処理部を具備し、 前記単一特徴認識部は、前記特徴ベクトルが類似する文
字パターンの集合から成る文字カテゴリ群を代表する群
参照用特徴ベクトルが複数個記憶されている群辞書と、
前記群参照用特徴ベクトルと前記文字パターンの特徴ベ
クトルを用いて文字パターンが各文字カテゴリ群に属す
る度合である群帰属度を計算するファジィ大分類部と、
前記文字パターンの特徴ベクトルを用いて前記文字パタ
ーンが文字カテゴリ群内に含まれる各文字カテゴリに属
する度合である群内類似度を求める複数の細分類部と、
前記群帰属度から複数の文字カテゴリ群を選択する群選
択部と、前記群選択部から得られる群選択情報に基づい
て前記文字パターンの特徴ベクトルを入力する細分類部
を選択する細分類部入力信号選択部と、前記群選択部で
選択された文字カテゴリ群の群帰属度と前記細分類部で
得られた群内類似度を用いて文字パターンに対する各文
字カテゴリの類似度を求める単一特徴類似度計算部を備
え、 前記単一特徴類似度計算部は、前記群選択部で選択され
た文字カテゴリ群の群帰属度と前記細分類部入力信号選
択部から前記文字パターンの特徴ベクトルを入力された
前記細分類部から得られる全ての群内類似度を乗算する
複数個の乗算器と、各文字カテゴリ毎に前記乗算器の出
力値の大きいものを複数個選択し、これらの出力値の総
和を求めるカテゴリ類似度計算部を備え、 前記候補文字選択部は、前記特徴ベクトル各々に対応す
る前記単一特徴認識部から得られた各文字カテゴリの類
似度をそれらの類似度の中の最大値で正規化することに
よって統合類似度に変換する複数の統合類似度変換部
と、前記統合類似度と前記文字パターンのサイズ情報、
位置情報を用いて全ての文字カテゴリの中から複数の第
1次候補文字カテゴリを選択する複数の第1次候補文字
選択部と、各々選択された前記第1次候補文字カテゴリ
の統合類似度を同一カテゴリ毎に加算することによっ
て、全ての前記第1次候補文字カテゴリの最終類似度を
求め、この最終類似度の値の大きいものを第2次候補文
字カテゴリとして複数個選択する第2次候補文字選択部
を備えている、 ことを特徴とする文字認識装置。
2. An image input unit for inputting a document image, and a character pattern and size information of the character pattern obtained by cutting out a character for each character region from the document image input by the image input unit using a plurality of parameter values. A character segmentation unit that obtains position information, a plurality of feature extraction units that obtain different feature vectors from the character patterns, and a plurality of unit vectors that obtain the degree of similarity of the character patterns belonging to each character category from each of the feature vectors. One feature recognition unit, a candidate character selection unit that obtains a plurality of secondary candidate character categories for the character pattern using the similarity of each character category obtained from the plurality of single feature recognition units, and the character pattern Size information and position information of the plurality of second
A post-recognition processing unit that determines a recognized character category from the next candidate character categories, wherein the single feature recognition unit is for group reference that represents a character category group composed of a set of character patterns having similar feature vectors. A group dictionary in which a plurality of feature vectors are stored,
A fuzzy large classification unit that calculates a group membership degree that is a degree to which a character pattern belongs to each character category group using the group reference characteristic vector and the characteristic vector of the character pattern,
A plurality of sub-classification units that obtain the intra-group similarity that is the degree to which the character pattern belongs to each character category included in the character category group using the feature vector of the character pattern;
A group selection unit that selects a plurality of character category groups from the group membership degree, and a subclassification unit input that selects a subclassification unit that inputs the feature vector of the character pattern based on the group selection information obtained from the group selection unit A single feature that obtains the similarity of each character category to a character pattern using the signal selection unit, the group membership degree of the character category group selected by the group selection unit, and the intra-group similarity obtained by the sub-classification unit A similarity calculation unit, wherein the single feature similarity calculation unit inputs the group attribution of the character category group selected by the group selection unit and the feature vector of the character pattern from the subclassification unit input signal selection unit. A plurality of multipliers for multiplying all the in-group similarities obtained from the subclassifying unit, and a plurality of multipliers having a large output value for each character category are selected, The power to find the sum And a candidate similarity selecting unit, wherein the candidate character selecting unit normalizes the similarity of each character category obtained from the single feature recognizing unit corresponding to each of the feature vectors by the maximum value of the similarity. A plurality of integrated similarity conversion units for converting to integrated similarity by converting, the integrated similarity and size information of the character pattern,
A plurality of primary candidate character selection units that select a plurality of primary candidate character categories from all the character categories by using position information, and an integrated similarity of each of the selected primary candidate character categories are displayed. A secondary candidate in which the final similarities of all the primary candidate character categories are obtained by adding up for each same category, and a plurality of those having a large final similarity value are selected as secondary candidate character categories. A character recognition device, comprising a character selection unit.
【請求項3】 認識後処理部は、各文字カテゴリ毎に文
字パターンの標準サイズ情報と標準位置情報が記憶され
ている文字情報記憶部と、後処理対象文字カテゴリ集合
が記憶されている後処理対象文字集合記憶部と、候補文
字選択部から得られた第2次候補文字カテゴリの第1候
補文字カテゴリと前記後処理対象文字集合記憶部に格納
されている全ての後処理対象文字カテゴリ集合とを比較
し、前記第1候補文字カテゴリが前記後処理対象文字カ
テゴリ集合である場合には、前記文字情報記憶部から前
記後処理対象文字カテゴリ集合に対応する各文字カテゴ
リの標準サイズ情報と標準位置情報を読み出し、入力さ
れた文字パターンのサイズ情報、位置情報と各々比較す
ることによって前記文字カテゴリ集合のいずれかの文字
カテゴリを認識文字カテゴリと判定する後処理対象文字
集合判定部を備え、 前記第1次候補文字選択部は、前記文字情報記憶部に記
憶されている文字カテゴリの標準サイズ情報、標準位置
情報と入力された文字パターンのサイズ情報、位置情報
とを比較することによって複数の第1次候補文字カテゴ
リを選択することを特徴とする請求項2記載の文字認識
装置。
3. The post-recognition processing unit includes a character information storage unit that stores standard size information and standard position information of a character pattern for each character category, and a post-processing unit that stores a post-processing target character category set. A target character set storage unit, a first candidate character category of the secondary candidate character category obtained from the candidate character selection unit, and all post-processing target character category sets stored in the post-processing target character set storage unit. And if the first candidate character category is the post-processing target character category set, the standard size information and standard position of each character category corresponding to the post-processing target character category set from the character information storage unit. A character is recognized by reading out the information and comparing it with the size information and the position information of the input character pattern to recognize any one of the character categories in the character category set. A post-processing target character set determination unit that determines a category, and the primary candidate character selection unit includes the standard size information and standard position information of the character category stored in the character information storage unit, and the input character pattern. The character recognition device according to claim 2, wherein a plurality of primary candidate character categories are selected by comparing the size information and the position information of the first candidate character category.
【請求項4】 第1次候補文字選択部は、前記統合類似
度変換部から得られる各カテゴリの統合類似度が任意の
しきい値より大きいカテゴリを選択したのちに、前記文
字情報記憶部に記憶されている文字カテゴリの標準サイ
ズ情報、標準位置情報と入力された文字パターンのサイ
ズ情報、位置情報とを比較することによって複数の第1
次候補文字カテゴリを選択することを特徴とする請求項
2記載の文字認識装置。
4. The primary candidate character selection unit selects a category having an integrated similarity degree of each category obtained from the integrated similarity degree conversion unit that is larger than an arbitrary threshold value, and then selects the category in the character information storage unit. By comparing the standard size information and standard position information of the stored character category with the size information and position information of the input character pattern
The character recognition device according to claim 2, wherein the next candidate character category is selected.
【請求項5】 各第1次候補文字選択部から得られる第
1次候補文字カテゴリの数を総和し、その総和が0であ
るならば、文字切り出し部の各パラメータ値を変化させ
て文字切り出しを再試行させる文字切り出し制御部を備
えたことを特徴とする請求項2、3、または4記載の文
字認識装置。
5. The number of primary candidate character categories obtained from each primary candidate character selection unit is summed up, and if the total is 0, the character segmentation is performed by changing each parameter value of the character segmentation unit. The character recognition device according to claim 2, 3 or 4, further comprising: a character cut-out control unit for retriing.
【請求項6】 認識後処理部から得られた認識文字カテ
ゴリと入力された文字パターンの正解文字カテゴリとが
異なる場合には正解文字カテゴリを出力する教師信号生
成部と、前記正解文字カテゴリと前記認識文字カテゴリ
との組合せが後処理対象文字カテゴリ集合と一致した回
数である誤認識頻度が各後処理対象文字カテゴリ集合毎
に記憶されている誤認識頻度記憶部と、前記正解文字カ
テゴリと前記認識文字カテゴリとの組合せと後処理対象
文字集合記憶部に記憶されている各後処理対象文字カテ
ゴリ集合と比較し、一致した場合には前記誤認識頻度記
憶部の対応する後処理対象文字カテゴリ集合の誤認識頻
度を更新し、誤認識頻度が任意の許容回数より大きくな
った場合には対応する後処理対象文字カテゴリ集合を出
力する誤認識頻度更新部と、文字情報記憶部に記憶され
ている前記誤認識頻度更新部から得られた後処理対象文
字カテゴリ集合の標準サイズ情報、標準位置情報を前記
文字パターンのサイズ情報、位置情報を用いて修正する
文字情報修正部を備えたことを特徴とする請求項3、
4、または5記載の文字認識装置。
6. A teacher signal generation unit for outputting a correct character category when the recognized character category obtained from the post-recognition processing unit and the correct character category of the input character pattern are different, the correct character category and the correct character category. A misrecognition frequency storage unit in which a misrecognition frequency, which is the number of times the combination with the recognized character category matches the post-processing target character category set, is stored for each post-processing target character category set, the correct character category, and the recognition The combination with the character category and each post-processing target character category set stored in the post-processing target character set storage unit are compared, and if they match, the corresponding post-processing target character category set in the misrecognition frequency storage unit is selected. The misrecognition frequency is updated, and when the misrecognition frequency exceeds an arbitrary allowable number, the corresponding post-processing target character category set is output. Using the new part and the standard size information and standard position information of the post-processing target character category set obtained from the misrecognition frequency update part stored in the character information storage part, using the size information and the position information of the character pattern. 4. A character information correcting unit for correcting is provided.
The character recognition device according to item 4 or 5.
【請求項7】 候補文字選択部は、単一特徴認識部から
得られた各文字カテゴリの類似度をそれらの類似度の中
の最大値で正規化する複数の類似度正規化部と、前記類
似度正規化部から得られた各文字カテゴリの正規化類似
度と前記文字パターンのサイズ情報、位置情報を用いて
全ての文字カテゴリの中から複数の第1次候補文字カテ
ゴリを選択する複数の第1次候補文字選択部と、前記第
1次候補文字カテゴリの正規化類似度を非線形変換し、
それら非線形変換された前記正規化類似度をその総和値
で各々除算することによって各文字カテゴリの統合類似
度を求める統合類似度計算部と、各々選択された前記第
1次候補文字カテゴリの統合類似度を同一カテゴリ毎に
加算することによって、全ての前記第1次候補文字カテ
ゴリの最終類似度を求め、この最終類似度の値の大きい
ものを第2次候補文字カテゴリとして複数個選択する第
2次候補文字選択部を備えたことを特徴とする請求項2
〜6のいずれか記載の文字認識装置。
7. The candidate character selection unit includes a plurality of similarity normalization units for normalizing the similarity of each character category obtained from the single feature recognition unit with the maximum value of the similarity, A plurality of primary candidate character categories are selected from all the character categories using the normalized similarity of each character category obtained from the similarity normalization unit and the size information and position information of the character pattern. A non-linear conversion of the primary candidate character selection unit and the normalized similarity of the primary candidate character category,
An integrated similarity calculation unit that obtains an integrated similarity of each character category by dividing the non-linearly converted normalized similarity by its sum value, and an integrated similarity of each selected primary candidate character category. By adding degrees for each of the same categories, the final similarity of all the first candidate character categories is obtained, and a plurality of those having a large final similarity value are selected as secondary candidate character categories. The next candidate character selection unit is provided, and the second candidate character selection unit is provided.
The character recognition device according to any one of 1 to 6.
【請求項8】 ファジィ大分類部は、入力文字パターン
の特徴ベクトルと群辞書に記憶されている全ての群参照
用特徴ベクトルとの距離を計算する複数個の距離計算部
と、前記距離計算部の出力の逆数を計算する複数個の割
算器と、前記割算器の各出力を加算する加算器と、前記
加算器の出力と前記距離計算部の出力を乗算する複数個
の乗算器と、前記乗算器の出力の逆数を計算する複数個
の割算器を備えたことを特徴とする請求項1〜7のいず
れか記載の文字認識装置。
8. The fuzzy major classification unit includes a plurality of distance calculation units that calculate distances between the feature vector of the input character pattern and all the group reference feature vectors stored in the group dictionary, and the distance calculation unit. A plurality of dividers for calculating the reciprocal of the output of the above, an adder for adding the outputs of the dividers, and a plurality of multipliers for multiplying the output of the adder and the output of the distance calculator. 8. The character recognition device according to claim 1, further comprising a plurality of dividers for calculating the reciprocal of the output of the multiplier.
【請求項9】 細分類部は、文字パターンの各文字カテ
ゴリの代表値を示す文字カテゴリ参照用特徴ベクトルが
複数個記憶されている文字カテゴリ辞書と、前記特徴ベ
クトルと前記文字カテゴリ辞書に記憶されている全ての
文字カテゴリ参照用特徴ベクトルとの距離を計算する複
数個の距離計算部と、前記距離計算部の出力の逆数を計
算する複数個の割算器と、前記割算器の各出力を加算す
る加算器と、前記加算器の出力と前記距離計算部の出力
を乗算する複数個の乗算器と、前記乗算器の出力の逆数
を計算する複数個の割算器を備えたことを特徴とする請
求項1〜8のいずれか記載の文字パターン認識装置。
9. The subclassification unit stores a character category dictionary in which a plurality of character category reference feature vectors indicating a representative value of each character category of a character pattern are stored, and the feature vector and the character category dictionary. A plurality of distance calculation units that calculate the distances to all the character category reference feature vectors, a plurality of dividers that calculate the reciprocal of the output of the distance calculation unit, and the outputs of the dividers. A plurality of multipliers for multiplying the output of the adder and the output of the distance calculator, and a plurality of dividers for calculating the reciprocal of the output of the multiplier. The character pattern recognition device according to claim 1, wherein the character pattern recognition device is a character pattern recognition device.
【請求項10】 細分類部は、層構造をもち、各層内相
互の結合がなく、上位層にのみ信号が伝搬するようにネ
ットワーク接続された複数の多入力ー出力信号処理部か
らなり、前記多入力ー出力信号処理部は、複数の重み係
数を保持する重み係数記憶部と、複数の入力信号を入力
する入力部と、前記重み係数記憶部に貯えられた重み係
数で前記入力部からの入力信号を重み付けする乗算手段
と、前記乗算手段で重み付けされた複数の入力信号を加
え合わせる加算手段と、該加算手段の出力を一定範囲の
値に制限するしきい値処理部を備えたことを特徴とする
請求項1〜8のいずれか記載の文字認識装置。
10. The subclassification unit comprises a plurality of multi-input / output signal processing units each having a layered structure, are connected to each other in a network so that signals are propagated only to an upper layer without mutual coupling in each layer, and The multi-input-output signal processing unit includes a weighting factor storage unit that holds a plurality of weighting factors, an input unit that inputs a plurality of input signals, and a weighting factor stored in the weighting factor storage unit from the input unit. A multiplying means for weighting the input signal; an adding means for adding the plurality of input signals weighted by the multiplying means; and a threshold processing section for limiting the output of the adding means to a value within a certain range. The character recognition device according to claim 1, wherein the character recognition device is a character recognition device.
JP5221766A 1992-09-28 1993-09-07 Character recognition device Pending JPH0773276A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP5221766A JPH0773276A (en) 1993-09-07 1993-09-07 Character recognition device
US08/513,294 US6041141A (en) 1992-09-28 1995-08-10 Character recognition machine utilizing language processing
US08/965,534 US5987170A (en) 1992-09-28 1997-11-06 Character recognition machine utilizing language processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5221766A JPH0773276A (en) 1993-09-07 1993-09-07 Character recognition device

Publications (1)

Publication Number Publication Date
JPH0773276A true JPH0773276A (en) 1995-03-17

Family

ID=16771871

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5221766A Pending JPH0773276A (en) 1992-09-28 1993-09-07 Character recognition device

Country Status (1)

Country Link
JP (1) JPH0773276A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11120294A (en) * 1997-10-17 1999-04-30 Matsushita Electric Ind Co Ltd Character recognition device and medium
JP2009026289A (en) * 2007-07-23 2009-02-05 Sharp Corp Character shape feature dictionary producing apparatus, image document processing apparatus comprising the same, character shape feature dictionary producing program, recording medium with character shape feature dictionary producing program recorded thereon, image document processing program, and recording medium with image document processing program recorded thereon
JP2009037621A (en) * 2007-08-03 2009-02-19 Fujitsu Ltd Method and device for identifying degraded character
JP2017016539A (en) * 2015-07-06 2017-01-19 日本電気株式会社 Commodity shelf recognition device, commodity shelf recognition method, program and image processing device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11120294A (en) * 1997-10-17 1999-04-30 Matsushita Electric Ind Co Ltd Character recognition device and medium
JP2009026289A (en) * 2007-07-23 2009-02-05 Sharp Corp Character shape feature dictionary producing apparatus, image document processing apparatus comprising the same, character shape feature dictionary producing program, recording medium with character shape feature dictionary producing program recorded thereon, image document processing program, and recording medium with image document processing program recorded thereon
JP2009037621A (en) * 2007-08-03 2009-02-19 Fujitsu Ltd Method and device for identifying degraded character
JP2017016539A (en) * 2015-07-06 2017-01-19 日本電気株式会社 Commodity shelf recognition device, commodity shelf recognition method, program and image processing device

Similar Documents

Publication Publication Date Title
US7327883B2 (en) Character recognition system and method
Chacko et al. Handwritten character recognition using wavelet energy and extreme learning machine
Price et al. Pairwise neural network classifiers with probabilistic outputs
Bhowmik et al. SVM-based hierarchical architectures for handwritten Bangla character recognition
EP0355748B1 (en) A pattern recognition apparatus and method for doing the same
Kaur et al. A comprehensive survey on word recognition for non-Indic and Indic scripts
Patel et al. Handwritten character recognition in english: a survey
Kessentini et al. Evidential combination of SVM classifiers for writer recognition
Shayegan et al. A New Dataset Size Reduction Approach for PCA‐Based Classification in OCR Application
Kaur et al. Bagging: An Ensemble Approach for Recognition of Handwritten Place Names in Gurumukhi Script
Chhabra et al. High-order statistically derived combinations of geometric features for handprinted character recognition
JPH0773276A (en) Character recognition device
CN108319935B (en) Face group identification method based on region sparsity
Wahlberg Gaussian process classification as metric learning for forensic writer identification
Bania et al. Handwritten Assamese character recognition using texture and diagonal orientation features with artificial neural network
Sarker et al. An optimal clustering for fuzzy categorization of cursive handwritten text with weight learning in textual attributes
JP3180477B2 (en) Pattern recognition device
Suriya et al. Effective Tamil character recognition using supervised machine learning algorithms
JP2924442B2 (en) Pattern recognition device
Nagu et al. A novel method for handwritten digit recognition with neural networks
Dehkordi et al. Handwriting style classification
Bourbakis et al. Handwriting recognition using a reduced character method and neural nets
Sandhya et al. An efficient approach for handling degradation in character recognition
Shah et al. SnapSolve—A novel mathematics equation solver using deep learning
Alaswad et al. Off-Line Recognition System for Handwritten Arabic Words Using Artificial Intelligence