JPH03268088A - General evaluation circuit - Google Patents

General evaluation circuit

Info

Publication number
JPH03268088A
JPH03268088A JP2066854A JP6685490A JPH03268088A JP H03268088 A JPH03268088 A JP H03268088A JP 2066854 A JP2066854 A JP 2066854A JP 6685490 A JP6685490 A JP 6685490A JP H03268088 A JPH03268088 A JP H03268088A
Authority
JP
Japan
Prior art keywords
class
scores
module
score
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2066854A
Other languages
Japanese (ja)
Inventor
Hirotomo Aso
阿曽 弘具
Masayuki Kimura
木村 正行
Kenji Suzuki
健司 鈴木
Hisayoshi Hayasaka
早坂 久義
Yoshiyuki Sakurai
桜井 義之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2066854A priority Critical patent/JPH03268088A/en
Priority to US07/660,756 priority patent/US5214717A/en
Priority to CA002036974A priority patent/CA2036974C/en
Priority to EP19910102798 priority patent/EP0444593A3/en
Publication of JPH03268088A publication Critical patent/JPH03268088A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

PURPOSE:To fast obtain the score of a candidate character to be recognized by totalizing successively the scores obtained for each area of the same code. CONSTITUTION:A counter 1 is provided together with the latches 2-1, 2-2, the class dictionaries 3-1 - 3-3, the score buffers 4-1 - 4-3, and the adders 5-1 and 5-2. The feature data to be recognized is divided and the scores are given to the classes to serve as the candidates. These scores are successively totalized. Thus it is possible to fast and successively obtain the scores of the code to serve as the candidates in the pipeline processing. In such a constitution, a general evaluation circuit that can obtain the scores at a high speed can be obtained in an associative matching recognition system.

Description

【発明の詳細な説明】 〔概   要〕 連想整合方式における得点を求める総合評価回路に関し
、 連想整合認識方式において高速に得点を求める総合評価
回路を提供することを目的とし、特徴領域を分割して、
該分割領域単位で代表とする複数のクラスに分け、前記
分割領域単位で属するクラスの得点を割り当てて、候補
となるべき複数のコードが属するクラスの得点を前記コ
ード単位で累算して認識を行う連想整合方式において、
前記複数のコードを指示するカウンタと、該カウンタの
値が変わるたびに順次シフトするラッチ回路と、前記複
数のコードが属するクラスを前記分割領域単位で記憶し
、前記カウンタの値と前記ラッチ回路で記憶する値とで
アドレスされるクラス辞書書と、前記分割領域単位内の
クラスに対応した得点をクラスアドレスとして記憶し、
前記クラス辞書のクラス出力がアドレスに加わる得点バ
ッファと、該得点バッファに対応して設けられ、前記得
点バッファより出力されるクラスの得点を順次加算する
複数の加算器とよりなるように構成する。
[Detailed Description of the Invention] [Summary] Regarding a comprehensive evaluation circuit that obtains a score in an associative matching method, the present invention aims to provide a comprehensive evaluation circuit that quickly obtains a score in an associative matching recognition method. ,
The division area unit is divided into a plurality of representative classes, the scores of the class to which the division area unit belongs are assigned, and the scores of the classes to which the plurality of codes to be candidates belong are accumulated in the code unit for recognition. In the associative matching method,
A counter for instructing the plurality of codes, a latch circuit that sequentially shifts each time the value of the counter changes, and classes to which the plurality of codes belong are stored in units of the divided areas, and the counter values and the latch circuit a class dictionary addressed by the value to be stored, and a score corresponding to the class within the divided area unit as a class address;
It is configured to include a score buffer to which the class output of the class dictionary is added to the address, and a plurality of adders provided corresponding to the score buffer to sequentially add the scores of the classes output from the score buffer.

〔産業上の利用分野] 本発明は文字や音声等の認識装置に係り、さらに詳しく
は連想整合方式における得点を求める総合評価回路に関
する。
[Industrial Field of Application] The present invention relates to a recognition device for characters, speech, etc., and more particularly to a comprehensive evaluation circuit for obtaining a score in an associative matching method.

〔従来の技術〕[Conventional technology]

コンピュータシステムの発展により、画像データを取り
込むとともに、取り込んだ画像データから文字を切り出
し、読み取った書類の文章のそれぞれの文字を認識する
読み取り装置が実用化している。この読み取り装置はた
とえばイメージスキャナ等によって読み取ったドツトデ
ータをあらかじめ定められた領域単位で分割し、その分
割内での文字(枡内文字)とあらかじめ定められた文字
とを比較し、1番似かよった文字を結果として出力して
いる。このあらかじめ定められたデータは一般的には辞
書メモリに格納されており、辞書メモリはたとえば各規
定の文字をvF徴化したデータとして記憶している。そ
して認識すべき文字が入力した時、同様にその入力した
文字を特徴化し、前述の辞書メモリに格納されているあ
らかじめ定められた特徴データとの距離を求めている。
With the development of computer systems, reading devices have been put into practical use that capture image data, cut out characters from the captured image data, and recognize each character in the text of the read document. This reading device divides the dot data read by an image scanner, etc. into predetermined area units, compares the characters within each division (inside the squares) with the predetermined characters, and finds the most similar character. Outputs characters as the result. This predetermined data is generally stored in a dictionary memory, and the dictionary memory stores, for example, each prescribed character as vF signature data. When a character to be recognized is input, the input character is similarly characterized and the distance from the predetermined characteristic data stored in the dictionary memory is determined.

この求めた距離から最も小さい文字を認識結果として出
力している。
The smallest character from this determined distance is output as the recognition result.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

前述したような特徴データの距離を求めその距離の少な
いものを認識結果として出力する方式は認識すべき候補
文字が多くなればなるほどその認識に多くの時間を有し
ていた。このためこの認識の処理を高速化する連想整合
認識方式がある。この方式は、先ず認識すべき領域すな
わち特徴領域を分割し、その分割単位で代表とする特徴
を表しくクラス)、それぞれ候補とする例えば文字が属
するクラスを記憶させている。そして入力した特徴ベク
トルと似通ったクラスに分割領域単位で順位を求め、そ
の順位の高いものから高い得点をつけて候補文字が属す
るクラスの得点を合計し、得点の高いものを候補文字と
して求めている。この連想整合認識方式によって、全数
整合方式に較べて高速の処理が可能となった。
In the method described above, which calculates the distance between feature data and outputs the shortest distance as a recognition result, the more candidate characters there are to be recognized, the more time it takes to recognize them. For this reason, there is an associative matching recognition method that speeds up this recognition process. In this method, first, the region to be recognized, that is, the feature region, is divided, and in each division unit, a class (representing a representative characteristic) and a class to which a candidate, for example, a character, belongs are stored. Then, rank the classes similar to the input feature vector for each divided region, give the highest score to the highest rank, add up the scores of the classes to which the candidate character belongs, and find the one with the highest score as the candidate character. There is. This associative matching recognition method enables faster processing than the exhaustive matching method.

しかしながら、文字認識の要求は高まるとともに、その
処理スピードも高速化が要求されている。
However, as the demand for character recognition increases, the processing speed is also required to be faster.

この連想整合認識方式においてもその文字数が多くなる
と処理時間すなわち得点を求める時間がかかり、全体と
しての認識処理速度が遅くなるという問題を有していた
This associative matching recognition method also has a problem in that as the number of characters increases, it takes longer to process, ie, it takes more time to obtain scores, and the overall recognition processing speed slows down.

本発明は連想整合認識方式において高速に得点を求める
総合評価回路を提供することを目的とする。
SUMMARY OF THE INVENTION An object of the present invention is to provide a comprehensive evaluation circuit that quickly obtains a score in an associative matching recognition method.

[課題を解決するための手段] 第1図は本発明ブロック図である。本発明は特f!k 
9M域を分割して、該分割領域単位で代表とする複数の
クラスに分け、前記分割領域単位で属するクラスの得点
を割り当てて、候補となるべき複数のコードが属するク
ラスの得点を前記コード単位で累算して認識を行う連想
整合認識方式にかかるものである。
[Means for Solving the Problems] FIG. 1 is a block diagram of the present invention. This invention is special! k
Divide the 9M area into a plurality of classes represented by each divided area, assign scores to classes to which each divided area belongs, and assign scores to classes to which multiple codes to be candidates belong to each code unit. This involves an associative matching recognition method that performs recognition by accumulating the information.

カウンタ1は複数の認識すべき候補のコードを指示する
Counter 1 indicates a plurality of candidate codes to be recognized.

ラッチ回路2−1〜2−2は前記カウンタ1の値が変化
するたびに順次シフトする。カウンタlはインクリメン
トするカウンタであり、ラッチ2−1〜2−2はカウン
タlの値が変化するたびにデータを順次シフトするので
結果的にカウンタ1の出力が最大値となり、順次1低い
値をラフチ2−1〜2−2は記憶する。
The latch circuits 2-1 and 2-2 sequentially shift each time the value of the counter 1 changes. Counter l is a counter that increments, and latches 2-1 to 2-2 sequentially shift data each time the value of counter l changes, so the output of counter 1 becomes the maximum value, and the output of counter 1 becomes the maximum value, and the output is sequentially shifted by one lower value. The rough edges 2-1 and 2-2 are stored.

クラス辞書3−1.3−2〜3−5は前記分割領域単位
で複数のコードが属するクラスを記憶し、前記カウンタ
1の値と前記ラッチ回路2−1〜22で記憶する値とで
アドレス指示される。
Class dictionaries 3-1.3-2 to 3-5 store classes to which a plurality of codes belong in units of the divided areas, and address them using the value of the counter 1 and the values stored in the latch circuits 2-1 to 22. be instructed.

得点バッファ4−1.4−2〜4−3はそれぞれ前記分
割領域単位のクラスをアドレスとしてその得点を記憶す
る。すなわちクラス辞書より出力されるクラスに割り当
てた得点をクラスに対応したアドレスで記憶している。
Each of the score buffers 4-1, 4-2 to 4-3 stores the score using the class of the divided area unit as an address. That is, the scores assigned to the classes output from the class dictionary are stored at addresses corresponding to the classes.

そして前記クラス辞書のクラス出力がアドレスに加わる
Then, the class output of the class dictionary is added to the address.

加算器5−0.5−1〜5−2は得点ノNツファ4−1
.4−2〜4−3に対応して設けられ、得点バッファ4
−1.4−2〜4−3より出力されるクラスの得点を順
次加算する。例えば初期値等と得点バッファ4−1の出
力(得点)を加算器5−0が加算し、続いて次の得点バ
ッファ4−2の出力と前記加算器5−0の出力とを加算
し、再度衣の加算器にその結果を出力し、順次その加算
を行う。なおこの加算器5−1〜5−2は同期信号が加
わるたびに加算結果を出力する同期式の加算器である。
Adders 5-0.5-1 to 5-2 are score numbers 4-1
.. Provided corresponding to 4-2 to 4-3, score buffer 4
-1.Sequentially add the class scores output from 4-2 to 4-3. For example, the adder 5-0 adds the initial value etc. and the output (score) of the score buffer 4-1, and then adds the output of the next score buffer 4-2 and the output of the adder 5-0, The results are output to the adder again and the additions are performed sequentially. Note that the adders 5-1 and 5-2 are synchronous type adders that output an addition result every time a synchronization signal is applied.

〔作   用〕[For production]

カウンタ1があるアドレスを発生すると、そのカウンタ
はクラス辞書3〜1をアドレスする。二〇カウンタ1は
認識すべきコードを出力する回路であり、この値がアド
レスに加わると、クラス辞書3−1はそのコードが属す
るクラス番号を得点バッファ4−1に出力する。ラッチ
2−1〜22は順次カウンタの値をシフトする回路であ
り、ラッチ2−1は、カウンタ1に対し−1した値を、
さらに次のラッチはさらに−1した値を記憶する。
When counter 1 generates an address, that counter addresses class dictionary 3-1. 20 Counter 1 is a circuit that outputs a code to be recognized, and when this value is added to the address, class dictionary 3-1 outputs the class number to which the code belongs to score buffer 4-1. The latches 2-1 to 22 are circuits that sequentially shift the values of the counters, and the latch 2-1 shifts the value of the counter 1 by -1.
Furthermore, the next latch stores a value further decreased by -1.

すなわち クラス辞書3−1がカウンタによってアドレ
スされた時クラス辞書3−2はその前の出力するコード
をアドレスされる。得点バッファ(4−1,4−2〜4
−3)は分割領域単位で求めた認識すべき文字等の特徴
に対応して最も近い順にクラスに得点を与え記憶してい
る。得点バッファ4−1がクラス辞書3−1でアドレス
された時、そのカウンタ値によってアドレスされたその
クラスの得点が加算器5−0に加わり加算される。
That is, when the class dictionary 3-1 is addressed by the counter, the class dictionary 3-2 is addressed with the previous output code. Score buffer (4-1, 4-2~4
-3), scores are given to classes and stored in the order of closestness, corresponding to the characteristics of characters to be recognized, etc., determined in units of divided regions. When the score buffer 4-1 is addressed by the class dictionary 3-1, the score of the class addressed by the counter value is added to the adder 5-0.

なお、この値は初期値たとえば0と加算される。Note that this value is added to an initial value, for example, 0.

そしてその結果は加算器5−1に加わる。この加算器5
−0がデータを出力するのはカウンタ1が歩進する時で
あり、歩進した時には次のコードが出力される。この時
加算器5−0は前述のその前のデータを出力している。
The result is then added to adder 5-1. This adder 5
-0 outputs data when counter 1 increments, and when it increments, the following code is output. At this time, the adder 5-0 is outputting the previous data mentioned above.

ラッチ2−1は前述した動作時のカウンタの値と同じ値
をすなわちコードを記憶しており、クラス辞書3−2は
前述したクロックでクラス辞書3−1と同一クラスがア
ドレスされる。すなわち異なる領域の分割領域の同一ク
ラスが指示される。そして得点バッファ4−2でそのク
ラスに対応した得点に変換され加算器5−1に加わる。
The latch 2-1 stores the same value as the counter value during the operation described above, that is, the code, and the class dictionary 3-2 is addressed to the same class as the class dictionary 3-1 by the aforementioned clock. In other words, the same class of divided areas of different areas is designated. Then, it is converted into a score corresponding to that class in the score buffer 4-2 and added to the adder 5-1.

得点バッファ4−2から出力される値と加算器5−〇よ
り出力される値とを加算器5−1は加算するので、その
結果は同一のコードに対応する得点を加算したことにな
る。その前述した動作を順次繰り返すことにより、同一
分割領域の得点を加算器は加算することとなり、最終的
に加算器5−2よりこのコードに対応した得点を出力す
ることができる。
Since the adder 5-1 adds the value output from the score buffer 4-2 and the value output from the adder 5-0, the result is the addition of scores corresponding to the same code. By sequentially repeating the above-described operations, the adder adds up the scores of the same divided area, and finally the adder 5-2 can output the score corresponding to this code.

以上のような動作により、順次同一コードの領域単位で
の得点を累算するので認識すべき候補文字の得点を高速
に得ることができる。
By the above-described operation, the scores for each area of the same code are sequentially accumulated, so that the scores for candidate characters to be recognized can be obtained at high speed.

(実  施  例〕 以下図面を用いて本発明の詳細な説明する。(Example〕 The present invention will be described in detail below using the drawings.

第2図は本発明の実施例の総合評価回路を用いた文字認
識装置のシステム構成図である。
FIG. 2 is a system configuration diagram of a character recognition device using a comprehensive evaluation circuit according to an embodiment of the present invention.

イメージスキャナ等によって読み取られた情報は画像デ
ータとして画像メモリ10に格納される。
Information read by an image scanner or the like is stored in the image memory 10 as image data.

この画像メモリ10はイメージスキャナで読み取る1頁
分の記憶容量を有しており、読み取った情報のそれぞれ
各ドツトを白あるいは黒の2イ直すなわち0.1のデー
タとして記憶する。
This image memory 10 has a storage capacity for one page read by an image scanner, and stores each dot of read information as white or black two-digit data, that is, 0.1 data.

画像メモリ10に格納された画像データはノイズ除去モ
ジュール11に加わり、読み取り時に発生した雑音を除
去する。例えば、このノイズ除去モジュール11によっ
て除去されるノイズは文字情報等に無関係な雑音例えば
3×3のマスクで中心を黒、その中心のドツトを囲む8
ドツトが白等の雑音であり、その中心のドツトをノイズ
除去モジュール11は白とする。このノイズ除去モジュ
ールは文字認識前処理部12内に設けているかこれに限
るわけでなく、例えば後述する正規化モジュール16内
に文字単位で格納する時に行ってもよく、またさらには
細線化、線素化の時に行ってもよい。
The image data stored in the image memory 10 is applied to a noise removal module 11 to remove noise generated during reading. For example, the noise removed by this noise removal module 11 is noise unrelated to character information, etc. For example, a 3 x 3 mask with a black center and 8 dots surrounding the center dot.
The dots are noises such as white, and the noise removal module 11 makes the dots in the center white. This noise removal module is provided in the character recognition preprocessing unit 12, but it is not limited to this. For example, it may be performed when storing each character in the normalization module 16, which will be described later. You can also do it at the time of cleansing.

ノイズ除去モジュール11によってノイズ除去された画
像情報は行ヒストグラムモジュールI3、列ヒストグラ
ムモジュール14、さらには読み出し制御モジュール1
5に加わる。行ヒストグラムモジュール13は読み取っ
た情報、例えば前述したイメージスキャナによって読み
取った用紙の内容を各ドツト単位で列方向に投影し、各
ドツト単位の行のドツト数を求めるモジュールである。
The image information from which noise has been removed by the noise removal module 11 is sent to the row histogram module I3, the column histogram module 14, and further to the readout control module 1.
Join 5. The row histogram module 13 is a module that projects the read information, for example, the content of the paper read by the above-mentioned image scanner, in the column direction in units of dots, and calculates the number of dots in the row for each dot unit.

すなわち、1ドツトの行(横方向)に対し、その1ドツ
ト行にいくつの黒ドツトが存在するかを各1ドツト行単
位で求める処理である。また列ヒストグラム14は前述
した行ヒストグラムと同様に列方向に対し投影し、その
投影した黒ドツトの数を求める処理である。
That is, this is a process of determining how many black dots are present in each one-dot row (horizontal direction) for each one-dot row. Also, the column histogram 14 is a process of projecting in the column direction in the same way as the row histogram described above, and calculating the number of projected black dots.

画像メモリ10から行方向に順次1ドツト単位で読み出
し、ノイズ除去モジュール11を介して加わったデータ
(ラスタースキャンと同様のドツトの読み出し)を、行
ヒストグラムモジュール13は順次界のドツトをカウン
トする(1ドツト行分)。そして、順次行単位で黒のド
ツト数を求める。この黒のドツト数が各行に対応する行
ヒストグラムとなる。また列ヒストグラムI4は1ドツ
ト行内のドツト数に対応してそれぞれカウンタを有し1
行のドツトが順次加わる度に黒ドツトに対応するカウン
タをインクリメントする。前述した動作を1頁分行うこ
とにより行ヒストグラムモジュール16ならびに列ヒス
トグラムモジュール14からは、それぞれ行位置ならび
に列位置に対するドツト数を表したいわゆる行ヒストグ
ラム、列ヒストグラムが求められる。そしてその結果は
読み出し制御モジュール15に加わる。
The row histogram module 13 sequentially counts the dots in the field (dots are read out in the row direction from the image memory 10 one by one) and added through the noise removal module 11 (dot reading similar to raster scanning). (dot rows). Then, the number of black dots is sequentially calculated for each line. The number of black dots becomes the row histogram corresponding to each row. The column histogram I4 also has counters corresponding to the number of dots in one dot row.
Each time a dot is added to a row, the counter corresponding to the black dot is incremented. By performing the above-described operations for one page, the row histogram module 16 and the column histogram module 14 obtain so-called row histograms and column histograms representing the number of dots for each row position and column position, respectively. The result is then applied to the read control module 15.

読み出し制御モジュール15はそれらの行ヒストグラム
、列ヒストグラムから行の位置ならびに列の位置を順次
求める。例えばこの位置は行ヒストグラムの周期や列ヒ
ストグラムの周期によって得ることができる。
The readout control module 15 sequentially obtains row positions and column positions from these row histograms and column histograms. For example, this position can be obtained by the period of the row histogram or the period of the column histogram.

読み出し制御モジュール15は行ならびに列の位置を求
めるが、この他に以下の処理を行う。画像データ例えば
イメージスキャナから読みとった情報は紙の位置等によ
り傾きを有することがある。
The read control module 15 determines the row and column positions, but also performs the following processing. Image data, for example, information read from an image scanner, may have a tilt depending on the position of the paper and the like.

このため、読み出し制御モジュール15は列ヒストグラ
ムならびに行ヒストグラムが最大値をとるよう、ヒスト
グラムを求める角度を順次変更し、補正角度を求める。
For this reason, the readout control module 15 sequentially changes the angle at which the histogram is obtained so that the column histogram and the row histogram take the maximum value, and obtains a correction angle.

そして前述したノイズ除去モジュール11から加わる画
像情報を再度入力して、最終的なヒストグラムを求め、
その補正した傾きにより得られた行ヒストグラム(ヒス
トグラムが最大値をとる)が0から正に変化する点(正
から0でも可)より1周期分その傾きに対応した1行の
データを読み出し、読み出し制御モジュール15内に設
けられた行バッファに格納する。
Then, input the image information added from the above-mentioned noise removal module 11 again to obtain the final histogram,
From the point where the row histogram obtained by the corrected slope (the histogram takes the maximum value) changes from 0 to positive (possibly from positive to 0), one line of data corresponding to the slope is read out for one period. The data is stored in a row buffer provided within the control module 15.

読み出し制御モジュール15はさらにその行バッファに
格納した1行のデータの内、行内における列ヒストグラ
ムを再度求め、列ヒストグラムが0から正に変化する位
置からそのデータを切り出し正規化モジュール16に出
力する。また変換表作成モジュール17にも出力する。
The read control module 15 further obtains the column histogram within the row of one row of data stored in the row buffer, cuts out the data from the position where the column histogram changes from 0 to positive, and outputs it to the normalization module 16. It is also output to the conversion table creation module 17.

この切り出したデータは1文字領域のデータである。This extracted data is data for a single character area.

変換表作成モジュール17は正規化モジュール16によ
って1文字を正規化するための変換データを求めるモジ
ュールであり、読み出し制御モジュール15によって切
り出した1文字領域に対し、列方向ならびに行方向に投
影し、黒ドツトが存在する列ならびに行からドツト単位
(行や列単位)で、列ならびに行方向のカウンタをイン
クリメントし、1文字の領域内の最終値までの値を求め
る。
The conversion table creation module 17 is a module that obtains conversion data for normalizing one character by the normalization module 16. It projects the conversion data in the column direction and the row direction on the one character area cut out by the readout control module 15, and The counters in the column and row directions are incremented dot by dot (row and column) from the column and row where the dot exists, and the value up to the final value within the area of one character is determined.

正規化モジュール16では、この1文字で切り出したド
・ントの行方向並びに列方向の最終値並びに切り出した
1文字の大きさから、その文字が切り出し領域内の全域
にわたって存在する文字に拡大する。例えば64X64
ドツトの領域を1文字領域とする拡大処理を行う。文字
の列方向並びに行方向の値が変換表作成モジュール17
において48(列並びに行とも)ドツトであったならば
、48ドツトの文字を64ドツトに変換する処理を行う
。この処理では特定位置の行や列のデータを繰り返して
同じデータとし文字を拡大する。また、縮小の場合には
特定位置の行や列を繰り返し読み出してOR加算し同一
行や同−例として縮小する。
In the normalization module 16, from the final values of the cut-out character in the row and column directions and the size of the cut-out character, the character is enlarged to a character that exists throughout the entire cut-out area. For example 64X64
An enlargement process is performed to make the dot area into one character area. The column direction and row direction values of characters are converted to conversion table creation module 17.
If there are 48 dots (both columns and rows), processing is performed to convert the 48-dot character to 64 dots. In this process, data in a row or column at a specific position is repeated to make the same data and enlarge the characters. Furthermore, in the case of reduction, rows and columns at specific positions are repeatedly read out and ORed together to reduce them as the same row or example.

正規化モジュール16によって1文字領域例えば64X
64ドツト内に1文字が拡大された後は、細線化モジュ
ール18がその文字を細線化する処理を行う。この細線
化モジュール18では中心ドツトの上下左右1ドツト(
3x3)とさらにその左1ドツトと中心からの上2ドツ
ト目の合計11ドツトのマスクで細線化処理を行う。ま
たこのマスクは3×3の9ドツトで行うこともできる。
The normalization module 16 allows one character area, for example 64X
After one character has been enlarged within 64 dots, the thinning module 18 performs a process of thinning the character. In this thinning module 18, one dot (top, bottom, left and right) of the center dot (
3x3), and one dot to the left and the second dot above from the center, for a total of 11 dots, to perform line thinning processing. This mask can also be formed using 9 dots of 3×3.

前述のマスクによってあらかじめ決められたパターンで
あるときに中心ドツトをOとする制御により1回の処理
によって文字を構成するドツトの1ドツト分の回りの細
線化が図れる。このマスクの細線化を順次繰り返すこと
により1ドントの線による文字とすることができる。
By controlling the center dot to be O when the pattern is predetermined by the mask described above, thinning of the area around one dot forming a character can be achieved in one process. By sequentially repeating this thinning of the mask, it is possible to create a character with a one-dont line.

細線化モジュール18によって得られた例えば64X6
4ドツトの細線化文字は線素化モジュール19に加わり
線素化される。この線素化モジュールでは目的のドツト
すなわち中心ドツトから上下方向の黒ドツトが存在する
場合、左右方向に存在する場合、右上、左下に存在する
場合、さらには左上、右下に存在する場合の合計4種類
の線素によって各ドツトを表す。なお上述の4種類の内
、複数に属する場合には例えば、上下方向、続いて左右
方向等の順に優先化を行い、各ドツト単位でその線素が
どちらの方向の存在するかを求める。
For example, 64×6 obtained by the thinning module 18
The 4-dot thinned character is added to the line segmentation module 19 and converted into line segments. This line segmentation module calculates the sum of black dots that exist in the vertical direction from the target dot, that is, the center dot, when they exist in the horizontal direction, when they exist in the upper right and lower left, and when they exist in the upper left and lower right. Each dot is represented by four types of line elements. If the line element belongs to more than one of the above four types, priority is given in the order of, for example, the vertical direction, then the horizontal direction, etc., and in which direction the line element exists is determined for each dot.

なお中心が0ドツトすなわち白であった場合には線は存
在しないとする。
Note that if the center is 0 dot, that is, white, it is assumed that no line exists.

線素化モジュール19においては、上下、左右、右上が
り斜め、左上がり斜めの4方向さらには線素が存在しな
い場合の5種類があるので、その状態を各ドツト単位で
3ビツトの値で表し、合計3X64X64の情報とし、
特徴ベクトルモジュール20に加える。
In the line segmentation module 19, there are four directions: up and down, left and right, diagonally upward to the right, diagonally upward to the left, and five types, including the case where there is no line element, so the state is expressed as a 3-bit value for each dot. , a total of 3X64X64 information,
Add to feature vector module 20.

特徴ベクトルモジュール2oにおいては前述した線素化
モジュール19で得られた線素化情報を、左右上下にそ
れぞれ8ドツト単位で分割し、その分割した領域を下と
右方向に1領域づつ(2×2領域)の合計16ドツトの
領域を1ベクトルモジユール領域とし、そのlベクトル
モジュール領域内にいくつの上下方向、左右方向、右上
方向、左上方向の4方向の線素が存在するかをカウント
する。16X16ドツトの領域を1ベクトルモジユール
領域として特徴ベクトルを求めるが、この1ベクトルモ
ジユール領域は8ドツト単位で移動させるので行方向な
らびに列方向に対しそれぞれ7領域であり合計7×7の
特徴ベクトルの領域となる。
The feature vector module 2o divides the line segmentation information obtained by the line segmentation module 19 described above into units of 8 dots in the left, right, top, and bottom, respectively, and divides the divided areas into one area each in the downward and right directions (2× 2 areas) with a total of 16 dots is defined as one vector module area, and count how many line elements exist in the four directions (up/down, left/right, upper right, and upper left) in the l vector module area. . A feature vector is calculated using a 16x16 dot area as one vector module area, but since this one vector module area is moved in units of 8 dots, there are 7 areas in each of the row and column directions, resulting in a total of 7 x 7 feature vectors. This is the area of

特徴ベクトル化モジュール2oにおいては前述した1領
域単位でその方向の数を求めているが、この数の求める
場合にはそれぞれ重み付けをし、中心部を高く周り部を
外にいくにしたがって低くしている。例えばその重み付
けを中心の4×4の領域の各ドツトを重み4、その周り
の2ドツト分の各ドツトを訳さらにその周りの2ドツト
分の各ドツトを2、さらにその回りの2ドツト分の各ド
ツトを1とし、重み付けを行って特徴ベクトルを求める
In the feature vectorization module 2o, the number of directions is calculated for each area as described above, but when calculating this number, weighting is applied to each area, with the center being higher and the surrounding areas being lower as they move outward. There is. For example, each dot in a 4 x 4 area centered on the weight is given a weight of 4, each of the two dots around it is given a weight of 4, each of the two dots around it is given a weight of 2, and each of the two dots around it is given a weight of 4. Each dot is set to 1, weighting is performed, and a feature vector is determined.

この特徴ベクトルは特定の認識すべき文字を正規化モジ
ュール16によってすべて同じ大きさにしているので、
同一文字であるならばほぼ同一の特徴ベクトルを有し、
文字単位でその特徴ベクトルが異なってくる。しかしな
がら非常によく似たモジュールも存在するので、本発明
の実施例においては演算の処理の高速化さらには認識率
の向上をはかるため、特徴ベクトルの標準パターンを用
いてそれぞれの特徴ベクトル化領域すなわちマス内でク
ラス分けを行い、各マス内で20クラスの標準パターン
と、加わる未知人力との距離を求める。すなわち標準パ
ターンの各マス内の特徴ベクトルと特徴ベクトルモジュ
ール2oによって得られたマス内の特徴ベクトルとの距
離をマス単位で求める。その各マスはクラス分け(クラ
ス1〜りラス20)されており、各マス内クラスの距離
の順位を距離の小さい順に第5番目までのクラスを求め
る。
This feature vector has specific characters to be recognized all made the same size by the normalization module 16, so
If they are the same character, they have almost the same feature vector,
The feature vectors differ for each character. However, since there are very similar modules, in the embodiment of the present invention, in order to speed up the calculation process and improve the recognition rate, a standard pattern of feature vectors is used for each feature vectorization region, i.e. Classification is performed within each square, and the distance between the standard pattern of 20 classes and the added unknown human power within each square is determined. That is, the distance between the feature vector in each square of the standard pattern and the feature vector in the square obtained by the feature vector module 2o is determined for each square. Each of the squares is divided into classes (class 1 to class 20), and the distance ranking of the classes within each square is determined in descending order of distance to the fifth class.

距離計算モジュール21はこの距離をクラス辞書23−
1 (標準パターンをクラス単位で記憶)を用いて演算
する。尚、個別でもその個々の候補文字に対して求める
場合には候補辞書23−2を用いる(この時にはスイッ
チSWは候補辞書23−2を選択する)。
The distance calculation module 21 stores this distance in the class dictionary 23-
1 (standard patterns are stored in class units). Note that when searching for individual candidate characters, the candidate dictionary 23-2 is used (at this time, the switch SW selects the candidate dictionary 23-2).

上位選出&得点割当モジュール22では前述の上位5ク
ラスを求めるとともに、各クラスに対応した得点を各マ
ス単位で決定する。すなわち上位選出&得点割当モジュ
ール22は距離計算モジュール21より得られた距離か
らクラス単位で第1〜第5番目の順位の各クラスに対し
与える得点を決定し、各文字の得点を求める0例えば第
1番目の距離(短い距離)であったときには5点、その
次に4点、3,2.1とクラスに対し得点を与える。こ
れはマス1からマス49に対応してそれぞれ設けられる
。上位選出得点モジュール22の処理結果は総合評価モ
ジュール24に加わる。
The top selection and score allocation module 22 determines the top five classes mentioned above and determines the score corresponding to each class for each square. That is, the top selection & score assignment module 22 determines the score to be given to each class from the 1st to 5th ranks based on the distance obtained from the distance calculation module 21, and calculates the score of each character. For the first distance (short distance), 5 points are given, then 4 points, 3, 2.1, and so on. These are provided corresponding to squares 1 to 49, respectively. The processing results of the top selection score module 22 are added to the comprehensive evaluation module 24.

総合評価モジュール24は入力対象すなわち入力文字と
その候補とが整合する度合いを計算するモジュールであ
り、連想整合モード、全数整合モード、個別整合モード
の3種類の動作がある。
The comprehensive evaluation module 24 is a module that calculates the degree of matching between an input object, that is, an input character and its candidate, and has three types of operation: an associative matching mode, an exhaustive matching mode, and an individual matching mode.

連想整合モードは、連想辞書23−3に格納されている
候補に対応したマスクとその属するクラスからその候補
の得点を計算するモードである。
The associative matching mode is a mode in which the score of a candidate is calculated from the mask corresponding to the candidate stored in the associative dictionary 23-3 and the class to which the candidate belongs.

連想辞書は各マスク毎に候補IDをアドレスとして、そ
の候補がそのマスクにおいて属するクラスのマスクID
を格納している。このデータは、各候補のマスクIDに
対応するc  dim次元の部分ベクトルの集合をその
(重み付き)距離によってクラスタリングして得られる
ものであり、結果だけが連想辞書に格納される。同時に
距離計算モジュールにおけるクラス辞書23−1も対応
して作成される。
The associative dictionary uses the candidate ID as an address for each mask, and the mask ID of the class to which that candidate belongs in that mask.
is stored. This data is obtained by clustering a set of c dim dimension partial vectors corresponding to the mask ID of each candidate according to their (weighted) distances, and only the results are stored in the associative dictionary. At the same time, a class dictionary 23-1 in the distance calculation module is also created correspondingly.

尚、連想辞書23−3とクラス辞書23−1は対応して
おり、その種類は同じになる。2種類以上の辞書を1つ
のメモリに格納する場合、使用辞書指定は辞書参照開始
位置となる。
Note that the associative dictionary 23-3 and the class dictionary 23-1 correspond to each other and have the same type. When storing two or more types of dictionaries in one memory, the specification of the dictionary to be used becomes the dictionary reference start position.

連想辞書23−3は、候補aがマスクmで属するクラス
のクラスID:Kを記した表であり、これをC(m、a
)=にと表すと、候補a(=1〜c  cand)に対
して、 で得られる。尚、ここでP (m、k)は得点を表して
いる。この式により候補aに対する総合評価値V (a
)を得る。
The associative dictionary 23-3 is a table in which the class ID: K of the class to which candidate a belongs with mask m is written.
)=, then for candidate a (=1 to c cand), it is obtained as follows. Note that P (m, k) represents the score here. Based on this formula, the overall evaluation value V (a
).

総合評価モジュールの全数整合モード、個別整合モード
は各候補に対し、計算するモードであり。
The total matching mode and individual matching mode of the comprehensive evaluation module are modes in which calculations are made for each candidate.

全数整合モードはa=1−c  cand、個別整合モ
ードはJ=1〜c  k ind、a=b(j)とし、
距離をd (m、a)で表し を求める。この値V (a)は候補aと入力対象との特
徴ベクトルの(重み付き)距離である。
The total matching mode is a=1-c cand, the individual matching mode is J=1~ck ind, a=b(j),
Find the distance expressed as d (m, a). This value V (a) is the (weighted) distance of the feature vector between candidate a and the input object.

上位候補選出モジュール25は各文字対応での上位から
決められた複数の文字例えば5文字を選出し出力する。
The top candidate selection module 25 selects and outputs a plurality of characters, for example, five characters determined from the top in each character correspondence.

この上位5文字が読みとった画像データにおける認識結
果となる。
The top five characters become the recognition result in the read image data.

前述した動作は全てパイプライン処理で成されるもので
ある。すなわち画像データを記憶する画像メモリ10内
の例えば1頁分のデータをパイプライン処理のよって読
み出し、制御モジュール15で行単位に分割するととも
に、正規化モジュール16に1文字単位で出力する。そ
の文字車で前述の細線化、線素化、特徴ベクトル化さら
には認識処理を行う。
All of the operations described above are performed by pipeline processing. That is, data for one page, for example, in the image memory 10 that stores image data is read out by pipeline processing, divided into lines by the control module 15, and outputted to the normalization module 16 in units of characters. The character wheel is subjected to the aforementioned thinning, line segmentation, feature vectorization, and recognition processing.

上位選出モジュール25は総合評価値に基づいて、候補
に順位をつけ、上位5個を選出するモジュールであり、
入力は連想全数整合モードであるならば((a’+ v
(aNa’、 a = 1〜c  candを修正した
もの) 個別整数台モードであるならば ((j、 v(a)Ij = 1〜c  kind、 
a = b (j))(個別整合の総合評価出力) 降/昇順: (文字連想二人きい順、その他:小さい順
)である。また出力は入力のソート結果の順に並んだ候
補IDCまたは入力順序)とその総合評価値である。
The top selection module 25 is a module that ranks candidates based on the overall evaluation value and selects the top five candidates.
If the input is in associative exhaustive matching mode ((a'+ v
(modified version of aNa', a = 1~c cand) If it is the individual integer unit mode ((j, v(a)Ij = 1~c kind,
a = b (j)) (Comprehensive evaluation output of individual matching) Descending/ascending order: (Character association two-person order, others: Smallest order). Further, the output is the candidate IDCs arranged in the order of the input sort results or the input order) and their comprehensive evaluation value.

前述した第2図における本発明の実施例の総合評価モジ
ュールにおいては連想整合モード、全数整合モード、個
別整合モードを有するが、本発明は連想整合モードに係
る発明である。以下では、さらに本発明の総合評価回路
すなわち総合評価モジュールを詳細に説明する。
The comprehensive evaluation module according to the embodiment of the present invention shown in FIG. 2 described above has an associative matching mode, an exhaustive matching mode, and an individual matching mode, and the present invention relates to the associative matching mode. Below, the comprehensive evaluation circuit or comprehensive evaluation module of the present invention will be further explained in detail.

第3は本発明の実施例の総合評価回路の構成図である。The third is a configuration diagram of a comprehensive evaluation circuit according to an embodiment of the present invention.

カウンタ30は各文字単位での評価値(得点)を加算す
るための文字コードを順次出力するカウンタであり、ク
ロックが加わるたびにそのカウンタ値すなわちコードを
順次出力する。
The counter 30 is a counter that sequentially outputs character codes for adding up evaluation values (scores) for each character, and outputs the counter value or code sequentially every time a clock is applied.

カウンタ30の出力はバッファ31を介してクラス辞書
Co−C2のアドレスに加わる。クラス辞書C0−C2
には特徴ベクトルを求めたその文字コードに対応するク
ラスをマス単位で記憶している。換言するならば、アド
レスを文字コードとし、その文字コードが属する文字の
マス単位でのクラスを記憶している。
The output of the counter 30 is added to the address of the class dictionary Co-C2 via the buffer 31. Class dictionary C0-C2
stores the class corresponding to the character code for which the feature vector was obtained in units of squares. In other words, the address is a character code, and the class of the characters to which the character code belongs is stored in units of squares.

カウンタ30より出力されたカウント値によてクラス辞
書CO,C1,C2が共通にアクセスされ、同一文字(
コード)が属する各マス単位のクラス番号がクラス辞書
Co−C2より出力され、バッファモジュールBO−8
2内のバッファb1b2を介してデータバッファb3.
b4のアドレス端子に入力する。
The class dictionaries CO, C1, and C2 are accessed in common by the count value output from the counter 30, and the same character (
The class number of each cell to which the code) belongs is output from the class dictionary Co-C2, and the buffer module BO-8
2 through the buffer b1b2 in the data buffer b3.
Input to the address terminal of b4.

データバッファb3.b4は各マス単位でのクラス分け
に対して得点を記憶しているバッファである。このデー
タバッファb3.b4は、例えばメモリであり、総合評
価を行う前に得点モジュールから得られるクラス番号に
対応したデータとそのデータに対応したクラス番号がバ
ッファb7゜b8を介して加わり、クラス番号がアドレ
スとなってデータバッファb3.b4にその得点を記憶
している。すなわち、クラス辞書より出力されたその文
字に対応するクラスがデータバッファb3゜b4のアド
レスに加わると、データバッファb3゜b4はその出力
すなわち得点をバッファb9.b10を介して加算器A
1に加える。
Data buffer b3. b4 is a buffer that stores scores for classification in units of squares. This data buffer b3. For example, b4 is a memory, and before performing the comprehensive evaluation, the data corresponding to the class number obtained from the scoring module and the class number corresponding to that data are added via buffers b7 and b8, and the class number becomes an address. Data buffer b3. The score is stored in b4. That is, when the class corresponding to the character output from the class dictionary is added to the address of the data buffer b3-b4, the data buffer b3-b4 stores its output, that is, the score, in the buffer b9. Adder A via b10
Add to 1.

第1のクロックに対するカウンタ30の出力はクラス辞
書C0−C2に共通に加わるので、加算器AIにもその
各クラスに対応した値(得点)が同時にバッファモジュ
ールBO−82より加わる。
Since the output of the counter 30 in response to the first clock is commonly applied to the class dictionaries C0-C2, the values (scores) corresponding to each class are simultaneously added to the adder AI from the buffer module BO-82.

加算器AIは3人力の加算器であり、バッファモジュー
ルBO〜B2より出力される3個の得点を加算し、加算
器A2の第1の人力に加える。
Adder AI is a three-man power adder that adds three scores output from buffer modules BO to B2 and adds it to the first man power of adder A2.

加算器A1によって、バッファモジュールBO。Buffer module BO by adder A1.

Bl、B2に対応するマスの得点が合計されて加算器A
2に加わると、カウンタ30には次のクロックが加わり
、カウンタを歩進する。カウンタ30の出力はフリップ
フロップ32(ラッチ)にも加わっており、カウンタ3
0が歩進する前の値をフリップフロップ32は取り込む
The scores of the squares corresponding to Bl and B2 are summed and added to adder A.
2, the next clock is added to the counter 30 and increments the counter. The output of the counter 30 is also applied to a flip-flop 32 (latch), and the output of the counter 30 is
The flip-flop 32 takes in the value before 0 is incremented.

このフリップフロップ32がカウンタ30の値を取り込
むことにより、バッファ33を介してクラス辞書C3,
C4に加算器AIで加算した得点に対応する文字コード
が加わることとなり、クラス辞書C3,C4はその文字
が属するクラス番号を出力する。このクラス辞書C3,
C4は、前述のクラス辞書CO〜C2と同様であり、そ
れぞれマス単位で、その文字が属するクラスを記憶して
いる。更に詳細に説明するならば、クラス辞書CO〜C
2はマス0.マス1.マス2に属するそのコードのクラ
ス番号を記憶しているのに対し、クラス辞書C3,C4
はマス3.マス4に対するそのコードのクラスを記憶し
ている。
By this flip-flop 32 taking in the value of the counter 30, the class dictionary C3,
The character code corresponding to the score added by the adder AI is added to C4, and the class dictionaries C3 and C4 output the class number to which the character belongs. This class dictionary C3,
C4 is similar to the above-mentioned class dictionaries CO to C2, and stores the class to which the character belongs in units of squares. To explain in more detail, the class dictionary CO~C
2 is square 0. Square 1. While the class number of the code belonging to square 2 is memorized, the class dictionaries C3 and C4
is square 3. It remembers the class of that code for square 4.

クラス辞書C3,C4が前述したフリップフロップの値
によってアドレスされると、その文字コードに対応した
クラス番号をクラス辞書C3,C4は出力する。
When the class dictionaries C3, C4 are addressed by the above-mentioned flip-flop values, the class dictionaries C3, C4 output the class number corresponding to that character code.

その出力はバッファモジュールB3.B4に加わる。バ
ッファモジュールB3.B4は前述したバッファモジュ
ールBOと同様の構成であり、予めデータバッファに各
マス単位でのクラスの属する得点が前述と同様に記憶さ
れているので、バッファモジュールB3.B4はそのク
ラスの得点を出力し、加算器A2は加算器A1の出力と
バッファモジュールB3.B4の出力を加算し、加算器
A3に加える。
Its output is buffer module B3. Join B4. Buffer module B3. B4 has the same configuration as the buffer module BO described above, and the scores to which the class belongs for each cell are stored in advance in the data buffer in the same manner as described above, so that the buffer module B3. B4 outputs the score for that class, and adder A2 outputs the output of adder A1 and buffer module B3. The outputs of B4 are added and applied to adder A3.

前述した加算器A2と同様に次のクラス辞書C5,C6
に対し、図示しないが同様のバッファモジュールからの
出力を加算器A3は順次加算し、最終的に加算器Anに
よってクラス辞書Cm−1゜しmのクラスに対応するデ
ータをバッファモジュールで得点に変換し、加算器An
に加え加算する。
Similar to the adder A2 described above, the next class dictionaries C5 and C6
, an adder A3 sequentially adds outputs from a similar buffer module (not shown), and finally an adder An converts the data corresponding to the class in the class dictionary Cm-1° and m into a score using the buffer module. and adder An
Add in addition to.

そし2で、その結果をデータバッファ[)B1に加え記
憶する。
Then, in step 2, the result is added to the data buffer [)B1 and stored.

前述したクラス辞書CO,CL  C2、クラス辞貴C
3゜C4、クラス辞書C5,C6,、・・・クラス辞書
(:m−1,Cmに加わるアドレスはそれぞれ力うンタ
30の出力を第1のクロ・ンクで変化させる以前にフリ
ップフロップ32でラッチし、続いてフリップフロップ
33でラッチする如く、順次1クロック単位で遅らせて
それぞれのクラス辞書のグループに加えている。この結
果、加算器AIで加算された結果に、更に加算器A2で
加算するが、その時の得点は同一の文字に対するクラス
の得点が加算されることとなる。よってデータバッファ
DBIに格納される合計得点は係る1つのコードに対応
した得点となる。
The aforementioned class dictionary CO, CL C2, class dictionary C
3゜C4, class dictionaries C5, C6, . . . the addresses added to the class dictionaries (:m-1, Cm) are input by the flip-flop 32 before changing the output of the counter 30 by the first clock. It is then latched by the flip-flop 33, and added to each class dictionary group sequentially by one clock unit.As a result, the result added by the adder AI is further added by the adder A2. However, the scores at that time are obtained by adding the scores of the classes for the same character.Therefore, the total score stored in the data buffer DBI becomes the score corresponding to one code.

一方、フリップフロップ32.33・・・によって順次
シフトし、最終的にクラス辞書Cm−1゜Cmにクラス
わる文字コードの出力は、データノ〈ソファDB2にも
加わっている。これにより加算器A nにより出力され
た加算結果に対してそのコー ドが加わる。すなわちデ
ータバッファDBIDB2には、得点とその得点のコー
ド(文字コード)が記憶される。
On the other hand, the character codes sequentially shifted by flip-flops 32, 33, . As a result, that code is added to the addition result output by the adder An. That is, the data buffer DBIDB2 stores scores and codes (character codes) of the scores.

クラス辞書co−cmは、各文字を20のクラス分りし
た時には各文字コードに対応し、そのクラス番号を出力
する。そして、データバッファはその各クラスに対応し
た得点を出力1−1そのノ\・ソファモジュールの数は
分割L7たマス分、すなわち例えば7×7であるならば
、合計49個のノ\・ソファモジュールを設けることに
より、構成することができる。また、このときマスが4
9個であるならば加算器は28個となる。
When each character is divided into 20 classes, the class dictionary co-cm corresponds to each character code and outputs its class number. Then, the data buffer outputs the score corresponding to each class. It can be configured by providing modules. Also, at this time, the square is 4
If there are 9 adders, there will be 28 adders.

バッファモジュールBO,Bl、B2・・・には16ビ
ツトのアドレスバスと32ビツトのデータバスがバッフ
ァb7.b8、バッファb5.b6を介してデータバッ
ファb3.b4に加わっている。この16ビツトのアド
レスバスには各クラスに対応したクラス番号が加わり、
32ビツトのデータバスには、そのクラス番号に対応し
た得点が加わる。換言するならば、データバッファb3
b4にクラス番号に対応したデータを記憶さセるため、
16ビノトのアドレスバスと32ピントのデ・−タバス
とから、データバッファb3.b4に格納するのである
Buffer modules BO, Bl, B2, . b8, buffer b5. data buffer b3. It has joined b4. A class number corresponding to each class is added to this 16-bit address bus.
A score corresponding to the class number is added to the 32-bit data bus. In other words, data buffer b3
In order to store data corresponding to the class number in b4,
Data buffer b3. It is stored in b4.

また、クラス辞書CO〜Cmには図示しないシステムコ
ンピュータから使用する連想辞書(クラス辞書)を記憶
させるため、クラス単位でそれぞれのクラス辞書をアク
セスし格納する。このバッファにはバッファ36.37
を介してそれぞれを記憶する。このクラス辞書Co−C
mもRAMより成り、上述の書き換えによって、様々な
文字に対応させることができる。
Further, in order to store associative dictionaries (class dictionaries) used from a system computer (not shown) in the class dictionaries CO to Cm, each class dictionary is accessed and stored in class units. This buffer has buffer 36.37
Remember each one through. This class dictionary Co-C
m is also made of RAM, and can be made to correspond to various characters by the above-mentioned rewriting.

前述した第3図における本発明の実施例においては、3
個の人力を加算する加算器A1〜Anを求めて累算を行
っている。尚、本発明はこれに限るものでなく例えば加
算器を2個の入力とて1催事位でクラス辞書ならびにバ
ッファモジュールをアクセスするようにし、順次加算す
ることによって同様の結果を得ることができる。また加
算器A1〜Anは3人力ではなくそれ以−Lであっても
よい、 〔発明の効果] 以上述べたように本発明によれば認識すべき入力しまた
特徴データを分割し、候補となるべきクラスに得点を与
え順次累算しているので、候補となるべきコードの得点
を順次パイプライン処理で高速に行うことができる。そ
の結果高速の連想整合認識方式における装置を得ること
ができる。
In the embodiment of the present invention shown in FIG. 3 described above, 3
The adders A1 to An that add up the individual human power are calculated to perform the accumulation. Note that the present invention is not limited to this, and similar results can be obtained, for example, by using an adder with two inputs to access the class dictionary and buffer module in one event, and adding them sequentially. Further, the adders A1 to An may not be made by three people, but may be made by more than three people. [Effects of the Invention] As described above, according to the present invention, the input and feature data to be recognized can be divided into candidates. Since scores are given to the classes that should become candidates and are accumulated sequentially, the scores of the codes that should be candidates can be sequentially and rapidly calculated by pipeline processing. As a result, a device for high-speed associative matching recognition can be obtained.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明のブロック図、 第2図は本発明の実施例のシステム構成図、第3図は本
発明の実施例の詳細な構成図である。 1・・・カウンタ、 2−1〜2−2・・・ ラッチ、 3−1.3−2〜3−3・・・クラス辞書、4−1.4
−2〜4−3・・ ・得点ノ\゛・ソファ、5−1〜5
−2・・・加算器。
FIG. 1 is a block diagram of the present invention, FIG. 2 is a system configuration diagram of an embodiment of the invention, and FIG. 3 is a detailed configuration diagram of the embodiment of the invention. 1...Counter, 2-1~2-2...Latch, 3-1.3-2~3-3...Class dictionary, 4-1.4
-2~4-3... ・Score no\゛・Sofa, 5-1~5
-2... Adder.

Claims (1)

【特許請求の範囲】 特徴領域を分割して、該分割領域単位で代表とする複数
のクラスに分け、前記分割領域単位で属するクラスの得
点を割り当てて、候補となるべき複数のコードが属する
クラスの得点を前記コード単位で累算して認識を行う連
想整合方式において、前記複数のコードを指示するカウ
ンタ(1)と、該カウンタの値が変わるたびに順次シフ
トするラッチ回路(2−1〜2−2)と、 前記複数のコードが属するクラスを前記分割領域単位で
記憶し、前記カウンタ(1)の値と前記ラッチ回路(2
−1〜2−2)で記憶する値とでアドレスされるクラス
辞書書(3−1、3−2〜3−3)と、 前記分割領域単位内のクラスに対応した得点をクラスア
ドレスとして記憶し、前記クラス辞書のクラス出力がア
ドレスに加わる得点バッファ(4−1、4−2〜4−3
)と、 該得点バッファ(4−1、4−2〜4−3)に対応して
設けられ、前記得点バッファ(4−1、4−2〜4−3
)より出力されるクラスの得点を順次加算する複数の加
算器(5−0、5−1〜5−2)とよりなることを特徴
とする総合評価回路。
[Claims] A feature region is divided into a plurality of classes represented by each divided region, and scores are assigned to the class to which each of the divided regions belongs, and a class to which a plurality of codes to be candidates belong is divided. In an associative matching method in which recognition is performed by accumulating scores for each code, a counter (1) that indicates the plurality of codes, and a latch circuit (2-1 to 2-1) that sequentially shifts each time the value of the counter changes. 2-2), the class to which the plurality of codes belongs is stored in units of the divided areas, and the value of the counter (1) and the latch circuit (2-2) are stored.
-1 to 2-2), and the class dictionary (3-1, 3-2 to 3-3) addressed by the values stored in the divided area units, and the scores corresponding to the classes in the divided area unit are stored as class addresses. and the score buffer (4-1, 4-2 to 4-3) where the class output of the class dictionary is added to the address.
), and is provided corresponding to the score buffer (4-1, 4-2 to 4-3), and is provided corresponding to the score buffer (4-1, 4-2 to 4-3).
) A comprehensive evaluation circuit comprising a plurality of adders (5-0, 5-1 to 5-2) that sequentially add the scores of classes output from the circuits.
JP2066854A 1990-02-26 1990-03-19 General evaluation circuit Pending JPH03268088A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2066854A JPH03268088A (en) 1990-03-19 1990-03-19 General evaluation circuit
US07/660,756 US5214717A (en) 1990-02-26 1991-02-25 Pattern recognition data processing device using an associative matching method
CA002036974A CA2036974C (en) 1990-02-26 1991-02-25 Pattern recognition data processing device using an associative matching method
EP19910102798 EP0444593A3 (en) 1990-02-26 1991-02-26 A data processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2066854A JPH03268088A (en) 1990-03-19 1990-03-19 General evaluation circuit

Publications (1)

Publication Number Publication Date
JPH03268088A true JPH03268088A (en) 1991-11-28

Family

ID=13327854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2066854A Pending JPH03268088A (en) 1990-02-26 1990-03-19 General evaluation circuit

Country Status (1)

Country Link
JP (1) JPH03268088A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009129253A (en) * 2007-11-26 2009-06-11 Toshiba Corp Pattern recognition apparatus, pattern recognition program and pattern recognition method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009129253A (en) * 2007-11-26 2009-06-11 Toshiba Corp Pattern recognition apparatus, pattern recognition program and pattern recognition method

Similar Documents

Publication Publication Date Title
JP3260843B2 (en) Character recognition method
US4641355A (en) Pattern recognition apparatus
CN112749576A (en) Image recognition method and device, computing equipment and computer storage medium
JPH03268088A (en) General evaluation circuit
US5596657A (en) Method of sorting out candidate characters in character recognition system
JP4418726B2 (en) Character string search device, search method, and program for this method
JP5083162B2 (en) Image data determination apparatus, image data determination system, and program
JP2710139B2 (en) Recognition device
JP2865529B2 (en) Fingerprint collation device
CN111597375B (en) Picture retrieval method based on similar picture group representative feature vector and related equipment
JPH03214284A (en) Data conversion system
JPH03268054A (en) High speed parallel processing system
JPH03269618A (en) Candidate selecting circuit
JPH03246780A (en) Data conversion circuit
JP2940974B2 (en) Matching method
JPH03214282A (en) Normalization system applying systolic array
JPH03240175A (en) Histogram calculating circuit
JPH03214283A (en) Conversion table production circuit applying systolic array
JPH03214285A (en) Data conversion system
JP3104355B2 (en) Feature extraction device
JPH03126188A (en) Character recognizing device
JP2972443B2 (en) Character recognition device
JPH103518A (en) Method for recognizing character and recording medium and device for recognizing character
JPH0557633B2 (en)
JPH03246781A (en) Feature vectoring circuit