JPS63208181A - Character recognizing device - Google Patents

Character recognizing device

Info

Publication number
JPS63208181A
JPS63208181A JP62040356A JP4035687A JPS63208181A JP S63208181 A JPS63208181 A JP S63208181A JP 62040356 A JP62040356 A JP 62040356A JP 4035687 A JP4035687 A JP 4035687A JP S63208181 A JPS63208181 A JP S63208181A
Authority
JP
Japan
Prior art keywords
pattern
continuity
character recognition
recognition device
run
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP62040356A
Other languages
Japanese (ja)
Other versions
JP2933927B2 (en
Inventor
Masami Hisagai
正己 久貝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP62040356A priority Critical patent/JP2933927B2/en
Publication of JPS63208181A publication Critical patent/JPS63208181A/en
Application granted granted Critical
Publication of JP2933927B2 publication Critical patent/JP2933927B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To recognize character only with a general microprocessor by dividing a pattern to partial patterns based on the continuity of the optically read pattern and recognizing a character in accordance with feature and connection of partial pattern. CONSTITUTION:The document read by a scanner 15 is stored in a RAM 13 as black-and-white binary image data. In this case, character pattern data of the whole of a character pattern consisting of gathering of run data indicating mutual connection relations is obtained when one raster scanning is terminated. This character pattern data is divided into partial patterns and is converted to a node data structure of connections of node data. The code of this node data structure is compared with codes of standard patterns in a dictionary part 28, and a character or the like of the standard pattern whose code coincides with the code of the node data structure is defined as the recognition result.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は文字認識装置、特に活字又は手書きの文字・記
号等を読み取り認識を行う文字認識装置に関するもので
ある。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a character recognition device, and particularly to a character recognition device that reads and recognizes printed or handwritten characters, symbols, etc.

[従来の技術] 従来、文字認識装置では、一般に文字を光学的に読み取
り2値化された文字画像から複数個の特微量を抽出し、
予め学習データから抽出された特微量を格納しである辞
書内の標準パターンとの類似度や距離を求めて認識を行
っていた。
[Prior Art] Conventionally, character recognition devices generally read characters optically and extract a plurality of characteristic quantities from a binary character image.
Recognition was performed by calculating similarity and distance from standard patterns in a dictionary that stored feature quantities extracted from learning data in advance.

ところが、これらの方法において殆どの場合、特徴抽出
で文字画像を殆どすべての画素について何回も走査する
処理が必要であったり、類似度計算や距離計算のために
多数の積和演算が必要であったりしたので、処理時間短
縮のための特徴抽出回路や類似度・距離計算回路等の専
用のハードウェア回路が要求され、コスト高な装置とな
っていた。
However, in most cases, these methods require processing to scan almost every pixel of a character image many times for feature extraction, or require multiple sum-of-products operations for similarity and distance calculations. Therefore, dedicated hardware circuits such as a feature extraction circuit and a similarity/distance calculation circuit are required to shorten processing time, resulting in an expensive device.

[発明が解決しようとする問題点コ 本発明は、前述の欠点を解決し、特徴抽出や距離計算用
の専用のハードウェア回路を必要とせず、汎用のマイク
ロプロセッサのみで実現可能なコスト安な文字認識装置
を提供する。また、認識アルゴリズムの改良やメンテナ
ンスがし易く、認識率の向上した文字認識装置を提供す
る。
[Problems to be Solved by the Invention] The present invention solves the above-mentioned drawbacks and is a low-cost system that can be implemented using only a general-purpose microprocessor without requiring dedicated hardware circuits for feature extraction or distance calculation. Provides a character recognition device. Further, the present invention provides a character recognition device whose recognition algorithm is easy to improve and maintain, and whose recognition rate is improved.

更に、文字の変形に対処できる文字認識装置を提供する
Furthermore, a character recognition device capable of dealing with character deformations is provided.

[問題点を解決するための手段] この問題点を解決するための一手段として、本発明の文
字認識装置は、光学的に読み取られたパターンの特徴を
抽出し、予め記憶された文字の特徴と比較して文字を認
識する文字認識装置であって、前記パターンの所定方向
の連続性を抽出する連続性抽出手段と、該連続性抽出手
段により抽出された連続性に基づいて、前記パターンを
部分パターンに分割するパターン分割手段と、前記パタ
ーンを保存して、前記部分パターンの特徴と接続とを記
憶する特徴・接続記憶手段と、前記部分パターンの特徴
と接続とに基づいて、文字の認識をする文字認識手段と
を備える。
[Means for Solving the Problem] As a means for solving this problem, the character recognition device of the present invention extracts the characteristics of an optically read pattern and extracts the characteristics of the character stored in advance. A character recognition device that recognizes a character by comparing it with a character, comprising: a continuity extraction means for extracting continuity in a predetermined direction of the pattern; and a character recognition device that recognizes the pattern based on the continuity extracted by the continuity extraction means. a pattern dividing means for dividing into partial patterns; a feature/connection storage means for storing the pattern and storing characteristics and connections of the partial patterns; character recognition based on the characteristics and connections of the partial patterns; and character recognition means.

又、光学的に読み取られたパターンの特徴を抽出し、予
め記憶された文字の特徴と比較して文字を認識する文字
認識装置であって、前記パターンの所定方向の連続性を
抽出する連続性抽出手段と、該連続性抽出手段により抽
出された連続性に基づいて、前記パターンを部分パター
ンに分割するパターン分割手段と、前記部分パターンの
太きさに基づいて、前記パターン分割手段の分割を補正
する分割補正手段と、前記パターンを保存して、前記部
分パターンの特徴と接続とを記憶する特徴・接続記憶手
段と、前記部分パターンの特徴と接続とに基づいて、文
字の認識をする文字認識手段とを備える。
Also, a character recognition device that extracts the characteristics of an optically read pattern and recognizes the character by comparing it with the characteristics of the character stored in advance, the character recognition device extracting the continuity of the pattern in a predetermined direction an extracting means, a pattern dividing means for dividing the pattern into partial patterns based on the continuity extracted by the continuity extracting means, and a pattern dividing means for dividing the pattern into partial patterns based on the thickness of the partial pattern. division correction means for correcting; feature/connection storage means for storing the pattern and storing the characteristics and connections of the partial patterns; and character recognition based on the characteristics and connections of the partial patterns. recognition means.

[作用コ かかる構成において、連続性抽出手段により抽出された
光学的に読み取られたパターンの連続性ニ基ツいて、パ
ターン分割手段により前記パターンを部分パターンに分
割し、特徴・接続記憶手段に記憶されたそれぞれの部分
パターンの特徴と接続とをパターンの特徴として、文字
認識手段で予め記憶された文字の特徴と比較して文字を
認識する。
[Operation] In such a configuration, based on the continuity of the optically read pattern extracted by the continuity extraction means, the pattern division means divides the pattern into partial patterns, and the divided patterns are stored in the feature/connection storage means. Characters are recognized by comparing the characteristics and connections of each of the partial patterns thus obtained as pattern characteristics with character characteristics stored in advance by a character recognition means.

又、連続性抽出手段により抽出された光学的に読み取ら
れたパターンの連続性に基づいて、パターン分割手段に
より前記パターンを部分パターンに分割し、特徴・接続
記憶手段に記憶されたそれぞれの部分パターンの特徴と
接続とをパターンの特徴として、文字認識手段で予め記
憶された文字の特徴と比較して文字を認識するが、分割
補正手段を更に備え、認識の前に前記部分パターンの大
きさに基づいて、前記パターン分割手段の分割を補正す
る。
Further, based on the continuity of the optically read pattern extracted by the continuity extraction means, the pattern division means divides the pattern into partial patterns, and each partial pattern is stored in the feature/connection storage means. Characters are recognized by comparing the characteristics and connections of the partial pattern with character characteristics stored in advance in a character recognition means. Based on this, the division of the pattern dividing means is corrected.

[実施例] 以下、図面を参照しながら本発明の詳細な説明する。尚
、本実施例の“文字”との文言は記号等の他のパターン
をも含むものである。
[Example] Hereinafter, the present invention will be described in detail with reference to the drawings. Note that the term "characters" in this embodiment also includes other patterns such as symbols.

第1図は本実施例の文字認識装置のハードウェア構成図
である。10は処理手順を実行するCPU、11は辞書
を格納するためのROM。
FIG. 1 is a hardware configuration diagram of the character recognition device of this embodiment. 10 is a CPU for executing processing procedures, and 11 is a ROM for storing a dictionary.

12は処理手順を記憶するROM、13は処理手順の作
業用、及び原稿1頁分のイメージデータを記憶するバッ
ファ用のRAM、14はスキャナ用インタフェース、1
5は原稿を光学的に読取り電気信号に変換し白黒2値の
イメージデータにするスキャナ、16は認識結果を外部
へ出力するためのインタフェースである。
12 is a ROM for storing processing procedures; 13 is a RAM for working in processing procedures and as a buffer for storing image data for one page of a manuscript; 14 is a scanner interface;
5 is a scanner that optically reads the original and converts it into an electrical signal to create black and white binary image data; 16 is an interface for outputting the recognition result to the outside.

第2図は本実施例の処理を示す概略の論理ブロック図で
ある。20は文字の書かれた原稿、21は光情報を電気
情報に変換する光電変換部、22は多値情報を2値化す
る2値化処理部、23は文字枠を切り出す文字切出し部
、24は黒画素の連続した列(ランと呼ぶ)を各行毎に
抽出するラン抽出部、25はランの連続性から文字の構
造を分析するノードデータ構造作成部、26はノードデ
ータ構造をコード化するコード化部、27はコード化部
26で作成されたコードと辞書部28に予め記憶された
コードとを比較して該当文字を識別する識別部、28は
コードと文字を対応して記憶する辞書部である。
FIG. 2 is a schematic logical block diagram showing the processing of this embodiment. Reference numeral 20 denotes a manuscript on which characters are written, 21 a photoelectric conversion unit that converts optical information into electrical information, 22 a binarization processing unit that binarizes multivalued information, 23 a character cutting unit that cuts out character frames, and 24 25 is a run extraction unit that extracts a continuous column of black pixels (called a run) for each row; 25 is a node data structure creation unit that analyzes the structure of a character from the continuity of the runs; 26 is a code for the node data structure. A coding unit 27 is an identification unit that compares the code created by the coding unit 26 with a code stored in advance in the dictionary unit 28 to identify the corresponding character; 28 is a dictionary that stores codes and characters in correspondence; Department.

次に、ROM12に格納された第10図(a)、第11
図(a)の処理フローチャートに沿って処理の手順を説
明する。スキャナ15によって原稿を読み取ると、光電
変換・2値処理がスキャナ15内部でなされ、白黒2値
のイメージデータがRAM13内部のバッファに転送さ
れる。ここまでのフローは図示されていない。
10(a) and 11 stored in the ROM 12.
The processing procedure will be explained along the processing flowchart of FIG. When a document is read by the scanner 15, photoelectric conversion and binary processing are performed within the scanner 15, and black and white binary image data is transferred to a buffer within the RAM 13. The flow up to this point is not illustrated.

第10図(a)のステップ5100では、公知の技術に
より1文字の文字画像が切り出されRAM13内部に記
憶されて文字が形成される。
In step 5100 of FIG. 10(a), a character image of one character is cut out and stored in the RAM 13 using a known technique to form a character.

第3図は形成された°゛ア“の文字画像の例を示す。こ
こで、RAM13内の各アドレスには白黒2値のデータ
が格納されており、第3図はこれを模式的に示したもの
である。尚、第3図で横方向をx@、縦方向をy軸とし
て以下説明する。ステップ5101では、文字画像を左
から右ヘラスタスキャンして白から黒及び黒から白への
変化点を検出し、ランを各行毎に抽出する。第3図のR
1〜R20は各ランに付したラン番号である。
Figure 3 shows an example of the formed character image of ``A''. Here, black and white binary data is stored at each address in the RAM 13, and Figure 3 schematically shows this. The following description will be made assuming that the horizontal direction is the x@ axis and the vertical direction is the y axis in FIG. Detects the change point and extracts the run for each row.R in Figure 3
1 to R20 are run numbers assigned to each run.

さらに、ランの抽出と同時に、前行のランと現在行のラ
ンの各々のX軸への斜影が重なる場合は、これらのラン
は上下方向に接続すると定義し、すべてのランの接続の
状況を調べる。ここで、一つのランを第4図に示すデー
タ構造(ランデータと呼ぶ)で表現することにする。第
4図中、Pl。
Furthermore, when extracting a run, if the oblique shadows of the run in the previous row and the run in the current row on the X axis overlap, these runs are defined as being connected in the vertical direction, and the connection status of all runs is checked. investigate. Here, one run will be expressed using the data structure (referred to as run data) shown in FIG. In FIG. 4, Pl.

P2.P3は、上の行の接続するランデータへのポイン
タであり、Pi、P2.P3の順に左から右へのランに
対応し、ポインタ値がOの場合はそれ以降の接続するラ
ンデータは存在しない。
P2. P3 is a pointer to the connected run data in the upper row, and Pi, P2 . This corresponds to a run from left to right in the order of P3, and if the pointer value is O, there is no subsequent run data to connect.

R4,R5,R6は同様にして下の行の接続するランデ
ータへのポインタである。この時点で作業用フラグ1は
、OFFとなっている。
Similarly, R4, R5, and R6 are pointers to connected run data in the lower row. At this point, the work flag 1 is OFF.

このようにして文字画像の1回のラスク走査が終わると
、第5図に示すような互いの接続関係を示したランデー
タの集まりからなる文字パターン全体のデータ構造(文
字パターンデータと呼ぶ)が得られる。文字パターンデ
ータは、元の文字画像を忠実に再現可能なデータとなっ
ている。
When one rask scan of a character image is completed in this way, the data structure of the entire character pattern (referred to as character pattern data) consisting of a collection of run data showing mutual connection relationships as shown in Fig. 5 is created. can get. The character pattern data is data that can faithfully reproduce the original character image.

第5図中、50は前行に接続するランへのポインタを持
たないランデータ(この例ではR1とR7、ヘッドラン
と呼ぶ)へのポインタの配列である。
In FIG. 5, 50 is an array of pointers to run data (R1 and R7 in this example, referred to as head runs) that do not have pointers to runs connected to the previous row.

ステップ5102とステップ5103では配列50の各
ヘッドランへのポインタについてノード生成の処理をす
るループステップであり、ステップ5103ではへラド
ランのランデータを引数として再帰的関数ノード生成の
サブルーチンを呼び出す。
Steps 5102 and 5103 are loop steps in which node generation processing is performed for each pointer to each head run in the array 50, and step 5103 calls a recursive function node generation subroutine using the run data of Heradran as an argument.

ここで、第11図(a)に従って再帰的関数ノード生成
の処理を説明する。
Here, the recursive function node generation process will be explained with reference to FIG. 11(a).

まず、ステップ5200で引数として渡されたランデー
タの作業用フラグ1がONかどうかを調べ、ONであれ
ば当量数は関数値を“0”としてリターンする。作業用
フラグ1がOFFであればステップ5210へ進み、第
6図で示されるノードデータの領域を確保し、ノードデ
ータの作業用フラグ2を゛0°゛クリアする。ステップ
5220ではランデータのラン長(終点座標−始点座標
+1)が予め決められたラン長判定用しきい値(例えば
4)と比較し、ラン長判定用しきい値以上であれば、ノ
ードデータのノード種に1” (長いことを示す)をセ
ットし、ラン長判定用しきい値未満であれば0″° (
短いことを示す)をセットする。
First, in step 5200, it is checked whether the work flag 1 of the run data passed as an argument is ON, and if it is ON, the equivalent number is returned with the function value set to "0". If the work flag 1 is OFF, the process advances to step 5210, where the node data area shown in FIG. 6 is secured, and the work flag 2 of the node data is cleared to ``0''. In step 5220, the run length (end point coordinates - starting point coordinates + 1) of the run data is compared with a predetermined threshold for run length determination (for example, 4), and if it is greater than or equal to the threshold for run length determination, the node data Set the node type to 1" (indicating long), and if it is less than the threshold for run length judgment, set it to 0" (
) to indicate that it is short.

ステップ5230では、ステップ5240→5250a
→5260a→5280のループカウンタのランポイン
タにランデータのアドレスをセットし、変数Aにランデ
ータのラン長を代入する。
In step 5230, step 5240→5250a
→5260a→Set the address of the run data in the run pointer of the loop counter 5280, and assign the run length of the run data to variable A.

次に、ステップ5240ではランポインタの指すランデ
ータの作業用フラグ1をONにする。ステップ5250
aでは、ラン長変化量Vを次式によって計算する。
Next, in step 5240, the work flag 1 of the run data pointed to by the run pointer is turned ON. Step 5250
In a, the run length change amount V is calculated using the following equation.

ランポインタの指すランデータのラン長を1′として if  (42>1’)  then v= (j2*  too) /文′ 1se V=  (j2  ′*  100)  /Itステッ
プ5260aでは、■が予め定められたラン長変化率し
きい値(例えば11o)を超えるかどうかを調べ、超え
なければラン長が一致しているものとみなし、ステップ
5280を進み、ランポインタに次のランデータのアド
レス、即ちランポインタの指すランデータのR4の値を
セットしてステップ5240へ戻りループする。ステッ
プ5260でVがラン長変化率しきい値を超えれば、ラ
ンデータの連続性が途切れたものとみなしてステップ5
270へ進み、ノードデータの最後のランデータアドレ
スにランポインタの値をセットしノードデータの作業用
フラグ2を°゛0゛′にクリアしてノードデータを完成
する。
Assuming that the run length of the run data pointed to by the run pointer is 1', if (42>1') then v= (j2* too) /statement' 1se V= (j2'*100) /It In step 5260a, ■ is predetermined. It is checked whether the run length change rate threshold (for example, 11o) is exceeded, and if it is not, it is assumed that the run lengths match, and the process proceeds to step 5280, where the run pointer is set to the address of the next run data, i.e. The value of R4 of the run data pointed to by the run pointer is set, and the process returns to step 5240 and loops. If V exceeds the run length change rate threshold in step 5260, it is assumed that the continuity of the run data has been interrupted, and step 5
Proceeding to 270, the value of the run pointer is set to the last run data address of the node data, the work flag 2 of the node data is cleared to 0'0', and the node data is completed.

次にステップ5290ではランポインタの指すランデー
タに子のランデータであるかどうか(即ち、ランポイン
タの指すランデータのP4〜P6が0”でないかどうか
)を調べ、子のランデータがなければノードデータのア
ドレスを関数値にしてリターンする。子のランデータが
あれば、子のランデータを引数としてステップ5300
でノード生成の関数を再帰的に呼び出す。ステップ53
10ではステップ5300で読んだ関数の関数値の指す
ノードデータを子とし、ノードデータを親として互いに
ポインタで結び合わせる。次にステップ5290へ戻り
、次の子ランデータがあるかどうかを調べ、なければノ
ードデータのアドレスを関数値としてリターンする。
Next, in step 5290, it is checked whether the run data pointed to by the run pointer is child run data (that is, whether P4 to P6 of the run data pointed to by the run pointer are not 0''), and if there is no child run data. Return with the address of the node data as the function value. If there is child run data, use the child run data as an argument and return to step 5300.
Call the node generation function recursively. Step 53
In step 10, the node data pointed to by the function value of the function read in step 5300 is set as a child, and the node data is linked to each other using a pointer as a parent. Next, the process returns to step 5290 to check whether there is next child run data, and if not, returns the address of the node data as the function value.

このようにして第5図の文字パターンデータは、第6図
(a)で示されるノードデータのつながりである第7図
のようなノードデータ構造に変換される。第6図(a)
でQl、Q2.Q3は親のノードへのポインタ、Q4.
Q5.Q6は子のノードへのポインタである。第7図の
四角のブロックはノードデータであり、N1〜N5はノ
ードの名称で第5図のN1〜N5に対応する。四角いブ
ロックの下半分に記載されたり、Sはノード種である。
In this way, the character pattern data of FIG. 5 is converted into a node data structure as shown in FIG. 7, which is a connection of node data shown in FIG. 6(a). Figure 6(a)
Ql, Q2. Q3 is a pointer to the parent node, Q4.
Q5. Q6 is a pointer to a child node. The square blocks in FIG. 7 are node data, and N1 to N5 are node names and correspond to N1 to N5 in FIG. 5. It is written in the lower half of the square block, and S is the node type.

Lは長い、Sは短いを表す。L stands for long and S stands for short.

第10図(a)に戻って、ステップ5102で未処理の
へラドランがなくなれば、ステップ5104に進み、ノ
ードデータ構造の各ノートデータに番号付けを行う。番
号付けは、ヘッドランのポインタ配列50の左から右の
順にヘットランを走査し、ヘッドランからQ4の子ノー
ドを下へ辿って辿り着いたところから逆に姉妹ノード、
親ノードの順に逆のぼって行う。第8図は、第7図のノ
ードデータ構造を番号付けしたものである。次にステッ
プ5105では、ノードデータ構造をノード番号の順に
各ノードを32ビツトのコードに変換してノードデータ
構造のコード化を行う。ノードのコード化は第9図で示
されるように、ノード番号、ノード種、Q1〜Q6のノ
ード番号を各々4ビツトで表して行う。
Returning to FIG. 10(a), if there are no unprocessed heradrans in step 5102, the process proceeds to step 5104, where each note data in the node data structure is numbered. The numbering is done by scanning the headruns in order from left to right in the headrun pointer array 50, tracing the child nodes of Q4 downward from the headrun, and from where they arrive, the sister nodes,
Work backwards in order of parent nodes. FIG. 8 is a numbered representation of the node data structure of FIG. Next, in step 5105, the node data structure is encoded by converting each node into a 32-bit code in the order of the node number. As shown in FIG. 9, the nodes are encoded by representing the node number, node type, and node numbers Q1 to Q6 with 4 bits each.

最後にステップ5106では、ステップ5105で求ま
ったノードデータ構造のコードと、辞書部28内の標準
パターンのコードとを比較し、一致した標準パターンの
文字類を認識結果とする。
Finally, in step 5106, the code of the node data structure determined in step 5105 is compared with the code of the standard pattern in the dictionary section 28, and the characters of the matched standard pattern are taken as the recognition result.

前記実施例ではラン長の変化を前のランとのラン長との
比が予め定められたしきい値をこえているかどうかで検
出しているが、他の実施例として次のものがある。
In the embodiment described above, a change in run length is detected by determining whether the ratio of the run length to the previous run exceeds a predetermined threshold, but other embodiments include the following.

n個前のランをR1,Rnのラン長を2゜とする。関数
f(Ml、見2.・・・旦、)は、1個の前のランR,
〜R8のラン長からR1の次のラン(ROとする)のラ
ン長旦。を予測する関数でランROのラン長旦。とf(
旦1.交2.・・・旦r)の差が一定値dよりも大きい
かどうかでラン長の変化を検出する。関数fの例として
は、例えば次のようなものが考えられる。
Assume that the nth previous run is R1, and the run length of Rn is 2°. The function f(Ml, 2...dan,) is one previous run R,
~The run length of the next run (referred to as RO) of R1 from the run length of R8. A function that predicts the run length of the run RO. and f(
Dan 1. Cross 2. . . . A change in run length is detected based on whether the difference between the two values (r) is larger than a constant value d. Examples of the function f include the following.

if   C1t >1+ )  thenf(旦11
文2)一旦、−(旦、一旦、)1se f(交8.旦、)=旦、+(旦、一旦、)本実施例はラ
ン長の長短の判定を固定しきい値よりも長いか短いかの
絶対的なものとせずに、前のランのラン長に対して相対
的に長いか短いかとしたので、水平ストロークの傾斜か
ら生ずる長いランの下の短いランを上の長いランと同じ
ノードに属させることにより、水平ストロークの傾斜変
形に対する対策とストローク付近のノイズ吸収が図られ
ることから認識率の向上が大であり、且つ全ての文字画
像の画素毎の追跡処理を行わずに、ランデータのみの処
理にて認識を可能ならしめる。従って、特別の専用ハー
ドウェア回路を必要とせずに、文字認識装置を実現でき
る。
if C1t >1+ ) thenf(dan 11
Sentence 2) Once, - (dan, once,) 1se f (intersection 8.dan,)=dan, + (dan, once,) This embodiment judges whether the run length is longer or shorter than a fixed threshold value. Rather than assuming that it is short or short, we have determined that it is relatively long or short relative to the run length of the previous run, so the short run below the long run resulting from the slope of the horizontal stroke is the same as the long run above. By making it belong to a node, the recognition rate is greatly improved because it takes measures against the slope deformation of the horizontal stroke and absorbs noise near the stroke, and it also eliminates the need to perform pixel-by-pixel tracking processing on all character images. To enable recognition by processing only run data. Therefore, a character recognition device can be realized without requiring any special dedicated hardware circuit.

次にノードデータに、その属性値を持たせた場合の例を
示す。第6図(b)は属性値を持ったノードデータ、第
11図(b)は属性値を持たせるノード生成サブルーチ
ンのフローチャートである。尚、第11図(b)のフロ
ーで第11図(a)と同様である部分は図示していない
Next, an example will be shown in which the node data has its attribute value. FIG. 6(b) is a flowchart of node data having attribute values, and FIG. 11(b) is a flowchart of a node generation subroutine to have attribute values. Note that in the flow of FIG. 11(b), parts that are the same as those in FIG. 11(a) are not shown.

ステップ5250bでは、ノードデータの属性値にラン
ポインタが指すランデータの黒画素数(即ち、ラン長=
終点座標−始点座標+1)の足し込みを行う。
In step 5250b, the number of black pixels of the run data pointed to by the run pointer (i.e., run length =
Add the ending point coordinates - starting point coordinates + 1).

ステップ3260aでは、ランポインタの指すランデー
タのラン長をラン長判定用しきい値と比較し、長いか短
いかを求めてノードデータのノード種と一致するかどう
かを判定する。一致すれば、ランポインタに次のランデ
ータのアドレス(即ち、ランポインタの指すランデータ
のP4の値)をセットしステップ5240へ戻り、一致
しなければ、ランの縦方向の連続性が途切れたものとみ
なし、ステップ3270へ進む。ステップ5270では
ノードデータの最後、ランデータアドレスにランポイン
タの値をセットする。
In step 3260a, the run length of the run data pointed to by the run pointer is compared with a run length determination threshold to determine whether it is long or short, and it is determined whether it matches the node type of the node data. If they match, the address of the next run data (that is, the value of P4 of the run data pointed to by the run pointer) is set in the run pointer and the process returns to step 5240; if they do not match, the vertical continuity of the run has been interrupted. It is regarded as such and proceeds to step 3270. In step 5270, the value of the run pointer is set in the run data address at the end of the node data.

第6図(b)でQl、Q2.Q3は親のノードへのポイ
ンタ、Q4.Q5.Q6は子のノードへのポインタであ
り、属性値にはノードに含まれる黒画素数が人っている
In FIG. 6(b), Ql, Q2. Q3 is a pointer to the parent node, Q4. Q5. Q6 is a pointer to a child node, and the attribute value includes the number of black pixels included in the node.

この場合は、第10図(a)の最後のステップ5106
の識別は、ステップ5105で求まったノードデータ構
造のコードと、辞書部28内の標準パターンのコードと
を比較し、一致した標準パターンの文字類を認識候補と
する。辞書部28にはノードデータ構造のコードと各ノ
ードの属性値(ノードに含まれる黒画素の平均個数)及
び文字コードとが一組になって文字類の種類数だけ格納
されている。
In this case, the last step 5106 in FIG. 10(a)
For identification, the code of the node data structure determined in step 5105 is compared with the code of the standard pattern in the dictionary section 28, and characters of the matched standard pattern are selected as recognition candidates. The dictionary unit 28 stores a set of a code of a node data structure, an attribute value of each node (average number of black pixels included in a node), and a character code for the number of types of characters.

更に、認識候補となった文字類(i=1.2゜・・・、
n)について観測文字パターンの距離り、を次式で求め
る。
Furthermore, characters that were candidates for recognition (i=1.2°...,
For n), the distance of the observed character pattern is calculated using the following formula.

DI=Σlxk ai+’1 kg+ ココで、Xk (k=1.・・・m)は観測文字パター
ンのノードデータ構造のに番目ノードの属性値、a 、
 lは第1番目の候補のに番目ノードの属性値である。
DI=Σlxk ai+'1 kg+ Here, Xk (k=1...m) is the attribute value of the second node in the node data structure of the observed character pattern, a,
l is the attribute value of the second node of the first candidate.

(D+  l i = 1、−−−n)で最小の距1I
iItDIをもつ文字類を認識結果とする。かくして、
ノードデータ構造のコードにより候補を絞り、次にノー
ドデータ構造のノードに含まれる黒画素数を比較するこ
とにより識別を行った。
(D+ l i = 1, ---n), the minimum distance 1I
Characters having iItDI are recognized as recognition results. Thus,
Candidates were narrowed down using the code of the node data structure, and then identified by comparing the number of black pixels included in the nodes of the node data structure.

前記実施例では、ノードに含まれる黒画素数をノードの
属性値としたが、他にも以下のような量を属性値とした
同様の実施例が考えられる。
In the embodiment described above, the number of black pixels included in a node is used as the attribute value of the node, but other similar embodiments can be considered in which the following quantities are used as the attribute value.

(1)ストロークの方向を属性値とする。(1) Set the stroke direction as an attribute value.

各ノードは縦方向に接続したランの集まりであるので、
ノード種が短い(ラン長が短い)場合に、各ランの中点
の集まりに最も近似的な直線を求めて、この直線の傾き
を属性値とする。ランの集まりは、ストロークを構成す
るので直線の傾きはストロークの方向になっている。
Since each node is a collection of runs connected vertically,
When the node type is short (run length is short), the most approximate straight line to the collection of midpoints of each run is found, and the slope of this straight line is used as the attribute value. A collection of runs constitutes a stroke, so the slope of the straight line is in the direction of the stroke.

(2)接点の位置を属性値とする。(2) Set the position of the contact point as an attribute value.

親のノード種が長いので子のノード種が短いランの場合
において、両ノードを線分で近似して親ノードの線分を
左、中央、右の三つの部分に分割し、子ノードの線分上
部が親ノードの線分のどの三つの部分に接しているかを
求め、この接点の位置を属性値とする。
In the case of a run where the parent node type is long and the child node type is short, both nodes are approximated by line segments, the parent node line segment is divided into three parts: left, center, and right, and the child node line is Find out which three parts of the line segment of the parent node the portion is in contact with, and use the position of this contact point as the attribute value.

本実施例では、文字画像を一回だけラスク走査すること
によりノードデータ構造とノードの属性値を求めること
ができ、文字画像を画素毎に追跡して特徴を抽出する他
の方法に比べ簡単に処理が行え、コードのマツチングと
ノードの属性値の比較という簡単な方法で識別が行える
ことができるので、特別のハードウェア回路を必要とせ
ず、且つ汎用のマイクロプロセッサの標準的な構成で文
字認識装置が実現できるため、低価格の文字認識装置を
提供できる。
In this example, the node data structure and node attribute values can be determined by scanning the character image only once, which is easier than other methods that trace the character image pixel by pixel and extract features. Since character recognition can be performed simply by matching codes and comparing node attribute values, character recognition is possible without the need for special hardware circuits and with a standard configuration of a general-purpose microprocessor. Since the device can be realized, a low-cost character recognition device can be provided.

更に、第11図(C)のようにステップ5240からス
テップ5260に飛んで、ラン長の比較を隼にり、Sの
比較で行うと処理は簡・車となる。又、ラン長の変化点
を見出してランの連続性の途切れとして各ランの集まり
をノード化したが、他の実施例として、文字パターンの
ストロークの合流点・分岐点や屈折点等をランの接続状
態より見出すことができるので、これらの点をランの連
続性の途切れとしてノード化することが考えられる。
Furthermore, as shown in FIG. 11(C), if the process jumps from step 5240 to step 5260 and compares the run lengths using Hayabusa and S, the process becomes simple. In addition, we found points of change in run length and turned each run into a node as a break in the continuity of the run, but as another example, we can use the merging point, branching point, or inflection point of the strokes of a character pattern as a node. Since these points can be found from the connection state, it is conceivable to node these points as breaks in the continuity of the run.

前記実施例で示されたように、文字画像を一回うスク走
査することにより、ランデータの集合からなる文字パタ
ーンデータがつくられ、以後は文字パターンデータをf
i理するだけで特徴抽出が行える。文字画像をNxN 
(画素)とすると、他の一般の文字認識方法では、N2
の画素数に比例した処理量が必要なのに比べ、本発明で
はランのみを処理するので処理量が格段に少なくなる。
As shown in the above embodiment, by scanning the character image once, character pattern data consisting of a set of run data is created, and thereafter the character pattern data is
Feature extraction can be performed simply by processing. NxN character images
(pixels), then in other general character recognition methods, N2
In contrast, the amount of processing required is proportional to the number of pixels, whereas in the present invention, only runs are processed, so the amount of processing is significantly reduced.

又、認識は距離計算を行う必要がなく、単純なコードの
マツチングだけでよい。従って、特別な専用ハードウェ
ア回路が必要なく、汎用のマイクロプロセッサの標準的
な構成で文字認識装置が実現できるため、低価格の文字
認識装置を提供できる。
Further, recognition does not require distance calculation, and only simple code matching is required. Therefore, a character recognition device can be realized with a standard configuration of a general-purpose microprocessor without the need for a special dedicated hardware circuit, so that a low-cost character recognition device can be provided.

第10図(b)はノードデータ構造の補正を行うステッ
プ5110がステップ5104のノード番号付けの前に
挿入されたフローチャートである。
FIG. 10(b) is a flowchart in which a step 5110 for correcting the node data structure is inserted before node numbering in step 5104.

ステップ5102で未処理のへラドランがなくなればス
テップ5iloへ進み、ノードデータ構造補正サブルー
チンを呼び出す。
If there are no unprocessed heradrans in step 5102, the process advances to step 5ilo, and a node data structure correction subroutine is called.

次に第12図に従って、ノードデータ構造補正の処理を
説明する。第7図で上への連結するノードをもたないヘ
ッドノードはN1とN3である。
Next, the node data structure correction process will be described with reference to FIG. In FIG. 7, the head nodes that have no upwardly connected nodes are N1 and N3.

ステップ5400とステップ5410は全てのへラドノ
ードについて処理をするループステップである。ステッ
プ5400で未処理のへラドノードがあれば、ステップ
34″10へ進み、ヘッドノードから下へ順にノードを
たどり、各ノードについてノードに含まれるすべてのラ
ンの黒画素数の和を計算する。これは、ノードデータが
第6図(a)、(’b)に示す如く先頭ランデータアド
レスと最後ランデータアドレスを含むので、ノードに含
まれるランデータをたどることによって計算可能である
Steps 5400 and 5410 are loop steps that process all Herad nodes. If there is an unprocessed Herad node in step 5400, the process proceeds to step 34''10, where the nodes are traced in order from the head node downwards, and for each node, the sum of the number of black pixels of all runs included in the node is calculated. can be calculated by tracing the run data included in the node, since the node data includes the first run data address and the last run data address as shown in FIGS. 6(a) and ('b).

黒画素数の和がある一定値よりも小さければ、このノー
ドはノイズやハネによって生じたもので本来は生ずべき
ではないから、ノードデータを第13図に一例を示すよ
うにノードデータ構造から削除する。そして、このノー
ドデータと連結するノードデータのポインタQ1〜Q6
を訂正する。但し、黒画素数の和が一定値よりも小さく
ても、注目のノードデータが上又は下に2個以上のノー
ドデータと連結する場合(即ち、合流点又は分岐点とな
っているノードデータ)は、ノードデータ構造から削、
除しない。
If the sum of the number of black pixels is smaller than a certain value, this node is caused by noise or splashes and should not occur in the first place, so the node data is changed from the node data structure as shown in an example in Figure 13. delete. Then, pointers Q1 to Q6 of node data to be connected to this node data
Correct. However, even if the sum of the number of black pixels is smaller than a certain value, if the node data of interest is connected to two or more node data above or below (i.e., node data that is a confluence or branch point) is removed from the node data structure,
Not excluded.

ステップ5400で未処理のへラドノードが無ければ、
ステップ5420へ進む。ステップ3420、ステップ
5430も全てのへラドノードについて処理をするルー
プステップである。ステップ5420で未処理のへラド
ノードがあれは、ステップ5430へ進み、ヘッドノー
ドから下へすべてのノードをたどって第13図に一例を
示すようにノードの削除によって発生した、本来一つに
なるべき分離したノードデータ同士を統合して一つのノ
ードデータにする処理を行う。ステップ5420で未処
理のへラドノードがなければサブルーチンは終了しリタ
ーンする。
If there is no unprocessed Herad node in step 5400,
Proceed to step 5420. Steps 3420 and 5430 are also loop steps that process all Herad nodes. If there is an unprocessed herad node in step 5420, proceed to step 5430 and trace all the nodes downward from the head node. Processing is performed to integrate separated node data into one node data. If there is no unprocessed Herad node in step 5420, the subroutine ends and returns.

前記実施例ではノードに含まれるランの黒画素数の和が
一定値以下の場合にノードの削除を行ったが、他の実施
例としてノードに含まれるランの個数が一定個数以下の
場合にノードの削除を行う方法もある。
In the above embodiment, the node is deleted when the sum of the number of black pixels of the runs included in the node is less than a certain value, but in another embodiment, when the number of runs included in the node is less than a certain number, the node is deleted. There is also a way to delete the .

本実施例によれば、文字の変形に対処できる文字認識装
置を特徴抽出や距離計算用の専用のハードウェア回路を
必要とすることなく、汎用のマイクロプロセッサのみで
実現可能にしている。
According to this embodiment, a character recognition device capable of dealing with character deformations can be realized using only a general-purpose microprocessor without requiring special hardware circuits for feature extraction or distance calculation.

尚、本実施例では文字の認識を黒点を対象に行ったが、
白黒は相対的なものであって白点による認識であっても
良いし、また所定の色等を考えても良い。又、本実施例
は文字の認識を縦・横の連続性に基づいて行ない、特に
縦の連続性の抽出結果がより有効で簡単になるように工
夫されたものである。しかし、縦・横も相対的なもので
あり、本実施例の方向は何ら限定されたものでなく、斜
め方向、同心円方向、放射方向等であっても良い。
Note that in this example, character recognition was performed using black dots.
Black and white is relative, and recognition may be based on a white point, or a predetermined color or the like may be considered. Further, in this embodiment, character recognition is performed based on vertical and horizontal continuity, and in particular, the extraction result of vertical continuity is made more effective and simple. However, the vertical and horizontal directions are also relative, and the direction in this embodiment is not limited at all, and may be an oblique direction, a concentric direction, a radial direction, or the like.

[発明の効果コ 本発明により、特徴抽出や距離計算用の専用のハードウ
ェア回路を必要とせず、汎用のマイクロプロセッサのみ
で実現可能なコスト安な文字認識装置を提供できる。ま
た、認識アルゴリズムの改良やメンテナンスがし易く、
認識率の向上した文字認識装置を提供できる。
[Effects of the Invention] According to the present invention, it is possible to provide a low-cost character recognition device that does not require dedicated hardware circuits for feature extraction or distance calculation and can be implemented using only a general-purpose microprocessor. In addition, it is easy to improve and maintain the recognition algorithm.
A character recognition device with improved recognition rate can be provided.

更に、文字の変形に対処できる文字認識装置を提供でき
る。
Furthermore, it is possible to provide a character recognition device that can deal with character deformations.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は実施例の文字認識装置のハードウェア構成図、 第2図は実施例の文字認識装置の論理的なブロック構成
図、 第3図は文字画像を示す図、 第4図はランデータを示す図、 第5図は文字パターンデータを示す図、第6図(a)、
(b)はノードデータを示す図、 第7図はノードデータ構造を示す図、 第8図は番号付けされたノードデータ構造を示す図、 第9図はコード化されたノードを示す図、第10図(a
)、(b)は文字認識のフローチヤード、 第11図(a)、(b)、(c)はノード生成サブルー
チンのフローチャート、 第12図はノードデータ構造補正サブルーチンのフロー
チャート、 第13図はノードの削除と統合を示す図である。 図中、10・CPU、11−・・辞書用ROM、12・
・・処理手順用ROM、13・・・RAM、14・・・
スキャナ用インタフェース、15・・・スキャナ、16
・・・出力用インタフェース、20・・・原稿、21・
・・光電変換部、22・・・2値化処理部、23・・・
文字切出し部、24・・・ラン抽出部、25・・・ノー
ドデータ構造作成部、26・・・コード化部、27・・
・識別部、28・・・辞書部である。 第1図 □X 第3図 第4図 第6図 (0) 第6図 (b) 第10図 (0) 第7図 り 第9図 第10図 (b) 第11図  (b) 第11図 (C) 第12図
Fig. 1 is a hardware configuration diagram of the character recognition device of the embodiment, Fig. 2 is a logical block diagram of the character recognition device of the embodiment, Fig. 3 is a diagram showing character images, and Fig. 4 is run data. Figure 5 is a diagram showing character pattern data, Figure 6 (a),
(b) is a diagram showing node data; FIG. 7 is a diagram showing a node data structure; FIG. 8 is a diagram showing a numbered node data structure; FIG. 9 is a diagram showing coded nodes; Figure 10 (a
), (b) are flowcharts for character recognition, Figures 11 (a), (b), and (c) are flowcharts for node generation subroutines, Figure 12 is a flowchart for node data structure correction subroutine, and Figure 13 is a node diagram. It is a figure which shows the deletion and integration of. In the figure, 10.CPU, 11.. ROM for dictionary, 12..
...Processing procedure ROM, 13...RAM, 14...
Scanner interface, 15...Scanner, 16
...output interface, 20...manuscript, 21.
...Photoelectric conversion section, 22...Binarization processing section, 23...
Character extraction unit, 24... Run extraction unit, 25... Node data structure creation unit, 26... Encoding unit, 27...
- Identification section, 28... Dictionary section. Figure 1 □X Figure 3 Figure 4 Figure 6 (0) Figure 6 (b) Figure 10 (0) Figure 7 Figure 9 Figure 10 (b) Figure 11 (b) Figure 11 (C) Figure 12

Claims (15)

【特許請求の範囲】[Claims] (1)光学的に読み取られたパターンの特徴を抽出し、
予め記憶された文字の特徴と比較して文字を認識する文
字認識装置において、 前記パターンの所定方向の連続性を抽出する連続性抽出
手段と、 該連続性抽出手段により抽出された連続性に基づいて、
前記パターンを部分パターンに分割するパターン分割手
段と、 前記パターンを保存して、前記部分パターンの特徴と接
続とを記憶する特徴・接続記憶手段と、前記部分パター
ンの特徴と接続とに基づいて、文字の認識をする文字認
識手段とを備えることを特徴とする文字認識装置。
(1) Extract the characteristics of the optically read pattern,
A character recognition device that recognizes characters by comparing them with pre-stored character features, comprising: continuity extraction means for extracting continuity of the pattern in a predetermined direction; and continuity extraction means for extracting continuity in a predetermined direction of the pattern; hand,
a pattern dividing means for dividing the pattern into partial patterns; a feature/connection storage means for storing the pattern and storing the characteristics and connections of the partial patterns; based on the characteristics and connections of the partial patterns; A character recognition device comprising: character recognition means for recognizing characters.
(2)連続性抽出手段は、横方向の連続性を抽出する横
方向抽出手段と、該横方向抽出手段が抽出した横方向の
連続性に基づいて縦方向の連続性を抽出する縦方向抽出
手段とを備えることを特徴とする特許請求の範囲第1項
記載の文字認識装置。
(2) The continuity extraction means includes horizontal extraction means for extracting continuity in the horizontal direction, and vertical extraction for extracting continuity in the vertical direction based on the continuity in the horizontal direction extracted by the horizontal extraction means. 2. A character recognition device according to claim 1, further comprising means.
(3)横方向抽出手段は、一行内で横方向の連続性も持
つ列をランとして抽出することを特徴とする特許請求の
範囲第2項記載の文字認識装置。
(3) The character recognition device according to claim 2, wherein the horizontal extraction means extracts columns that also have horizontal continuity within one line as runs.
(4)縦方向抽出手段は、ランの長さの所定値よりの長
短に基づいて連続性を判定することを特徴とする特許請
求の範囲第3項記載の文字認識装置。
(4) The character recognition device according to claim 3, wherein the vertical extraction means determines continuity based on whether the length of the run is longer or shorter than a predetermined value.
(5)縦方向抽出手段は、ランの長さの変化率に基づい
て連続性を判定することを特徴とする特許請求の範囲第
3項記載の文字認識装置。
(5) The character recognition device according to claim 3, wherein the vertical extraction means determines continuity based on a rate of change in run length.
(6)特徴・接続記憶手段は、部分パターンの特徴とし
てランの長さを記憶することを特徴とする特許請求の範
囲第1項または第3項記載の文字認識装置。
(6) The character recognition device according to claim 1 or 3, wherein the feature/connection storage means stores a run length as a feature of the partial pattern.
(7)特徴・接続記憶手段は、部分パターンの特徴とし
て部分パターン内の黒点の総和を記憶することを特徴と
する特許請求の範囲第1項記載の文字認識装置。
(7) The character recognition device according to claim 1, wherein the feature/connection storage means stores the sum of black dots in the partial pattern as a feature of the partial pattern.
(8)光学的に読み取られたパターンの特徴を抽出し、
予め記憶された文字の特徴と比較して文字を認識する文
字認識装置において、 前記パターンの所定方向の連続性を抽出する連続性抽出
手段と、 該連続性抽出手段により抽出された連続性に基づいて、
前記パターンを部分パターンに分割するパターン分割手
段と、 前記部分パターンの大きさに基づいて、前記パターン分
割手段の分割を補正する分割補正手段と、 前記パターンを保存して、前記部分パターンの特徴と接
続とを記憶する特徴・接続記憶手段と、前記部分パター
ンの特徴と接続とに基づいて、文字の認識をする文字認
識手段とを備えることを特徴とする文字認識装置。
(8) Extracting the characteristics of the optically read pattern,
A character recognition device that recognizes characters by comparing them with pre-stored character features, comprising: continuity extraction means for extracting continuity of the pattern in a predetermined direction; and continuity extraction means for extracting continuity in a predetermined direction of the pattern; hand,
a pattern division means for dividing the pattern into partial patterns; a division correction means for correcting the division of the pattern division means based on the size of the partial pattern; and a division correction means for storing the pattern and determining the characteristics of the partial pattern. A character recognition device comprising: a feature/connection storage means for storing connections; and a character recognition means for recognizing characters based on the features and connections of the partial patterns.
(9)連続性抽出手段は、横方向の連続性を抽出する横
方向抽出手段と、該横方向抽出手段が抽出した横方向の
連続性に基づいて縦方向の連続性を抽出する縦方向抽出
手段とを備えることを特徴とする特許請求の範囲第8項
記載の文字認識装置。
(9) The continuity extraction means includes horizontal extraction means for extracting continuity in the horizontal direction, and vertical extraction for extracting continuity in the vertical direction based on the continuity in the horizontal direction extracted by the horizontal extraction means. 9. The character recognition device according to claim 8, further comprising means.
(10)横方向抽出手段は、一行内で横方向の連続性も
持つ列をランとして抽出することを特徴とする特許請求
の範囲第9項記載の文字認識装置。
(10) The character recognition device according to claim 9, wherein the horizontal extraction means extracts columns that also have horizontal continuity within one line as runs.
(11)縦方向抽出手段は、ランの長さの所定値よりの
長短に基づいて連続性を判定することを特徴とする特許
請求の範囲第10項記載の文字認識装置。
(11) The character recognition device according to claim 10, wherein the vertical extraction means determines continuity based on whether the length of the run is longer or shorter than a predetermined value.
(12)縦方向抽出手段は、ランの長さの変化率に基づ
いて連続性を判定することを特徴とする特許請求の範囲
第10項記載の文字認識装置。
(12) The character recognition device according to claim 10, wherein the vertical extraction means determines continuity based on a rate of change in run length.
(13)特徴・接続記憶手段は、部分パターンの特徴と
してランの長さを記憶することを特徴とする特許請求の
範囲第8項または第10項記載の文字認識装置。
(13) The character recognition device according to claim 8 or 10, wherein the feature/connection storage means stores a run length as a feature of the partial pattern.
(14)特徴・接続記憶手段は、部分パターンの特徴と
して部分パターン内の黒点の総和を記憶することを特徴
とする特許請求の範囲第8項記載の文字認識装置。
(14) The character recognition device according to claim 8, wherein the feature/connection storage means stores the sum of black dots in the partial pattern as the feature of the partial pattern.
(15)分割補正手段は、パターン分割手段の分割によ
る部分パターンの黒点の総和が所定値より少ない場合に
、この部分パターンを削除する部分パターン削除手段と
、該部分パターンが削除されたパターンを部分パターン
で再構成する部分パターン再構成手段とを備えることを
特徴とする特許請求の範囲第8項記載の文字認識装置。
(15) The division correction means includes partial pattern deletion means for deleting the partial pattern when the sum of black points of the partial pattern resulting from division by the pattern division means is less than a predetermined value; 9. The character recognition device according to claim 8, further comprising partial pattern reconstruction means for reconstructing a pattern.
JP62040356A 1987-02-25 1987-02-25 Pattern recognition method and information processing apparatus Expired - Lifetime JP2933927B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62040356A JP2933927B2 (en) 1987-02-25 1987-02-25 Pattern recognition method and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62040356A JP2933927B2 (en) 1987-02-25 1987-02-25 Pattern recognition method and information processing apparatus

Publications (2)

Publication Number Publication Date
JPS63208181A true JPS63208181A (en) 1988-08-29
JP2933927B2 JP2933927B2 (en) 1999-08-16

Family

ID=12578361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62040356A Expired - Lifetime JP2933927B2 (en) 1987-02-25 1987-02-25 Pattern recognition method and information processing apparatus

Country Status (1)

Country Link
JP (1) JP2933927B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05258113A (en) * 1992-03-11 1993-10-08 Ricoh Co Ltd Character recognition method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58182791A (en) * 1982-04-20 1983-10-25 Ricoh Co Ltd Feature extracting and sorting method of character pattern
JPS6116380A (en) * 1984-07-03 1986-01-24 Ricoh Co Ltd Area dividing system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58182791A (en) * 1982-04-20 1983-10-25 Ricoh Co Ltd Feature extracting and sorting method of character pattern
JPS6116380A (en) * 1984-07-03 1986-01-24 Ricoh Co Ltd Area dividing system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05258113A (en) * 1992-03-11 1993-10-08 Ricoh Co Ltd Character recognition method

Also Published As

Publication number Publication date
JP2933927B2 (en) 1999-08-16

Similar Documents

Publication Publication Date Title
US5410611A (en) Method for identifying word bounding boxes in text
JPH1196301A (en) Character recognizing device
JPS63208181A (en) Character recognizing device
US20030123730A1 (en) Document recognition system and method using vertical line adjacency graphs
CN109871910B (en) Handwritten character recognition method and device
JP3586949B2 (en) Form recognition device
KR930008669A (en) Candidate Character Classification Method
JP3586911B2 (en) Border recognition device
JPH0548510B2 (en)
JP3582734B2 (en) Table vectorizer
JP2789622B2 (en) Character / graphic area determination device
JP2004334913A (en) Document recognition device and document recognition method
JPH02166583A (en) Character recognizing device
JP2507949B2 (en) Character / graphic area determination device
JPH1040333A (en) Device for recognizing slip
JPS6116380A (en) Area dividing system
JPH04260980A (en) Device for recognizing graphic
KR910005390B1 (en) Method for processing document automatically and recognizing english characters
JP2878327B2 (en) Character segmentation device
JPS60238986A (en) Pattern matching system of character recognition device
JPH0877293A (en) Character recognition device and generating method for dictionary for character recognition
JPS6174079A (en) Pattern recognizing device
Roy et al. Segmentation of Bangla Handwritten Character for Indian Postal Automation
JPS6232587A (en) Character recognizing system
JPH03192487A (en) Pattern recognizing method

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term