JPH08287188A - Character string recognition device - Google Patents

Character string recognition device

Info

Publication number
JPH08287188A
JPH08287188A JP7090584A JP9058495A JPH08287188A JP H08287188 A JPH08287188 A JP H08287188A JP 7090584 A JP7090584 A JP 7090584A JP 9058495 A JP9058495 A JP 9058495A JP H08287188 A JPH08287188 A JP H08287188A
Authority
JP
Japan
Prior art keywords
character
unit
image
input
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7090584A
Other languages
Japanese (ja)
Other versions
JP2751865B2 (en
Inventor
Toshifumi Yamauchi
俊史 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP7090584A priority Critical patent/JP2751865B2/en
Publication of JPH08287188A publication Critical patent/JPH08287188A/en
Application granted granted Critical
Publication of JP2751865B2 publication Critical patent/JP2751865B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Sorting Of Articles (AREA)
  • Character Input (AREA)
  • Character Discrimination (AREA)

Abstract

PURPOSE: To provide a character string recognition device which can automatically recognize a character string, entered in free format with a character touch and entanglement, fast with high precision. CONSTITUTION: This device has an image input part 1, a format decision part 2, a character cutting part 3, a normalization part 4, a feature extraction part 5, a collation part 6, a knowledge processing part 8, a character generation part 10, a 1st means, and a 2nd means. At this time, the 1st means can be equipped with the normalization part 4, feature extraction part 6, and collation part 6. Further, the 2nd means can be equipped with the knowledge processing part 8. Recognition candidate characters 18 obtained by collating feature patterns 17 of an input character with reference patterns 19 by the collation part 6 are matched by the knowledge processing part 8 against knowledge dictionary data 20, and a character category 21 which is estimated to be desirable for an inconsistent part is outputted. A character generation part 10 generates a character image 23 corresponding to the character category 21 and the input character image 15 is matched again against the generated character image 23.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】帳票や郵便物に書かれた文字列を
自動認識する方法に関し、特に文字枠等の記入上の制限
がない帳票に書かれた文字列や郵便物に書かれた住所・
氏名等のような、自由書式(不定ピッチ)で筆記された
文字列を自動認識する方法に関する。
[Industrial field of use] Regarding the method for automatically recognizing character strings written on forms and postal items, there are no particular restrictions on the entry of character frames, etc.・
The present invention relates to a method for automatically recognizing a character string such as a name written in free format (indefinite pitch).

【0002】[0002]

【従来の技術】文字枠等の記入上の制限のある帳票を読
み取り対象とする文字列認識装置においては、隣接した
文字が接触する場合は少なく、文字の切り出しは比較的
容易である。これに対して、文字枠等の記入上の制限の
ない帳票や郵便物に書かれた住所・氏名等を認識する自
由書式の文字列認識装置においては、隣接した文字の接
触や文字同士の入り組み等により、1文字の領域を正し
く推定することは難しく、文字切り出しが困難な場合が
多く発生する。したがって自由書式を対象とした文字列
認識装置においては、これらの文字の接触や入り組みに
よる文字切り出しの困難性に対応させる必要がある。
2. Description of the Related Art In a character string recognizing device for reading a form which is limited in writing such as a character frame, it is relatively easy to cut out characters because adjacent characters rarely come into contact with each other. On the other hand, in a free-form character string recognition device that recognizes addresses, names, etc. written on forms and mails that have no restrictions on the entry of character frames, etc. Due to the combination, it is difficult to correctly estimate the area of one character, and it is often difficult to cut out the character. Therefore, in a character string recognition device intended for free format, it is necessary to deal with the difficulty of character segmentation due to contact and intricacy of these characters.

【0003】従来の自由書式の文字列認識方法として
は、以下の2つの方法がある。
There are the following two conventional free-form character string recognition methods.

【0004】第1の方法は、文字列の切り出しの組み合
わせを複数通り求め、知識情報との整合によって適当な
切り出しの組み合わせを選択する方法である。この方法
は、「言語情報を利用した手書き文字列からの文字切り
出しと認識」(村瀬他、電子通信学会論文誌、86/
9,Vol.J69−D,No.9,pp1292−1
301、1986年9月)、および「文字連接情報を利
用した手書き文字列認識」(小林他、電子情報通信学会
技術報告、PRU−91−67,pp39−46、19
91年10月)に記載されている。
The first method is a method of obtaining a plurality of combinations of cutouts of a character string and selecting an appropriate combination of cutouts by matching with the knowledge information. This method is "character segmentation and recognition from handwritten character strings using language information" (Murase et al., IEICE Transactions, 86 /
9, Vol. J69-D, No. 9, pp1292-1
301, September 1986), and "Handwritten character string recognition using character concatenation information" (Kobayashi et al., IEICE Technical Report, PRU-91-67, pp39-46, 19).
October 1991).

【0005】具体的には、文字列を過分割に切り出した
基本ブロックを求め、基本ブロックの組み合わせとし
て、複数通りの文字切り出しの組み合わせを得る。次に
各々の文字切り出しの組み合わせに対応する統合ブロッ
ク(基本ブロックの組み合わせ)について個別文字認識
を行う。最後に知識処理部において、各統合ブロックに
対応する個別文字認識の出力である認識候補文字と、読
み取り対象の文字に関する知識情報とを整合し、最も整
合性の高い候補を読み取り結果とする。
Specifically, a basic block obtained by cutting a character string into excessive divisions is obtained, and a plurality of combinations of character cutting are obtained as a combination of basic blocks. Next, individual character recognition is performed on the integrated block (combination of basic blocks) corresponding to each combination of character cutouts. Finally, in the knowledge processing unit, the recognition candidate character that is the output of the individual character recognition corresponding to each integrated block is matched with the knowledge information regarding the character to be read, and the candidate with the highest matching is set as the reading result.

【0006】第2の方法は、文字列から文字を切り出す
処理はひと通りの候補のみについてしか行わないが、文
字の接触または文字同士の入り組みの可能性のある文字
列については、あらかじめ接触または入り組んだ文字パ
タンの特徴データを認識辞書として登録しておき、2文
字以上の単語単位でまとめ読みを行う方法である。
In the second method, the process of cutting out a character from a character string is performed only for a single set of candidates, but for a character string in which there is a possibility that the characters may come into contact with each other or the characters may be intricate, the contacting or This is a method in which feature data of complicated character patterns is registered as a recognition dictionary and collectively read in word units of two or more characters.

【0007】[0007]

【発明が解決しようとする課題】第1の方法において
は、文字列を過分割に切り出した基本ブロックを求める
段階において、必ずしも正しい切り出し結果が含まれな
い場合がある。
In the first method, a correct cutout result may not always be included in the step of obtaining a basic block obtained by cutting out a character string in an excessively divided manner.

【0008】例えば、「大塚」という文字列の「大」と
「塚」とが接触している場合には、文字を認識して初め
て文字列が2文字から成っていると判断することがで
き、2文字として切り出すことが可能となる。しかし、
第1の方法においては文字を認識する前に文字列から基
本ブロックを求めているので、文字列が接触している場
合には強制切り出し点を求めるのが困難である。したが
って、必ずしも「大」と「塚」を切り出した組み合わせ
を基本ブロックとして抽出することはできない。この場
合には、正しい切り出し結果が含まれないことになる。
For example, when "large" and "tsuka" in the character string "Otsuka" are in contact with each other, it is possible to determine that the character string consists of two characters only after recognizing the character. It becomes possible to cut out as two characters. But,
In the first method, since the basic block is obtained from the character string before recognizing the character, it is difficult to obtain the compulsory cut-out point when the character strings are in contact with each other. Therefore, it is not always possible to extract a combination of “large” and “mound” as a basic block. In this case, the correct cutout result is not included.

【0009】このように、第1の方法においては基本ブ
ロック数を増加させることによって正しい切り出し結果
を含む確率を高めることはできるが、正しい切り出し結
果を含む確率を完全に1とすることは困難である。また
基本ブロック数を増加させた場合には、基本ブロックの
組み合わせである統合ブロックの数は指数関数的に増大
する。このため、全ての統合ブロックについて個別文字
認識を行い、さらに各統合ブロックの組み合わせについ
て知識処理を行うことは、処理量がきわめて大きくなっ
てしまうという問題点がある。
As described above, in the first method, the probability of including the correct clipping result can be increased by increasing the number of basic blocks, but it is difficult to completely set the probability of including the correct clipping result to 1. is there. Further, when the number of basic blocks is increased, the number of integrated blocks, which is a combination of basic blocks, increases exponentially. Therefore, performing individual character recognition on all integrated blocks and further performing knowledge processing on the combination of each integrated block has a problem that the processing amount becomes extremely large.

【0010】また、第2の方法においては、全ての接触
する文字の組み合わせを登録することは現実的ではな
い。特に、3文字以上が接触する場合には、文字の組み
合わせ数が膨大になり、登録数が膨大になるという問題
点がある。
Further, in the second method, it is not realistic to register all combinations of characters that come into contact with each other. In particular, when three or more characters come into contact with each other, the number of character combinations becomes enormous and the number of registrations becomes enormous.

【0011】このような点に鑑み本発明は、文字の接触
や文字同士の入り組みがある自由書式で筆記されている
文字列を、高速かつ高精度に自動認識することが可能な
文字列認識装置を提供することを目的とする。
In view of such a point, the present invention is a character string recognition capable of automatically recognizing a character string written in a free format having contact of characters and intricacy of characters with high speed and high accuracy. The purpose is to provide a device.

【0012】[0012]

【課題を解決するための手段】本発明の文字列認識装置
は、自由書式で筆記されている読み取り対象の文字列の
画像を入力する画像入力部と、入力された前記画像の中
から文字列領域を抽出し、文字列が縦書きであるか横書
きであるかの方向を示す書式情報を判定する書式判定部
と、前記書式判定部によって抽出された前記文字列領域
の画像から所定の文字数単位で文字パタンを切り出す文
字切り出し部と、前記文字切り出し部によって切り出さ
れた前記文字パタンの各々に文字サイズに応じた正規化
処理を行う正規化部と、前記正規化部によって得られた
入力文字の正規化パタンの文字特徴を抽出して入力文字
の特徴パタンを生成する特徴抽出部と、前記入力文字の
特徴パタンと認識辞書メモリに格納されている参照パタ
ンとの間の対応付けを行い、対応付けの結果に基づいて
認識候補文字を出力する照合部と、前記認識候補文字と
知識辞書メモリに格納されている読み取り対象の文字の
知識辞書データとの整合をとり、整合のとれない部分に
ついて望ましいと推定される文字カテゴリを出力する知
識処理部と、1つの文字カテゴリに1つの文字画像を記
憶している文字画像メモリに格納されている文字画像デ
ータを用いて、前記知識処理部から出力された前記文字
カテゴリに対応する文字画像を生成する文字生成部と、
前記文字生成部によって生成された前記文字画像に正規
化処理を行って生成文字の正規化パタンを得、該生成文
字の正規化パタンの文字特徴を抽出して生成文字の特徴
パタンを得、該生成文字の特徴パタンと前記入力文字の
特徴パタンとを照合して認識候補文字列を得る第1の手
段と、照合した結果として得られる前記認識候補文字列
と前記知識辞書データとの整合をとり、最も整合性の高
い文字列を文字列認識結果として出力する第2の手段と
を有する。
SUMMARY OF THE INVENTION A character string recognition apparatus of the present invention comprises an image input section for inputting an image of a character string to be read which is written in free format, and a character string from the input image. A format determination unit that extracts a region and determines format information indicating the direction of whether the character string is vertical writing or horizontal writing, and a predetermined number of characters from the image of the character string region extracted by the format determination unit In the character cutout unit that cuts out the character pattern with, a normalization unit that performs a normalization process according to the character size on each of the character patterns cut out by the character cutout unit, and an input character obtained by the normalization unit. A feature extraction unit that extracts character features of a normalized pattern and generates a feature pattern of an input character, and a correspondence between the feature pattern of the input character and a reference pattern stored in a recognition dictionary memory. The matching unit that outputs the recognition candidate character based on the result of the matching and the recognition candidate character and the knowledge dictionary data of the character to be read stored in the knowledge dictionary memory are matched to obtain a match. Using the knowledge processing unit that outputs a character category estimated to be desirable for a non-existing portion and the character image data stored in a character image memory that stores one character image in one character category, the knowledge processing is performed. A character generation unit that generates a character image corresponding to the character category output from the unit,
Normalization processing is performed on the character image generated by the character generation unit to obtain a normalized pattern of a generated character, character features of the normalized pattern of the generated character are extracted to obtain a characteristic pattern of the generated character, A first means for collating the characteristic pattern of the generated character with the characteristic pattern of the input character to obtain a recognition candidate character string, and the recognition candidate character string obtained as a result of collation and the knowledge dictionary data are matched. , Second means for outputting the character string having the highest consistency as a character string recognition result.

【0013】上記本発明の文字列認識装置は、前記第1
の手段が、前記正規化部と、前記特徴抽出部と、前記照
合部とを備えることができる。
The character string recognition device of the present invention is the first character string recognition device.
The means may include the normalization unit, the feature extraction unit, and the matching unit.

【0014】また、上記本発明の文字列認識装置は、前
記第2の手段が、前記知識処理部を備えることができ
る。
In the character string recognition device of the present invention, the second means may include the knowledge processing section.

【0015】[0015]

【作用】このように構成された本発明は、入力文字の認
識処理を行った後、整合のとれない文字についてのみ、
望ましいと推定される文字カテゴリから、複数文字が接
触している文字画像、1文字を分割した文字画像、また
は両者を組み合せた文字画像を生成し、入力文字画像と
照合するので、無駄な処理を行うことなく、文字の接触
や文字同士の入り組みがある自由書式で筆記されている
文字列を高速かつ高精度に自動認識することが可能とな
る。
According to the present invention having the above-described structure, only the characters that cannot be matched after the input character recognition processing is performed.
From a character category estimated to be desirable, a character image in which a plurality of characters touch each other, a character image in which one character is divided, or a character image in which both are combined is generated and collated with the input character image. It is possible to automatically and quickly recognize a character string written in a free format with contact between characters and intricacy of characters without any need for high speed.

【0016】また、3文字以上が接触している場合や、
文字が横方向に並んでいる場合でも、文字画像を生成し
て入力文字画像と照合することが可能となり、文字の接
触や文字同士の入り組みがある自由書式で筆記されてい
る文字列を高速かつ高精度に自動認識することが可能と
なる。
Also, when three or more characters are in contact,
Even when characters are arranged in the horizontal direction, it is possible to generate a character image and match it with the input character image. High-speed writing of a character string written in free format with contact between characters and intricacy of characters. In addition, it is possible to automatically recognize with high accuracy.

【0017】[0017]

【実施例】以下に、図面を参照して本発明の実施例につ
いて説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0018】図1は、本発明の一実施例における構成を
示すブロック図である。本実施例においては、1文字単
位で認識処理を行う場合について説明する。
FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention. In the present embodiment, a case will be described in which the recognition process is performed for each character.

【0019】図1の構成を説明する。図1は、画像入力
部1と、書式判定部2と、文字切り出し部3と、正規化
部4と、特徴抽出部5と、照合部6と、認識辞書メモリ
7と、知識処理部8と、知識辞書メモリ9と、文字生成
部10と、文字画像メモリ11とを有する構成となって
いる。
The configuration of FIG. 1 will be described. FIG. 1 shows an image input unit 1, a format determination unit 2, a character cutout unit 3, a normalization unit 4, a feature extraction unit 5, a collation unit 6, a recognition dictionary memory 7, and a knowledge processing unit 8. The knowledge dictionary memory 9, the character generation unit 10, and the character image memory 11 are provided.

【0020】画像入力部1は、読み取り対象の帳票や郵
便物の、自由書式で筆記された文字列12の画像を入力
して、画像データを生成する処理を行う。具体的には、
光源から照射された光の反射光をCCD(Charge
Coupled Device)等の撮像素子によっ
て結像して、これを走査して電気信号に変換する。次
に、変換した電気信号を量子化することによって、多値
レベルの全面画像データ13を生成する。
The image input unit 1 inputs an image of a character string 12 written in a free format on a form or postal matter to be read and performs a process of generating image data. In particular,
The reflected light of the light emitted from the light source is transferred to the CCD (Charge).
An image is formed by an imaging device such as a Coupled Device), and this is scanned and converted into an electric signal. Next, the converted electrical signal is quantized to generate multilevel full-screen image data 13.

【0021】書式判定部2は、画像入力部1において生
成された全面画像データ13中の黒画素塊について、外
接する矩形特徴や黒画素の縦軸・横軸のヒストグラム特
徴等を求める。そして、これらの特徴の分布によって、
文字列の縦書き・横書きの方向を示す書式情報22を判
定するとともに、文字列領域画像14を生成する。
The format determination unit 2 obtains a rectangular feature circumscribing the black pixel block in the whole image data 13 generated by the image input unit 1, a histogram feature of the vertical and horizontal axes of the black pixel, and the like. And by the distribution of these features,
The format information 22 indicating the vertical writing / horizontal writing directions of the character string is determined, and the character string area image 14 is generated.

【0022】文字切り出し部3は、書式判定部2におい
て生成された文字列領域画像14について、外接する矩
形特徴や黒画素の縦軸・横軸のヒストグラム特徴等を求
めて1文字領域を推定し、入力文字画像15として切り
出す処理を行う。ただし、文字枠のない帳票や郵便物上
の住所・氏名のような自由書式で筆記された文字列12
の文字切り出し処理においては、必ずしも正確に1文字
領域を推定できるとは限らない。一般的な例としては、
2文字以上の領域を誤って1文字領域として推定する場
合や、1文字より小さい領域を誤って1文字領域として
推定する場合がある。本実施例における入力文字画像1
5は、1文字領域として推定して切り出した領域の画像
として定義する。したがって入力文字画像15は、1文
字領域を正確に切り出している場合もあれば、切り出し
誤りが発生している場合もある。
The character slicing unit 3 estimates one character region of the character string region image 14 generated by the format determining unit 2 by obtaining circumscribing rectangular features and histogram features of vertical and horizontal axes of black pixels. The input character image 15 is cut out. However, a character string written in a free format such as an address / name on a form or post without a character frame 12
In the character cutout process, the one character area cannot always be estimated accurately. A common example is
There is a case where an area of two or more characters is erroneously estimated as a one-character area, and an area smaller than one character is erroneously estimated as a one-character area. Input character image 1 in this embodiment
5 is defined as an image of an area that is estimated and cut out as a one-character area. Therefore, in the input character image 15, one character area may be accurately cut out, or an error may be cut out.

【0023】正規化部4は、文字切り出し部3において
切り出された入力文字画像15および後述する生成文字
画像23の文字画像サイズを揃える正規化処理を行う。
画像サイズを揃える正規化処理の方法としては、縦方向
または横方向に等比率で拡大または縮小する線形正規化
方法や、領域によって拡大または縮小する比率を変更す
る非線形正規化方法等がある。本実施例においては、い
ずれの正規化方法も適用することが可能である。
The normalization unit 4 performs a normalization process for aligning the character image sizes of the input character image 15 cut out by the character cutting unit 3 and the generated character image 23 described later.
As a method of normalization processing for making the image sizes uniform, there are a linear normalization method of enlarging or reducing in the vertical direction or the horizontal direction at an equal ratio, a non-linear normalization method of changing the ratio of enlarging or reducing depending on the region, and the like. In this embodiment, any normalization method can be applied.

【0024】特徴抽出部5は、正規化部4において生成
された正規化した入力文字画像16および正規化した生
成文字画像24の文字特徴を抽出する。抽出する文字特
徴としては、文字のエッジの方向特徴、文字ストローク
密度特徴、構造解析的特徴等がある。本実施例において
は、任意の特徴抽出方法を適用することが可能である。
The feature extraction unit 5 extracts the character features of the normalized input character image 16 and the normalized generated character image 24 generated by the normalization unit 4. Character features to be extracted include directional features of character edges, character stroke density features, and structural analysis features. In this embodiment, any feature extraction method can be applied.

【0025】照合部6は、入力文字画像の特徴パタン1
7と認識辞書メモリ7に登録されている参照パタン19
との間の対応付けを行い、距離値、類似度、または参照
パタン19に属する特徴成分が入力文字画像の特徴パタ
ン17に存在するか否かのチェック、入力文字画像の特
徴パタン17に属する特徴成分が参照パタン19に存在
するか否かのチェック等により、照合の度合を判定し
て、認識候補文字18を出力する。この処理を第1回目
の照合処理と定義する。
The collating unit 6 is a feature pattern 1 of the input character image.
7 and the reference pattern 19 registered in the recognition dictionary memory 7
By checking whether or not the distance value, the degree of similarity, or the characteristic component belonging to the reference pattern 19 exists in the characteristic pattern 17 of the input character image, and the characteristic belonging to the characteristic pattern 17 of the input character image. The degree of matching is determined by checking whether or not the component exists in the reference pattern 19, and the recognition candidate character 18 is output. This process is defined as the first collation process.

【0026】認識辞書メモリ7は、学習文字画像データ
を入力として、正規化部4で用いた正規化方法によって
正規化処理を行い、特徴抽出部5で用いた特徴抽出方法
によって抽出した特徴パタンと学習文字画像データの属
するカテゴリコード対とを、参照パタン19として登録
している。
The recognition dictionary memory 7 receives the learned character image data as input, performs a normalization process by the normalization method used by the normalization unit 4, and extracts a feature pattern extracted by the feature extraction method used by the feature extraction unit 5. The category code pair to which the learning character image data belongs is registered as a reference pattern 19.

【0027】知識処理部8は、照合部6において求めら
れた認識候補文字18を入力データとして、文字列領域
画像14の中での入力文字画像15の位置に基づいて、
認識候補文字18を並べ、認識候補文字列を生成する。
あらかじめ知識辞書メモリ9には、読み取り対象の知識
データベースが登録されている。知識データベースとし
ては、住所、氏名、会社名、商品名、部品名等のさまざ
まな知識があるが、本実施例においては、住所知識デー
タベースを用いた場合について説明する。知識処理部8
においては、認識候補文字列を、読み取り対象の知識デ
ータベースに登録されている知識データ20に基づいて
検索する。
The knowledge processing unit 8 uses the recognition candidate character 18 obtained by the collation unit 6 as input data, based on the position of the input character image 15 in the character string area image 14,
The recognition candidate characters 18 are arranged to generate a recognition candidate character string.
A knowledge database to be read is registered in the knowledge dictionary memory 9 in advance. As the knowledge database, there are various kinds of knowledge such as an address, a name, a company name, a product name, a part name, and the like. In the present embodiment, the case of using the address knowledge database will be described. Knowledge processing unit 8
In (1), the recognition candidate character string is searched based on the knowledge data 20 registered in the knowledge database to be read.

【0028】文字切り出し部3における文字切り出し
と、正規化部4における正規化と、特徴抽出部5におけ
る特徴抽出と、照合部6における照合と、知識処理部8
における知識処理とを行った結果、読み取り対象の知識
データ20と整合のとれない部分について、知識処理部
8から望ましいと考えられる文字カテゴリ21を出力す
る。
Character extraction by the character extraction unit 3, normalization by the normalization unit 4, feature extraction by the feature extraction unit 5, collation by the collation unit 6, and knowledge processing unit 8
As a result of performing the knowledge processing in, the knowledge processing unit 8 outputs a character category 21 considered to be desirable for a portion that is not consistent with the knowledge data 20 to be read.

【0029】文字生成部10は、文字画像メモリ11に
記憶されている文字画像と書式判定部2から出力された
書式情報22とに基づいて、知識処理部8から出力され
た文字カテゴリ21に対応する文字画像を生成して生成
文字画像23として出力する。
The character generation unit 10 corresponds to the character category 21 output from the knowledge processing unit 8 based on the character image stored in the character image memory 11 and the format information 22 output from the format determination unit 2. The generated character image is generated and output as the generated character image 23.

【0030】文字生成部10から出力された生成文字画
像23は正規化部4に入力され、正規化した生成文字画
像24が得られる。次に、特徴抽出部5において正規化
した生成文字画像24の特徴抽出が実行され、生成文字
画像の特徴パタン25が得られる。
The generated character image 23 output from the character generation unit 10 is input to the normalization unit 4, and a normalized generated character image 24 is obtained. Next, the characteristic extraction unit 5 executes the characteristic extraction of the normalized generated character image 24 to obtain the characteristic pattern 25 of the generated character image.

【0031】次に、照合部6において再度照合処理が行
われる。入力文字画像の特徴パタン17と生成文字画像
の特徴パタン25との間の対応付けを行い、距離値、類
似度、または生成文字画像の特徴パタン25に属する特
徴成分が入力文字画像の特徴パタン17に存在するか否
かのチェック、入力文字画像の特徴パタン17に属する
特徴成分が生成文字画像の特徴パタン25に存在するか
否かのチェック等により、照合の度合を判定して、認識
候補文字18を出力する。この処理を第2回目の照合処
理と定義する。
Next, the collation unit 6 performs collation processing again. The characteristic pattern 17 of the input character image and the characteristic pattern 25 of the generated character image are associated with each other, and the distance value, the degree of similarity, or the characteristic component belonging to the characteristic pattern 25 of the generated character image is the characteristic pattern 17 of the input character image. Is checked, whether the characteristic component belonging to the characteristic pattern 17 of the input character image exists in the characteristic pattern 25 of the generated character image, the degree of matching is determined, and the recognition candidate character is determined. 18 is output. This process is defined as the second collation process.

【0032】また、照合部6は、第1回目の照合処理結
果と第2回目の照合処理結果とを比較する手段を有して
いる。これは、第1回目の照合処理において、入力文字
画像の特徴パタン17と認識辞書メモリ7の中の最も整
合の良い参照パタン19との整合の度合と、入力文字画
像の特徴パタン17と生成文字画像の特徴パタン25と
の整合の度合とを比較して、整合の度合の良い認識候補
文字18を出力する機能である。具体的な照合処理結果
の比較方法としては、第1回目の距離値の平均値と第2
回目の距離値の平均値とを比較して、距離値の平均値の
小さい方の認識候補文字18を出力する方法や、第1回
目の類似度の平均値と第2回目の類似度の平均値とを比
較して、類似度の平均値の大きい方の認識候補文字18
を出力する方法等がある。
The collation unit 6 also has means for comparing the result of the first collation processing with the result of the second collation processing. This is because the degree of matching between the characteristic pattern 17 of the input character image and the best matching reference pattern 19 in the recognition dictionary memory 7 and the characteristic pattern 17 of the input character image and the generated character in the first matching process. This is a function of comparing the degree of matching with the characteristic pattern 25 of the image and outputting the recognition candidate character 18 having a good degree of matching. As a concrete comparison method of the comparison processing result, the average value of the first distance value and the second value
A method of comparing the average value of the distance values for the first time and outputting the recognition candidate character 18 having the smaller average value of the distance values, or an average value of the first similarity and an average of the second similarity. The recognition candidate character 18 having the larger average similarity value is compared with the value.
There is a method of outputting.

【0033】知識処理部8は、照合部6において第1回
目の照合処理結果と第2回目の照合処理結果とを比較し
て得られた、整合の度合の良い認識候補文字18を入力
データとして、再度、認識候補文字列を読み取り対象の
知識データベースに登録されている知識データ20に基
づいて検索して、知識データ20と最も整合のとれた結
果を文字列認識結果26として出力する。
The knowledge processing unit 8 uses the recognition candidate character 18 having a good degree of matching, which is obtained by comparing the result of the first matching process and the result of the second matching process in the matching unit 6, as input data. Then, the recognition candidate character string is searched again based on the knowledge data 20 registered in the knowledge database to be read, and the result most matched with the knowledge data 20 is output as the character string recognition result 26.

【0034】図2は、本発明の一実施例における処理手
順を説明する図であり、「川越市大塚新田」という文字
列が入力されている場合を示している。また、読み取り
対象の知識としては、住所データベースを用いている。
住所データベースの中には、住所データとして、「川越
市砂新田」、「川越市天沼新田」、「川越市大塚新田」
があると仮定する。また、認識辞書メモリ7の中には、
「川」「越」「市」「砂」「新」「田」「天」「沼」
「大」「塚」「壌」「右」「小」の13種類の参照パタ
ン19があると仮定する。
FIG. 2 is a diagram for explaining the processing procedure in one embodiment of the present invention, and shows the case where the character string "Otsuka Nitta, Kawagoe City" has been input. An address database is used as the knowledge to be read.
In the address database, as address data, "Sawashina, Kawagoe City", "Amanuma Nitta, Kawagoe City", "Otsuka Nitta, Kawagoe City"
Suppose there is. In addition, in the recognition dictionary memory 7,
"River", "Yoshi", "City", "Sand", "New", "Rice", "Heaven", "Swamp"
It is assumed that there are 13 types of reference patterns 19 “large”, “mound”, “loan”, “right”, and “small”.

【0035】図2を用いて、図1の構成における動作を
説明する。図2においては、入力文字列のうちの2文字
「大」と「塚」とが接触しているので、文字切り出し部
3においては「大」「塚」の2文字として分離すること
は難しく、入力文字画像15は「大塚」の1文字として
切り出される。したがって、文字切り出し部3で生成さ
れる入力文字画像15は、6つの文字ブロック31〜3
6となる。
The operation in the configuration of FIG. 1 will be described with reference to FIG. In FIG. 2, since two characters “Large” and “Tsuka” in the input character string are in contact with each other, it is difficult to separate the two characters “Large” and “Tsuka” in the character cutout unit 3, The input character image 15 is cut out as one character “Otsuka”. Therefore, the input character image 15 generated by the character cutout unit 3 has six character blocks 31 to 31.
It becomes 6.

【0036】正規化部4、特徴抽出部5、および照合部
6から成る文字認識部においては、6つの文字ブロック
31〜36について認識する。照合部6においては、入
力文字画像の特徴パタン17と認識辞書メモリ7の13
種類の参照パタン19とについて照合処理を行い、「川
越市壌新田」という認識候補文字18が得られる。とこ
ろが、住所データベースの中の川越市の住所には、「砂
新田」、「天沼新田」、「大塚新田」等の地名はある
が、「壌新田」という地名はない。したがって、知識処
理部8の知識データ20によって、文字ブロック34の
文字として望ましいと考えられる文字カテゴリ21は、
「砂」、「天沼」、「大塚」のいずれかであると推定さ
れる。
The character recognizing unit including the normalizing unit 4, the feature extracting unit 5, and the collating unit 6 recognizes the six character blocks 31 to 36. In the matching unit 6, the feature pattern 17 of the input character image and the 13 of the recognition dictionary memory 7 are input.
The collation processing is performed on the reference pattern 19 of the type, and the recognition candidate character 18 of “Romashinden, Kawagoe City” is obtained. However, the address of Kawagoe City in the address database has place names such as "Sunashinden", "Amanuma Shinden", "Otsuka Shinden", etc., but not "Lomminden". Therefore, according to the knowledge data 20 of the knowledge processing unit 8, the character category 21 considered to be desirable as the character of the character block 34 is
It is estimated to be either "sand", "Amanuma", or "Otsuka".

【0037】文字生成部10は、文字コードに対応した
文字画像を生成する。書式判定部2の縦書きであるとい
う情報から、「天」「沼」が縦に並んでいる生成文字画
像37、および「大」「塚」が縦に並んでいる生成文字
画像38が得られる。「砂」の1文字画像については、
第1回目の照合段階において照合済みであるので、再度
生成して照合する必要はない。
The character generator 10 generates a character image corresponding to the character code. The generated character image 37 in which “heaven” and “swamp” are vertically arranged and the generated character image 38 in which “large” and “tsuka” are vertically arranged are obtained from the information that the format determination unit 2 indicates vertical writing. . For the one-character image of "sand",
Since it has already been verified in the first verification step, it is not necessary to generate it again for verification.

【0038】次に、正規化部4において、生成文字画像
37、38の正規化を行い、正規化した生成文字画像3
9、40が得られる。特徴抽出部5において、正規化し
た生成文字画像39、40を特徴抽出して、生成文字画
像の特徴パタン25が得られる。
Next, in the normalization section 4, the generated character images 37 and 38 are normalized, and the normalized generated character image 3
9, 40 are obtained. In the feature extraction unit 5, the normalized generated character images 39 and 40 are characteristic-extracted, and the characteristic pattern 25 of the generated character image is obtained.

【0039】その後、照合部6において、文字ブロック
34を正規化して特徴抽出した特徴パタンと、正規化し
た生成文字画像39、40の特徴パタンとの間の、第2
回目の照合処理が行われる。また照合部6においては、
第1回目の照合処理結果と第2回目の照合処理結果とを
比較して、整合の度合の良い結果が認識候補文字18と
して得られる。
After that, in the collation unit 6, the second feature between the feature pattern obtained by normalizing the character block 34 and extracting the feature and the normalized feature pattern of the generated character images 39 and 40 is generated.
The second matching process is performed. Further, in the matching unit 6,
By comparing the result of the first collation process with the result of the second collation process, a result having a good degree of matching is obtained as the recognition candidate character 18.

【0040】図2においては、第2回目の照合処理結果
である「大塚」を正規化した生成文字画像40と文字ブ
ロック34との間の整合が、第1回目の照合処理結果で
ある参照パタン「壌」との整合よりも整合性が良いと判
定して、認識候補文字18として「川越市大塚新田」が
得られる。
In FIG. 2, the matching between the generated character image 40 obtained by normalizing "Otsuka" which is the result of the second collation processing and the character block 34 is the reference pattern which is the result of the first collation processing. When it is determined that the matching is better than the matching with “Loan”, “Otsuka Nitta, Kawagoe City” is obtained as the recognition candidate character 18.

【0041】知識処理部8においては、住所データベー
スの中に「大塚新田」という住所データが存在している
ことから、文字列認識結果26として「川越市大塚新
田」が得られる。
In the knowledge processing section 8, since the address data "Otsuka Nitta" exists in the address database, "Kawagoe City Otsuka Nitta" is obtained as the character string recognition result 26.

【0042】図3は、本発明の一実施例における処理手
順を説明する図であり、「川越市砂新田」という文字列
が入力されている場合を示している。また、読み取り対
象の知識としては、図2と同様に、住所データベースを
用いている。住所データベースの中には、住所データと
して、「川越市砂新田」、「川越市天沼新田」、「川越
市大塚新田」があると仮定する。また、認識辞書メモリ
7の中には、「川」「越」「市」「砂」「新」「田」
「天」「沼」「大」「塚」「壌」「右」「小」の13種
類の参照パタン19があると仮定する。
FIG. 3 is a diagram for explaining the processing procedure in one embodiment of the present invention, and shows the case where the character string "Kawagoe-shi Sunaden" is entered. As the knowledge to be read, an address database is used as in FIG. In the address database, it is assumed that there are “Sawashina, Kawagoe-shi”, “Amanuma Nitta, Kawagoe-shi”, and “Otsuka Nitta, Kawagoe-shi” as address data. In addition, in the recognition dictionary memory 7, "river", "existence", "city", "sand", "new", "field".
It is assumed that there are 13 types of reference patterns 19 of “heaven”, “swamp”, “large”, “mound”, “loam”, “right”, and “small”.

【0043】図4は、図1の構成における文字画像メモ
リ内のデータを示す図である。図4に示すように、文字
画像メモリ11には、文字カテゴリ80と文字画像デー
タ83とが対応付けられて格納されている。また、各文
字画像データ83〜87に属性情報81、82を付加す
ることも可能である。図4においては、文字画像データ
83〜87が縦方向に分離しているか、横方向に分離し
ているかを示す属性情報81、82を付加した場合を示
している。例えば、「台」は縦方向には「ム」と「ロ」
との2つの部分パタンに分離するが、横方向には分離し
ないので、(縦,横)=(1,0)となる。ところが、
「沼」は横方向には「シ」と「召」との2つの部分パタ
ンに分離するが、縦方向には分離しないので、(縦,
横)=(0,1)となる。また、この属性情報81、8
2としてはさらに、縦分離位置、横分離位置等を付加す
ることも可能であるが、図4に示すように、単純に1文
字の半分の位置に分離位置86を設定するように部分パ
タンを配置した場合について説明する。
FIG. 4 is a diagram showing data in the character image memory in the configuration of FIG. As shown in FIG. 4, the character image memory 11 stores character categories 80 and character image data 83 in association with each other. It is also possible to add the attribute information 81 and 82 to each of the character image data 83 to 87. FIG. 4 shows a case in which attribute information 81 and 82 indicating whether the character image data 83 to 87 are separated vertically or horizontally are added. For example, "stand" is vertically aligned with "mu" and "ro".
Although it is separated into two partial patterns of and, but not in the horizontal direction, (vertical, horizontal) = (1,0). However,
The "swamp" is divided into two partial patterns, "shi" and "call" in the horizontal direction, but not in the vertical direction, so (vertical,
Horizontal) = (0, 1). Also, this attribute information 81, 8
2, it is also possible to add a vertical separation position, a horizontal separation position, etc., but as shown in FIG. 4, the partial pattern is simply set so that the separation position 86 is simply set to the half position of one character. The case where they are arranged will be described.

【0044】図3を用いて、図1の構成における動作を
説明する。図3においては、入力文字列のうちの1文字
「砂」が2つの文字ブロックに分離しており、2つの文
字ブロックが離れて存在しているので、文字切り出し部
3においては「砂」の1文字として統合することは難し
く、入力文字画像15は「右」「小」の2文字として切
り出される。したがって、文字切り出し部3で生成され
る入力文字画像15は、7つの文字ブロック51〜57
となる。
The operation in the configuration of FIG. 1 will be described with reference to FIG. In FIG. 3, one character “sand” in the input character string is separated into two character blocks, and the two character blocks exist apart from each other. It is difficult to integrate them as one character, and the input character image 15 is cut out as two characters of “right” and “small”. Therefore, the input character image 15 generated by the character cutout unit 3 has seven character blocks 51 to 57.
Becomes

【0045】正規化部4、特徴抽出部5、および照合部
6から成る文字認識部においては、7つの文字ブロック
51〜57について認識する。照合部6においては、正
規化した入力文字画像66、67の特徴パタンと認識辞
書メモリ7の13種類の参照パタン19とについて照合
処理を行う。図3には、「大」「塚」の参照パタン6
4、65と正規化した入力文字画像66、67との照合
処理を示している。照合処理の結果、正規化した入力文
字画像66と最も整合の良い参照パタンは「右」、正規
化した入力文字画像67と最も整合の良い参照パタンは
「小」となり、「川越市右小新田」という認識候補文字
18が得られる。ところが、住所データベースの中の川
越市の住所には、「砂新田」、「天沼新田」、「大塚新
田」等の地名はあるが、「右小新田」という地名はな
い。したがって、知識処理部8の知識データ20によっ
て、文字ブロック54、55の文字として望ましいと考
えられる文字カテゴリ21は、「砂」、「天沼」、「大
塚」のいずれかであると推定される。
The character recognizing unit including the normalizing unit 4, the feature extracting unit 5, and the collating unit 6 recognizes the seven character blocks 51 to 57. The collation unit 6 performs collation processing on the normalized characteristic patterns of the input character images 66 and 67 and the 13 types of reference patterns 19 of the recognition dictionary memory 7. In Figure 3, the reference pattern 6 for "Large" and "Tsuka"
4 shows the collation process of the input character images 66 and 67 with the normalized input character images 66 and 67. As a result of the matching process, the reference pattern that is most matched with the normalized input character image 66 is “right”, the reference pattern that is most matched with the normalized input character image 67 is “small”, and “Kawagoe City Right Koshin The recognition candidate character 18 "Ta" is obtained. However, the Kawagoe city address in the address database has place names such as "Sunashinden", "Amanuma Nitta", and "Otsuka Nitta", but not "Right Koshinden". Therefore, according to the knowledge data 20 of the knowledge processing unit 8, the character category 21 that is considered to be desirable as the characters of the character blocks 54 and 55 is estimated to be any of “sand”, “Amanuma”, and “Otsuka”.

【0046】文字生成部10は、文字コードに対応した
文字画像を生成する。「大」「塚」および「天」「沼」
の2文字画像については、第1回目の照合段階において
照合済みであるので、再度照合する必要はない。「砂」
の1文字画像については照合していないので、書式判定
部2の横書きであるという情報から、生成文字画像
「砂」59を横方向に分割した2つの生成文字画像
「石」「少」が得られる。
The character generator 10 generates a character image corresponding to the character code. "Large""Tsuka" and "Ten""Swamp"
The two-character image of No. need not be collated again because it has already been collated in the first collation stage. "sand"
Since the single character image of No. is not collated, the generated character image “sand” 59 is horizontally divided into two generated character images “stone” and “small” based on the information that the format determination unit 2 is in horizontal writing. To be

【0047】次に、正規化部4において、分割した2つ
の生成文字画像の正規化を行ない、正規化した生成文字
画像60、61が得られる。特徴抽出部5において、正
規化した生成文字画像60、61を特徴抽出して、生成
文字画像の特徴パタン25が得られる。
Next, the normalization unit 4 normalizes the two divided generated character images to obtain normalized generated character images 60 and 61. In the feature extraction unit 5, the normalized generated character images 60 and 61 are feature-extracted, and the characteristic pattern 25 of the generated character image is obtained.

【0048】その後、照合部6において、文字ブロック
54、55を正規化して特徴抽出した特徴パタンと、正
規化した生成文字画像60、61の特徴パタンとの間
の、第2回目の照合処理が行なわれる。また照合部6に
おいては、第1回目の照合処理結果と第2回目の照合処
理結果とを比較して、整合の度合の良い結果が認識候補
文字18として得られる。
After that, in the collation unit 6, the second collation processing is performed between the characteristic pattern obtained by normalizing the character blocks 54 and 55 and extracting the characteristic, and the normalized characteristic pattern of the generated character images 60 and 61. Done. In the matching unit 6, the result of the first matching process and the result of the second matching process are compared, and a good matching result is obtained as the recognition candidate character 18.

【0049】図3においては、第2回目の照合処理結果
である「石」「少」を正規化した生成文字画像60、6
1と正規化した入力文字画像66、67との間の整合
が、第1回目の照合処理結果である参照パタン「右」
「小」との整合よりも整合性が良いと判定して、認識候
補文字18として「川越市砂新田」が得られる。
In FIG. 3, generated character images 60 and 6 obtained by normalizing "stone" and "small" which are the results of the second collation processing.
The matching between 1 and the normalized input character images 66 and 67 is the reference pattern “right” which is the result of the first matching process.
It is determined that the matching is better than the matching with “small”, and “Kawagoe-shi Sunaden” is obtained as the recognition candidate character 18.

【0050】知識処理部8においては、住所データベー
スの中に「砂新田」という住所データが存在しているこ
とから、文字列認識結果26として「川越市砂新田」が
得られる。
In the knowledge processing unit 8, since the address data "Sanshinden" exists in the address database, "Kawagoe-shi Sanshinden" is obtained as the character string recognition result 26.

【0051】[0051]

【発明の効果】以上説明したように本発明は、入力文字
の認識処理を行った後、整合のとれない文字についての
み望ましいと推定される文字カテゴリから文字画像を生
成して、入力文字画像と照合することによって、無駄な
処理を行うことなく、文字の接触や文字同士の入り組み
がある自由書式で筆記されている文字列を高速かつ高精
度に自動認識することができるという効果を有する。
As described above, according to the present invention, after the input character recognition processing is performed, a character image is generated from a character category that is estimated to be desirable only for a character that does not match, and an input character image is generated. By the collation, there is an effect that a character string written in a free format including contact of characters and intricacy of characters can be automatically recognized at high speed and with high accuracy without performing unnecessary processing.

【0052】また、3文字以上が接触している場合や、
文字が横方向に並んでいる場合でも、文字画像を生成し
て入力文字画像と照合することができ、文字の接触や文
字同士の入り組みがある自由書式で筆記されている文字
列を高速かつ高精度に自動認識することができるという
効果を有する。
When three or more characters are in contact,
Even when characters are arranged in the horizontal direction, it is possible to generate a character image and collate it with the input character image. This has the effect that automatic recognition can be performed with high accuracy.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例における構成を示すブロック
FIG. 1 is a block diagram showing a configuration in an embodiment of the present invention.

【図2】本発明の一実施例における処理手順を説明する
FIG. 2 is a diagram illustrating a processing procedure in an embodiment of the present invention.

【図3】本発明の一実施例における処理手順を説明する
FIG. 3 is a diagram illustrating a processing procedure in an embodiment of the present invention.

【図4】図1の構成における文字画像メモリ内のデータ
を示す図
FIG. 4 is a diagram showing data in a character image memory in the configuration of FIG.

【符号の説明】[Explanation of symbols]

1 画像入力部 2 書式判定部 3 文字切り出し部 4 正規化部 5 特徴抽出部 6 照合部 7 認識辞書メモリ 8 知識処理部 9 知識辞書メモリ 10 文字生成部 11 文字画像メモリ 12 自由書式で筆記された文字列 13 全面画像データ 14 文字列領域画像 15 入力文字画像 16 正規化した入力文字画像 17 入力文字画像の特徴パタン 18 認識候補文字 19 参照パタン 20 知識データ 21 文字カテゴリ 22 書式情報 23 生成文字画像 24 正規化した生成文字画像 25 生成文字画像の特徴パタン 26 文字列認識結果 31、32、33、34、35、36 文字ブロック 37、38 生成文字画像 39、40 正規化した生成文字画像 51、52、53、54、55、56、57 文字ブ
ロック 58、62、63 知識処理結果の文字列 59 生成文字画像 60、61 正規化した生成文字画像 64、65 参照パタン 66、67 正規化した入力文字画像 80 文字カテゴリ 81、82 属性情報 83、84、85、87 文字画像データ 86 分離位置
1 image input unit 2 format determination unit 3 character cutout unit 4 normalization unit 5 feature extraction unit 6 collation unit 7 recognition dictionary memory 8 knowledge processing unit 9 knowledge dictionary memory 10 character generation unit 11 character image memory 12 written in free format Character string 13 Full surface image data 14 Character string area image 15 Input character image 16 Normalized input character image 17 Characteristic pattern of input character image 18 Recognition candidate character 19 Reference pattern 20 Knowledge data 21 Character category 22 Format information 23 Generated character image 24 Normalized generated character image 25 Characteristic pattern of generated character image 26 Character string recognition result 31, 32, 33, 34, 35, 36 Character block 37, 38 Generated character image 39, 40 Normalized generated character image 51, 52, 53, 54, 55, 56, 57 Character block 58, 62, 63 Knowledge processing result sentence Character string 59 Generated character image 60, 61 Normalized generated character image 64, 65 Reference pattern 66, 67 Normalized input character image 80 Character category 81, 82 Attribute information 83, 84, 85, 87 Character image data 86 Separation position

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 自由書式で筆記されている読み取り対象
の文字列の画像を入力する画像入力部と、 入力された前記画像の中から文字列領域を抽出し、文字
列が縦書きであるか横書きであるかの方向を示す書式情
報を判定する書式判定部と、 前記書式判定部によって抽出された前記文字列領域の画
像から所定の文字数単位で文字パタンを切り出す文字切
り出し部と、 前記文字切り出し部によって切り出された前記文字パタ
ンの各々に文字サイズに応じた正規化処理を行う正規化
部と、 前記正規化部によって得られた入力文字の正規化パタン
の文字特徴を抽出して入力文字の特徴パタンを生成する
特徴抽出部と、 前記入力文字の特徴パタンと認識辞書メモリに格納され
ている参照パタンとの間の対応付けを行い、対応付けの
結果に基づいて認識候補文字を出力する照合部と、 前記認識候補文字と知識辞書メモリに格納されている読
み取り対象の文字の知識辞書データとの整合をとり、整
合のとれない部分について望ましいと推定される文字カ
テゴリを出力する知識処理部と、 1つの文字カテゴリに1つの文字画像を記憶している文
字画像メモリに格納されている文字画像データを用い
て、前記知識処理部から出力された前記文字カテゴリに
対応する文字画像を生成する文字生成部と、 前記文字生成部によって生成された前記文字画像に正規
化処理を行って生成文字の正規化パタンを得、該生成文
字の正規化パタンの文字特徴を抽出して生成文字の特徴
パタンを得、該生成文字の特徴パタンと前記入力文字の
特徴パタンとを照合して認識候補文字列を得る第1の手
段と、 照合した結果として得られる前記認識候補文字列と前記
知識辞書データとの整合をとり、最も整合性の高い文字
列を文字列認識結果として出力する第2の手段とを有す
る、文字列認識装置。
1. An image input unit for inputting an image of a character string to be read, which is written in a free format, and a character string area is extracted from the input image to determine whether the character string is vertically written. A format determination unit that determines the format information indicating the direction of horizontal writing, a character cutout unit that cuts out a character pattern in units of a predetermined number of characters from the image of the character string area extracted by the format determination unit, and the character cutout. A normalization unit that performs a normalization process according to the character size on each of the character patterns cut out by the unit, and a character feature of the normalization pattern of the input character obtained by the normalization unit is extracted to extract the input characters. A feature extraction unit that generates a feature pattern is associated with the feature pattern of the input character and a reference pattern stored in the recognition dictionary memory, and recognition is performed based on the association result. A matching unit that outputs a complementary character, and the recognition candidate character and the knowledge dictionary data of the character to be read stored in the knowledge dictionary memory are matched, and the character category estimated to be desirable for the part that does not match is determined. Using the knowledge processing unit to output and the character image data stored in the character image memory that stores one character image in one character category, the character processing unit corresponds to the character category output from the knowledge processing unit. A character generation unit that generates a character image, normalizes the character image generated by the character generation unit to obtain a normalized pattern of the generated character, and extracts character characteristics of the normalized pattern of the generated character. A first means for obtaining a recognition candidate character string by collating the characteristic pattern of the generated character with the characteristic pattern of the input character, and the result of collation. And the recognition candidate character strings obtained by taking the matching between the knowledge dictionary data, and a second means for outputting the most consistent string as a character string recognition result, the character string recognition unit.
【請求項2】 前記第1の手段が、前記正規化部と、前
記特徴抽出部と、前記照合部とを備える、請求項1に記
載の文字列認識装置。
2. The character string recognition device according to claim 1, wherein the first means includes the normalization unit, the feature extraction unit, and the matching unit.
【請求項3】 前記第2の手段が、前記知識処理部を備
える、請求項1または2に記載の文字列認識装置。
3. The character string recognition device according to claim 1, wherein the second means includes the knowledge processing section.
JP7090584A 1995-04-17 1995-04-17 String recognition device Expired - Lifetime JP2751865B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7090584A JP2751865B2 (en) 1995-04-17 1995-04-17 String recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7090584A JP2751865B2 (en) 1995-04-17 1995-04-17 String recognition device

Publications (2)

Publication Number Publication Date
JPH08287188A true JPH08287188A (en) 1996-11-01
JP2751865B2 JP2751865B2 (en) 1998-05-18

Family

ID=14002504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7090584A Expired - Lifetime JP2751865B2 (en) 1995-04-17 1995-04-17 String recognition device

Country Status (1)

Country Link
JP (1) JP2751865B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6738519B1 (en) 1999-06-11 2004-05-18 Nec Corporation Character recognition apparatus
US6859556B2 (en) 1998-10-29 2005-02-22 Fujitsu Limited Word recognizing apparatus for dynamically generating feature amount of word and method thereof
KR100582039B1 (en) * 1999-05-06 2006-05-23 후지쯔 가부시끼가이샤 Character recognizing apparatus
JP2007042097A (en) * 2005-07-29 2007-02-15 Fujitsu Ltd Key character extraction program, key character extraction device, key character extraction method, collective place name recognition program, collective place name recognition device and collective place name recognition method
KR100707943B1 (en) * 2005-04-27 2007-04-18 최철규 System and Method for recognition of financial statement using optical character recognition

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6859556B2 (en) 1998-10-29 2005-02-22 Fujitsu Limited Word recognizing apparatus for dynamically generating feature amount of word and method thereof
KR100582039B1 (en) * 1999-05-06 2006-05-23 후지쯔 가부시끼가이샤 Character recognizing apparatus
US6738519B1 (en) 1999-06-11 2004-05-18 Nec Corporation Character recognition apparatus
KR100707943B1 (en) * 2005-04-27 2007-04-18 최철규 System and Method for recognition of financial statement using optical character recognition
JP2007042097A (en) * 2005-07-29 2007-02-15 Fujitsu Ltd Key character extraction program, key character extraction device, key character extraction method, collective place name recognition program, collective place name recognition device and collective place name recognition method

Also Published As

Publication number Publication date
JP2751865B2 (en) 1998-05-18

Similar Documents

Publication Publication Date Title
US7181068B2 (en) Mathematical expression recognizing device, mathematical expression recognizing method, character recognizing device and character recognizing method
JP3445394B2 (en) How to compare at least two image sections
US6327386B1 (en) Key character extraction and lexicon reduction for cursive text recognition
US5787197A (en) Post-processing error correction scheme using a dictionary for on-line handwriting recognition
KR100412317B1 (en) Character recognizing/correcting system
Elms et al. The advantage of using an HMM-based approach for faxed word recognition
JP2000315247A (en) Character recognizing device
JP3917349B2 (en) Retrieval device and method for retrieving information using character recognition result
JP2751865B2 (en) String recognition device
JPH11328315A (en) Character recognizing device
Rao et al. Orthographic properties based Telugu text recognition using hidden Markov models
Slavin et al. Matching Digital Copies of Documents Based on OCR
JP2000322514A (en) Pattern extraction device and character segmentation device
KR102673900B1 (en) Table data extraction system and the method of thereof
JP3151866B2 (en) English character recognition method
JP2972443B2 (en) Character recognition device
JP3209197B2 (en) Character recognition device and recording medium storing character recognition program
JP3083609B2 (en) Information processing apparatus and character recognition apparatus using the same
JP3620299B2 (en) Document filing device and document filing method
JPH0256086A (en) Method for postprocessing for character recognition
JP2002312398A (en) Document retrieval device
JP3428504B2 (en) Character recognition device
JP2866920B2 (en) Standard pattern creation method and apparatus, and character recognition apparatus and method
JPH0830734A (en) Character string recognition device
Brown Cursive script word recognition

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080227

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090227

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100227

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100227

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110227

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110227

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 15

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 15

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140227

Year of fee payment: 16

EXPY Cancellation because of completion of term