JP2743995B2 - Character reader - Google Patents

Character reader

Info

Publication number
JP2743995B2
JP2743995B2 JP62162974A JP16297487A JP2743995B2 JP 2743995 B2 JP2743995 B2 JP 2743995B2 JP 62162974 A JP62162974 A JP 62162974A JP 16297487 A JP16297487 A JP 16297487A JP 2743995 B2 JP2743995 B2 JP 2743995B2
Authority
JP
Japan
Prior art keywords
character
voiced sound
candidate
semi
voiced
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP62162974A
Other languages
Japanese (ja)
Other versions
JPS647278A (en
Inventor
雅也 山成
功 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP62162974A priority Critical patent/JP2743995B2/en
Publication of JPS647278A publication Critical patent/JPS647278A/en
Application granted granted Critical
Publication of JP2743995B2 publication Critical patent/JP2743995B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明は、たとえば帳票上に手書きされた文字等の読
み取りを行う際に好適な文字読取装置に関する。 (従来の技術) 従来から、各種事務処理分野において光学的文字読取
装置が作用されており、なかでも手書きされた片仮名、
英字等の文字を読み取る手書き用文字読取装置が普及し
ている。 通常、このような文字読取装置では、帳票上の文字記
入枠内に書き込まれた片仮名、英数字等の文字が読み取
られるようになっている。 ところで、第8図に示すように、帳票1上の文字記入
枠2内に濁音3および半濁音4を記入する場合は、これ
らを清音5と濁点6および半濁点7との2つの文字部品
に分割してそれぞれ別々の文字記入枠2内に記入するこ
とが一般とされている。 すなわち、これは知識ベースに記憶された基準単語に
おける濁音および半濁音の比較単位と一致させて、この
前記知識ベースを用いた最終的な読取結果を得る上での
規定となっている。 そして、帳票1上に記入された文字は、文字認識装置
により文字記入枠2毎にイメージとして読み取られて認
識され、これにより得られた文字候補を後処理装置で前
記知識ベースに記憶されている基準単語と比較すること
により最終的な読取結果を得ている。 しかしながら、時として書き間違い等により個々の文
字記入枠2内に1文字単位の濁音3あるいは半濁音4が
書き込まれ、この結果、文字パターンの読み取り不可が
生じる場合がある。 このような場合の対策として、1つの基準単語に対し
て、通常のデータとともに濁音3あるいは半濁音4を1
文字単位で構成したデータを登録して多重のデータを保
持する知識ベースを構成する方法が考えられるが、この
ような方法を用いた場合、たとえば「カブシキガイシ
ャ」等のように2つ以上の濁音4および半濁音5が存在
する単語については、4通りの多重登録が必要となる。 したがって、より大きな記憶容量を有する知識ベース
が必要になるばかりではなく、後処理が複雑なものとな
って効率の低下を招くといった問題点があった。 (発明が解決しようとする問題点) 本発明はこのような問題点を解決するためもので、知
識辞書に複数の基準単語を登録することなく、認識手段
より出力された比較単位の違う文字を有する文字列の妥
当性の判定を行うことが可能となり、読み取り効率の低
下を防止することができる文字読取装置を提供すること
を目的としている。 [発明の構成] (問題点を解決するための手段) 本発明はこのような目的を達成するために、帳票上に
記入された文字のイメージを読み取って文字認識を行う
認識手段と、この認識手段が出力する認識結果として得
られる複数の候補文字列の妥当性を判定する際の比較対
象となる基準単語が予め格納されている知識辞書と、前
記認識手段により得られた複数の候補文字列のうち、第
1の候補文字列を構成する候補文字のいずれかが濁音ま
たは半濁音であったときには、この濁音または半濁音の
候補文字の前記第1の候補文字列における位置に対応す
る前記複数の候補文字列の候補文字を清音と濁音または
半濁音との二つの文字部品に分割し、分割された文字部
品の単位で前記知識辞書の基準単語とマッチングさせて
結果を得る後処理手段とを具備したことを特徴としてい
る。 (作用) 本発明の文字読取装置は、編集処理手段が、認識手段
から出力される文字列における比較単位と認識辞書に格
納された基準単語における比較単位とが合致するように
前記文字列および前記基準単語のいずれか一方の文字部
品の一部を編集するので、知識辞書に複数の基準単語を
登録することなく、認識手段より出力された比較単位の
違う文字を有する文字列の妥当性の判定を行うことが可
能となり、読み取り効率の低下を防止することができ
る。 (実施例) 以下、本発明の実施例を図面に基づいて詳細に説明す
る。 第1図は本発明の一実施例の文字読取装置の構成を示
すブロック図である。 同図において、11は所定の規則に従って多数配列され
た文字記入枠を有する帳票である。また、12は帳票11上
の前記文字記入枠内に手書きされた所定領域毎の文字の
イメージを光学的に読み取って文字パターンを得る読取
部、13は読取部12により得られた文字パターンを暫定的
に格納する格納部、14は格納部13に格納された文字パタ
ーンを1文字ずつ順次抽出する切出し部、15は切出し部
14から出力された1文字単位の文字パターンを所定の認
識規則に従って認識を行って文字候補を得る認識部であ
る。 すなわち、これら読取部12、格納部13、切出し部14お
よび認識部15から帳票11上に手書きされた1文字単位の
文字を読み取って文字候補のマトリックスを出力する文
字認識装置16が構成されている。 また、17はあらかじめ単語情報が記憶されている知識
ベースで、この知識ベース17内に記憶された基準単語に
おける濁音および半濁音を示す情報はそれぞれ1文字単
位の清音と濁点および半濁点を示すコードに分割して記
憶されている。 また、18は文字認識装置16から出力された前記文字候
補のマトリックスと、知識ベース17に記載されている前
記単語情報との所定の方法によるマッチングを行うこと
により前記文字候補のマトリックスの中から最も適当と
判定された文字候補を選出する後処理装置である。 この後処理装置18は、前記文字候補における濁音およ
び半濁音と前記基準単語における濁音および半濁音との
比較単位である文字部品の数が合致するように、前記文
字候補および前記基準単語のいずれか一方の濁音および
半濁音の文字部品の一部を編集する機能を有している。 また、19は各装置の制御を行う制御装置である。 次に、この実施例の文字読取装置の動作について説明
する。 まず、帳票11上の文字記入枠内に手書きされた文字
は、文字認識装置16における読取部12により光学的に読
み取られて文字パターンに変換される。 この後、この文字パターンを格納部13に格納し、さら
に切出し部14により1文字ずつ抽出されて認識部15に出
力される。この認識部15では所定の認識規則に基づいて
切出し部14より出力された1文字単位の文字パターンの
認識を行い、いくつかの文字候補からなるマトリックス
を後処理装置18に出力する。 この後処理装置18では、文字認識装置16より出力され
た前記文字候補のマトリックスと認識ベース17に記憶さ
れた基準単語とを比較してマッチングを行うことにより
前記文字候補の中から最も適当と判定された文字候補か
らなる文字列を最終読取結果として選出する。 この後、この読取結果を制御装置19を介して図示しな
い出力装置に出力して文字の読み取りが完了する。 以上の動作において、第2図に示すように、帳票11上
の文字記入枠20内に、1文字単位の濁音21および半濁音
22を含むたとえば「パ、ズ、ル」という文字が記入され
ている場合は次のようなデータの編集処理がなされる。 なお、知識ベース17には、前記文字に対して、第3図
に示すように、「ハ、゜、ス、゛、ル」という濁音21お
よび半濁音22を示す情報がそれぞれ清音23と濁点24およ
び半濁点25に分割して構成されてなる基準単語が記憶さ
れている。 先ず、第4図に示すように、文字認識装置16により第
1列および第2列にそれぞれ濁音21または半濁音22を含
んだいくつかの文字候補が得られる。 この後、次に説明する第1〜第3の処理方法のうちの
いずれかを用いて、前記文字候補と知識ベース17に記憶
された基準単語における濁音21および半濁音22の比較単
位が合致するように、前記文字候補と前記基準単語のい
ずれか一方の濁音21および半濁音22のデータを編集す
る。 第1の処理方法は、知識ベース17に記憶された基準単
語における2つの文字単位からなる濁音21、半濁音22を
合成して前記文字候補と等しい比較単位である1文字単
位の濁音21、半濁音22とすることを主旨としている。 第5図はこのような第1の処理方法を示す図で、26は
半濁音22のみ合成した場合の単語、27は濁音21のみ合成
した場合の単語、28は半濁音22および濁音21をそれぞれ
合成した場合の単語を示している。 すなわち、マッチングを行う際にはこのような全ての
場合の組み合わせの基準単語26、27、28に用意し、これ
ら基準単語26、27、28と前記文字候補のマトリックスと
のマッチングを行うことにより最終読取結果を得るよう
になっている。 本願発明に対応する第2の処理方法は、図4に示すよ
うに、文字認識装置16で得られた第1候補「パズレ」、
第2候補「パズル」、第3候補「ハデイ」、第4候補
「ベジバ」などの複数の候補(候補文字列)のうち、第
1候補「パズレ」を構成する文字(候補文字)のうち、
いずれかの文字が濁音21または半濁音22であったときに
は、それぞれの濁音21または半濁音22の文字の位置に対
応する第2候補以降の文字も濁音21または半濁音22であ
るものと判定する。 この場合、第1候補「パズレ」には、半濁音22の文字
「パ」と濁音21の文字「ズ」が含まれているため、この
文字「パ」と文字「ズ」の列、つまり第2候補の文字
「バ」および文字「ス」、第3候補の文字「ハ」および
文字「デ」、第4候補の文字「ペ」および文字「ジ」が
濁音21または半濁音22であるものと判定される一方、第
1候補の文字「レ」に対応する列、つまり第2候補の文
字「ル」、第3候補の文字「イ」、第4候補の文字
「バ」は清音のみと判定される。 そして図6に示すように、このように濁音21または半
濁音22であると判定された列(位置)の候補文字を清音
23と濁音24または半濁音25との2つの文字にそれぞれ分
割することによるものである。 そして、この2文字に分割された濁音21、半濁音22を
含む文字候補のマトリックスと知識ベース17に記憶され
た単語情報とのマッチングを行って最終読取結果を得る
ようになっている。 第3の処理方法は、文字認識装置16で得られた文字候
補の各列毎に濁点24または半濁点25が存在する場合とし
ない場合をそれぞれ仮定して全ての場合のマトリックス
を作り、このマトリックスと知識ベース17とのマッチン
グを行うことによるものである。 すなわち、第7図はこの第3の処理方法を示す図で、
第7図(a)は全ての列の文字候補が清音23であると仮
定した場合におけるマトリックス、第7図(b)は第1
列のみが濁音21または半濁音22であると仮定した場合に
おけるマトリックス、第7図(c)は第1列および第2
列が濁音21または半濁音22であるとした仮定した場合に
おけるマトリックスである。 同図に示すように、濁音21または半濁音22であると仮
定した列の文字候補はそれぞれ清音23と濁点24または半
濁点25に分割され、知識ベース17とのマッチングが可能
な状態になされている。 そして、これらのマトリックスと知識ベース17に記憶
された基準単語とのマッチングを行うことにより最終読
取結果が得られるようになっている。 かくして、この実施例の文字読取装置によれば、文字
認識装置16により得られた文字候補における濁音21およ
び半濁音22の比較単位と、知識ベース17に記憶された基
準単語における濁音21および半濁音22の比較単位が合致
するように、前記文字候補および前記単語情報のいずれ
か一方の濁音21および半濁音22のデータを編集する機能
を備えたので、知識ベース17に多重に単語を登録するこ
となく、文字認識装置16で認識された1文字単位の濁音
21および半濁音22を含む文字候補のマッチングを行うこ
とが可能となり、知識ベース17の巨大化の防止と後処理
の際の効率の低下を防止することができる。 ところで、この実施例においては、濁音21および半濁
音22を示す情報をそれぞれ1文字単位の清音23と濁点24
および半濁点25を示すコードに分割して記憶した知識ベ
ース17を用いたものについて説明したが、本発明はこれ
に限定されるものではなく、1文字単位の濁音21および
半濁音22を示すコードを記憶した知識ベース17を用いた
場合においても同様に応用することが可能である。 [発明の効果] 以上の説明で明らかなように本発明によれば、知識辞
書に複数の基準単語を登録することなく、認識手段より
出力された比較単位の違う文字を有する文字列の妥当性
の判定を行うことが可能となり、読み取り効率の低下を
防止することができる。
DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention] (Industrial application field) The present invention relates to a character reading apparatus suitable for reading, for example, characters handwritten on a form. (Prior Art) Conventionally, optical character reading devices have been operated in various business processing fields, and in particular, handwritten katakana,
2. Description of the Related Art Handwritten character reading devices for reading characters such as English characters have become widespread. Normally, such a character reading device reads characters such as katakana and alphanumeric characters written in a character entry frame on a form. By the way, as shown in FIG. 8, when the voiced sound 3 and the semi-voiced sound 4 are to be entered in the character entry frame 2 on the form 1, they are converted into two character parts of the clear sound 5, the voiced dot 6 and the semi-voiced voice 7. It is general to divide and enter in separate character entry boxes 2 respectively. In other words, this is a rule for obtaining a final reading result using the knowledge base by matching the comparison unit of the voiced sound and the semi-voiced sound in the reference word stored in the knowledge base. Then, the characters written on the form 1 are read and recognized as an image for each character entry box 2 by the character recognition device, and the obtained character candidates are stored in the knowledge base by the post-processing device. The final reading result is obtained by comparing with the reference word. However, sometimes, due to a writing error or the like, the voiced sound 3 or the semi-voiced sound 4 in one character unit is written in each character entry frame 2, and as a result, the reading of the character pattern may be impossible. As a countermeasure in such a case, one voiced sound 3 or half voiced sound 4 is added to one reference word together with normal data.
A method is conceivable in which a knowledge base that stores multiplexed data by registering data composed in units of characters is considered. In the case of using such a method, for example, two or more voice sounds 4 such as “Kabushiki Geisha” are used. In addition, for a word having a semi-voiced sound 5, four types of multiple registration are required. Therefore, there is a problem that not only a knowledge base having a larger storage capacity is required, but also post-processing is complicated and efficiency is reduced. (Problems to be Solved by the Invention) The present invention is intended to solve such a problem. Characters having different comparison units output from recognition means can be output without registering a plurality of reference words in a knowledge dictionary. It is an object of the present invention to provide a character reading device capable of determining the validity of a character string having the character string and preventing a decrease in reading efficiency. [Structure of the Invention] (Means for Solving the Problems) In order to achieve the above object, the present invention provides a recognition unit that reads an image of a character written on a form and performs character recognition, and a recognition unit that performs the recognition. A knowledge dictionary in which reference words to be compared when judging the validity of a plurality of candidate character strings obtained as recognition results output by the means are stored in advance, and a plurality of candidate character strings obtained by the recognition means. When any of the candidate characters constituting the first candidate character string is a voiced sound or a semi-voiced sound, the plurality of voiced or semi-voiced sound candidate characters corresponding to positions in the first candidate character string are And a post-processing means for dividing the candidate character of the candidate character string into two character parts of clear sound and voiced sound or semi-voiced sound, and matching the reference character of the knowledge dictionary in units of the divided character parts to obtain a result. It is characterized by comprising. (Operation) In the character reading device of the present invention, the editing processing unit may be configured so that the comparison unit in the character string output from the recognition unit matches the comparison unit in the reference word stored in the recognition dictionary. Because a part of one of the character parts of the reference word is edited, the validity of a character string having a different unit of comparison output from the recognizing unit can be determined without registering a plurality of reference words in the knowledge dictionary. Can be performed, and a decrease in reading efficiency can be prevented. Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a character reading device according to one embodiment of the present invention. In the figure, reference numeral 11 denotes a form having a large number of character entry frames arranged according to a predetermined rule. Reference numeral 12 denotes a reading unit that optically reads an image of a character for each predetermined area handwritten in the character entry frame on the form 11 to obtain a character pattern, and 13 denotes a provisional character pattern obtained by the reading unit 12. A storage unit for temporarily storing characters, a cutout unit for sequentially extracting character patterns stored in the storage unit 13 one by one, and 15 a cutout unit
The recognition unit obtains character candidates by recognizing the character pattern in units of one character output from 14 according to a predetermined recognition rule. That is, a character recognition device 16 is configured to read one-by-one characters handwritten on the form 11 from the reading unit 12, the storage unit 13, the extraction unit 14, and the recognition unit 15 and output a matrix of character candidates. . Reference numeral 17 denotes a knowledge base in which word information is stored in advance. The information indicating the voiced sound and the semi-voiced sound in the reference word stored in the knowledge base 17 is a code indicating the voiced sound, the voiced voice and the voiced voice in each character unit. Are stored separately. Further, 18 performs the matching by a predetermined method between the matrix of the character candidates output from the character recognition device 16 and the word information described in the knowledge base 17 to thereby obtain the most out of the matrix of the character candidates. This is a post-processing device for selecting a character candidate determined to be appropriate. The post-processing device 18 may be configured to select one of the character candidate and the reference word so that the number of character parts, which is a unit of comparison between the voiced and semi-voiced sound in the character candidate and the voiced and semi-voiced sound in the reference word, match. It has a function of editing a part of the character parts of one of the voiced and semi-voiced sounds. Reference numeral 19 denotes a control device for controlling each device. Next, the operation of the character reading device of this embodiment will be described. First, a character handwritten in the character entry frame on the form 11 is optically read by the reading unit 12 in the character recognition device 16 and converted into a character pattern. Thereafter, the character pattern is stored in the storage unit 13, extracted by the extracting unit 14 one by one, and output to the recognizing unit 15. The recognizing unit 15 recognizes the character pattern in units of one character output from the extracting unit 14 based on a predetermined recognition rule, and outputs a matrix including some character candidates to the post-processing device 18. The post-processing device 18 compares the matrix of the character candidates output from the character recognition device 16 with the reference word stored in the recognition base 17 and performs matching to determine the most appropriate among the character candidates. A character string composed of the selected character candidates is selected as a final reading result. Thereafter, the reading result is output to an output device (not shown) via the control device 19, and the reading of characters is completed. In the above operation, as shown in FIG.
For example, when the characters including “22, 22” are entered, the following data editing process is performed. In the knowledge base 17, as shown in FIG. 3, information indicating the voiced sound 21 and the semi-voiced sound 22 of "c, ゜, su, ゛, lu" are respectively stored in the knowledge base 17 as the clear sound 23 and the turbid point 24, as shown in FIG. And a reference word that is divided into semi-voiced points 25 is stored. First, as shown in FIG. 4, the character recognizing device 16 obtains some character candidates including the voiced sound 21 or the semi-voiced sound 22 in the first and second columns, respectively. Thereafter, using any of the first to third processing methods described below, the comparison unit of the character candidate and the voiced sound 21 and the semi-voiced sound 22 in the reference word stored in the knowledge base 17 match. Thus, the data of the voiced sound 21 and the semi-voiced sound 22 of either the character candidate or the reference word are edited. The first processing method is to synthesize a voiced sound 21 and a semi-voiced sound 22 composed of two character units in the reference word stored in the knowledge base 17 and to compare a voiced sound 21 and a half of a character unit which is a comparison unit equal to the character candidate. The main purpose is to make the voice sound 22. FIG. 5 is a diagram showing such a first processing method, in which 26 is a word when only the half-voiced sound 22 is synthesized, 27 is a word when only the half-voiced sound 21 is synthesized, and 28 is a word when the half-voiced sound 22 and 21 are respectively synthesized. The words when combined are shown. That is, when performing the matching, the reference words 26, 27, and 28 of the combination in all such cases are prepared, and the reference words 26, 27, and 28 are matched with the matrix of the character candidates to finally determine the matching. A reading result is obtained. As shown in FIG. 4, the second processing method corresponding to the present invention employs a first candidate “Puzzle” obtained by the character recognition device 16,
Among a plurality of candidates (candidate character strings) such as a second candidate “puzzle”, a third candidate “Hadey”, and a fourth candidate “vejiba”, among characters (candidate characters) constituting the first candidate “puzzle”,
When any of the characters is the voiced sound 21 or the semi-voiced sound 22, the second and subsequent characters corresponding to the character positions of the respective voiced sound 21 or the half-voiced sound 22 are also determined to be the voiced sound 21 or the half-voiced sound 22. . In this case, since the first candidate “puzzle” includes the character “pa” of the semi-voiced sound 22 and the character “z” of the voiced sound 21, a sequence of the character “pa” and the character “ The two candidate characters “ba” and “su”, the third candidate character “ha” and the character “de”, and the fourth candidate character “pe” and the character “ji” are voiced sound 21 or semi-voiced sound 22 On the other hand, the column corresponding to the first candidate character “レ”, that is, the second candidate character “ル”, the third candidate character “イ”, and the fourth candidate character “バ” have only a clear tone. Is determined. Then, as shown in FIG. 6, the candidate character in the row (position) determined to be the voiced sound 21 or the semi-voiced sound 22 is designated as a clear sound.
This is due to the division into two characters, 23 and 24. Then, a matrix of character candidates including the voiced sound 21 and the semi-voiced sound 22 divided into two characters is matched with the word information stored in the knowledge base 17 to obtain a final reading result. In the third processing method, matrices for all cases are created by assuming whether or not a voiced point 24 or a semi-voiced point 25 exists for each column of character candidates obtained by the character recognition device 16, and this matrix. And the knowledge base 17 are matched. That is, FIG. 7 is a diagram showing the third processing method.
FIG. 7A is a matrix when it is assumed that the character candidates in all columns are Kiyone 23, and FIG.
Matrix when assuming that only the column is the voiced sound 21 or the semi-voiced sound 22, FIG. 7 (c) shows the first column and the second column.
9 is a matrix when it is assumed that a column is a voiced sound 21 or a semi-voiced sound 22. As shown in the figure, the character candidates in the column assumed to be voiced sound 21 or semi-voiced sound 22 are divided into clear voice 23 and voiced voice 24 or semi-voiced voice 25, respectively, so that matching with the knowledge base 17 is possible. I have. Then, by matching these matrices with the reference words stored in the knowledge base 17, a final reading result can be obtained. Thus, according to the character reading device of this embodiment, the comparison unit of the voiced sound 21 and the half-voiced sound 22 in the character candidate obtained by the character recognition device 16 and the voiced sound 21 and the half-voiced sound in the reference word stored in the knowledge base 17 Since the function of editing the data of the voiced sound 21 and the semi-voiced sound 22 of one of the character candidate and the word information is provided so that the comparison unit of 22 is matched, multiple words are registered in the knowledge base 17. , The voice sound of each character recognized by the character recognition device 16
It is possible to perform matching of character candidates including 21 and the semi-voiced sound 22, and it is possible to prevent the knowledge base 17 from being enlarged and to prevent a decrease in efficiency in post-processing. By the way, in the present embodiment, the information indicating the voiced sound 21 and the semi-voiced sound 22 are respectively converted into the clear sound 23 and the voiced point 24 in one character unit.
And the knowledge base 17 divided and stored into codes indicating the semi-voiced sound points 25 has been described. However, the present invention is not limited to this. The same can be applied to the case where the knowledge base 17 in which is stored is used. [Effects of the Invention] As is apparent from the above description, according to the present invention, the validity of a character string having a different unit of comparison output from a recognition unit without registering a plurality of reference words in a knowledge dictionary. Can be determined, and a decrease in reading efficiency can be prevented.

【図面の簡単な説明】 第1図は本発明の一実施例の文字読取装置の構成を説明
するためのブロック図、第2図は帳票上の文字記入枠内
に手書きされた文字を示す平面図、第3図は知識ベース
に記憶された基準単語を示す図、第4図は文字認識装置
により得られた文字候補を示す図、第5図は本発明の一
実施例の文字読取装置による第1の編集処理方法を説明
するための合成された基準単語を示す図、第6図は同じ
くその第2の編集処理方法を説明するための分割された
文字候補のマトリックスを示す図、第7図は同じくその
第3の編集処理方法を説明するための文字候補のマトリ
ックスを示す図、第8図は帳票上への文字の記入方法を
説明するための平面図である。 11……帳票 16……文字認識装置 17……知識ベース 18……後処理装置 19……制御装置 21……濁音 22……半濁音 23……清音 24……濁点 25……半濁点
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram for explaining the configuration of a character reading device according to an embodiment of the present invention, and FIG. 2 is a plane showing characters handwritten in a character entry frame on a form. FIG. 3 is a diagram showing reference words stored in a knowledge base, FIG. 4 is a diagram showing character candidates obtained by a character recognition device, and FIG. 5 is a diagram showing a character reading device according to an embodiment of the present invention. FIG. 6 is a view showing a synthesized reference word for explaining a first editing method, FIG. 6 is a view showing a matrix of divided character candidates for explaining the second editing method, and FIG. FIG. 9 is a diagram showing a matrix of character candidates for explaining the third editing method, and FIG. 8 is a plan view for explaining a method of writing characters on a form. 11 Form 16 Character recognition device 17 Knowledge base 18 Post-processing device 19 Post-processing device 21 Control device 21 Dense sound 23 Semi-dense sound 23 Clean sound 24 Dense point 25

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭61−229177(JP,A)   ────────────────────────────────────────────────── ─── Continuation of front page    (56) References JP-A-61-229177 (JP, A)

Claims (1)

(57)【特許請求の範囲】 1.帳票上に記入された文字のイメージを読み取って文
字認識を行う認識手段と、 この認識手段が出力する認識結果として得られる複数の
候補文字列の妥当性を判定する際の比較対象となる基準
単語が予め格納されている知識辞書と、 前記認識手段により得られた複数の候補文字列のうち、
第1の候補文字列を構成する候補文字のいずれかが濁音
または半濁音であったときには、この濁音または半濁音
の候補文字の前記第1の候補文字列における位置に対応
する前記複数の候補文字列の候補文字を清音と濁音また
は半濁音との二つの文字部品に分割し、分割された文字
部品の単位で前記知識辞書の基準単語とマッチングさせ
て結果を得る後処理手段とを具備したことを特徴とする
文字読取装置。
(57) [Claims] A recognition unit that reads an image of a character written on a form and performs character recognition, and a reference word to be compared when determining the validity of a plurality of candidate character strings obtained as a recognition result output by the recognition unit Among a plurality of candidate character strings obtained by the recognition means,
When any of the candidate characters constituting the first candidate character string is a voiced sound or a semi-voiced sound, the plurality of candidate characters corresponding to the position of the voiced or semi-voiced sound candidate character in the first candidate character string A post-processing means for dividing a candidate character in a row into two character parts of clear sound and voiced sound or semi-voiced sound, and matching the divided character parts with a reference word of the knowledge dictionary to obtain a result; A character reading device characterized by the above-mentioned.
JP62162974A 1987-06-30 1987-06-30 Character reader Expired - Lifetime JP2743995B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62162974A JP2743995B2 (en) 1987-06-30 1987-06-30 Character reader

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62162974A JP2743995B2 (en) 1987-06-30 1987-06-30 Character reader

Publications (2)

Publication Number Publication Date
JPS647278A JPS647278A (en) 1989-01-11
JP2743995B2 true JP2743995B2 (en) 1998-04-28

Family

ID=15764820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62162974A Expired - Lifetime JP2743995B2 (en) 1987-06-30 1987-06-30 Character reader

Country Status (1)

Country Link
JP (1) JP2743995B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61229177A (en) * 1985-04-04 1986-10-13 Fujitsu Ltd Recognizing system for character with voiced sound symbol and half voiced sound symbol

Also Published As

Publication number Publication date
JPS647278A (en) 1989-01-11

Similar Documents

Publication Publication Date Title
US5029223A (en) Constraint driven-on line recognition of handwritten characters and symbols
US6978044B2 (en) Pattern string matching apparatus and pattern string matching method
JP2743995B2 (en) Character reader
JPH0423185A (en) Table reader provided with automatic cell attribution deciding function
JP2732593B2 (en) Character reading system
Rıos-Vila et al. End-To-End Full-Page Optical Music Recognition of Monophonic Documents via Score Unfolding
JPS58144980A (en) Post processing system for character recognition processing
JP2784004B2 (en) Character recognition device
JP2538543B2 (en) Character information recognition device
JPS5842904B2 (en) Handwritten kana/kanji character recognition device
JP4442136B2 (en) Character recognition method and apparatus
JP2839515B2 (en) Character reading system
JPH07271920A (en) Character recognizing device
JPH0573027A (en) Individual penmanship dictionary generation device and character output processor using individual penmanship dictionary
JPS61133487A (en) Character recognizing device
JPH0514952B2 (en)
JPH0272497A (en) Optical character reader
JPS6095689A (en) Optical character reader
JPS63308690A (en) Holograph recognition
JP3100786B2 (en) Character recognition post-processing method
JP2570571B2 (en) Optical character reader
JP2000029986A (en) Method for reading slip data and recording medium and device for reading slip data
JPS5820075B2 (en) pattern recognition device
JPS6037084A (en) Character recognizing device
JPS6344269A (en) Document recognizing and processing device

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080206

Year of fee payment: 10