JP3548372B2 - Character recognition device - Google Patents

Character recognition device Download PDF

Info

Publication number
JP3548372B2
JP3548372B2 JP6413997A JP6413997A JP3548372B2 JP 3548372 B2 JP3548372 B2 JP 3548372B2 JP 6413997 A JP6413997 A JP 6413997A JP 6413997 A JP6413997 A JP 6413997A JP 3548372 B2 JP3548372 B2 JP 3548372B2
Authority
JP
Japan
Prior art keywords
character
characters
voiced
semi
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP6413997A
Other languages
Japanese (ja)
Other versions
JPH10261049A (en
Inventor
東善 ▲裴▼
康裕 浦
清治 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP6413997A priority Critical patent/JP3548372B2/en
Publication of JPH10261049A publication Critical patent/JPH10261049A/en
Application granted granted Critical
Publication of JP3548372B2 publication Critical patent/JP3548372B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Character Discrimination (AREA)
  • User Interface Of Digital Computer (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は,帳票に記入された文字を認識する文字認識装置に関する。
特に,帳票に記入する文字領域が指定され,濁点,半濁点を一文字として記入する帳票の文字認識装置に関するものである。
【0002】
【従来の技術】
従来使用されている文字認識装置は,半角文字の読み取りと全角文字の読み取りは,別であり,また文字を記入するルールも半角文字のカナでは,濁点や半濁点をそのかかる文字とは別の文字枠に記入するのが普通である。これはEBCDICコード(半角コード)に濁点,半濁点のついたカナコードがないことによる。
【0003】
図12により従来の技術を説明する。
図12において,
111は帳票に記入された手書き文字等の文字を表し,ヤマダを帳票に記入した例を示す。第1の枠にヤ,第2の枠にマが記入され,第3の枠のダはタと濁点を同一枠に誤記入したものである。111’は正しく記入された例であり,第3の枠にタ,第4の枠に濁点を記入したものである。
【0004】
112は,記入文字を1文字ずつ文字認識した結果である。1文字毎の文字認識は,帳票に記入された文字を画像データとして読み取り,1文字を切出し,切り出された1文字毎の特徴を抽出し,文字毎に特徴をもつ文字認識辞書120と比較し,一文字毎に文字認識をする。112はそのようにして得られた結果であり,第1の枠の文字をヤ,第2の枠の文字をマ,第3の枠の文字を1文字のダと文字認識したことを示す(文字認識辞書は濁点,半濁点付きの文字の特徴を持ち,それらを1文字として文字認識することができる,例えば,タと濁点「゛」が同じ枠に記入されている場合には1文字のダに文字認識する)。
【0005】
113は知識処理であって,1文字ずつの文字認識結果112について知識辞書114を参照して,文字認識された文字列の意味を表す単語を検索するものである。図12の例の場合,記入文字111の入力領域が姓名の記入領域であることから,文字認識結果112の意味は姓名についてのものであると判断し,姓名についての知識辞書114を参照して,文字認識された文字列の姓名を認識する。
【0006】
114は知識辞書であって,文字列の表す意味の抽象概念毎に,意味を表す単語を保持するものであり,図12は姓名を文字数毎に保持するものを示す(3文字の姓名としてヤマノ等,4文字の姓名としてヤマタ゛等をもつことを示す)。知識辞書は,半角文字に対しては,例えば,タと濁点「゛」はそれぞれ1文字とみなし,タ゛のように2文字にみる。1文字の濁点付きのダはもたない。
【0007】
117は出力処理であって,知識処理の認識結果を出力するものである。
120は文字認識辞書であり,一文字毎に特徴をもつものである。
121は文字毎に特徴をもつことを表す。
【0008】
図12の場合,タと濁点が同一の枠に記入されていることから,文字認識装置は,記入された文字を1文字の濁点付きのダと判定し,文字認識結果はヤ,マ,ダの三文字であると判断する。そこで,文字認識装置は,記入された領域が姓名についての領域であることから3文字のヤマダについて姓名の知識辞書114を参照する。そして,その知識辞書のヤマノ,ヤマタ等の3文字の単語を文字認識結果112と比較するが,3文字の姓名辞書にはヤマダは存在しないので,正しい結果(ヤマダ)を出力することができない。
【0009】
【発明が解決しようとする課題】
一文字の記入領域が枠等で定められた帳票に対して,一般の利用者が記入する場合,濁点や半濁点とそれにかかる文字は同じ枠に書くのが自然である。従って,文字認識装置で指定される記入文字のルールは守られないことが多い。そして,このように誤記入された文字は知識辞書の単語にないので知識処理が全く効かなくなり,正しい文字認識結果を出力することができない。
【0010】
さらに,図12の111’のように,正しく記入された場合にも,半角表示ではヤ,マ,タ, ゛のようにタと濁点「゛」を別の文字として扱い4文字として表示する。そのため,表示された認識結果の修正等でカーソル操作をする場合に操作が煩わしいという問題があった。
【0011】
本発明は,濁点や半濁点と文字が同じ枠に書かれた場合にも,正しく知識処理できる文字認識装置を提供することを目的とする。また,認識結果を修正する等の場合にも操作を能率良く行うことのできる文字認識装置を提供することを目的とする。
【0012】
【課題を解決するための手段】
本発明は,帳票の文字を読み取る文字読み取り部と,文字読み取り部の読み取った文字列の文字数を判断する文字数判断部と,濁点および半濁点をそれぞれ1文字として扱う知識辞書と,前記知識辞書を参照して,前記文字数判断部が判断した,読み取った文字列の文字数の単語を第1のテーブルに格納し,読み取った文字列の文字数に1を加算した文字数から読み取った文字列の文字数を2倍にした文字数までの文字数となる単語を第2のテーブルに格納する知識辞書参照部と,前記第2のテーブルを参照して,濁点あるいは半濁点を統合すると前記文字数判断部が判断した,読み取った文字列の文字数となる単語を抽出し,濁点あるいは半濁点を統合した単語を前記第1のテーブルに格納する統合部と,前記第1のテーブルに格納された単語について文字認識結果と比較し,もっとも距離の近いもの,もしくは距離の近い順に候補順位をつけて表示出力する表示部とを備えるようにした。
【0013】
図1は本発明の基本構成を示す。
図1において,
1は文字認識部であって,文字の記入領域が定められた帳票等に記入された文字,例えば1文字毎の文字認識結果である(文字認識結果の文字数をnとする)。
【0014】
2は知識処理部であって,文字認識部1の文字認識結果について知識辞書10を参照してその意味を判断する知識処理を行い,1文字毎の文字認識結果の文字列の意味を認識するものである。
【0015】
3は文字認識部1の認識した文字認識結果の表す意味の表わす概念(姓名,住所等)を判定する処理である。
4は文字認識部1の文字認識結果の文字列の文字数を判定する処理である。
5は文字列の意味を表す単語をもつ知識辞書10からn文字の単語を検索して獲得する処理である。
【0016】
6は文字列の意味を表す単語をもつ知識辞書10から(n+1)文字の文字列の単語,(n+2)文字の文字列の単語,・・・,2n文字のn文字の単語を検索して獲得する処理である。
【0017】
7は濁点,半濁点を統合する処理であって,濁点および半濁点とそれがかかる文字を一文字に統合する処理である。例えば,知識辞書から得られた4文字のヤマタ゛のタと濁点「゛」を一文字に統合してダとみなして3文字にする処理である。
【0018】
8は文字認識された認識文字列,と知識辞書から獲得したn文字,および(n+1)文字〜2n文字のうちで統合した結果がn文字となった文字列を比較する処理である。
【0019】
10は知識辞書である。
11は出力部であって,知識処理の結果得られた意味をもつ認識結果を出力するものである。
【0020】
図2は本発明の基本構成の動作説明図である。
図2において,
20は帳票にタと濁点「゛」を同じ枠に誤記入された文字列ヤマダを1文字ずつ文字認識して得られた結果のヤマダである(タと濁点「゛」を1文字として認識したことを示す)。
【0021】
知識処理部2において,
27は統合部であって,姓名についての知識辞書10の4文字のヤマタ゛22を統合して3文字のヤマダ28にしたことを示す。
【0022】
知識辞書10において,
22は4文字の姓名のヤマタ゛を表す。
23は3文字の姓名ヤマキを表す。
【0023】
出力部8において,
31は知識処理して得られた認識結果のヤマダである。
入力文字(文字認識結果)がヤマダである場合を例として,図1の本発明の基本構成の動作を説明する(図2を参照する)。
【0024】
1文字毎の文字認識結果としてヤマダ20が得られ,その記入領域の文字列の表す意味の抽象概念は姓名を表すものであるとする。知識処理部2は,文字認識結果が姓名についてのものであり,文字列の文字数が3文字であることから,姓名の知識辞書10により,3文字の姓名ヤマキ等の単語を検索して獲得する。
【0025】
さらに,文字認識結果が3文字であることから,4文字からその2倍の6文字までの文字列の単語を知識辞書10から獲得する。例えば,4文字のヤマタ゛22等である。
【0026】
4文字から6文字の文字列の単語に対して,統合部27は濁点,半濁点を統合し,例えば,濁点を1文字に数えた4文字のヤマタ゛はタと濁点「゛」を1文字に統合して3文字のヤマダとする。知識処理部2において,1文字毎の文字認識結果ヤマダ20と知識辞書10から獲得された3文字(ヤマキ等)および統合して3文字とされた単語(ヤマダ等)を比較する。そして,例えば,距離計算等でその類似関係を調べ,もっとも類似する単語(もっとも距離の近いもの等),図2の場合,ヤマダ31を知識処理に基づく認識結果として出力部11に出力する。
【0027】
本発明によれば,濁点や半濁点とそれにかかる文字は同じ枠に書かれた場合にも,知識処理において正しい認識結果を得ることができる。さらに,認識結果を表示する場合にも,表示する文字に対して濁点および半濁点を統合して1文字として取り扱えるように処理をする(この点の詳細については後述する)。
【0028】
【発明の実施の形態】
図3は本発明の文字認識装置のブロック図である。
図3において,
40は帳票であって,文字の記入領域および記入領域にその内容を表す意味が決められているものである(例えば,姓名,名前,住所等の記入領域が定められている)。
【0029】
41は文字読み取り部であって,帳票に書いた手書き文字等の文字をスキャナーで読み取り光電変換するものである。
42は特徴抽出部であって,文字読み取り部41で得られた帳票の画像データをもとに,1文字を切出し,1文字毎の文字認識に必要な特徴を抽出するものである。
【0030】
43は照合部であって,特徴抽出部42で得られた特徴と文字認識辞書44の辞書に記憶されている特徴を比較し,1文字毎に文字認識するものである。
44は文字認識辞書であって,文字毎にその特徴を記憶するものである。
【0031】
45は知識処理部であって,1文字ずつの文字認識結果について,その文字の表す意味の抽象概念(姓名,住所等)を判定し,その文字列の意味を表す単語をもつ知識辞書46を参照して,文字認識結果の文字列のもつ意味を認識するものである。
【0032】
46は知識辞書であって,単語の表す意味の抽象的概念,例えば住所,姓名,名前,企業名,一般名称(学校,図書館等)毎にその抽象概念に含まれる単語を保持するものである。
【0033】
47は表示部であって,知識処理部45の認識結果を出力するディスプレイ等である。
48は修正部であって,知識処理の認識結果の確認,修正等をするものである。
【0034】
49は入力部であって,ユーザによる確認,修正データ等を入力するものである。
図3の構成の動作を説明する。
【0035】
文字読み取り部41は帳票を画像として読み取る。特徴抽出部42はその画像データをもとに,1文字毎に文字を切取り,特徴を抽出する。そして照合部43は文字認識辞書44を参照し,1文字毎に特徴を比較し,類似する文字を求める。そして,その類似文字に類似度に応じて順位を付け,知識処理部45に与える。
【0036】
知識処理部45は,照合部43で得られた文字認識結果に従い,その文字列の意味(住所,氏名,企業名等の属性)を判定する。そして,その意味を表す単語をもつ知識辞書46を参照する。その際,知識辞書46に含まれる単語のうち濁点,半濁点等をもつ単語は統合して単語数を縮約し,文字認識結果の候補順位等を考慮して文字認識結果の文字列の単語の意味を表す単語を認識する(本発明の知識処理について図6で詳しく説明する)。そして,得られた認識結果を表示部47に転送する(出力する認識結果は,知識処理で得られた認識結果が第1順位のもののみ,あるいは複数を順位を付けて出力する等必要に応じて選択される)。
【0037】
表示部47は,知識処理部45で得られた認識結果を候補順位をつけて画面に表示する。
ユーザは,表示部47に表示された認識結果に従って,入力部49により,認識結果の確認,あるいは修正データを入力する。修正部48は確認もしくは修正等のデータをもとに,認識結果の確認,修正等の処理をする。
【0038】
図4は本発明の知識辞書の実施例であり,カタカナで姓名を表す単語を保持する辞書を示す。
51は辞書に登録されている単語の文字数nおよび単語の記憶領域へのポインタをもつ領域である。
【0039】
52は文字数毎に姓名を保持する領域である。
n=1の登録単語(姓名)はなし,n=2の登録単語はウラ,n=3の登録単語はササキ,イマイ等,n=4はヤマタ゛,アオシマ,タカハシ等である。
【0040】
図5は本発明の知識処理部の実施例のブロック構成図である。
図5において,
知識処理部2において,
61は文字数判定部であって,1文字毎の文字認識結果を受入れ,その文字列の文字数nを判定するものである。
【0041】
61’は文字列の表す意味の抽象概念判定部であって,入力された文字列の表す意味の抽象概念(住所,姓名,名前,企業名,一般名称等)を判定するものである。
【0042】
62は知識辞書参照部であって,文字認識結果の文字列の文字数,その意味の抽象概念に従って,その抽象概念の単語をもつ知識辞書10のn文字および(n+1)文字〜2n文字の単語を検索して求めるものである。
【0043】
63はテーブル1であって,知識辞書10を検索して求めたn文字の単語および統合部65によりn文字に統合された濁点,半濁点をもつ単語を保持するものである。
【0044】
64はテーブル2であって,知識辞書10を検索して求めた(n+1)文字〜2n文字の単語を保持するものである。
65は統合部であって,テーブル2(64)に保持された(n+1)文字〜2n文字の単語のうち,濁点,半濁点をもつ単語についてその濁点,半濁点とそれがかかる文字を1文字に統合する処理を行うものである。
【0045】
66は類似性判断部であって,一文字毎の文字認識結果とテーブル1(63)に保持されたn文字の単語および濁点,半濁点を統合してn文字とされた単語との類似判断をするものである。類似性の判断は,例えば,一文字毎の文字認識結果の文字とテーブル1(63)に記憶された文字との距離計算をする等で求める(この点については図6で具体的に説明する)。
【0046】
知識辞書10において,
71は姓名辞書であって,氏名の姓を表す単語を文字数毎に保持するものである。
【0047】
72は名前辞書であって,氏名の名前を表す単語を文字数毎に保持するものである。
73は住所辞書であって,住所を表す地名等の単語を文字数毎に保持するものである。
【0048】
74は企業名辞書である。
75は一般名称辞書である。
図6は本発明の知識処理による文字認識の説明図である。1文字毎の文字認識結果の第1候補がヤマダ,第2候補がイヌグ,第3候補がアスタである場合を例として示す。図6 (a)はテーブル1(63)から取り出された姓名ヤマダと文字認識結果を比較して距離計算をする場合を示し,図6 (b)はテーブル1(63)から取り出された姓名がヤマダの場合の距離計算方法を示す。
【0049】
図6 (a)において,
63はテーブル1である。
64はテーブル2である。
【0050】
65は統合部である。
66は類似性判断部である。
71は知識辞書のn文字の姓名を表す辞書である。
【0051】
71’は知識辞書の(n+1)文字〜2n文字の姓名を表す辞書である。
82はテーブル1(63)から取り出された文字列と文字認識結果91の文字列を比較して求められた距離である(距離の計算方法は後述する)。
【0052】
91は一文字毎の文字認識結果を表し,第1候補がヤマダ,第2候補がイヌグ,第3候補がアスタであることを例として示す。
図6 (a)の場合について説明する。
【0053】
知識辞書71,71’からテーブル1(63)に取り出す単語の獲得方法について説明する。
文字認識結果91が3文字であるので,文字認識結果91の第1候補の第1文字ヤを第1文字とする3文字の単語を全て取り出し,テーブル1(63)に格納する。次に文字認識結果91の第2候補の第1文字イを第1文字とする3文字の単語を全て取り出し,テーブル1(63)に格納する。さらに,文字認識結果91の第3候補の第1文字アを第1文字とする3文字の単語を全て取り出し,テーブル1(63)に格納する。
【0054】
次に,文字認識結果91が3文字であるので,文字列の数が4文字,5文字,6文字の単語について同様に全て取り出し,テーブル2(64)に格納する。例えば,4文字の場合,第1文字がヤである4文字の単語,第1文字がイである4文字の単語,第1文字がアである4文字の単語を全て取り出し,テーブル2(64)に格納する。この操作を5文字,6文字の単語についても繰り返し,テーブル2(64)に格納する。
【0055】
次に統合部65はテーブル2(64)に格納された単語について,濁点,半濁点を統合処理する。そして統合処理で3文字となった単語(ヤマダ等)をテーブル1(63)に移動する。
【0056】
類似性判断部66は,このようにしてテーブル1(63)に格納された3文字の単語および統合して3文字となった単語について文字認識結果と比較し距離を求める。
【0057】
テーブル1(63)から3文字の姓名ヤマダが取り出されたとする。類似性判断部66はテーブル1(63)に格納された第1文字マと一致する文字認識結果の第1文字を探す。その結果第1候補マと一致しているので,第1文字の距離をゼロとする。次にアマダ81の第2文字マと一致する文字認識結果の第2文字を求める。その結果第1候補のマと一致するので,第2文字の距離をゼロとする。次にヤマダ81の第3文字ダと一致する文字認識結果の第3文字を求める。その結果第1候補のダと一致するので距離を0とする。そして,ヤマダ81の各文字の距離の和0を総合距離として求める。
【0058】
図6 (b)に示すように,テーブル1(63)にアマダが取り出された場合の距離は次のように求める。
まず,テーブル1(63)から獲得した単語と文字認識結果の第1文字どうしを比較する。アマダの第1文字のアは第3候補の第1文字アと一致するのでその距離を2とする。次に第2文字どうしを比較する。アマダの第2文字のマは第1候補と一致するのでその距離をゼロとする。次に第3文字どうしを比較する。その結果,アマダの第3文字ダは第1候補と一致するので距離を2とする。従って,アマダの総合距離は2である。
【0059】
このように,テーブル1(63)に格納された単語について全て距離を計算し,総合距離の最小のものを知識処理の認識結果の第1候補として出力し,以下距離の小さい順に候補順位をつけて出力する。第1候補のみ結果として出力しても良い。
【0060】
ユーザは出力部のディスプレイに表示された知識処理の認識結果を見て,確認し,修正する必要があれば必要な修正データを入力して,認識結果を修正する。
図7は本発明の知識処理部の実施例のフローチャートである。
【0061】
図示のステップ番号に従って図5の構成の動作を説明する(図5を参照する)。
S1 文字数判定部61は,候補数kohoを設定する(図6の場合koho=3)。
【0062】
S2 文字数判定部61は,入力文字数nを設定する(図6の場合n=3)。S3,S4 i=1からkohoまでループする。ループにおいて,入力文字の第1番目の第i候補の文字をSとした時,Sで始まる長さnの単語を全て辞書から取り出し,テーブル1(table1)に入れる。図6の場合,文字認識結果の第1候補のヤマダの第1文字がヤであるので,ヤから始まる3文字の単語(姓名)を全て取り出す。次に,その第2候補イマダの第1文字がイであるので,イで始まる3文字の単語を全て取り出す。同様に,その第3候補アスタの第1文字がアであるので,アで始まる3文字の全ての単語を検索して求める。
【0063】
S5,S6 k=n+1からk=2nまでループする。また,そのループにおいてi=1からi=kohoまでループする。
S7 ループの過程において,入力(文字認識結果)の第1文字の第i候補の文字をSとしたとき,Sで始まる長さkの単語を全て辞書中から取り出しテーブル2に保持する。例えば,n=3であるので,4文字の単語について,文字認識結果の第1候補の第1文字ヤを第1文字とする4文字の単語をテーブル2に格納する。次に文字認識結果の第2候補の第1文字マを第1文字とする4文字の単語をテーブル2に格納する。さらに,第3候補の第1文字アを第1文字とする4文字の単語をテーブル2に格納する。同様に,5文字,6文字の単語についてもそれぞれ,ヤ,イ,アを第1文字とする単語を全て求め,テーブル2(64)に格納する。
【0064】
S8 統合部はテーブル2を検索し,濁点,半濁点を統合した結果が長さn文字になる単語をテーブル1に追加する(例えば,4文字のヤマタ゛のタと濁点「゛」を統合して3文字とし,テーブル1(63)に追加する)。
【0065】
S9 テーブル1に保持された全ての単語について入力文字候補と照合し,距離計算をし,最も距離の小さい単語を知識処理の認識結果として出力する。
図8は本発明の文字認識装置の表示方法の実施例である。
【0066】
図8 (a)は本発明の知識処理の認識結果の表示方法の例を示す。
図8 (a)は,知識処理の認識結果がノザキの場合の表示である。
半角フォントには,濁点付きの文字フォントはないので,本発明により濁点を統合して3文字で認識しても,表示はタと濁点゛をそれぞれ半角1文字で表示する。例えば,ノザキを表示する時は,図示のように濁点を1文字として4文字で表示する。従来,このような表示を第1文字のノから第4文字のキまでカーソルを移動する場合には,濁点も1文字とみて,4回のカーソル移動操作をする必要があった。本発明は,半角文字の表示の場合に濁点,半濁点を統合して1文字とし,統合した部分を1回のカーソル操作で行うようにした。
【0067】
92は第1文字ノにカーソルがある状態である。93は第2文字サと濁点「゛」を統合してサと濁点「゛」の下にカーソルがある状態である。94は第4文字キにカーソルがある状態である。第1文字のノから第4文字のキまでカーソル移動するのに3回のカーソル処理で行うことが可能である。また,サと濁点「゛」を消去もしくは変更するような場合にも,一回の操作で行うことができる。
【0068】
図8は (b)は本発明の半角文字の表示制御のブロック図である。
図8 (b)において,
95は知識処理の認識結果であって,タと濁点「゛」を統合してヤマダ(3文字)を認識したものである。
【0069】
96は表示制御部であって,表示制御を行うものである。
97は表示統合処理部であって,半角文字の濁点,半濁点を統合する処理をするものである。
【0070】
98は表示用半角文字のフォント保持部である。
99はディスプレイである。
ヤマダ95のような濁点を含む半角文字の認識結果が入力された時,表示制御部96は,表示用半角文字のフォント保持部98から半角文字のヤ,マ,タ,濁点「゛」を取り出す。そして,表示統合処理部97はタと゛を1文字で扱うように統合処理し,カーソル操作,文字の削除,変更等を一回の操作で行う。
【0071】
図9は本発明の認識結果の表示制御部のフローチャートの実施例1である。
S1 認識結果を入力する。
S2 認識結果の文字は半角文字か,あるいはそうでないかを判定する。全角文字であれば,S5で全角文字の表示処理をする。半角文字であれば,S3に進む。
【0072】
S3 濁点,半濁点があるか判定する。濁点,半濁点がなければS5で半角文字の表示処理をする。濁点,半濁点があれば,濁点,半濁点を1文字として扱うように統合処理をし,S5で統合した濁点,半濁点をその前の半角文字に統合して1文字として扱って表示処理をする。
【0073】
図10は本発明の認識結果の表示制御部のフローチャートの実施例2である。濁点,半濁点をともなう半角文字は,濁点,半濁点付きの全角文字で扱うようにしたものである。
【0074】
S1 認識結果を入力する。
S2 半角文字かあるいはそうでないかを判定する。半角文字でなければS5で全角文字の表示処理をする。半角文字であればS3の処理をする。
【0075】
S3 濁点,半濁点はあるか判定する。濁点,半濁点がなければS5で半角文字の表示処理をする。濁点,半濁点があればS4の処理をする。
S4 濁点,半濁点のある文字を全角文字で扱うようにし,S5で濁点,半濁点付きの全角文字の表示処理をする。
【0076】
図10のフローチャートの方法で表示する,濁点,半濁点のない前後の半角文字に比べて濁点,半濁点付きの全角文字は大きく不自然になるので,目立たなくするためにその濁点,半濁点付きの全角文字は,大きさの小さいフォントを使用するようにしたものである。
【0077】
S1 認識結果を入力する。
S2 半角文字か,あるいはそうでないかを判定する。半角文字でなければS4で全角文字の表示処理をする。半角文字であればS3の処理をする。
【0078】
S3 濁点,半濁点はあるか判定する。濁点,半濁点がなければS4で半角文字の表示処理をする。濁点,半濁点があればS4の処理をする。
S4 濁点,半濁点付きの文字を1文字に統合する。
【0079】
S5 統合した文字を濁点,半濁点のある小さい全角文字で表示をする。
【0080】
【発明の効果】
本発明によれば,濁点や半濁点と文字が同じ枠に書かれた場合にも,知識処理により正しい認識結果を得ることが可能になる。また,濁点,半濁点をともなう半角文字の表示も1文字として扱うことができるので,認識結果の修正,変更等を能率的に行うことができる。
【図面の簡単な説明】
【図1】本発明の基本構成を示す図である。
【図2】本発明の基本構成の動作説明図である。
【図3】本発明の文字認識装置のブロック図である。
【図4】知識辞書の実施例を示す図である。
【図5】知識処理部の実施例のブロック構成図である。
【図6】本発明の知識処理の動作説明図である。
【図7】本発明の知識処理部の実施例のフローチャートを示す図である。
【図8】本発明の知識処理の認識結果の表示方法の実施例を示す図である。
【図9】本発明の表示制御部のフローチャートの実施例1を示す図である。
【図10】本発明の表示制御部のフローチャートの実施例2を示す図である。
【図11】本発明の表示制御部のフローチャートの実施例3を示す図である。
【図12】従来技術の説明図である。
【符号の説明】
1:文字認識部
2:知識処理部
10:知識辞書
11:出力部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a character recognition device for recognizing characters written on a form.
In particular, the present invention relates to a form character recognition device in which a character area to be written on a form is specified, and a voiced point and a semi-voiced point are written as one character.
[0002]
[Prior art]
Conventionally, character recognition devices that use half-width characters and full-width characters are different. In addition, the rules for entering characters are different for half-width characters such as kana. It is common to fill in the character box. This is because the EBCDIC code (half-width code) has no kana code with a voiced point and a voiced point.
[0003]
A conventional technique will be described with reference to FIG.
In FIG.
Reference numeral 111 denotes a character such as a handwritten character entered in the form, and shows an example in which Yamada is entered in the form. In the first box, "Y" and in the second box are entered, and in the third box, "D" and "Dakuten" are erroneously entered in the same box. Reference numeral 111 'denotes an example in which a correct entry is made, in which the third box is filled with a letter and the fourth box is filled with a cloud point.
[0004]
Reference numeral 112 denotes the result of character recognition of the entered characters one by one. The character recognition for each character is performed by reading characters written in a form as image data, extracting one character, extracting a characteristic of each character extracted, and comparing the extracted character with a character recognition dictionary 120 having a characteristic for each character. , Character recognition is performed for each character. Reference numeral 112 denotes the result obtained in such a manner, and indicates that the character in the first frame is recognized as "Y", the character in the second frame is recognized as "", and the character in the third frame is recognized as "1". The character recognition dictionary has the characteristics of characters with voiced and semi-voiced dots, and can recognize them as one character. For example, if the character and the voiced dot “゛” are entered in the same box, one character Character recognition).
[0005]
Reference numeral 113 denotes a knowledge process for searching for a word representing the meaning of a character string whose character has been recognized by referring to the knowledge dictionary 114 for the character recognition result 112 for each character. In the case of the example of FIG. 12, since the input area of the input characters 111 is the input area of the first and last names, it is determined that the meaning of the character recognition result 112 is for the first and last names, and the knowledge dictionary 114 for the first and last names is referred to. , Recognize the first and last names of the recognized character string.
[0006]
Reference numeral 114 denotes a knowledge dictionary, which holds words representing meanings for each abstraction of meanings represented by character strings. FIG. 12 shows a knowledge dictionary which holds first and last names for each number of characters. , Etc., indicating that the name has Yamata @, etc. as a four-character first and last name.) For a half-width character, the knowledge dictionary regards, for example, “ta” and “濁” as one character, and looks at two characters as “゛”. There is no single character with a dot.
[0007]
An output process 117 outputs a recognition result of the knowledge process.
Reference numeral 120 denotes a character recognition dictionary, which has a characteristic for each character.
Reference numeral 121 indicates that each character has a characteristic.
[0008]
In the case of FIG. 12, since the character and the cloud point are entered in the same box, the character recognition device determines the entered character as a character with a single character and a character recognition result of ya, ma, and da. Is determined to be three characters. Therefore, the character recognition device refers to the first and last name knowledge dictionary 114 for the three-character Yamada since the entered area is an area for the first and last names. Then, the three-letter words such as Yamano and Yamata in the knowledge dictionary are compared with the character recognition result 112. However, since there is no Yamada in the three-letter name dictionary, a correct result (Yamada) cannot be output.
[0009]
[Problems to be solved by the invention]
When a general user fills out a form in which a single character entry area is defined by a frame or the like, it is natural to write the voiced and semi-voiced dots and the characters related thereto in the same frame. Therefore, the rules of the characters specified by the character recognition device are often not observed. Since the erroneously entered characters are not in the words in the knowledge dictionary, the knowledge processing is completely ineffective, and a correct character recognition result cannot be output.
[0010]
Further, even if the information is correctly entered as indicated by 111 'in FIG. 12, in the half-width display, the character "ta" and the turbid point "@" are treated as different characters and displayed as four characters such as "ya", "ma", "ta" and "@". Therefore, there is a problem that the operation is troublesome when the cursor operation is performed to correct the displayed recognition result.
[0011]
SUMMARY OF THE INVENTION It is an object of the present invention to provide a character recognition device that can correctly perform knowledge processing even when a character having a clouded point or a semi-voiced mark is written in the same frame. It is another object of the present invention to provide a character recognition device capable of efficiently performing an operation even when correcting a recognition result.
[0012]
[Means for Solving the Problems]
The present invention provides a character reading unit that reads characters of a form, a character number determining unit that determines the number of characters in a character string read by the character reading unit, a knowledge dictionary that treats each of voiced and semi-voiced characters as one character, and The first word is stored in the first table with the number of characters of the read character string determined by the character number determination unit, and the number of characters of the read character string is calculated by adding 1 to the number of characters of the read character string. A knowledge dictionary reference unit that stores words having a number of characters up to the doubled number of characters in a second table; and a reading unit that has determined that the character number determination unit has determined that voiced or semi-voiced dots are to be integrated with reference to the second table. An integration unit that extracts words having the number of characters of the extracted character string and stores words in which voiced or semi-voiced voices are integrated in the first table, and a word stored in the first table. Compared to the character recognition result for the word, and so provided most things distances close in, or order and a display unit that displays output with a candidate ranked close in distance.
[0013]
FIG. 1 shows the basic configuration of the present invention.
In FIG.
Reference numeral 1 denotes a character recognition unit, which is a character written on a form or the like in which a character writing area is defined, for example, a character recognition result for each character (the number of characters in the character recognition result is n).
[0014]
Reference numeral 2 denotes a knowledge processing unit which performs knowledge processing for determining the meaning of the character recognition result of the character recognition unit 1 with reference to the knowledge dictionary 10 and recognizes the meaning of the character string of the character recognition result for each character. Things.
[0015]
3 is a process for determining a concept (first name, last name, address, etc.) representing the meaning represented by the character recognition result recognized by the character recognition unit 1.
Reference numeral 4 denotes processing for determining the number of characters in the character string as a result of the character recognition by the character recognition unit 1.
Reference numeral 5 denotes a process of searching and acquiring a word of n characters from the knowledge dictionary 10 having a word representing the meaning of the character string.
[0016]
6 searches the knowledge dictionary 10 having a word representing the meaning of the character string for a word of a character string of (n + 1) characters, a word of a character string of (n + 2) characters,..., A word of n characters of 2n characters This is the process of acquiring.
[0017]
Reference numeral 7 denotes a process for integrating the voiced and semi-voiced dots, which is a process for integrating the voiced and semi-voiced characters and the characters to which they are based into one character. For example, this is a process in which the four characters Yamata タ obtained from the knowledge dictionary and the voiced point “゛” are integrated into one character, and are regarded as da to become three characters.
[0018]
Reference numeral 8 denotes a process of comparing the recognized character string recognized by the character, the n characters obtained from the knowledge dictionary, and the character string obtained by integrating the n characters among (n + 1) to 2n characters.
[0019]
10 is a knowledge dictionary.
An output unit 11 outputs a recognition result having a meaning obtained as a result of the knowledge processing.
[0020]
FIG. 2 is a diagram illustrating the operation of the basic configuration of the present invention.
In FIG.
Reference numeral 20 denotes a Yamada character obtained by character-recognizing a character string Yamada in which a letter and a cloud point “点” are erroneously entered in the same frame on a form one by one (the letter and the cloud point “゛” are recognized as one character). Indicating that).
[0021]
In the knowledge processing unit 2,
Reference numeral 27 denotes an integration unit, which indicates that the four-character Yamata $ 22 of the knowledge dictionary 10 for the first and last names is integrated into a three-character Yamada 28.
[0022]
In the knowledge dictionary 10,
Reference numeral 22 denotes a four-character first and last name Yamata.
Reference numeral 23 denotes a three-character first and last name Yamaki.
[0023]
In the output unit 8,
Reference numeral 31 denotes Yamada of the recognition result obtained by the knowledge processing.
The operation of the basic configuration of the present invention in FIG. 1 will be described with reference to an example in which the input character (character recognition result) is Yamada (see FIG. 2).
[0024]
It is assumed that Yamada 20 is obtained as a result of character recognition for each character, and that the abstract concept of the meaning represented by the character string in the entry area represents the first and last names. Since the character recognition result is for the first and last names and the number of characters in the character string is three, the knowledge processing unit 2 searches for and obtains three-letter words such as first and last names using the first and last name knowledge dictionary 10. .
[0025]
Further, since the character recognition result is three characters, words of a character string from four characters to six characters twice as large are acquired from the knowledge dictionary 10. For example, it is Yamata $ 22 of four characters.
[0026]
For a word having a character string of 4 to 6 characters, the integration unit 27 integrates the voiced and semi-voiced characters. Combined into a three-character Yamada. The knowledge processing unit 2 compares the character recognition result Yamada 20 for each character with three characters (Yamaki or the like) obtained from the knowledge dictionary 10 and a word (Yamada or the like) integrated into three characters. Then, for example, the similarity is examined by distance calculation or the like, and the most similar word (the closest one, etc.), in the case of FIG. 2, Yamada 31 is output to the output unit 11 as a recognition result based on the knowledge processing.
[0027]
According to the present invention, it is possible to obtain a correct recognition result in the knowledge processing even when a voiced point or a semi-voiced point and characters related thereto are written in the same frame. Further, also when displaying the recognition result, processing is performed so that the voiced and semi-voiced dots are integrated into the displayed character and can be handled as one character (the details of this point will be described later).
[0028]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 3 is a block diagram of the character recognition device of the present invention.
In FIG.
Reference numeral 40 denotes a form, in which a character entry area and a meaning indicating the content are defined in the entry area (for example, entry areas such as first and last name, first name, and address are defined).
[0029]
Reference numeral 41 denotes a character reading unit which reads characters such as handwritten characters written on a form by a scanner and performs photoelectric conversion.
Reference numeral 42 denotes a feature extracting unit for extracting one character based on the image data of the form obtained by the character reading unit 41 and extracting a feature required for character recognition for each character.
[0030]
A collating unit 43 compares the feature obtained by the feature extracting unit 42 with the feature stored in the dictionary of the character recognition dictionary 44, and performs character recognition for each character.
Reference numeral 44 denotes a character recognition dictionary for storing the characteristics of each character.
[0031]
A knowledge processing unit 45 determines an abstract concept (first name, last name, address, etc.) of the meaning represented by the character from the character recognition result of each character, and generates a knowledge dictionary 46 having a word representing the meaning of the character string. By referring to this, the meaning of the character string of the character recognition result is recognized.
[0032]
Reference numeral 46 denotes a knowledge dictionary which holds, for each abstract concept of a meaning represented by a word, for example, an address, first and last name, name, company name, general name (school, library, etc.), words included in the abstract concept. .
[0033]
Reference numeral 47 denotes a display unit, such as a display for outputting a recognition result of the knowledge processing unit 45.
Reference numeral 48 denotes a correction unit for confirming and correcting the recognition result of the knowledge processing.
[0034]
Reference numeral 49 denotes an input unit for inputting user confirmation, correction data, and the like.
The operation of the configuration of FIG. 3 will be described.
[0035]
The character reading unit 41 reads a form as an image. The feature extracting unit 42 cuts out characters for each character based on the image data and extracts features. Then, the matching unit 43 refers to the character recognition dictionary 44, compares the characteristics of each character, and obtains similar characters. Then, the similar characters are ranked according to the degree of similarity, and given to the knowledge processing unit 45.
[0036]
The knowledge processing unit 45 determines the meaning of the character string (attribute such as address, name, company name, etc.) according to the character recognition result obtained by the matching unit 43. Then, the knowledge dictionary 46 having a word representing the meaning is referred to. At this time, words having a clouded point, a semi-voiced point, etc. among the words included in the knowledge dictionary 46 are integrated to reduce the number of words, and the words of the character string of the character recognition result are considered in consideration of the candidate order of the character recognition result. (Knowledge processing of the present invention will be described in detail with reference to FIG. 6). Then, the obtained recognition result is transferred to the display unit 47 (recognition results to be output are only those having the first recognition result obtained by the knowledge processing, or a plurality of recognition results are output according to the need. Selected).
[0037]
The display unit 47 displays the recognition results obtained by the knowledge processing unit 45 on the screen in the order of candidates.
The user uses the input unit 49 to check the recognition result or input correction data according to the recognition result displayed on the display unit 47. The correction unit 48 performs processing such as confirmation and correction of the recognition result based on data such as confirmation and correction.
[0038]
FIG. 4 shows an embodiment of the knowledge dictionary according to the present invention, which shows a dictionary holding words representing first and last names in katakana.
Reference numeral 51 denotes an area having a character number n of words registered in the dictionary and a pointer to a word storage area.
[0039]
An area 52 holds the first and last names for each number of characters.
There are no registered words (first and last names) of n = 1, registered words of n = 2 are back, registered words of n = 3 are Sasaki, Imai, etc., and n = 4 are Yamata ゛, Aoshima, Takahashi, etc.
[0040]
FIG. 5 is a block diagram of an embodiment of the knowledge processing unit of the present invention.
In FIG.
In the knowledge processing unit 2,
Reference numeral 61 denotes a character number determination unit which receives a character recognition result for each character and determines the character number n of the character string.
[0041]
Reference numeral 61 'denotes an abstract concept determination unit for the meaning represented by the character string, which determines the abstract concept (address, first and last name, name, company name, general name, etc.) of the meaning represented by the input character string.
[0042]
Reference numeral 62 denotes a knowledge dictionary reference unit which, according to the number of characters in the character string as a result of the character recognition and the abstraction of the meaning, retrieves n characters of the knowledge dictionary 10 having the word of the abstraction and words of (n + 1) to 2n characters. Search and ask.
[0043]
Reference numeral 63 denotes a table 1, which holds words of n characters obtained by searching the knowledge dictionary 10 and words having a cloud point and a semi-voice point integrated into n characters by the integration unit 65.
[0044]
Reference numeral 64 denotes a table 2, which holds words of (n + 1) characters to 2n characters obtained by searching the knowledge dictionary 10.
Numeral 65 denotes an integration unit, of the words having (n + 1) to 2n characters held in the table 2 (64), for a word having a voiced point and a voiced voice, the voiced voice and the voiced voice and a character to which the voiced voice is applied Is performed.
[0045]
Reference numeral 66 denotes a similarity determination unit that integrates the character recognition result for each character with the n-character word and the voiced and semi-voiced characters stored in the table 1 (63) to determine the similarity between the word and the word determined to be n characters. Is what you do. The similarity is determined, for example, by calculating the distance between the character of the character recognition result for each character and the character stored in the table 1 (63) (this point will be specifically described with reference to FIG. 6). .
[0046]
In the knowledge dictionary 10,
Reference numeral 71 denotes a first name and last name dictionary that holds words representing the last name of each name for each number of characters.
[0047]
Reference numeral 72 denotes a name dictionary which holds words representing names of names for each number of characters.
An address dictionary 73 holds words such as place names representing addresses for each number of characters.
[0048]
74 is a company name dictionary.
75 is a general name dictionary.
FIG. 6 is an explanatory diagram of character recognition by the knowledge processing of the present invention. An example is shown in which the first candidate of the character recognition result for each character is Yamada, the second candidate is Inugu, and the third candidate is aster. FIG. 6A shows the case where the distance is calculated by comparing the first and last name Yamada extracted from the table 1 (63) with the character recognition result, and FIG. The distance calculation method in the case of Yamada is shown.
[0049]
In FIG. 6A,
63 is a table 1.
Reference numeral 64 denotes a table 2.
[0050]
Reference numeral 65 denotes an integration unit.
66 is a similarity determination unit.
Reference numeral 71 denotes a dictionary representing n first and last names of the knowledge dictionary.
[0051]
Reference numeral 71 'denotes a dictionary representing the first and last names of (n + 1) to 2n characters in the knowledge dictionary.
Reference numeral 82 denotes a distance obtained by comparing the character string extracted from the table 1 (63) with the character string of the character recognition result 91 (a method of calculating the distance will be described later).
[0052]
Reference numeral 91 denotes a character recognition result for each character. The example shows that the first candidate is Yamada, the second candidate is Inu, and the third candidate is aster.
The case of FIG. 6A will be described.
[0053]
A method of acquiring words to be extracted from the knowledge dictionaries 71 and 71 'to the table 1 (63) will be described.
Since the character recognition result 91 is three characters, all three-character words having the first character of the first candidate of the character recognition result 91 as the first character are extracted and stored in the table 1 (63). Next, all three-character words having the first character A of the second candidate of the character recognition result 91 as the first character are extracted and stored in the table 1 (63). Further, all three-character words having the first character a of the third candidate of the character recognition result 91 as the first character are extracted and stored in the table 1 (63).
[0054]
Next, since the character recognition result 91 is three characters, all words having four, five, and six character strings are similarly extracted and stored in the table 2 (64). For example, in the case of four characters, all four-character words whose first character is Y, four characters whose first character is A, and four characters whose first character is A are extracted, and Table 2 (64) ). This operation is repeated for words of 5 or 6 characters, and stored in Table 2 (64).
[0055]
Next, the integrating unit 65 integrates the voiced and semi-voiced words for the words stored in the table 2 (64). Then, the word (Yamada or the like) which has become three characters in the integration processing is moved to the table 1 (63).
[0056]
The similarity judging unit 66 compares the three-character words stored in the table 1 (63) and the words that have been combined into three characters with the character recognition result to determine the distance.
[0057]
It is assumed that the first and last names of three characters Yamada are extracted from the table 1 (63). The similarity determination unit 66 is stored in the table 1 (63). Is The first character of the character recognition result that matches the first character is searched. As a result, the distance between the first character and the first candidate is set to zero. Next, the second character of the character recognition result that matches the second character of the Amada 81 is obtained. As a result, since the value matches the first candidate, the distance of the second character is set to zero. Next, the third character of the character recognition result that matches the third character of Yamada 81 is obtained. As a result, the distance coincides with the first candidate, so the distance is set to 0. Then, the sum 0 of the distances of the characters of Yamada 81 is obtained as the total distance.
[0058]
As shown in FIG. 6B, the distance when Amada is taken out to the table 1 (63) is obtained as follows.
First, the words obtained from Table 1 (63) are compared with the first characters of the character recognition result. Since the first character A of Amada matches the first character A of the third candidate, the distance is set to 2. Next, the second characters are compared. Since the character of the second character of Amada matches the first candidate, the distance is set to zero. Next, the third characters are compared. As a result, since the third character of Amada matches the first candidate, the distance is set to 2. Therefore, the total distance of Amada is 2.
[0059]
In this way, the distances are calculated for all the words stored in the table 1 (63), the one with the smallest total distance is output as the first candidate of the recognition result of the knowledge processing, and the candidates are ranked in ascending order of distance. Output. Only the first candidate may be output as a result.
[0060]
The user sees and confirms the recognition result of the knowledge processing displayed on the display of the output unit, and if necessary, inputs necessary correction data to correct the recognition result.
FIG. 7 is a flowchart of an embodiment of the knowledge processing unit of the present invention.
[0061]
The operation of the configuration of FIG. 5 will be described according to the illustrated step numbers (see FIG. 5).
S1 The character number determination unit 61 sets the candidate number koho (koho = 3 in FIG. 6).
[0062]
S2 The character number determination section 61 sets the input character number n (n = 3 in FIG. 6). S3, S4 Loop from i = 1 to koho. In the loop, assuming that the first i-th candidate character of the input character is S, all words of length n starting with S are taken out of the dictionary and put into table 1 (table1). In the case of FIG. 6, since the first character of the first candidate Yamada of the character recognition result is "YA", all three-letter words (first and last names) starting from "YA" are extracted. Next, since the first character of the second candidate imada is a, all three-letter words starting with a are extracted. Similarly, since the first character of the third candidate aster is "A", all three words starting with "A" are searched for and found.
[0063]
S5, S6 Loop from k = n + 1 to k = 2n. Further, in that loop, the process loops from i = 1 to i = koho.
In the process of S7 loop, when the i-th candidate character of the first character of the input (character recognition result) is S, all words having a length k starting with S are extracted from the dictionary and stored in the table 2. For example, since n = 3, for a four-character word, a four-character word in which the first character of the first candidate of the character recognition result is the first character is stored in the table 2. Next, a four-character word having the first character of the second candidate of the character recognition result as the first character is stored in the table 2. Further, a four-character word having the first character a of the third candidate as the first character is stored in the table 2. Similarly, for words of 5 characters and 6 characters, all words having the first character of ya, i, and a are obtained and stored in the table 2 (64).
[0064]
S8 The integration unit searches the table 2 and adds a word having a length of n characters as a result of integrating the voiced and semi-voiced dots to the table 1 (for example, integrating the four-character Yamata タ and the voiced point “゛” 3 characters and added to Table 1 (63)).
[0065]
S9 All the words held in the table 1 are collated with the input character candidates, the distance is calculated, and the word with the shortest distance is output as a recognition result of the knowledge processing.
FIG. 8 shows an embodiment of the display method of the character recognition device of the present invention.
[0066]
FIG. 8A shows an example of a method of displaying the recognition result of the knowledge processing according to the present invention.
FIG. 8A shows a display when the recognition result of the knowledge processing is Nozaki.
Since half-width fonts do not have character fonts with voiced dots, even if voiced characters are integrated and recognized as three characters according to the present invention, each character and voiced dot ゛ are displayed as single-width characters. For example, when a Nozaki is displayed, four characters are displayed with one voiced character as shown in the figure. Conventionally, when the cursor is moved from the first character to the fourth character in such a display, it is necessary to perform the cursor movement operation four times, assuming that the voiced dot is also one character. According to the present invention, in the case of displaying a half-width character, a voiced point and a voiced halftone point are integrated into one character, and the integrated portion is operated by one cursor operation.
[0067]
Reference numeral 92 denotes a state where the cursor is located at the first character. Reference numeral 93 denotes a state in which the second character "S" is integrated with the clouded point "@" and the cursor is located below the clouded point "@". Reference numeral 94 denotes a state where the cursor is located at the fourth character key. The cursor can be moved from the first character to the fourth character by performing the cursor processing three times. In addition, even when deleting and changing the cloud point “゛”, the operation can be performed by one operation.
[0068]
FIG. 8B is a block diagram of display control of half-width characters according to the present invention.
In FIG. 8B,
Reference numeral 95 denotes a recognition result of the knowledge processing, which is obtained by recognizing Yamada (three characters) by integrating the character "ta" and the turbid point "@".
[0069]
Reference numeral 96 denotes a display control unit for performing display control.
Reference numeral 97 denotes a display integration processing unit, which performs processing for integrating half-width characters.
[0070]
Reference numeral 98 denotes a font holding unit for displaying single-byte characters.
99 is a display.
When a recognition result of a half-width character including a voiced character such as Yamada 95 is input, the display control unit 96 extracts the half-width character “Y”, “ma”, “ta”, and the voiced character “゛” from the display half-width character font storage unit 98. . Then, the display integration processing unit 97 performs the integration processing so that the character and the character are handled as one character, and performs a cursor operation, a character deletion, a change, and the like in one operation.
[0071]
FIG. 9 is a first embodiment of the flowchart of the recognition result display control unit of the present invention.
S1 Input the recognition result.
S2: It is determined whether the character of the recognition result is a half-width character or not. If it is a double-byte character, display processing of the double-byte character is performed in S5. If it is a half-width character, the process proceeds to S3.
[0072]
S3 Determine whether there is a cloud point or a semi-voice point. If there is no voiced point or semi-voiced point, display processing of half-width characters is performed in S5. If there is a voiced point and a half-voiced point, the integration processing is performed so that the voiced-point and the half-voiced point are treated as one character, and the voiced point and the half-voiced point integrated in S5 are integrated into the preceding half-width character and treated as one character to perform the display processing. I do.
[0073]
FIG. 10 is a second embodiment of the flowchart of the recognition result display control unit of the present invention. The half-width characters with a voiced point and a half-voiced point are handled as full-width characters with a voiced point and a half-voiced point.
[0074]
S1 Input the recognition result.
S2 Determine whether the character is a half-width character or not. If it is not a half-width character, display processing of a full-width character is performed in S5. If it is a half-width character, the process of S3 is performed.
[0075]
S3 It is determined whether there is a cloud point or a semi-voice point. If there is no voiced point or semi-voiced point, display processing of half-width characters is performed in S5. If there is a cloud point or a semi-voice point, the process of S4 is performed.
S4: Characters having a voiced point and a semi-voiced point are handled as full-width characters, and in S5, a double-width character with a voiced and a half-voiced point is displayed.
[0076]
A double-byte character with a voiced point and a half-voiced character displayed with the method of the flowchart of FIG. 10 before and after the half-width character without a voiced and a half-voiced voice is greatly unnatural. Full-width characters are designed to use small fonts.
[0077]
S1 Input the recognition result.
S2 Determine whether the character is a half-width character or not. If it is not a half-width character, a full-width character display process is performed in S4. If it is a half-width character, the process of S3 is performed.
[0078]
S3 It is determined whether there is a cloud point or a semi-voice point. If there is no voiced point or semi-voiced point, display processing of half-width characters is performed in S4. If there is a cloud point or a semi-voice point, the process of S4 is performed.
S4: Merges characters with clouded and semi-voiced dots into one character.
[0079]
S5 The integrated characters are displayed as small double-byte characters having a voiced and semi-voiced point.
[0080]
【The invention's effect】
According to the present invention, it is possible to obtain a correct recognition result by knowledge processing even when a character having a clouded point or a semi-voiced mark is written in the same frame. In addition, since the display of half-width characters with a cloud point and a half-voice point can be treated as one character, the recognition result can be corrected and changed efficiently.
[Brief description of the drawings]
FIG. 1 is a diagram showing a basic configuration of the present invention.
FIG. 2 is a diagram illustrating the operation of the basic configuration of the present invention.
FIG. 3 is a block diagram of the character recognition device of the present invention.
FIG. 4 is a diagram showing an example of a knowledge dictionary.
FIG. 5 is a block configuration diagram of an embodiment of a knowledge processing unit.
FIG. 6 is an explanatory diagram of the operation of the knowledge processing of the present invention.
FIG. 7 is a diagram showing a flowchart of an embodiment of a knowledge processing unit of the present invention.
FIG. 8 is a diagram showing an embodiment of a method of displaying a recognition result of knowledge processing according to the present invention.
FIG. 9 is a diagram showing Example 1 of the flowchart of the display control unit of the present invention.
FIG. 10 is a diagram showing Embodiment 2 of the flowchart of the display control unit of the present invention.
FIG. 11 is a diagram illustrating a third embodiment of the flowchart of the display control unit of the present invention.
FIG. 12 is an explanatory diagram of a conventional technique.
[Explanation of symbols]
1: Character recognition unit
2: Knowledge processing unit
10: Knowledge dictionary
11: output section

Claims (6)

帳票の文字を読み取る文字読み取り部と,
文字読み取り部の読み取った文字列の文字数を判断する文字数判断部と,
濁点および半濁点をそれぞれ1文字として扱う知識辞書と,
前記知識辞書を参照して,前記文字数判断部が判断した,読み取った文字列の文字数の単語を第1のテーブルに格納し,読み取った文字列の文字数に1を加算した文字数から読み取った文字列の文字数を2倍にした文字数までの文字数となる単語を第2のテーブルに格納する知識辞書参照部と,
前記第2のテーブルを参照して,濁点あるいは半濁点を統合すると前記文字数判断部が判断した,読み取った文字列の文字数となる単語を抽出し,濁点あるいは半濁点を統合した単語を前記第1のテーブルに格納する統合部と,
前記第1のテーブルに格納された単語について文字認識結果と比較し,もっとも距離の近いもの,もしくは距離の近い順に候補順位をつけて表示出力する表示部と,
を備えたことを特徴とする文字認識装置。
A character reading unit for reading the characters of the form,
A character number determining unit for determining the number of characters of the character string read by the character reading unit;
A knowledge dictionary that handles each of the voiced and semi-voiced characters as one character,
A character string read from the number of characters obtained by adding 1 to the number of characters of the read character string, storing a word having the number of characters of the read character string determined by the number-of-characters determining unit with reference to the knowledge dictionary. A knowledge dictionary reference unit that stores words having a number of characters up to the number of characters that is twice the number of characters in the second table,
With reference to the second table, a word having the number of characters of the read character string, which is determined by the character count determining unit to integrate the voiced or semi-voiced voice, is extracted. Integration unit to store in the table of
A display unit that compares the words stored in the first table with the character recognition results, and displays the words in the shortest distance or in the candidate order in the order of the shortest distance, and
A character recognition device comprising:
帳票に記入された文字の1文字毎の特徴を抽出する特徴抽出部と,1文字毎に文字の特徴をもつ文字認識辞書と,抽出された1文字毎の特徴を文字認識辞書と比較して文字認識する照合部とを備え,文字認識辞書は1文字に切り出された濁点もしくは半濁点付きの文字を1文字に見る特徴を持つものであり,
1文字毎の文字認識においては,濁点もしくは半濁点とそのかかる文字が同一記入枠に書かれた文字も濁点もしくは半濁点付きの1文字として文字認識するものであることを特徴とする請求項1に記載の文字認識装置。
A feature extraction unit for extracting the characteristics of each character of the characters entered in the form, a character recognition dictionary having the characteristics of the characters for each character, and comparing the extracted characteristics of each character with the character recognition dictionary The character recognition dictionary is provided with a character recognizing unit, and the character recognition dictionary has a feature that a character with a voiced or semi-voiced character cut out into one character is viewed as one character.
2. The character recognition method of claim 1, wherein in the character recognition for each character, a character having a voiced or semi-voiced point and the character written in the same entry box is also recognized as a character with a voiced or semi-voiced point. The character recognition device according to 1.
濁点,半濁点およびそのかかる文字が半角文字であることを特徴とする請求項1もしくは2に記載の文字認識装置。The character recognition device according to claim 1, wherein the voiced point, the semi-voiced point, and such characters are single-byte characters. 濁点もしくは半濁点をともなう半角文字の認識結果の文字表示において,濁点もしくは半濁点をともなう文字に対して濁点もしくは半濁点とそのかかる文字を統合して1文字とみなして表示処理することを特徴とする請求項1に記載の文字認識装置。In the character display of the recognition result of a half-width character having a voiced point or a half-voiced point, a character having a voiced point or a half-voiced point is integrated with the voiced point or the half-voiced point and such a character, and is displayed as one character. The character recognition device according to claim 1. 濁点もしくは半濁点をともなう半角文字の認識結果の文字表示において,濁点もしくは半濁点をともなう文字に対して濁点もしくは半濁点とそのかかる文字を統合して1文字とみなし,その文字を濁点もしくは半濁点付き全角文字で表示することを特徴とする請求項1に記載の文字認識装置。In the character display of the recognition result of half-width characters with voiced or semi-voiced characters, the characters with voiced or semi-voiced voices are considered as one character by integrating the voiced or semi-voiced voice and such a character, and the character is voiced or half-voiced. 2. The character recognition device according to claim 1, wherein the characters are displayed in full-width characters. 濁点もしくは半濁点付き全角文字を他の文字より小さい文字で表示することを特徴とする請求項5に記載の文字認識装置。6. The character recognition device according to claim 5, wherein full-width characters with a voiced or semi-voiced character are displayed as characters smaller than other characters.
JP6413997A 1997-03-18 1997-03-18 Character recognition device Expired - Fee Related JP3548372B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6413997A JP3548372B2 (en) 1997-03-18 1997-03-18 Character recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6413997A JP3548372B2 (en) 1997-03-18 1997-03-18 Character recognition device

Publications (2)

Publication Number Publication Date
JPH10261049A JPH10261049A (en) 1998-09-29
JP3548372B2 true JP3548372B2 (en) 2004-07-28

Family

ID=13249455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6413997A Expired - Fee Related JP3548372B2 (en) 1997-03-18 1997-03-18 Character recognition device

Country Status (1)

Country Link
JP (1) JP3548372B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5422934B2 (en) * 2007-09-21 2014-02-19 凸版印刷株式会社 Palindromic structure detection system in genome sequence
CN111081102B (en) * 2019-07-29 2022-03-25 广东小天才科技有限公司 Dictation result detection method and learning equipment

Also Published As

Publication number Publication date
JPH10261049A (en) 1998-09-29

Similar Documents

Publication Publication Date Title
EP0844583B1 (en) Method and apparatus for character recognition
US8069033B2 (en) Document based character ambiguity resolution
JP4570509B2 (en) Reading generation device, reading generation method, and computer program
JP3548372B2 (en) Character recognition device
JP3958722B2 (en) Image data document retrieval system
JPH10232871A (en) Retrieval device
JP2003331214A (en) Character recognition error correction method, device and program
JP2894305B2 (en) Recognition device candidate correction method
JP3187671B2 (en) Electronic dictionary display
JP2000090193A (en) Character recognition device and item classifying method
JP2922365B2 (en) Kanji address data processing method in OCR processing system
US20240037129A1 (en) Search device, search method, and recording medium
JPH0546607A (en) Document reading aloud device
JP2827066B2 (en) Post-processing method for character recognition of documents with mixed digit strings
JP2002014981A (en) Document filing device
JPH10293811A (en) Document recognition device and method, and program storage medium
JP2001325292A (en) System and method for judging similarity degree of compound word and recording medium
JPS63282586A (en) Character recognition device
JP3048793B2 (en) Character converter
JP2947832B2 (en) Word matching method
JPH05120331A (en) Homonym recognizing device
JP3342028B2 (en) Kana-Kanji conversion device
JP2007140781A (en) Name analysis device, name analysis method and name analysis program
JPH01297768A (en) Document processor
JPH0458381A (en) Optical character reader

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040416

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080423

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090423

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090423

Year of fee payment: 5

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100423

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100423

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees