JP3720405B2 - Region identification apparatus and method - Google Patents

Region identification apparatus and method Download PDF

Info

Publication number
JP3720405B2
JP3720405B2 JP04831795A JP4831795A JP3720405B2 JP 3720405 B2 JP3720405 B2 JP 3720405B2 JP 04831795 A JP04831795 A JP 04831795A JP 4831795 A JP4831795 A JP 4831795A JP 3720405 B2 JP3720405 B2 JP 3720405B2
Authority
JP
Japan
Prior art keywords
character
item
character string
recognition
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP04831795A
Other languages
Japanese (ja)
Other versions
JPH08249418A (en
Inventor
克彦 長崎
重樹 森
栄作 巽
淳 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP04831795A priority Critical patent/JP3720405B2/en
Publication of JPH08249418A publication Critical patent/JPH08249418A/en
Application granted granted Critical
Publication of JP3720405B2 publication Critical patent/JP3720405B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)

Description

【0001】
【産業上の利用分野】
本発明は領域識別装置及び方法、詳しくは画像中の領域を識別する領域識別装置及び方法に関するものである。
【0002】
【従来の技術】
従来、名刺を光学的に読み取り、名刺上の各文字画像の項目を特定し、それぞれの項目を文字認識して、項目毎に記憶し、検索その他を効率良くする装置がある。
【0003】
この従来の項目特定処理方法について図9に示すフローチャート及び図8に示す装置構成図を用いて説明する。
【0004】
ここで、801は文字パターンを入力する画像入力部、802は入力された文字パターンデータを予め設定された方法で領域分離し、各領域内の文字切りをするデータ分離部である。また、データ分離部802には、文字パターンデータと分離した領域の数、文字の数及び並び方も記憶しておく。領域分離及び文字切りの法、さらに文字の並びの判定法については公知の方法が種々あるのでここではその詳細は述べない。
【0005】
但し、実施例では、個々の文字パターンが、互いに適当な距離以内に分布している場合、それらの文字パターンは同じ領域であると判定するようにしたが、上記の如く、公知の技術を用いてもよい。
【0006】
803は装置全体の制御を行う制御部である。804は制御部803より文字パターン画像データを受け取り、一文字毎の文字認識を行い文字コードを獲得し、該文字コードを文字コード記憶部809へ記憶する文字認識部、805は文字認識時に用いられる文字認識用データROM、806は制御部803より文字コード(群)を受け取り該文字コード(群)の項目を特定する項目特定部、807は項目特定時に用いられる項目特定用データROM、808は特定された項目及びそのデータを記憶する項目データ記憶部である。
【0007】
次に、ある一つの領域内での項目特定処理について述べる。いま、画像入力部801へ入力された文字パターンデータの領域分離及び各領域内の文字切り処理が終了し、データ分離部802に文字パターンデータが記憶されていると共に、分離された領域の数と各領域内の文字数、さらに文字の順序とが記憶されているとする。このとき、制御部803は、ある領域の一文字分の文字パターンデータを文字の順序に従い、文字認識部804へ転送する。
【0008】
文字認識部804ではステップS901にて制御部803から文字パターンデータが転送されてきたと判断すると、ステップS902にて文字コード記憶部809をクリアし、文字数N=1をセットする。そして、ステップS903に進み、文字認識処理を行なう。すなわち、送られてきた文字パターンデータを認識用フォーマットへ変換し文字認識用ROM805のデータとマッチングさせ、文字認識を行なう。
【0009】
認識用フォーマット或いはマッチングのさせ方については、例えば、文字パターンデータを正規ベクトル化し、ベクトルマッチングを行なうなどの方法がある。認識した文字コードはステップS904にて文字コード記憶部809に記憶しておく。次に、ステップS905にて領域内の全ての文字パターンデータについて認識処理を行なったかを判断する。これは文字認識部804から制御部803へ領域内終了問い合わせ信号を発行し、該問い合わせ信号に制御部803が答えることにより行われる。
【0010】
ここで領域内全ての文字パターンデータについて認識処理を行なっていないと判断されると、ステップS906にてN=N+1として、ステップS907へ進み、次の一文字分の文字パターンデータの転送要求を行なう。そして、制御部803は該転送要求を受けて、ステップS908にて次の一文字分の文字パターンデータの転送を行なう。転送された文字パターンデータはステップS903にて文字認識処理を行い、認識結果はステップS904にて文字コード記憶部809に記憶してある文字コードデータに追加して記憶される。
【0011】
こうして、処理がステップS905へ進み、領域内全ての文字パターンデータについて認識処理を行なったかを判断し、その領域内での認識処理が完了したと判断されるまで上記処理を繰り返す。
【0012】
さて、ステップS905にて領域内の全ての文字パターンデータについて認識処理を行ったと判断されると、処理はステップS909へ進み、文字コード記憶部809に記憶されているデータに基づいて、領域の項目特定を行なう。ここでの項目特定処理方法については、例えば、全ての文字に対してマッチングを行なう方法や、文字の順序に関係なく、領域内の文字から特徴文字を抽出して、該特徴文字とのマッチングにより項目特定を行なう方法が知られている。
【0013】
項目特定結果はステップS910にて制御部803へ転送し、ステップS910にて領域のデータと項目情報を関連付けて項目データ記憶部808に記憶する。この記憶方法については、例えば、図10に示すような形態にて記憶保持することが考えられる。
【0014】
なお、図10においては、項目データとして、住所、会社名、氏名、電話番号とした。
【0015】
【発明が解決しようとする課題】
しかしながら、上記従来方法では、各領域内の全ての文字認識処理を行い、しかる後に項目特定処理を行なっていたため、文字認識処理に時間がかかり、結果として、項目特定完了までに多くの時間を要するという問題があった。
【0016】
【課題を解決するための手段】
及び
【作用】
本発明はかかる問題点に鑑みなされたものであり、文字パターン群で構成される領域の種別の特定を高速に行える領域識別装置及び方法を提供しようとするものである。
【0017】
この課題を解決するため、例えば本発明の領域識別装置は以下の構成を備える。すなわち、
複数の文字画像からなる領域を含む文書画像について、該領域の項目属性を判別する領域識別装置であって、
前記領域の項目属性を特定するための第1の文字列データと、所定の項目属性でないことを特定するための第2の文字列データとを記憶している記憶手段と、
前記領域中の文字画像を順次文字認識し、1文字を文字認識する毎に認識結果を出力する文字認識手段と、
前記文字認識手段より認識結果が出力されてくる度に、当該認識結果と従前までに出力されてきた認識結果とで構成される文字列が前記記憶手段に記憶されている第2の文字列データのいずれかと一致するか判断し、一致すると判断された場合、当該一致すると判断された第2の文字列データに対応する項目属性を除外対象の項目属性として順次記憶していく除外対象項目記憶手段と、
前記文字認識手段より認識結果が出力されてくる度に、前記記憶手段に記憶されている第1の文字列データから前記除外対象記憶手段に記憶されている項目属性に対応する第1の文字列データを除外した後、当該認識結果と従前までに出力されてきた認識結果とで構成される文字列が当該除外された後の第1の文字列データのいずれかに一致するか判断し、当該一致する第1の文字列データを特定することができた時点で、当該特定された第1の文字列データに対応する項目属性を当該領域の項目属性として決定する決定手段とを有する。
【0018】
ここで、本発明の好適な実施態様に従えば、文字認識手段にて認識する文字パターン画像の順序は、領域内の文字パターン画像の並びが、縦ならば上部から下部へ、横ならば左から右へとすることが望ましい。この結果、正しい文字列を抽出でき、判別手段の構成が簡略化し、記憶手段の記憶内容も簡素にできる。
【0019】
また、前記記憶手段に記憶されている各領域固有の文字列は、個々の項目で使用許可された文字列であり、前記判別手段によって照合したと判別した場合、照合した文字列に対応する領域の種別を識別結果とすることが望ましい。これによって、照合時点でもって領域の識別が完了することになり、文字認識する文字数は必要最低限にできる。
【0020】
また、前記記憶手段に記憶されている各領域固有の文字列は、個々の項目で使用不許可された文字列であり、前記判別手段によって照合したと判別した場合、照合した文字列に対応する領域の種別を順次除外していき、1つの領域の種類のみが残った時点をもってして、当該領域の種別を認識結果としてもよい。この結果、照合する度に候補が絞られていくので、領域の種別の特定が効率良くなる。また、更に、識別された領域の種別毎にデータを蓄積する手段を備えるるようにしても良い。この結果、簡単にデータベースを構築することが可能になる。
【0021】
【実施例】
以下、添付図面に従って本発明に係る実施例を詳細に説明する。
【0022】
図2には本実施例における電子機器のブロック構成図である。図示において、201は名刺などの文字パターン画像を読み込むための画像入力部(例えばイメージスキャナ装置)、202は入力された文字パターンデータを予め設定された方法で領域分離し、各領域内の文字切りをするデータ分離部である。また、データ分離部には、文字パターンデータと分離した領域の数、文字の数及び並び方も記憶しておく。
【0023】
203は装置全体の制御を行なう制御部、204は制御部203より送られてくる一文字毎の文字パターン画像データを受け取り、文字認識を行い文字コードを獲得する文字認識部、205は文字認識時に用いられる文字認識用データROM、206は文字認識部204より文字コードを受け取り該文字コード(群)の項目を特定する項目特定部、207は項目特定時に用いられる項目特定用データROM、208は特定された項目及びそのデータを記憶する項目データ記憶部(データベース化するのであればHDD等の外部記憶装置)である。
【0024】
次に動作を詳述する。いま、画像入力手段201を介して文字パターン画像が入力されると、該データは画像データ分離部202へ送られ、予め設定された方法により項目毎の領域に分離される。さらに分離されたデータは、予め設定された方法で、1文字毎の文字パターンデータに分離されて、該文字パターンデータと分離した領域の数、文字の数も記憶される。次に制御部203では、該データ群に基づき、文字パターンデータを一文字毎に文字認識部204へ送る。
【0025】
ここで、文字パターンデータを送る順序は領域内での文字の並び方による。ここでは、日本語による文章の並び方を考慮して、文字パターンが縦書きの場合は、上にある文字から下にある文字に向かって、横書きの場合は左から右へとする。なお、これらの向きはユーザが指定しても、自動的に判別するようにしても良い。
【0026】
さて、文字認識部204では送られてきた文字パターンデータを認識用フォーマットへ変換し文字認識用ROM205のデータとマッチングさせ、文字認識を行なう。認識用フォーマット或いはマッチングのさせ方については、例えば、文字パターンデータを正規ベクトル化し、ベクトルマッチングを行なうなどの方法がある。
【0027】
認識結果は文字コードとして項目特定部206へ送られる。項目特定部206では該文字コード及び項目特定用ROM207を用いて該文字コードが含まれる領域の項目特定を行なう。ここで、項目特定は項目特定部206に文字コードが送られてくる度に行われるが、それまでに送られてきた文字コード(群)では項目を特定できない場合は、制御部203へ次文字データ要求信号を送り、項目が特定出来た場合は、該項目データを送る。制御部203では、受け取った信号が、次文字データ要求信号ならばデータ分離部202のデータから次の文字パターンデータを取り出し、文字認識部204へ送る。また、受け取った信号が項目データならば、該項目データと文字コードデータを項目データ記憶部208に記憶するとともに、データ分離部202のデータから次の項目の文字パターンデータを取り出し、文字認識部204へ送る。ここで、すべての項目について項目特定が終了したならば、処理を終了する。
【0028】
ここで、ある一つの領域における項目特定処理の詳細を図1のフローチャートを用いて述べる。本実施例では項目が“住所”である場合の処理について述べる。また、図3には項目特定部206の詳細なハードウェア構成図を示す。301は文字認識部204より送られてきた文字コードを記憶する文字コード記憶部、302は文字認識部204より送られてきた文字コードの数をカウントする文字コードカウント部、303は文字コード記憶部301と項目特定用データROM207との間でマッチングを行なうマッチング部である。また、図4には項目特定用データROM207の内容の一例を示す。
【0029】
まず、ステップS101にて制御部203から、一文字分の文字パターンデータが文字認識部204へ送られてきたとする。すると、ステップS102にて、文字認識部204では、クリア信号を項目特定部206へ送り、文字コード記憶部301をクリアし、保存文字コードカウント部302のカウント数N=1にセットする。そして、ステップS103にて、上記文字パターンデータの認識を行なう。次にステップS104にて、認識結果である文字コードを項目特定部206へ転送する。項目特定部206では、ステップS105にて、送られてきた文字コードを文字コード記憶部301に保存する。次にステップS106にて該記憶データと、項目特定データROM207との間で文字数が1であるデータについてマッチング部303でマッチング処理を行なう。
【0030】
さて、項目特定用データROMとのマッチング処理にて一致しなかった場合は、ステップS107へ進み、保存文字コードカウント部のカウントNに1を追加する。次に、ステップS108に進み、制御部203へN文字目の文字パターンデータの転送を依頼する。制御部203では、依頼を受けて、ステップS109にて、N文字目の文字パターンデータを文字認識部204へ転送する。そして、文字認識部204ではステップS103にて、N文字目の文字パターンデータの認識を行なう。そして、認識結果が得られると、ステップS104にて文字コードデータを項目特定部206へ転送する。項目特定部206ではステップS105にて該文字コードを文字コード記憶部301に保存されている文字コードデータに追加して、ステップS106へ進み、再び該記憶データと、項目特定用データROM207との間で文字数がNであるデータとマッチング処理を行なう。これらの処理をマッチング処理にて一致するまで、繰り返す。
【0031】
例えば、「東京都大田区下丸子」という文字コードの場合、3文字目まで送られてきた時点で項目特定用データROM207内の「東京都」のデータと一致する。従って、この時点で該領域は“住所”の項目に属することが判明する。
【0032】
項目特定用データROMとのマッチング処理にて一致した場合は、ステップS110へ進み、特定された項目データを制御部203へ送る。これにより制御部203では上記項目特定処理が終了したことを知り、ステップS111にて、領域内の全ての文字パターンデータと項目データを項目/データ記憶部208へ転送する。そして、もし、項目を特定していない領域が残っていたら、次の領域の文字コード及び項目情報を項目特定部へ転送することになる。
【0033】
以上の処理を行なうことにより、分離された領域の文字パターンデータの項目特定処理を従来より短い時間で行なうことができる効果がある。また、項目特定用データの量も従来より少なくできるという効果も得られる。
【0034】
<第2の実施例>
上記実施例(第1の実施例)では、項目特定部206により、ある領域の文字パターンをある項目へ特定したが、これをある項目ではないことを決定するのに用いても良い。この例を第2の実施例として説明する。
【0035】
図5に本第2の実施例における項目特定用データROM207の内容の一例を示す。ここでは、図4に比べて逆特定項目を設けている。ここで、逆特定とは、ある項目でないことを特定するという意味で用いている。
【0036】
また、図6には本実施例における項目特定部206の詳細なハードウェア構成ブロック図を示す。例えば、文字パターンデータが「アイウエオ株式会社」であった場合、1文字目が文字認識部にて認識され、文字コードが項目特定部207へ送られ、データ501とマッチングされた時点で該領域の項目は“住所”ではないと、判定する。従って、2文字目以降の認識においては、項目が“住所”であるデータとはマッチングされない。ここでの、項目特定用データROMの内容は、日本国内では先頭にカタカナがくる文字列は住所ではないということに基づいている。いずれにせよ、項目として住所はあり得ないことになったわけであるので、次の2文字目以降とのマッチングでは、最初から項目としての“住所”を除外してマッチングが行われることになり、徐々に参照する項目が絞られていくことになる。
【0037】
図7には本実施例における、ある一つの領域内での項目特定処理の動作フローチャートを示す。第1実施例における同処理と異なる点の動作のみを以下に述べる。
【0038】
ステップS701では、ステップS105において文字コード記憶部301に保存された該記憶データと、項目特定用データROM207との間で、文字数がNである逆特定項目を持つデータについてマッチング部601にてマッチング処理を行なう。ここで、一致するデータがあれば、ステップS702にて、該データが示す逆特定項目を逆特定項目記憶部602へ記憶する。次に、ステップS703へ進み、項目特定用データROMにおいて逆特定項目記憶部602に記憶されている項目を除き、文字数がNであるデータについてのみマッチング処理を行なう。そして、一致した場合は、ステップS110へ進み、一致しない場合は、ステップS107へ進む。
【0039】
以上述べたような処理を実施すれば、ある領域の文字パターンが、ある項目には属さないことを検出し、その項目データについてはマッチングを行わないことにより、分離された領域の文字パターンデータの項目特定処理をさらに短い時間で行なうことが出来る効果がある。
【0040】
なお、実施例では、入力したイメージ画像中の文字の項目属性を判断する部分についてのみ説明したが、この技術を応用すると様々な分野に適応できるであろう。
【0041】
例えば、名刺をデータベース化するシステムにあっては、その名刺をイメージスキャナでもって読み込み、項目の種類を自動判別して、その項目の画像或いは認識結果の文字コードをHDD等の外部記憶装置に記憶させ、自由に検索できるようにすることも可能になる。特に、文字コードとしてデータベース化する場合には、全ての文字を文字認識することになろうが、少なくとも各領域の項目の種類を特定するのに要する時間は短縮される。
【0042】
入力する画像は名刺に限るものではない。如何なる文書画像であっても、その画像がある程度の規則に沿ったものである限りは、同様に処理することが可能だからである。但し、一般に、名刺は、周知の如く、そこに書かれた文字が何を意味するのかが明瞭に配置されているので、項目を特定して、データベース化するのに格好の対象ではある。
【0043】
また、実施例では画像をスキャナなどから光学的に読み取る例を説明したが、例えば記憶媒体に記憶された画像を入力して処理しても良いし、通信回線などを介して入力する場合にも適応可能であるので、上記実施例によって限定されるものではない。
【0044】
また、実施例では、文字認識用データ(認識辞書)、項目特定用データは共にROMとしたが、書き換え可能な記憶装置(例えばRAM或いはHDD等の外部記憶装置)であっても全く構わないし、処理プログラムもROMに格納される必要はない。すなわち、実施例に開示された技術は、汎用の情報処理装置にプログラムとして外部からロードすることによって実現することも可能である。更には、1つの装置でもって実現することも可能であるし、複数の装置でもって構成されるシステムであっても構わない。
【0045】
以上述べてきたように本実施例によれば、分離された領域の文字パターンデータの項目特定処理を従来より短い時間で行なうことが出来る効果がある。また、項目特定用データの量も従来より少なく出来る効果もある。
【0046】
【発明の効果】
以上述べてきたように本発明によれば、文字パターン群で構成される領域の種別の特定を高速に行えるようになる。
【0047】
【図面の簡単な説明】
【図1】第1の実施例における項目特定処理の動作フローチャートである。
【図2】第1の実施例における装置のブロック構成図である。
【図3】第1の実施例における項目特定部のブロック構成図である。
【図4】第1の実施例における項目特定用データROMの内容の一例を示す図である。
【図5】第2の実施例における項目特定用データROMの内容の一例を示す図である。
【図6】第2の実施例における項目特定部のブロック構成図である。
【図7】第2の実施例における項目特定処理の動作フローチャートである。
【図8】従来の装置のブロック構成図を示す図である。
【図9】従来の装置における項目特定処理の動作フローチャートである。
【図10】従来技術における項目/データの記憶形態の一例を示す図である。
【符号の説明】
201 画像入力部
202 データ分離部
203 制御部
204 文字認識部
205 文字認識用データROM
206 項目特定部
207 項目特定用データROM
208 項目/データ記憶部
[0001]
[Industrial application fields]
The present invention relates to an area identification apparatus and method, and more particularly to an area identification apparatus and method for identifying an area in an image.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there is an apparatus that optically reads a business card, specifies an item of each character image on the business card, recognizes each item, stores each item, and searches efficiently.
[0003]
This conventional item specifying processing method will be described with reference to a flowchart shown in FIG. 9 and an apparatus configuration diagram shown in FIG.
[0004]
Here, reference numeral 801 denotes an image input unit for inputting a character pattern, and reference numeral 802 denotes a data separation unit for separating the input character pattern data by a predetermined method and cutting characters in each region. The data separation unit 802 also stores the number of regions separated from the character pattern data, the number of characters, and how they are arranged. There are various known methods for region separation and character cutting, and further, a method for determining the arrangement of characters, and the details thereof will not be described here.
[0005]
However, in the embodiment, when individual character patterns are distributed within an appropriate distance from each other, the character patterns are determined to be the same region. However, as described above, a known technique is used. May be.
[0006]
A control unit 803 controls the entire apparatus. A character recognition unit 804 receives character pattern image data from the control unit 803, performs character recognition for each character, acquires a character code, and stores the character code in the character code storage unit 809. 805 is a character used for character recognition A data ROM for recognition 806 is an item specifying unit that receives a character code (group) from the control unit 803 and specifies an item of the character code (group), 807 is an item specifying data ROM used for specifying an item, and 808 is specified. And an item data storage unit for storing the items and their data.
[0007]
Next, the item specifying process in a certain area will be described. Now, the region separation of the character pattern data input to the image input unit 801 and the character cut processing in each region are completed, and the character pattern data is stored in the data separation unit 802 and the number of separated regions and It is assumed that the number of characters in each area and the order of characters are stored. At this time, the control unit 803 transfers the character pattern data for one character in a certain area to the character recognition unit 804 according to the order of characters.
[0008]
If the character recognition unit 804 determines in step S901 that the character pattern data has been transferred from the control unit 803, the character code storage unit 809 is cleared in step S902, and the number of characters N = 1 is set. In step S903, character recognition processing is performed. That is, the received character pattern data is converted into a recognition format and matched with the data in the character recognition ROM 805 to perform character recognition.
[0009]
As a recognition format or matching method, for example, there is a method in which character pattern data is converted into a normal vector and vector matching is performed. The recognized character code is stored in the character code storage unit 809 in step S904. In step S905, it is determined whether recognition processing has been performed for all character pattern data in the area. This is performed by issuing an in-region end inquiry signal from the character recognition unit 804 to the control unit 803 and the control unit 803 responding to the inquiry signal.
[0010]
If it is determined that recognition processing has not been performed for all character pattern data in the area, N = N + 1 is set in step S906, and the flow advances to step S907 to request transfer of character pattern data for the next character. In response to the transfer request, the control unit 803 transfers character pattern data for the next character in step S908. The transferred character pattern data undergoes character recognition processing in step S903, and the recognition result is stored in addition to the character code data stored in the character code storage unit 809 in step S904.
[0011]
In this way, the process proceeds to step S905, where it is determined whether the recognition process has been performed for all the character pattern data in the area, and the above process is repeated until it is determined that the recognition process in that area has been completed.
[0012]
If it is determined in step S905 that the recognition process has been performed for all character pattern data in the area, the process proceeds to step S909, and the item of the area is determined based on the data stored in the character code storage unit 809. Identify. As for the item specifying processing method here, for example, a method for matching all characters, a feature character is extracted from characters in a region regardless of the order of characters, and matching with the feature character is performed. A method for specifying an item is known.
[0013]
The item specifying result is transferred to the control unit 803 in step S910, and the area data and the item information are associated with each other and stored in the item data storage unit 808 in step S910. As for this storage method, for example, it is conceivable to store and hold in the form as shown in FIG.
[0014]
In FIG. 10, the item data includes an address, a company name, a name, and a telephone number.
[0015]
[Problems to be solved by the invention]
However, in the conventional method, since all character recognition processing in each area is performed and then the item identification processing is performed, the character recognition processing takes time, and as a result, much time is required until the item identification is completed. There was a problem.
[0016]
[Means for Solving the Problems]
And [Action]
The present invention has been made in view of such problems, and an object of the present invention is to provide an area identification apparatus and method that can specify the type of an area composed of character pattern groups at high speed.
[0017]
In order to solve this problem, for example, the region identification device of the present invention has the following configuration. That is,
An area identification device for determining an item attribute of a document image including an area composed of a plurality of character images,
A first character string data for specifying the attribute of the region, a storage unit storing a second character string data to identify that it is not a predetermined attribute,
Character recognition means for sequentially recognizing character images in the region and outputting a recognition result every time one character is recognized;
Each time a recognition result is output from the character recognition means, a second character string data stored in the storage means is a character string composed of the recognition result and the recognition result output so far. Exclusion target item storage means for sequentially storing item attributes corresponding to the second character string data determined to match as item attributes to be excluded when it is determined that they match. When,
Each time a recognition result is output from the character recognition means, the first character string corresponding to the item attribute stored in the exclusion target storage means from the first character string data stored in the storage means After the data is excluded, it is determined whether the character string composed of the recognition result and the recognition result output so far matches with any of the first character string data after the exclusion , And determining means for determining an item attribute corresponding to the specified first character string data as an item attribute of the region when the matching first character string data can be specified .
[0018]
Here, according to a preferred embodiment of the present invention, the order of the character pattern images recognized by the character recognition means is from the top to the bottom if the arrangement of the character pattern images in the region is vertical, and to the left if horizontal. It is desirable to go from right to right. As a result, a correct character string can be extracted, the configuration of the determination unit can be simplified, and the storage content of the storage unit can be simplified.
[0019]
The character string unique to each area stored in the storage means is a character string that is permitted to be used in each item, and if it is determined by the determination means to be matched, the area corresponding to the matched character string It is desirable to use the classification type as the identification result. As a result, the area identification is completed at the time of collation, and the number of characters to be recognized can be minimized.
[0020]
The character string unique to each area stored in the storage means is a character string that is not permitted to be used in each item, and corresponds to the matched character string when it is determined by the determination means. The region types may be sequentially excluded, and when only one region type remains, the region type may be used as the recognition result. As a result, candidates are narrowed down each time collation is performed, so that the type of area can be identified efficiently. Furthermore, a means for storing data for each type of the identified area may be provided. As a result, a database can be easily constructed.
[0021]
【Example】
Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings.
[0022]
FIG. 2 is a block configuration diagram of the electronic device in the present embodiment. In the figure, 201 is an image input unit (for example, an image scanner device) for reading a character pattern image such as a business card, 202 is an area separation of the input character pattern data by a preset method, and character cutting in each area is performed. It is a data separation unit that performs. The data separation unit also stores the number of areas separated from the character pattern data, the number of characters, and how they are arranged.
[0023]
203 is a control unit that controls the entire apparatus, 204 is a character recognition unit that receives character pattern image data for each character sent from the control unit 203 and performs character recognition to acquire a character code, and 205 is used for character recognition. A character recognition data ROM 206, an item specifying unit for receiving a character code from the character recognition unit 204 and specifying an item of the character code (group), 207, an item specifying data ROM used for specifying the item, 208, is specified. And an item data storage unit (an external storage device such as an HDD or the like if a database is used).
[0024]
Next, the operation will be described in detail. Now, when a character pattern image is input via the image input means 201, the data is sent to the image data separation unit 202 and separated into areas for each item by a preset method. Further, the separated data is separated into character pattern data for each character by a preset method, and the number of areas and the number of characters separated from the character pattern data are also stored. Next, the control unit 203 sends the character pattern data to the character recognition unit 204 character by character based on the data group.
[0025]
Here, the order of sending the character pattern data depends on how the characters are arranged in the area. Here, considering the arrangement of sentences in Japanese, when the character pattern is vertical writing, it is from the upper character to the lower character, and when writing horizontally, from left to right. Note that these directions may be specified by the user or automatically determined.
[0026]
The character recognition unit 204 converts the received character pattern data into a recognition format, matches it with the data in the character recognition ROM 205, and performs character recognition. As a recognition format or matching method, for example, there is a method in which character pattern data is converted into a normal vector and vector matching is performed.
[0027]
The recognition result is sent to the item specifying unit 206 as a character code. The item specifying unit 206 uses the character code and the item specifying ROM 207 to specify items in an area including the character code. Here, the item is specified every time a character code is sent to the item specifying unit 206, but if the item cannot be specified by the character code (group) sent so far, the next character is sent to the control unit 203. When a data request signal is sent and an item can be specified, the item data is sent. If the received signal is the next character data request signal, the control unit 203 extracts the next character pattern data from the data of the data separation unit 202 and sends it to the character recognition unit 204. If the received signal is item data, the item data and character code data are stored in the item data storage unit 208, and the character pattern data of the next item is extracted from the data of the data separation unit 202, and the character recognition unit 204 Send to. Here, when the item identification is completed for all items, the process is terminated.
[0028]
Here, the details of the item specifying process in one area will be described with reference to the flowchart of FIG. In the present embodiment, processing when the item is “address” will be described. FIG. 3 shows a detailed hardware configuration diagram of the item specifying unit 206. 301 is a character code storage unit for storing the character code sent from the character recognition unit 204, 302 is a character code count unit for counting the number of character codes sent from the character recognition unit 204, and 303 is a character code storage unit. This is a matching unit that performs matching between 301 and the item specifying data ROM 207. FIG. 4 shows an example of the contents of the item specifying data ROM 207.
[0029]
First, it is assumed that character pattern data for one character is sent from the control unit 203 to the character recognition unit 204 in step S101. Then, in step S102, the character recognition unit 204 sends a clear signal to the item specifying unit 206, clears the character code storage unit 301, and sets the count number N = 1 of the stored character code count unit 302. In step S103, the character pattern data is recognized. In step S <b> 104, the character code that is the recognition result is transferred to the item specifying unit 206. The item specifying unit 206 stores the transmitted character code in the character code storage unit 301 in step S105. Next, in step S106, matching processing is performed by the matching unit 303 on the data having 1 character between the stored data and the item specifying data ROM 207.
[0030]
If there is no match in the matching process with the item specifying data ROM, the process proceeds to step S107, and 1 is added to the count N of the stored character code count unit. In step S108, the control unit 203 is requested to transfer the Nth character pattern data. In response to the request, the control unit 203 transfers the character pattern data of the Nth character to the character recognition unit 204 in step S109. In step S103, the character recognition unit 204 recognizes character pattern data for the Nth character. When the recognition result is obtained, the character code data is transferred to the item specifying unit 206 in step S104. In step S105, the item specifying unit 206 adds the character code to the character code data stored in the character code storage unit 301. The process then proceeds to step S106, and between the stored data and the item specifying data ROM 207 again. A matching process is performed with data having N characters. These processes are repeated until they match in the matching process.
[0031]
For example, in the case of a character code “Shimomaruko, Ota-ku, Tokyo”, it matches the data of “Tokyo” in the item specifying data ROM 207 when the third character is sent. Accordingly, at this point, it is found that the area belongs to the item “address”.
[0032]
If they match in the matching process with the item specifying data ROM, the process advances to step S110 to send the specified item data to the control unit 203. As a result, the control unit 203 knows that the item specifying process has ended, and transfers all character pattern data and item data in the area to the item / data storage unit 208 in step S111. If there remains an area that does not specify an item, the character code and item information of the next area are transferred to the item specifying unit.
[0033]
By performing the above processing, there is an effect that the item specifying process of the character pattern data in the separated area can be performed in a shorter time than the conventional method. In addition, there is an effect that the amount of item specifying data can be made smaller than before.
[0034]
<Second embodiment>
In the above embodiment (first embodiment), the item specifying unit 206 specifies a character pattern in a certain area as a certain item, but this may be used to determine that this is not a certain item. This example will be described as a second embodiment.
[0035]
FIG. 5 shows an example of the contents of the item specifying data ROM 207 in the second embodiment. Here, reverse specific items are provided as compared with FIG. Here, reverse specification is used to mean that it is not a certain item.
[0036]
FIG. 6 shows a detailed hardware configuration block diagram of the item specifying unit 206 in this embodiment. For example, when the character pattern data is “Iueo Co., Ltd.”, the first character is recognized by the character recognition unit, the character code is sent to the item specifying unit 207, and when the data 501 is matched, It is determined that the item is not “address”. Therefore, in the recognition after the second character, the data whose item is “address” is not matched. The contents of the item specifying data ROM here are based on the fact that in Japan, a character string with katakana at the beginning is not an address. In any case, since there is no possible address as an item, the matching with the second and subsequent characters will be performed by excluding the “address” as an item from the beginning. The items to be referred to will be narrowed down gradually.
[0037]
FIG. 7 shows an operation flowchart of the item specifying process in a certain area in this embodiment. Only operations that differ from the processing in the first embodiment will be described below.
[0038]
In step S701, the matching unit 601 performs matching processing on the data having the reverse specific item whose number of characters is N between the storage data stored in the character code storage unit 301 in step S105 and the item specifying data ROM 207. To do. If there is matching data, the reverse specific item indicated by the data is stored in the reverse specific item storage unit 602 in step S702. Next, the process proceeds to step S703, and the matching process is performed only for data having N characters except for the items stored in the reverse specific item storage unit 602 in the item specifying data ROM. If they match, the process proceeds to step S110, and if they do not match, the process proceeds to step S107.
[0039]
If the processing as described above is performed, it is detected that the character pattern of a certain area does not belong to a certain item, and the matching of the item data is not performed. There is an effect that the item specifying process can be performed in a shorter time.
[0040]
In the embodiment, only the part for determining the item attribute of the character in the input image has been described. However, application of this technique may be applicable to various fields.
[0041]
For example, in a system for creating a business card database, the business card is read by an image scanner, the item type is automatically identified, and the image of the item or the character code of the recognition result is stored in an external storage device such as an HDD. It is also possible to search freely. In particular, when creating a database as a character code, all characters will be recognized, but the time required to specify at least the type of item in each area is reduced.
[0042]
The image to be input is not limited to a business card. This is because any document image can be processed in the same way as long as the image conforms to some rules. However, in general, a business card is clearly arranged as to what the characters written there mean, as is well known, and is therefore a good target for identifying items and creating a database.
[0043]
In the embodiment, an example in which an image is optically read from a scanner or the like has been described. However, for example, an image stored in a storage medium may be input and processed, or may be input via a communication line or the like. Since it is adaptable, it is not limited by the said Example.
[0044]
In the embodiment, the character recognition data (recognition dictionary) and the item specifying data are both ROM, but may be a rewritable storage device (for example, an external storage device such as RAM or HDD). The processing program need not be stored in the ROM. In other words, the technology disclosed in the embodiments can also be realized by loading a general-purpose information processing apparatus as a program from the outside. Further, it can be realized by a single device or a system constituted by a plurality of devices.
[0045]
As described above, according to this embodiment, there is an effect that the item specifying process of the character pattern data in the separated area can be performed in a shorter time than the conventional method. Also, there is an effect that the amount of item specifying data can be reduced as compared with the conventional method.
[0046]
【The invention's effect】
As described above, according to the present invention, it is possible to specify the type of the area constituted by the character pattern group at high speed.
[0047]
[Brief description of the drawings]
FIG. 1 is an operation flowchart of item specifying processing in a first embodiment;
FIG. 2 is a block configuration diagram of an apparatus according to the first embodiment.
FIG. 3 is a block configuration diagram of an item specifying unit in the first embodiment.
FIG. 4 is a diagram showing an example of contents of an item specifying data ROM in the first embodiment.
FIG. 5 is a diagram showing an example of contents of an item specifying data ROM in the second embodiment.
FIG. 6 is a block diagram of an item specifying unit in the second embodiment.
FIG. 7 is an operation flowchart of an item specifying process in the second embodiment.
FIG. 8 is a block diagram of a conventional apparatus.
FIG. 9 is an operation flowchart of an item specifying process in a conventional apparatus.
FIG. 10 is a diagram showing an example of a storage form of items / data in the prior art.
[Explanation of symbols]
201 Image input unit 202 Data separation unit 203 Control unit 204 Character recognition unit 205 Character recognition data ROM
206 Item specifying unit 207 Item specifying data ROM
208 items / data storage

Claims (6)

複数の文字画像からなる領域を含む文書画像について、該領域の項目属性を判別する領域識別装置であって、
前記領域の項目属性を特定するための第1の文字列データと、所定の項目属性でないことを特定するための第2の文字列データとを記憶している記憶手段と、
前記領域中の文字画像を順次文字認識し、1文字を文字認識する毎に認識結果を出力する文字認識手段と、
前記文字認識手段より認識結果が出力されてくる度に、当該認識結果と従前までに出力されてきた認識結果とで構成される文字列が前記記憶手段に記憶されている第2の文字列データのいずれかと一致するか判断し、一致すると判断された場合、当該一致すると判断された第2の文字列データに対応する項目属性を除外対象の項目属性として順次記憶していく除外対象項目記憶手段と、
前記文字認識手段より認識結果が出力されてくる度に、前記記憶手段に記憶されている第1の文字列データから前記除外対象記憶手段に記憶されている項目属性に対応する第1の文字列データを除外した後、当該認識結果と従前までに出力されてきた認識結果とで構成される文字列が当該除外された後の第1の文字列データのいずれかに一致するか判断し、当該一致する第1の文字列データを特定することができた時点で、当該特定された第1の文字列データに対応する項目属性を当該領域の項目属性として決定する決定手段と
を有することを特徴とする領域識別装置。
An area identification device for determining an item attribute of a document image including an area composed of a plurality of character images,
A first character string data for specifying the attribute of the region, a storage unit storing a second character string data to identify that it is not a predetermined attribute,
Character recognition means for sequentially recognizing character images in the region and outputting a recognition result every time one character is recognized;
Each time a recognition result is output from the character recognition means, a second character string data stored in the storage means is a character string composed of the recognition result and the recognition result output so far. Exclusion target item storage means for sequentially storing item attributes corresponding to the second character string data determined to match as item attributes to be excluded when it is determined that they match. When,
Each time a recognition result is output from the character recognition means, the first character string corresponding to the item attribute stored in the exclusion target storage means from the first character string data stored in the storage means After the data is excluded, it is determined whether the character string composed of the recognition result and the recognition result output so far matches with any of the first character string data after the exclusion , And determining means for determining an item attribute corresponding to the specified first character string data as an item attribute of the area when the matching first character string data can be specified. An area identification device.
前記文字認識手段での文字画像の文字認識は、該領域内の文字画像が、縦書きならば上から下へ、横書きならば左から右へ、の順序で行われることを特徴とする請求項1に記載の領域識別装置。  The character recognition of the character image by the character recognition means is performed in order from top to bottom if the character image in the region is vertical writing, and from left to right if it is horizontal writing. 2. The area identification device according to 1. 更に、前記決定手段で項目属性が決定された領域に含まれる全ての文字画像を、当該項目属性とともに蓄積する蓄積手段を有することを特徴とする請求項に記載の領域識別装置。2. The area identification device according to claim 1 , further comprising storage means for storing all the character images included in the area for which the item attribute is determined by the determining means together with the item attribute. 複数の文字画像からなる領域を含む文書画像について、該領域の項目属性を判別する領域識別方法であって、
前記領域中の文字画像を順次文字認識し、1文字を文字認識する毎に認識結果を出力する文字認識ステップと、
前記文字認識ステップより認識結果が出力されてくる度に、当該認識結果と従前までに出力されてきた認識結果とで構成される文字列が、予め記憶手段に記憶されている所定の項目属性でないことを特定するための第2の文字列データのいずれかと一致するか判断し、一致すると判断された場合、当該一致すると判断された第2の文字列データに対応する項目属性を除外対象の項目属性として、除外対象項目記憶手段に順次記憶していく除外対象項目記憶ステップと、
前記文字認識ステップより認識結果が出力されてくる度に、予め記憶手段に記憶されている前記領域の項目属性を特定するための第1の文字列データから前記除外対象記憶手段に記憶されている項目属性に対応する第1の文字列データを除外した後、当該認識結果と従前までに出力されてきた認識結果とで構成される文字列が、当該除外された後の第1の文字列データのいずれかに一致するか判断し、当該一致する第1の文字列データを特定することができた時点で、当該特定された第1の文字列データに対応する項目属性を当該領域の項目属性として決定する決定ステップと
を有することを特徴とする領域識別方法。
An area identification method for determining an item attribute of a document image including an area composed of a plurality of character images,
A character recognition step of sequentially recognizing character images in the region and outputting a recognition result each time a character is recognized;
Each time a recognition result is output from the character recognition step, a character string composed of the recognition result and the recognition result output so far is not a predetermined item attribute stored in advance in the storage means. It is determined whether it matches any of the second character string data for specifying this, and if it is determined to match, the item attribute corresponding to the second character string data determined to match is the item to be excluded Exclusion target item storage step of sequentially storing in the exclusion target item storage means as an attribute,
Each time a recognition result is output from the character recognition step, it is stored in the exclusion target storage means from the first character string data for specifying the item attributes of the area stored in advance in the storage means. After excluding the first character string data corresponding to the item attribute, the first character string data after the character string constituted by the recognition result and the recognition result output so far is excluded. When the first character string data that matches the first character string data can be identified , the item attribute corresponding to the identified first character string data is determined as the item attribute of the area. A region identifying method comprising: a determining step for determining as
前記文字認識ステップでの文字画像の文字認識は、該領域内の文字画像が、縦書きならば上から下へ、横書きならば左から右へ、の順序で行われることを特徴とする請求項に記載の領域識別方法。The character recognition of the character image in the character recognition step is performed in the order from top to bottom if the character image in the region is vertical writing, and from left to right if it is horizontal writing. 5. The area identification method according to 4 . 更に、前記決定ステップで項目属性が決定された領域に含まれる全ての文字画像を、当該項目属性とともに蓄積する蓄積ステップを有することを特徴とする請求項に記載の領域識別方法。The area identifying method according to claim 4 , further comprising an accumulating step of accumulating all character images included in the area for which the item attribute is determined in the determining step together with the item attribute.
JP04831795A 1995-03-08 1995-03-08 Region identification apparatus and method Expired - Lifetime JP3720405B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04831795A JP3720405B2 (en) 1995-03-08 1995-03-08 Region identification apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04831795A JP3720405B2 (en) 1995-03-08 1995-03-08 Region identification apparatus and method

Publications (2)

Publication Number Publication Date
JPH08249418A JPH08249418A (en) 1996-09-27
JP3720405B2 true JP3720405B2 (en) 2005-11-30

Family

ID=12800047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04831795A Expired - Lifetime JP3720405B2 (en) 1995-03-08 1995-03-08 Region identification apparatus and method

Country Status (1)

Country Link
JP (1) JP3720405B2 (en)

Also Published As

Publication number Publication date
JPH08249418A (en) 1996-09-27

Similar Documents

Publication Publication Date Title
CN112818951B (en) Ticket identification method
JP2005018678A (en) Form data input processing device, form data input processing method, and program
US20060045340A1 (en) Character recognition apparatus and character recognition method
JPH0520500A (en) Document recognizing device
JP3720405B2 (en) Region identification apparatus and method
JPH06103402A (en) Business card recognizing device
JP2842263B2 (en) Address reading device
JP2003316802A (en) Image management system, image management method and image management program
JPS5853393B2 (en) Mojiyomitrisouchi
JPS6146573A (en) Character recognizing device
JPH10269311A (en) Slip processing unit designating method
JP2996823B2 (en) Character recognition device
JP2746345B2 (en) Post-processing method for character recognition
JP2784004B2 (en) Character recognition device
JP2969751B2 (en) Character recognition processing method
JP2680311B2 (en) Character recognition method
JPS60138689A (en) Character recognizing method
JPH041882A (en) Character recognition and device for the same
JPH05210635A (en) Input device
JPS63282586A (en) Character recognition device
KR920006874A (en) Recognition method of document with predetermined format
JPH06251187A (en) Method and device for correcting character recognition error
JP2935533B2 (en) Character processing method
JPS5975377A (en) Character selecting system
JPH02193281A (en) Character recognizing device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050908

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090916

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090916

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100916

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100916

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110916

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110916

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120916

Year of fee payment: 7