JP3689485B2 - Form recognition method - Google Patents

Form recognition method Download PDF

Info

Publication number
JP3689485B2
JP3689485B2 JP11457396A JP11457396A JP3689485B2 JP 3689485 B2 JP3689485 B2 JP 3689485B2 JP 11457396 A JP11457396 A JP 11457396A JP 11457396 A JP11457396 A JP 11457396A JP 3689485 B2 JP3689485 B2 JP 3689485B2
Authority
JP
Japan
Prior art keywords
character
underline
line
extracted
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP11457396A
Other languages
Japanese (ja)
Other versions
JPH09305701A (en
Inventor
広 新庄
好博 嶋
勝美 丸川
和樹 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP11457396A priority Critical patent/JP3689485B2/en
Publication of JPH09305701A publication Critical patent/JPH09305701A/en
Application granted granted Critical
Publication of JP3689485B2 publication Critical patent/JP3689485B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Character Input (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は帳票、特に、不動産に関する登記情報が記載された多様な帳票に関し,特に,登記済通知書から文字データを読み取り,自動的に入力する帳票認識方法に関する。
【0002】
【従来の技術】
帳票の種類の識別に関する従来技術の例としては,以下のものが挙げられる。第1は,全ての種類の帳票に対して同じ位置に記載された帳票の種類を表すID番号を読み取ることにより,帳票の種類を識別する方式である。第2は,帳票の種類ごとに枠の構造が異なる場合に,枠の構造を識別することにより帳票の種類を識別する方式である。この例は,特開平7―141462号公報に記載されている。
【0003】
【発明が解決しようとする課題】
不動産に関する登記済通知書は現在7種類ある。これらの帳票は不動産に関する課税のためのデ−タ入力に用いられるものであるが、この通知書には,帳票の種類を特定するID番号の記載がないため,ID番号読み取りにより帳票を識別する従来手法を用いることはできない。さらに,これらの帳票は,同じ種類であっても枠の形状が異なる非定型帳票であるため,枠の構造から帳票を識別する従来手法を用いることはできない。また,表題部の文字を読み取ることにより帳票を識別する従来手法を用いる場合には,帳票の識別精度は文字認識の精度に大きく依存するという問題がある。登記済通知書の帳票名は,「権利に関する土地登記済通知書」,「権利に関する建物登記済通知書(一般)」,「権利に関する建物登記済通知書(専有)」,「表示に関する土地登記済通知書」,「表示に関する建物登記済通知書(一般)」,「表示に関する建物登記済通知書(一棟)」,「表示に関する建物登記済通知書(専有)」の7種類である。このうち,「表示に関する建物登記済通知書(一般)」と「表示に関する建物登記済通知書(一棟)」は,一字しか違わないため,この二種類に対する識別精度が低くなる可能性がある。
【0004】
そこで,本発明の第1の目的は,帳票の種類が多様な読み取り対象に対して,高精度な帳票識別手段を有する帳票認識手段を提案することである。
【0005】
従来の下線検出方法では,枠線以外の罫線を下線としていたため,文字の横方向のストローク等のノイズ成分を下線として誤抽出する可能性があった。そこで,本発明の第2の目的は,高精度な下線検出手段を有する帳票認識手段を提案することである。
【0006】
【課題を解決するための手段】
第1の観点では、この発明は、登記済通知書の表面画像を入力し文字を読み取る登記情報の認識方法であって,登記済通知書の画像から文字行を抽出する文字行抽出手段と,抽出した複数の文字行と枠との位置関係から帳票名の文字行を選択し文字行選択手段と,帳票名の文字行を読み取る文字識別手段から,登記済通知書の種類を識別する第1の帳票識別手段と,登記済通知書の画像から罫線を抽出する罫線抽出手段と,抽出した罫線から表の特徴を抽出する表特徴抽出手段と,表の特徴から登記済通知書の種類を識別する第2の帳票識別手段と,登記済通知書の画像から文字行を抽出する文字行抽出手段と,抽出した文字行を読み取る文字識別手段と,読み取り結果の中から帳票の項目名を選択する項目名選択手段と,項目名の組み合わせから登記済通知書の種類を識別する第3の帳票識別手段とを具備し,当該3つの手段の結果を組み合わせることにより,登記済通知書の種類を識別する帳票認識方法を提供する。
【0007】
第2の観点では、この発明は、登記済通知書の表面画像を入力し文字を読み取る登記情報の認識方法であって,登記済通知書の画像から文字行と罫線を抽出する文字行抽出手段と,抽出した罫線から枠罫線と枠罫線でない罫線を区別する罫線種判定手段と,枠罫線でない罫線が含まれる枠内の文字行を検出する手段と,当該枠内の文字行と当該枠内の枠罫線でない罫線との位置関係から,当該枠内の枠罫線でない罫線が下線か否かを判定する下線検出手段を具備する帳票認識方法を提供する。
【0008】
【発明の実施の形態】
以下、本発明の一実施例を詳細に説明する。なお、これにより本発明が限定されるものではない。
【0009】
図1は、本発明の一実施例である登記情報システムの構成図である。登記情報の認識を行う認識部101と認識結果の修正を行う修正部105がネットワーク104により接続されており,入力センタ111において認識と修正を並行して行うことができる。処理の過程は,まずスキャナ102により登記済通知書100の画像を入力する。次に,認識用計算機103では,文字および罫線の認識を行い,修正用計算機106において認識結果の修正確認を行う。また,辞書やコード表と照合チェックし,コードデータを出力する。認識結果は,通信制御用計算機107を介して,遠隔地にある計算センタ110にあるホスト計算機108に接続された登記情報データベース109に格納される。修正部105では,認識結果の一部を利用し,登記情報データベース109をアクセスし,登録済の登記情報を読み出す。当該読み出した登録情報と認識結果の一部を照合し,矛盾がないかどうかの検定を行う。
【0010】
図2は,登記情報認識の処理過程を示すブロック図である。認識部101では,帳票画像を読み取り,修正部105に縮小画像248,枠座標250,下線座標252,文字行座標254,帳票種類256,認識結果ラティス258,文字座標260を出力する。修正部105では,これらの入力データをもとに,操作者が認識結果を修正する。画像入力部200では,帳票表面の画像を白黒2値化して入力する。
【0011】
入力した画像は,画像縮小部202と文字行画像抽出部218に出力される。画像縮小部202では,後続の処理の高速化のため帳票画像を縮小し,縮小画像248を出力する。縮小処理は,細い罫線が縮小後かすれないよう,画素ごとのOR処理を行う。縮小した画像に対し,罫線抽出部204において実線と点線の罫線を抽出する。実線は,黒画素の連続するつながりをもとに抽出される。点線は,黒画素の連結成分の外接矩形の配置,サイズの拘束条件をもとに抽出される。枠抽出部206では,204で抽出した罫線から罫線が四方を取り囲む枠を求め,枠の頂点座標250を出力する。表特徴抽出部208では,206で抽出された枠の情報から,枠の集まりである表の特徴量を抽出する。この特徴量とは,縦横の罫線の本数や,罫線同士の接続関係,枠の位置関係等である。
【0012】
一方,文字行抽出部212では,202から出力された縮小画像から,文字の集合である文字行を抽出する。ここでは,黒画素の連結成分うち,文字と推定される大きさの連結成分の外接矩形の頂点座標をもとに,文字の並びと推定される外接矩形を融合することにより,文字行を生成する。行―枠対応部214では,212で抽出した文字行の頂点座標と206で抽出した枠の頂点座標を比較することにより,各文字行がどの枠内に存在するか,もしくは枠外にあるかを判定し,枠ごとに含まれる文字行の頂点座標と枠外の文字行の頂点座標254を出力する。 また,下線抽出部216では,204で抽出した罫線座標と,206で抽出した枠の頂点座標と,214で抽出した枠内の文字行座標とをもとに,下線を抽出して,下線の座標252を出力する。さらに,文字行画像抽出部218では,214で抽出された文字行座標をもとに,200で入力された画像から文字行部分の画像を切り出す。文字切り出し・文字識別部220では,文字切り出し部222と文字識別部224が協調して,文字を1文字ずつ切り出し,その文字座標260を出力する。さらに,文字識別部224では,切り出した1文字分の画像パターンに対して,識別辞書226を用いて文字を識別する。帳票名照合部228では,文字識別部224の出力である文字識別結果を入力し,単語照合部230により帳票名辞書232に格納された帳票名単語と照合することにより帳票名についての認識結果の誤りを修正して帳票名を求める。
【0013】
帳票名辞書232に格納された単語は,認識対象の帳票名である。認識対象の帳票名はあらかじめわかっており,帳票名は帳票の種類に1対1に対応する。さらに,項目照合部234では,228で照合されなかった文字認識結果を入力し,単語照合部236により項目辞書238に格納された項目名単語と照合することにより項目名についての認識結果の誤りを修正して項目名を求める。項目辞書238にされた単語は,認識対象の帳票内に記載された項目である。内容照合部240では,234で照合されなかった文字認識結果を入力し,単語照合部242により内容辞書244に格納された内容単語と照合することにより内容についての認識結果の誤りを修正する。ここで,「内容」とは帳票において,項目名に対して記載されている内容をさす。例えば,「地目」という項目に対する内容には「居宅」や「公園」などがある。内容辞書244に格納された単語は,認識対象の帳票内に記載された内容を記載する単語のうち,あらかじめ使用が決められている単語である。240の処理の結果出力される認識結果ラティス258は,1文字ごとに文字識別処理の結果である候補文字を類似度が高い順に並べたものである。この文字識別結果は,帳票名照合,項目照合,内容照合により誤りを修正してある。
【0014】
一方,帳票識別部246では,表特徴抽出部208と帳票名照合部228と項目名照合部234の出力結果を入力し,表特徴と帳票名,項目名から帳票の種類を識別し,帳票種類256を出力する。
【0015】
図3は、図2で示した登記情報認識の処理フローを示す図である。ステップ300で画像を入力し,ステップ302で当該画像を縮小する。次いで,ステップ304で画像から罫線を抽出し,ステップ306で罫線から枠を抽出する。さらに,ステップ308で表の特徴を抽出する。また,ステップ310で当該縮小画像から文字行を抽出し,ステップ312で,抽出した行と枠とを対応付ける。また,ステップ314で,罫線と枠と文字行の座標から下線を抽出する。さらに,ステップ316で,文字行の座標値に基づいて帳票画像から文字行部分の画像のみを抽出する。ステップ318で,当該文字行画像を1文字ずつの画像に分割し,ステップ320で切り出された画像パターンに対して文字識別を実行する。ステップ322では,文字識別結果を帳票名の単語と照合して帳票名を識別する。ステップ324では,文字識別結果を項目名の単語と照合して項目名を識別する。ステップ326では,文字識別結果を内容の単語と照合して内容を識別する。ステップ328では,ステップ308の処理結果である表の特徴とステップ322の処理結果である帳票名とステップ324の処理結果である項目名から帳票の種類を識別する。ステップ330では,300から328の処理で得た結果を出力する。
【0016】
図4は,認識対象である登記済通知書の画像を,説明のために簡略的に示した図である。帳票画像400の例では,帳票名「権利に関する建物登記済通知書(専有)」401が記載されており。横罫線402,404,406,408と縦罫線410,412,414,416が印刷されている。また,項目として「符号」418と「所在」420,「地目」422がある。「符号」の内容としては「1」(424)と「2」(426),「所在」の内容としては428と430に「国分寺市東恋ヶ窪1丁目280番地」が記載されている。「地目」の内容としては,「宅地」(432)と「公園」(434)が記載されている。さらに,内容424「1」,428「国分寺市東恋ヶ窪1丁目280番地」,432「宅地」には,それぞれ下線436,438,440が印刷されている。
【0017】
図5は,図4の帳票画像に対する,図3のステップ304の罫線抽出処理結果を示すものである。(a)の500は横罫線の抽出結果であり,(b)の520は縦罫線の抽出結果である。(a)では,図4の横罫線402から408に相当する罫線として,それぞれ,502から508が抽出されている。下線436,438,440に相当する下線として,それぞれ,510,514,516が抽出されている。512と518は,「市東恋」の横ストロークをつなげることによって,罫線として抽出したものである。この離れた横ストロークが接続される現象は,横罫線を抽出する際に黒画素を横方向に収縮・膨張処理することにより,接近した黒画素が接続されることに起因する。また,(b)では,図4の縦罫線410から416に相当する罫線として,それぞれ,522から528が抽出されている。
【0018】
図6は,図4の帳票画像に対する,図3のステップ306の枠抽出処理結果を示すものである。600は枠抽出結果である。602から618の9個の枠が抽出されている。
【0019】
図7は,図4の帳票画像に対する,図3のステップ310の文字行抽出処理結果を示すものである。700は文字行抽出結果である。図4の文字行401,418,420,422,424から434の文字行に対して,それぞれ702から720の文字行の外接矩形が抽出されている。
【0020】
図8は,図3のステップ314の下線抽出処理に関する処理フローである。罫線抽出処理304,枠抽出処理306,文字行抽出処理310の結果を用いて
,ステップ800では,枠を構成しない罫線を抽出する。ステップ802では,ステップ800で抽出した罫線の本数分だけ,以下の処理を繰り返す。ステップ804では,文字行の座標と罫線の座標を比較する。比較の方法については図9と図10を用いて説明する。ステップ806では,比較した値が基準を満たすか否かを判定する。基準値を満たす場合,ステップ808で,比較対象の罫線を下線とする。なお,上記ステップ808において抽出された2本の下線について,端点同士がが微小な間隔で離れており,延長線上に存在する場合には,1本の下線であるとすることもできる。また,上記ステップ808において抽出した下線の長さが基準値以下であれば,下線とみなさないとすることもできる。
【0021】
図9は,図8の処理フローを説明するための帳票の枠の例である。横罫線900と902,縦罫線904と906,文字行908,下線910が印刷されている。
【0022】
図10は,図9の例から罫線と文字行を抽出した結果である。この図を用いて下線の判定を説明する。下線判定処理は,文字行と同一枠内にある罫線の中で,文字行の下に位置し,文字行とほぼ同じ長さの罫線を下線と判定する。図10において,1007は文字が印刷されていた領域であり,1008は1007の外接矩形である。図9の900から910の罫線は,それぞれ1000から1010として抽出されている。さらに,1012は文字の横ストロークを罫線として抽出したものである。抽出された罫線の中から,枠を構成していない罫線として,1010と1012が抽出される。以下,1010を例として下線と判定される場合について説明し,1012を例として下線と判定されない場合を説明する。
【0023】
図10の1010について判定する。まず,罫線の下端のy座標と文字行の下端のy座標との差d11(1014)を求める。次に,罫線の上端のy座標と文字行の上端のy座標との差d12(1016)を求める。さらに,罫線のx方向の長さL1(1018)と文字行のx方向の長さLc(1020)との差を求める。この値を基準値,α,β,γ1,γ2と比較する。d11が文字行より下でα未満であり,d12がβ以上であり,L1―Lcがγ1以上γ2以下であれば,この罫線を下線とする。上記の処理の判定基準であるα,β,γ1,γ2の値は経験的に求めることができる。
【0024】
例えば,αは,文字行と下線との間隔が一定であればその値を用いることができる。一定でなければ,枠の高さと文字の高さの差の1/2を用いることができる。βは,文字行の下端と下線との間隔と,文字の高さとが一定であれば,この2つの値の和を用いることができる。γ1とγ2の値は,一文字程度のマージンを見込んで,γ1は文字幅に(−1)をかけた値,γ2は文字幅等を用いることができる。上記のα,β,γ1,γ2の値の設定にあたっては,帳票の傾きや,線のかすれやつぶれ等に対して頑健性をもたせるため,マージンをもたせて値を設定することができる。また,d11の値の許容値について,負の値を許容すれば,下線が文字と重なる場合にも対応できる。
【0025】
次に,図10の1012について判定する。まず,罫線の下端のy座標と文字行の下端のy座標との差d21(1022)を求める。次に,罫線の上端のy座標と文字行の上端のy座標との差d22(1024)を求める。さらに,罫線のx方向の長さL2(1026)と文字行のx方向の長さLc(1020)との差を求める。これらの値を上記α,β,γ1,γ2と比較した場合,d21は負の大きな値となり,d22はβより小さな値になるため,下線ではないと判定される。
【0026】
なお,ここで用いたd11,d12は文字の高さや枠の高さ等で正規化してもよい。また,L1とLcの差の代わりに比を比較してもよい。α,β,γ1,γ2の値は,比較対象の定義に合わせて設定する。
【0027】
また,ここでは,罫線の下端のy座標と文字行の下端のy座標との差1014と,罫線の上端のy座標と文字行の上端のy座標との差1016,罫線のx方向の長さ(1018)と文字行のx方向の長さ(1020)との差の3つの評価値を用いたが,必要に応じてこの中の1つもしくは2つのみを用いていもよい。
【0028】
図11は,図3のステップ314下線抽出処理において,文字行の座標の代わりに文字の座標を用いた例である。図10で説明した判定基準を用いて,枠を構成しない罫線1108と文字の外接矩形1112を比較することにより,1108は下線であると判定できる。また,枠を構成しない罫線1110と文字の外接矩形1114を比較することにより,1110は下線でないと判定できる。
【0029】
図12は,文字行内の一部の文字に対してのみ下線が印刷されている例である。枠1200内に,文字行1202と下線1204が記載されている。図11の方法を用いれば,文字行中の「1丁目280番」の文字のみに下線が印刷されていることを判定できる。
【0030】
図13は,図3のステップ314の下線抽出処理に関する別の処理フローである。登記済通知書では,図4の436,438,440のように同一線上に複数の下線が存在することが多い。一方,下線436は短いので,文字内の横方向のストロークと長さが変わらないため,罫線抽出の際に抽出もれする可能性がある。この処理では,罫線抽出の際に抽出もれする可能性のある短い下線を正しく抽出することを目的とする。このため,まず長い下線を抽出し,この下線の延長上にある罫線を下線と判定する。
【0031】
以下,図13の各ステップについて説明する。ステップ1300では,長い下線のみを抽出する。この処理は,図8で示した処理等を用いて実現できる。ステップ1302では,横方向のランレングスデータのうち枠線を構成しないランレングスデータを抽出する。ステップ1304では,抽出したランレングスデータの個数分についてステップ1306と1308の処理を繰り返す。ステップ1306では,対象とするランレングスデータが下線の延長線上にあるか否かを判定する。延長線上にあれば,ステップ1308で下線を構成するランレングスデータであるとして抽出する。ステップ1310では,ステップ1308で下線を構成すると判定されたランレングスデータから構成される罫線を下線として抽出する。なお,上記ステップ1310において抽出された2本の下線について,端点同士がが微小な間隔で離れており,延長線上に存在する場合には,1本の下線であるとすることもできる。また,上記ステップ1310において抽出した下線の長さが基準値以下であれば,下線とみなさないとすることもできる。
【0032】
図14は,図13の処理フローを説明するための帳票の枠の例である。横罫線1400と1402,縦罫線1404から1410,下線1412から1416,文字行1418から1422が印刷されている。
【0033】
図15は,図14の画像から枠を構成しない横方向のランレングスデータと長い下線とを抽出した結果である。1500は図13のステップ1300で抽出された長い下線である。横方向のランレングスデータの連結成分のうち,1502と1504は1500の延長線上1508から許容範囲w(1510)以内にあるので,下線であると判定する。1506はwよりも外にあるので,下線はないと判定する。
【0034】
図16は,図3のステップ314の文字行抽出処理に関する別の処理フローである。この処理では,枠を構成しない横方向のランレングスデータの長さの値をランの中点から傾き方向に投影して作成したヒストグラムを用いて下線を抽出する。以下,図16の各ステップにてついて説明する。ステップ1600では,横方向のランレングスデータのうち枠線を構成しないランレングスデータを抽出する。ステップ1602では,抽出したランレングスデータの長さの値を,ランの中点から傾き方向に投影してヒストグラムを作成する。ステップ1604では,ヒストグラムの山の数だけステップ1606とステップ1608の処理を繰り返す。ステップ1606では,投影値が基準値以上であるか否かを判定する。基準値以上であれば,ステップ1608で投影されたランレングスデータは下線を構成すると判定する。ステップ1610では,ステップ1608で下線を構成すると判定されたランレングスデータから下線を抽出する。なお,上記ステップ1610において抽出された2本の下線について,端点同士がが微小な間隔で離れており,延長線上に存在する場合には,1本の下線であるとすることもできる。また,上記ステップ1610において抽出した下線の長さが基準値以下であれば,下線とみなさないとすることもできる。
【0035】
図17は,図14の画像から枠を構成しない横方向のランレングスデータを抽出し,ヒストグラムを作成した結果である。1700から1706は図16のステップ1600で抽出された横方向のランレングスデータの連結成分である。ヒストグラム1708と1710は,ステップ1602で投影された結果である。ステップ1606において,1708と1710について,許容範囲w(1712)の範囲内の面積を基準値と比較する。この場合,1708は基準値以上,1710は基準値未満であるとすると,1700,1702,1704は下線であり,1706は下線ではないと判定できる。
【0036】
図18は,図3のステップ328の帳票識別処理に関する処理フローである。ステップ308では表の特徴量を抽出する。ステップ322では帳票名の単語照合結果を求める。ステップ324では項目名の単語照合結果を求める。ステップ1800では,308,322,324の結果からそれぞれ導出される帳票の種類を用いて,多数決により帳票種類を識別する。
【0037】
ステップ308で抽出する表の特徴としては,罫線の接続関係,枠の個数,枠の配置関係,縦罫線の本数,横罫線の本数等がある。罫線の接続関係が帳票の種類ごとに異なる場合には,特開平7―141462号公報に記載されている技術を用いて帳票の種類を特定できる。
【0038】
【表1】

Figure 0003689485
【0039】
表1では,ステップ308で抽出する表の特徴の例として,認識対象である登記済通知書の縦の実線罫線の本数を示している。これにより,縦の実線罫線は7,8,10,11,12,16本のうちのいずれかでることがわかる。このうち,8本と10本の場合を除けば,帳票の種類が一意に決定する。8本と10本の場合も帳票種類の候補を挙げることができる。
【0040】
また,ステップ322で照合する帳票名の単語は,帳票名全てを一つの単語として登録してもよく,「権利」「表示」,「建物」「土地」,「一般」,「専有」,「一棟」など特徴的な単語のみを登録してもよい。
【0041】
【表2】
Figure 0003689485
【0042】
表2は,ステップ308で照合する項目名の中から一部を抜粋して示したものである。表2より,「所在」や「所」のように複数の帳票に共通する項目名や,「地積」や「一棟の建物番号」,「棟」,「表」のように帳票固有の項目名などがある。帳票固有の項目名をもたない種類の帳票でも,複数の項目を組み合わせて存在を判定することにより,「表示に関する建物登記済通知書(一般)」と「表示に関する建物登記済通知書(専有)」を除く5種類の帳票の種類を識別することができる。例えば,「床面積」の項目が存在し,「一棟の建物番号」の項目が存在しなければ「権利に関する建物登記済通知書(一般)」と識別することができる。
【0043】
ステップ1800では,ステップ308,322,324の結果を統合して帳票の種類を識別する。統合の手段としては,上記3つの結果の多数決を用いることができる。
【0044】
ステップ1800において,308,322,324の各ステップで,一意に帳票の種類を識別できない場合でも,各ステップの処理結果を相互に補完することによって,帳票の種類を識別することもできる。例えば,ステップ308において,縦の実線罫線の本数が8本抽出された場合,表1より帳票の種類は「表示に関する土地登記済通知書」,「表示に関する建物登記済通知書(一般)」,「表示に関する建物登記済通知書(専有)」の3種類が考えられる。しかし,ステップ324において,項目名「表」が抽出されれば,「表示に関する土地登記済通知書」であると一意に決定できる。
【0045】
なお,ステップ1800において,308,322,324の3つのステップの結果を用いるのではなく,2つのみを用いることもできる。
【0046】
なお,ステップ1800において,308,322,324の各ステップの結果を同等に扱うのではなく,一つのステップで得た結果から帳票を識別し,他のステップで得た結果は,帳票識別の結果を検証するために用いることもできる。
【0047】
図19は,本発明の一実施例である登記情報システムの構成図である。101から109の構成は図1に同じである。ソータ1900は,認識部101で認識し,修正部105で修正した結果に基づき,登記済通知書を記載内容の優先度順に帳票100をソートする。以下にソートの例を2つ挙げる。第一は,所在と地番に該当する文字から,町ごとに丁目,番地,号の順にソートする。第二は,作成日,番号の順にソートする。また,ソートする対象は,登記済通知書の帳票でも,認識結果のデータでもよい。
【0048】
【発明の効果】
本発明の帳票認識方法によれば,登記済通知書のような非定型帳票に対しても高精度に帳票の種類を識別することができる。
【0049】
また,本発明の帳票認識方法によれば,下線を文字中のストロークなどと間違うことなく,高精度に抽出することができる。
【0050】
また,本発明の帳票認識方法によれば,帳票の認識結果に基づいて,帳票をソートすることができる。
【図面の簡単な説明】
【図1】本発明の一実施例である登記情報認識システムの構成図である。
【図2】登記情報認識の処理過程を示すブロック図である。
【図3】図2で示した登記情報認識のPAD図である。
【図4】認識対象である登記済通知書の画像の説明図である。
【図5】図4の画像に対して図3のステップ304の罫線抽出処理をした結果を示す図である。
【図6】図4の画像に対して図3のステップ306の枠抽出処理をした結果を示す図である。
【図7】図4の画像に対して図3のステップ310の文字行抽出処理をした結果を示す図である。
【図8】図3のステップ314の下線抽出処理に関するPAD図である。
【図9】下線抽出対象画像の説明図である。
【図10】図9の画像に対して罫線と文字行を抽出した結果を示す図である。
【図11】図9の画像に対して罫線を抽出し,文字を切り出した結果を示す図である。
【図12】文字行の一部の文字に対してのみ下線が印刷されている画像の説明図である。
【図13】図3のステップ314の下線抽出処理に関するPAD図である。
【図14】下線抽出対象画像の説明図である。
【図15】図14の画像に対して枠線を構成しないランレングスデータと長い下線線を抽出した結果を示す図である。
【図16】図3のステップ314の下線抽出処理に関するPAD図である。
【図17】図14の画像に対して枠線を構成しないランレングスデータを抽出し,ランレングスデータの長さを傾き方向に投影した結果を示す図である。
【図18】図3のステップ328の帳票識別処理に関するPAD図である。
【図19】本発明の一実施例である,ソート機能をもつ登記情報認識システムの構成図である。
【符号の説明】
200…画像入力、204…罫線抽出、206…枠抽出、208…表特徴抽出、246…帳票識別、222…文字切り出し、224…文字識別、236…単語照合、240…内容照合[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a form, in particular, to various forms in which registration information relating to real estate is described, and more particularly to a form recognition method for reading character data from a registered notice and automatically inputting it.
[0002]
[Prior art]
Examples of the prior art relating to identification of the form type include the following. The first is a method of identifying the form type by reading the ID number indicating the form type described at the same position for all types of forms. The second is a method of identifying the form type by identifying the frame structure when the frame structure is different for each form type. This example is described in JP-A-7-141462.
[0003]
[Problems to be solved by the invention]
There are currently seven types of registered notifications regarding real estate. These forms are used for data input for taxation related to real estate. However, since this notification form does not include an ID number for specifying the form type, the form is identified by reading the ID number. Conventional methods cannot be used. Furthermore, since these forms are atypical forms having the same type but different frame shapes, it is not possible to use a conventional method for identifying the form from the frame structure. In addition, when a conventional method for identifying a form by reading characters in the title part is used, there is a problem that the identification accuracy of the form greatly depends on the accuracy of character recognition. The form name of the registered notice is “Land registered notice on rights”, “Building registered notice on rights (general)”, “Building registered notice on rights (exclusive)”, “Land registration on display” There are seven types: “Notification of completed building”, “Notification of registered building concerning display (general)”, “Notification of registered building regarding display (one building)”, and “Notification of registered building regarding display (proprietary)”. Of these, the “Building registered notice on display (general)” and the “Building registered notice on display (one building)” differ only in one character, so the identification accuracy for these two types may be low. is there.
[0004]
Accordingly, a first object of the present invention is to propose a form recognition unit having a high-precision form identification unit for reading objects having various types of forms.
[0005]
In the conventional underline detection method, since ruled lines other than the frame line are underlined, there is a possibility that noise components such as horizontal strokes of characters are erroneously extracted as underlines. Accordingly, a second object of the present invention is to propose a form recognition unit having a highly accurate underline detection unit.
[0006]
[Means for Solving the Problems]
In a first aspect, the present invention is a recognition information recognition method for inputting a surface image of a registered notice and reading characters, and a character line extracting means for extracting a character line from an image of a registered notice; A first character for identifying the type of registered notice is selected from the character line selecting means and the character identifying means for reading the character line of the form name by selecting the character line of the form name from the positional relationship between the extracted character lines and the frame. Form identification means, ruled line extraction means for extracting ruled lines from registered notice images, table feature extraction means for extracting table features from the extracted ruled lines, and types of registered notices are identified from table features The second form identifying means, the character line extracting means for extracting the character line from the image of the registered notification, the character identifying means for reading the extracted character line, and the item name of the form are selected from the read results. Combination of item name selection means and item name ; And a third form identification means for identifying the type of registration completion notice from, by combining the results of the three means, provides a form recognition method for identifying the type of registration completion notice.
[0007]
In a second aspect, the present invention is a recognition information recognition method for inputting a surface image of a registered notice and reading characters, and for extracting a character line and a ruled line from the image of the registered notice. A ruled line type determining unit that distinguishes a frame ruled line and a ruled line that is not a frame ruled line from the extracted ruled line, a means for detecting a character line in a frame that includes a ruled line that is not a frame ruled line, a character line in the frame, There is provided a form recognition method comprising an underline detection means for determining whether or not a ruled line that is not a frame ruled line in the frame is an underline based on a positional relationship with a ruled line that is not a frame ruled line.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described in detail. Note that the present invention is not limited thereby.
[0009]
FIG. 1 is a configuration diagram of a registration information system according to an embodiment of the present invention. A recognition unit 101 that recognizes registration information and a correction unit 105 that corrects a recognition result are connected by a network 104, and recognition and correction can be performed in parallel in the input center 111. In the process, first, an image of the registered notice 100 is input by the scanner 102. Next, the recognition computer 103 recognizes characters and ruled lines, and the correction computer 106 confirms the correction of the recognition result. It also checks against a dictionary or code table and outputs code data. The recognition result is stored in the registration information database 109 connected to the host computer 108 in the remote calculation center 110 via the communication control computer 107. The correction unit 105 uses a part of the recognition result, accesses the registration information database 109, and reads the registered registration information. The read registration information and a part of the recognition result are collated to test whether there is any contradiction.
[0010]
FIG. 2 is a block diagram showing a registration information recognition process. The recognition unit 101 reads the form image and outputs the reduced image 248, frame coordinates 250, underline coordinates 252, character line coordinates 254, form type 256, recognition result lattice 258, and character coordinates 260 to the correction unit 105. In the correction unit 105, the operator corrects the recognition result based on these input data. In the image input unit 200, the image on the form surface is converted into black and white and input.
[0011]
The input image is output to the image reduction unit 202 and the character line image extraction unit 218. The image reduction unit 202 reduces the form image and outputs a reduced image 248 for speeding up subsequent processing. In the reduction process, an OR process is performed for each pixel so that a thin ruled line is not faded after reduction. The ruled line extraction unit 204 extracts a solid line and a dotted ruled line for the reduced image. The solid line is extracted based on the continuous connection of black pixels. The dotted lines are extracted based on the arrangement and size constraints of the circumscribed rectangle of the connected components of black pixels. The frame extraction unit 206 obtains a frame in which the ruled line surrounds the four sides from the ruled line extracted in 204 and outputs the vertex coordinates 250 of the frame. The table feature extraction unit 208 extracts a table feature amount, which is a collection of frames, from the frame information extracted in 206. This feature amount includes the number of vertical and horizontal ruled lines, the connection relationship between ruled lines, the positional relationship of frames, and the like.
[0012]
On the other hand, character line extractor 212 Then, a character line that is a set of characters is extracted from the reduced image output from 202. Here, based on the vertex coordinates of the circumscribed rectangle of the connected component of black pixels among the connected components of black pixels, the character line is generated by fusing the estimated circumscribed rectangle with the arrangement of characters. To do. The line-frame correspondence unit 214 compares the vertex coordinates of the character line extracted in 212 with the vertex coordinates of the frame extracted in 206 to determine in which frame each character line exists or is outside the frame. The determination is made, and the vertex coordinates of the character line included in each frame and the vertex coordinates 254 of the character line outside the frame are output. The underline extraction unit 216 extracts an underline based on the ruled line coordinates extracted in 204, the vertex coordinates of the frame extracted in 206, and the character line coordinates in the frame extracted in 214, and The coordinates 252 are output. Further, the character line image extraction unit 218 cuts out an image of the character line portion from the image input at 200 based on the character line coordinates extracted at 214. In the character cutout / character identification unit 220, the character cutout unit 222 and the character identification unit 224 cooperate to cut out characters one by one and output the character coordinates 260. Further, the character identification unit 224 identifies characters using the identification dictionary 226 with respect to the extracted image pattern for one character. In the form name collation unit 228, the character identification result output from the character identification unit 224 is input, and the word collation unit 230 collates with the form name word stored in the form name dictionary 232, thereby recognizing the recognition result for the form name. Find the form name by correcting the mistake.
[0013]
A word stored in the form name dictionary 232 is a form name to be recognized. The form name to be recognized is known in advance, and the form name has a one-to-one correspondence with the form type. Further, the item collating unit 234 inputs the character recognition result that has not been collated in 228, and the word collating unit 236 collates with the item name word stored in the item dictionary 238 to thereby correct the recognition result for the item name. Modify to find the item name. The words in the item dictionary 238 are items described in the form to be recognized. In the content collation unit 240, the character recognition result that has not been collated in 234 is input, and the word collation unit 242 collates with the content word stored in the content dictionary 244, thereby correcting an error in the content recognition result. Here, “content” refers to the contents described for the item name in the form. For example, there are “home” and “park” as the contents for the item “ground”. The words stored in the content dictionary 244 are words that are determined to be used in advance among the words that describe the content described in the form to be recognized. The recognition result lattice 258 output as a result of the processing of 240 is obtained by arranging the candidate characters that are the result of the character identification processing for each character in descending order of similarity. This character identification result is corrected for errors by form name verification, item verification, and content verification.
[0014]
On the other hand, the form identification unit 246 inputs the output results of the table feature extraction unit 208, the form name collation unit 228, and the item name collation unit 234, identifies the type of the form from the table feature, the form name, and the item name. 256 is output.
[0015]
FIG. 3 is a diagram showing a processing flow of registration information recognition shown in FIG. In step 300, an image is input, and in step 302, the image is reduced. Next, a ruled line is extracted from the image in step 304, and a frame is extracted from the ruled line in step 306. In step 308, table features are extracted. In step 310, a character line is extracted from the reduced image, and in step 312, the extracted line is associated with a frame. In step 314, an underline is extracted from the coordinates of the ruled line, frame, and character line. In step 316, only the image of the character line portion is extracted from the form image based on the coordinate value of the character line. In step 318, the character line image is divided into images for each character, and character identification is performed on the image pattern cut out in step 320. In step 322, the form name is identified by comparing the character identification result with the word of the form name. In step 324, the item name is identified by comparing the character identification result with the word of the item name. In step 326, the contents are identified by comparing the character identification result with the words of the contents. In step 328, the type of the form is identified from the characteristics of the table that is the processing result of step 308, the form name that is the processing result of step 322, and the item name that is the processing result of step 324. In step 330, the result obtained by the processing from 300 to 328 is output.
[0016]
FIG. 4 is a diagram simply showing an image of a registered notification that is a recognition target for the sake of explanation. In the example of the form image 400, a form name “Notification of building registration regarding rights (exclusive)” 401 is described. Horizontal ruled lines 402, 404, 406, and 408 and vertical ruled lines 410, 412, 414, and 416 are printed. In addition, there are “code” 418, “location” 420, and “ground” 422 as items. “1” (424) and “2” (426) are described as the contents of “code”, and “280 280, Higashi Koigakubo 1-chome, Kokubunji city” are described as 428 and 430 as the contents of “location”. As the contents of “ground”, “residential land” (432) and “park” (434) are described. Further, underlines 436, 438, and 440 are printed on the contents 424 “1”, 428 “1-280 Higashi Koigakubo 1-chome, Kokubunji City”, and 432 “House Land”, respectively.
[0017]
FIG. 5 shows the ruled line extraction processing result of step 304 in FIG. 3 for the form image in FIG. (A) 500 is the result of extracting horizontal ruled lines, and (b) 520 is the result of extracting vertical ruled lines. In (a), 502 to 508 are extracted as ruled lines corresponding to the horizontal ruled lines 402 to 408 in FIG. 4, respectively. 510, 514, and 516 are extracted as underlines corresponding to the underlines 436, 438, and 440, respectively. 512 and 518 are extracted as ruled lines by connecting the horizontal strokes of “Shito Koi”. The phenomenon in which the separated horizontal strokes are connected is due to the fact that black pixels that are close to each other are connected by contracting and expanding black pixels in the horizontal direction when extracting horizontal ruled lines. Further, in FIG. 4B, 522 to 528 are extracted as ruled lines corresponding to the vertical ruled lines 410 to 416 in FIG.
[0018]
FIG. 6 shows the result of frame extraction processing in step 306 in FIG. 3 for the form image in FIG. Reference numeral 600 denotes a frame extraction result. Nine frames 602 to 618 are extracted.
[0019]
FIG. 7 shows the result of the character line extraction process in step 310 of FIG. 3 for the form image of FIG. Reference numeral 700 denotes a character line extraction result. For the character lines 401, 418, 420, 422, 424 to 434 in FIG. 4, circumscribed rectangles of the character lines 702 to 720 are extracted.
[0020]
FIG. 8 shows the step 314 in FIG. Underline It is a processing flow regarding extraction processing. Using the results of ruled line extraction processing 304, frame extraction processing 306, and character line extraction processing 310
In step 800, ruled lines that do not constitute a frame are extracted. In step 802, the following processing is repeated for the number of ruled lines extracted in step 800. In step 804, the coordinates of the character line and the coordinates of the ruled line are compared. The comparison method will be described with reference to FIGS. In step 806, it is determined whether or not the compared value satisfies the criterion. If the reference value is satisfied, in step 808, the ruled line to be compared is set as an underline. Note that, regarding the two underlines extracted in step 808, if the end points are separated from each other by a minute interval and exist on the extension line, it can be assumed that it is one underline. Further, if the length of the underline extracted in step 808 is equal to or less than the reference value, it can be regarded as not being underlined.
[0021]
FIG. 9 is an example of a form frame for explaining the processing flow of FIG. Horizontal ruled lines 900 and 902, vertical ruled lines 904 and 906, character lines 908, and underline 910 are printed.
[0022]
FIG. 10 shows the result of extracting ruled lines and character lines from the example of FIG. Underline determination will be described with reference to FIG. In the underline determination process, a ruled line that is positioned below the character line and has the same length as the character line is determined to be an underline among the ruled lines within the same frame as the character line. In FIG. 10, reference numeral 1007 denotes an area where characters are printed, and reference numeral 1008 denotes a circumscribed rectangle of 1007. The ruled lines 900 to 910 in FIG. 9 are extracted as 1000 to 1010, respectively. Further, reference numeral 1012 indicates a character horizontal stroke extracted as a ruled line. 1010 and 1012 are extracted from the extracted ruled lines as ruled lines that do not constitute a frame. Hereinafter, a case where 1010 is determined as an underline will be described as an example, and a case where 1012 is determined as an underline will be described as an example.
[0023]
The determination is made for 1010 in FIG. First, a difference d11 (1014) between the y coordinate of the lower end of the ruled line and the y coordinate of the lower end of the character line is obtained. Next, a difference d12 (1016) between the y coordinate of the upper end of the ruled line and the y coordinate of the upper end of the character line is obtained. Further, the difference between the length L1 (1018) in the x direction of the ruled line and the length Lc (1020) in the x direction of the character line is obtained. This value is compared with the reference values α, β, γ1, and γ2. If d11 is less than α below the character line, d12 is equal to or greater than β, and L1-Lc is equal to or greater than γ1 and equal to or less than γ2, the ruled line is set as an underline. The values of α, β, γ1, and γ2, which are the determination criteria for the above processing, can be obtained empirically.
[0024]
For example, the value of α can be used if the distance between the character line and the underline is constant. If it is not constant, 1/2 of the difference between the frame height and the character height can be used. For β, the sum of these two values can be used if the distance between the lower end and the underline of the character line and the height of the character are constant. The values of γ1 and γ2 allow for a margin of about one character, γ1 can be a value obtained by multiplying the character width by (−1), γ2 can be a character width or the like. In setting the values of α, β, γ1, and γ2, the values can be set with a margin in order to provide robustness against the inclination of the form, blurring of the lines, and collapse of the lines. In addition, if a negative value is allowed for the allowable value of d11, it is possible to cope with the case where the underline overlaps with the character.
[0025]
Next, 1012 in FIG. 10 is determined. First, the difference d21 (1022) between the y coordinate of the lower end of the ruled line and the y coordinate of the lower end of the character line is obtained. Next, a difference d22 (1024) between the y coordinate of the upper end of the ruled line and the y coordinate of the upper end of the character line is obtained. Further, the difference between the length L2 (1026) in the x direction of the ruled line and the length Lc (1020) in the x direction of the character line is obtained. When these values are compared with the above α, β, γ1, and γ2, d21 is a large negative value and d22 is a smaller value than β, so it is determined that it is not underlined.
[0026]
Note that d11 and d12 used here may be normalized by the height of the character, the height of the frame, or the like. Further, the ratio may be compared instead of the difference between L1 and Lc. The values of α, β, γ1, and γ2 are set according to the definition of the comparison target.
[0027]
Also, here, the difference 1014 between the y-coordinate at the bottom of the ruled line and the y-coordinate at the bottom of the character line, and the difference 1016 between the y-coordinate at the top of the ruled line and the y-coordinate at the top of the character line, the length of the ruled line in the x direction. Three evaluation values of the difference between the length (1018) and the length of the character line in the x direction (1020) are used, but only one or two of them may be used as necessary.
[0028]
FIG. 11 is an example in which character coordinates are used instead of character line coordinates in the underline extraction process in step 314 of FIG. By comparing the ruled line 1108 that does not constitute a frame with the circumscribed rectangle 1112 of the character using the determination criterion described with reference to FIG. 10, it can be determined that 1108 is an underline. Further, by comparing the ruled line 1110 that does not constitute a frame with the circumscribed rectangle 1114 of the character, it can be determined that 1110 is not an underline.
[0029]
FIG. 12 is an example in which underlines are printed only for some characters in the character line. In a frame 1200, a character line 1202 and an underline 1204 are described. If the method of FIG. 11 is used, it can be determined that the underline is printed only on the characters “1 chome number 280” in the character line.
[0030]
FIG. 13 shows the step 314 in FIG. Underline It is another processing flow regarding an extraction process. In the registered notification, a plurality of underlines are often present on the same line as 436, 438, and 440 in FIG. On the other hand, since the underline 436 is short, the length does not change with the horizontal stroke in the character, and therefore, there is a possibility that the underline 436 may be extracted during ruled line extraction. The purpose of this processing is to correctly extract short underlines that may be extracted during ruled line extraction. Therefore, first, a long underline is extracted, and a ruled line on the extension of this underline is determined as an underline.
[0031]
Hereinafter, each step of FIG. 13 will be described. In step 1300, only the long underline is extracted. This processing can be realized using the processing shown in FIG. In step 1302, run length data that does not constitute a frame line is extracted from the run length data in the horizontal direction. In step 1304, the processing in steps 1306 and 1308 is repeated for the number of extracted run length data. In step 1306, it is determined whether or not the target run length data is on the extension of the underline. If it is on the extension line, it is extracted in step 1308 as being run length data constituting the underline. In step 1310, a ruled line composed of run-length data determined to constitute an underline in step 1308 is extracted as an underline. In addition, regarding the two underlines extracted in the above step 1310, if the end points are separated from each other by a minute interval and exist on the extension line, it can be regarded as one underline. Further, if the length of the underline extracted in step 1310 is equal to or less than the reference value, it can be regarded as not being underlined.
[0032]
FIG. 14 is an example of a form frame for explaining the processing flow of FIG. Horizontal ruled lines 1400 and 1402, vertical ruled lines 1404 to 1410, underlines 1412 to 1416, and character lines 1418 to 1422 are printed.
[0033]
FIG. 15 shows a result of extracting lateral run-length data and a long underline that do not constitute a frame from the image of FIG. 1500 is the long underline extracted in step 1300 of FIG. Of the connected components of the run length data in the horizontal direction, 1502 and 1504 are within the allowable range w (1510) from the extended line 1508 of 1500, and therefore are determined to be underlined. Since 1506 is outside w, it is determined that there is no underline.
[0034]
FIG. 16 is another processing flow related to the character line extraction processing in step 314 of FIG. In this process, the underline is extracted using a histogram created by projecting the length value of the run length data in the horizontal direction that does not constitute the frame from the midpoint of the run in the inclination direction. Hereinafter, each step in FIG. 16 will be described. In step 1600, run length data that does not constitute a frame line is extracted from the run length data in the horizontal direction. In step 1602, the length value of the extracted run length data is projected in the direction of inclination from the midpoint of the run to create a histogram. In step 1604, the processing in steps 1606 and 1608 is repeated for the number of peaks in the histogram. In step 1606, it is determined whether or not the projection value is greater than or equal to a reference value. If it is equal to or greater than the reference value, it is determined that the run-length data projected in step 1608 constitutes an underline. In step 1610, the underline is extracted from the run-length data determined to constitute the underline in step 1608. Note that the two underlines extracted in the above step 1610 can be regarded as one underline when the end points are separated from each other by a minute interval and exist on the extension line. Further, if the length of the underline extracted in step 1610 is equal to or less than the reference value, it can be regarded as not being underlined.
[0035]
FIG. 17 shows the result of extracting the run-length data in the horizontal direction that does not constitute a frame from the image of FIG. 14 and creating a histogram. Reference numerals 1700 to 1706 are connected components of the lateral run-length data extracted in step 1600 of FIG. Histograms 1708 and 1710 are the results of projection in step 1602. In step 1606, for 1708 and 1710, the area within the allowable range w (1712) is compared with the reference value. In this case, if 1708 is greater than or equal to the reference value and 1710 is less than the reference value, it can be determined that 1700, 1702, and 1704 are underlined, and 1706 is not underlined.
[0036]
FIG. 18 is a process flow relating to the form identification process in step 328 of FIG. In step 308, the feature amount of the table is extracted. In step 322, a word matching result of the form name is obtained. In step 324, the word matching result of the item name is obtained. In step 1800, the form type is identified by majority vote using the form type derived from the results of 308, 322, and 324, respectively.
[0037]
Features of the table extracted in step 308 include ruled line connection relationships, the number of frames, the frame arrangement relationship, the number of vertical ruled lines, the number of horizontal ruled lines, and the like. When the ruled line connection relationship differs for each form type, the form type can be specified using the technique described in Japanese Patent Laid-Open No. 7-141462.
[0038]
[Table 1]
Figure 0003689485
[0039]
Table 1 shows the number of vertical solid ruled lines of the registered notification that is the recognition target as an example of the characteristics of the table extracted in step 308. As a result, it can be seen that the vertical solid ruled line is one of 7, 8, 10, 11, 12, and 16. Of these, except for the case of 8 and 10, the type of form is uniquely determined. In the case of 8 and 10, the form type candidates can be listed.
[0040]
The form name words to be collated in step 322 may be registered as a single word for all form names, such as “right”, “display”, “building”, “land”, “general”, “exclusive”, “ Only characteristic words such as “one building” may be registered.
[0041]
[Table 2]
Figure 0003689485
[0042]
Table 2 shows a part of the item names to be collated in step 308. From Table 2, item names common to multiple forms such as “location” and “location”, and items specific to forms such as “land area”, “building number of one building”, “building”, “table” There are names. Even if the form does not have a form-specific item name, the existence of the form is determined by combining multiple items, so that “building registered notice on display (general)” and “building registered notice on display (proprietary) 5) types of forms other than “)” can be identified. For example, if the item “floor area” exists and the item “building number of one building” does not exist, it can be identified as “building registration notice (right) regarding rights”.
[0043]
In step 1800, the results of steps 308, 322, and 324 are integrated to identify the form type. As a means of integration, the majority of the above three results can be used.
[0044]
In step 1800, even if the steps 308, 322, and 324 cannot uniquely identify the form type, the form type can be identified by mutually complementing the processing results of each step. For example, when the number of vertical solid ruled lines is extracted in step 308, the types of forms are as follows from Table 1, “Land registered notice regarding display”, “Build registered notice (general) regarding display”, Three types of “notification of building registration regarding display (proprietary)” can be considered. However, if the item name “table” is extracted in step 324, it can be uniquely determined to be “land registration completed notification regarding display”.
[0045]
In step 1800, instead of using the results of the three steps 308, 322, and 324, only two steps can be used.
[0046]
In step 1800, the results of steps 308, 322, and 324 are not handled equally, but a form is identified from the result obtained in one step, and the result obtained in the other step is the result of form identification. It can also be used to verify
[0047]
FIG. 19 is a configuration diagram of a registration information system according to an embodiment of the present invention. The configurations 101 to 109 are the same as those in FIG. The sorter 1900 sorts the forms 100 in the order of priority of the contents of the registered notices based on the results recognized by the recognition unit 101 and corrected by the correction unit 105. Here are two examples of sorting: The first sort is in order of chome, house number and number for each town, starting with the letters corresponding to the location and house number. Second, sort by creation date and number. Further, the object to be sorted may be a registered notice form or recognition result data.
[0048]
【The invention's effect】
According to the form recognition method of the present invention, the type of form can be identified with high accuracy even for an atypical form such as a registered notice.
[0049]
Further, according to the form recognition method of the present invention, underline can be extracted with high accuracy without being mistaken for strokes in characters.
[0050]
Further, according to the form recognition method of the present invention, the forms can be sorted based on the form recognition result.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a registration information recognition system according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a registration information recognition process.
FIG. 3 is a PAD diagram of registration information recognition shown in FIG. 2;
FIG. 4 is an explanatory diagram of an image of a registered notification that is a recognition target.
5 is a diagram showing a result of ruled line extraction processing in step 304 in FIG. 3 performed on the image in FIG. 4;
6 is a diagram illustrating a result of frame extraction processing in step 306 in FIG. 3 performed on the image in FIG. 4;
7 is a diagram illustrating a result of character line extraction processing in step 310 of FIG. 3 performed on the image of FIG. 4;
FIG. 8 is a PAD related to the underline extraction process in step 314 of FIG. 3;
FIG. 9 is an explanatory diagram of an underline extraction target image.
10 is a diagram illustrating a result of extracting ruled lines and character lines from the image of FIG. 9;
11 is a diagram illustrating a result of extracting a ruled line and cutting out characters from the image of FIG. 9;
FIG. 12 is an explanatory diagram of an image in which an underline is printed only for some characters in a character line.
FIG. 13 is a PAD related to the underline extraction process in step 314 of FIG. 3;
FIG. 14 is an explanatory diagram of an underline extraction target image.
15 is a diagram illustrating a result of extracting run-length data that does not constitute a frame line and a long underline from the image of FIG. 14;
16 is a PAD related to the underline extraction process in step 314 of FIG. 3. FIG.
FIG. 17 is a diagram illustrating a result of extracting run-length data that does not constitute a frame line from the image of FIG. 14 and projecting the length of the run-length data in the tilt direction.
18 is a PAD related to the form identification process in step 328 of FIG. 3;
FIG. 19 is a configuration diagram of a registration information recognition system having a sort function according to an embodiment of the present invention.
[Explanation of symbols]
200: Image input, 204: Ruled line extraction, 206: Frame extraction, 208 ... Table feature extraction, 246 ... Form identification, 222 ... Character extraction, 224 ... Character identification, 236 ... Word verification, 240 ... Content verification

Claims (1)

帳票の表面画像を入力し文字を読み取る帳票認識方法において,
画像入力部において、帳票の画像を二値化して入力し、
枠抽出部において、前記帳票の画像から黒画素の連続状態に基づいて検出される罫線のうちの枠罫線を抽出して、枠罫線を構成しない罫線を特定し,
下線抽出部において、当該枠罫線を構成しない罫線から下線を抽出し,当該下線の延長線上に存在する黒画素を検出し,検出した黒画素の並びを下線であると判定することを特徴とする帳票認識方法。
In the form recognition method that reads the characters by inputting the surface image of the form,
In the image input part, input the image of the form as binarized,
In the frame extraction unit, the ruled lines that are detected based on the continuous state of black pixels are extracted from the image of the form, and the ruled lines that do not constitute the frame ruled lines are identified ,
An underline extraction unit extracts an underline from a ruled line that does not constitute the frame ruled line, detects a black pixel existing on an extension line of the underline, and determines that the detected arrangement of black pixels is an underline Form recognition method.
JP11457396A 1996-05-09 1996-05-09 Form recognition method Expired - Lifetime JP3689485B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11457396A JP3689485B2 (en) 1996-05-09 1996-05-09 Form recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11457396A JP3689485B2 (en) 1996-05-09 1996-05-09 Form recognition method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005127313A Division JP2005293605A (en) 2005-04-26 2005-04-26 Form recognition method

Publications (2)

Publication Number Publication Date
JPH09305701A JPH09305701A (en) 1997-11-28
JP3689485B2 true JP3689485B2 (en) 2005-08-31

Family

ID=14641226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11457396A Expired - Lifetime JP3689485B2 (en) 1996-05-09 1996-05-09 Form recognition method

Country Status (1)

Country Link
JP (1) JP3689485B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE516649C2 (en) * 1999-07-09 2002-02-05 Jema Jori Ab Method of assigning ID to an object in a database
JP4416890B2 (en) * 1999-12-20 2010-02-17 富士通株式会社 Form identification device
JP2007328820A (en) * 2007-09-05 2007-12-20 Hitachi Ltd Form recognition method
JP5640645B2 (en) * 2010-10-26 2014-12-17 富士ゼロックス株式会社 Image processing apparatus and image processing program
JP6531368B2 (en) * 2014-06-30 2019-06-19 キヤノンマーケティングジャパン株式会社 INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, PROCESSING METHOD, AND PROGRAM

Also Published As

Publication number Publication date
JPH09305701A (en) 1997-11-28

Similar Documents

Publication Publication Date Title
US6687401B2 (en) Pattern recognizing apparatus and method
US7120318B2 (en) Automatic document reading system for technical drawings
US6970601B1 (en) Form search apparatus and method
US8059868B2 (en) License plate recognition apparatus, license plate recognition method, and computer-readable storage medium
US20140003717A1 (en) System and method for forms classification by line-art alignment
EP0332471A2 (en) Character recognition apparatus
JP3636809B2 (en) Image processing method
JPH08305796A (en) Pattern extracting device, table preparing device for pattern recognition and pattern recognition device
JP2000285190A (en) Method and device for identifying slip and storage medium
JP3606500B2 (en) Rectangle classification method
JP3689485B2 (en) Form recognition method
JP3600380B2 (en) Image processing method and fax character recognition device
US6351560B1 (en) Apparatus, method, and program for locating an objective on a form and a recording medium for recording the program for locating the objective on the form
JP2005293605A (en) Form recognition method
JP2007328820A (en) Form recognition method
JPH09319824A (en) Document recognizing method
JP4046941B2 (en) Document format identification device and identification method
Yamashita et al. A document recognition system and its applications
JP2005250786A (en) Image recognition method
JP2001109887A (en) Area extracting method, method and device for extracting address area, and image processor
US6678427B1 (en) Document identification registration system
JP2002366893A (en) Document recognizing method
JP3428504B2 (en) Character recognition device
JPH0877293A (en) Character recognition device and generating method for dictionary for character recognition
JP2004030340A (en) Document identifying apparatus and identifying method therefor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050613

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080617

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090617

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090617

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100617

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100617

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110617

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110617

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120617

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120617

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130617

Year of fee payment: 8

EXPY Cancellation because of completion of term