JP3689485B2 - Form recognition method - Google Patents
Form recognition method Download PDFInfo
- Publication number
- JP3689485B2 JP3689485B2 JP11457396A JP11457396A JP3689485B2 JP 3689485 B2 JP3689485 B2 JP 3689485B2 JP 11457396 A JP11457396 A JP 11457396A JP 11457396 A JP11457396 A JP 11457396A JP 3689485 B2 JP3689485 B2 JP 3689485B2
- Authority
- JP
- Japan
- Prior art keywords
- character
- underline
- line
- extracted
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Character Input (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は帳票、特に、不動産に関する登記情報が記載された多様な帳票に関し,特に,登記済通知書から文字データを読み取り,自動的に入力する帳票認識方法に関する。
【0002】
【従来の技術】
帳票の種類の識別に関する従来技術の例としては,以下のものが挙げられる。第1は,全ての種類の帳票に対して同じ位置に記載された帳票の種類を表すID番号を読み取ることにより,帳票の種類を識別する方式である。第2は,帳票の種類ごとに枠の構造が異なる場合に,枠の構造を識別することにより帳票の種類を識別する方式である。この例は,特開平7―141462号公報に記載されている。
【0003】
【発明が解決しようとする課題】
不動産に関する登記済通知書は現在7種類ある。これらの帳票は不動産に関する課税のためのデ−タ入力に用いられるものであるが、この通知書には,帳票の種類を特定するID番号の記載がないため,ID番号読み取りにより帳票を識別する従来手法を用いることはできない。さらに,これらの帳票は,同じ種類であっても枠の形状が異なる非定型帳票であるため,枠の構造から帳票を識別する従来手法を用いることはできない。また,表題部の文字を読み取ることにより帳票を識別する従来手法を用いる場合には,帳票の識別精度は文字認識の精度に大きく依存するという問題がある。登記済通知書の帳票名は,「権利に関する土地登記済通知書」,「権利に関する建物登記済通知書(一般)」,「権利に関する建物登記済通知書(専有)」,「表示に関する土地登記済通知書」,「表示に関する建物登記済通知書(一般)」,「表示に関する建物登記済通知書(一棟)」,「表示に関する建物登記済通知書(専有)」の7種類である。このうち,「表示に関する建物登記済通知書(一般)」と「表示に関する建物登記済通知書(一棟)」は,一字しか違わないため,この二種類に対する識別精度が低くなる可能性がある。
【0004】
そこで,本発明の第1の目的は,帳票の種類が多様な読み取り対象に対して,高精度な帳票識別手段を有する帳票認識手段を提案することである。
【0005】
従来の下線検出方法では,枠線以外の罫線を下線としていたため,文字の横方向のストローク等のノイズ成分を下線として誤抽出する可能性があった。そこで,本発明の第2の目的は,高精度な下線検出手段を有する帳票認識手段を提案することである。
【0006】
【課題を解決するための手段】
第1の観点では、この発明は、登記済通知書の表面画像を入力し文字を読み取る登記情報の認識方法であって,登記済通知書の画像から文字行を抽出する文字行抽出手段と,抽出した複数の文字行と枠との位置関係から帳票名の文字行を選択し文字行選択手段と,帳票名の文字行を読み取る文字識別手段から,登記済通知書の種類を識別する第1の帳票識別手段と,登記済通知書の画像から罫線を抽出する罫線抽出手段と,抽出した罫線から表の特徴を抽出する表特徴抽出手段と,表の特徴から登記済通知書の種類を識別する第2の帳票識別手段と,登記済通知書の画像から文字行を抽出する文字行抽出手段と,抽出した文字行を読み取る文字識別手段と,読み取り結果の中から帳票の項目名を選択する項目名選択手段と,項目名の組み合わせから登記済通知書の種類を識別する第3の帳票識別手段とを具備し,当該3つの手段の結果を組み合わせることにより,登記済通知書の種類を識別する帳票認識方法を提供する。
【0007】
第2の観点では、この発明は、登記済通知書の表面画像を入力し文字を読み取る登記情報の認識方法であって,登記済通知書の画像から文字行と罫線を抽出する文字行抽出手段と,抽出した罫線から枠罫線と枠罫線でない罫線を区別する罫線種判定手段と,枠罫線でない罫線が含まれる枠内の文字行を検出する手段と,当該枠内の文字行と当該枠内の枠罫線でない罫線との位置関係から,当該枠内の枠罫線でない罫線が下線か否かを判定する下線検出手段を具備する帳票認識方法を提供する。
【0008】
【発明の実施の形態】
以下、本発明の一実施例を詳細に説明する。なお、これにより本発明が限定されるものではない。
【0009】
図1は、本発明の一実施例である登記情報システムの構成図である。登記情報の認識を行う認識部101と認識結果の修正を行う修正部105がネットワーク104により接続されており,入力センタ111において認識と修正を並行して行うことができる。処理の過程は,まずスキャナ102により登記済通知書100の画像を入力する。次に,認識用計算機103では,文字および罫線の認識を行い,修正用計算機106において認識結果の修正確認を行う。また,辞書やコード表と照合チェックし,コードデータを出力する。認識結果は,通信制御用計算機107を介して,遠隔地にある計算センタ110にあるホスト計算機108に接続された登記情報データベース109に格納される。修正部105では,認識結果の一部を利用し,登記情報データベース109をアクセスし,登録済の登記情報を読み出す。当該読み出した登録情報と認識結果の一部を照合し,矛盾がないかどうかの検定を行う。
【0010】
図2は,登記情報認識の処理過程を示すブロック図である。認識部101では,帳票画像を読み取り,修正部105に縮小画像248,枠座標250,下線座標252,文字行座標254,帳票種類256,認識結果ラティス258,文字座標260を出力する。修正部105では,これらの入力データをもとに,操作者が認識結果を修正する。画像入力部200では,帳票表面の画像を白黒2値化して入力する。
【0011】
入力した画像は,画像縮小部202と文字行画像抽出部218に出力される。画像縮小部202では,後続の処理の高速化のため帳票画像を縮小し,縮小画像248を出力する。縮小処理は,細い罫線が縮小後かすれないよう,画素ごとのOR処理を行う。縮小した画像に対し,罫線抽出部204において実線と点線の罫線を抽出する。実線は,黒画素の連続するつながりをもとに抽出される。点線は,黒画素の連結成分の外接矩形の配置,サイズの拘束条件をもとに抽出される。枠抽出部206では,204で抽出した罫線から罫線が四方を取り囲む枠を求め,枠の頂点座標250を出力する。表特徴抽出部208では,206で抽出された枠の情報から,枠の集まりである表の特徴量を抽出する。この特徴量とは,縦横の罫線の本数や,罫線同士の接続関係,枠の位置関係等である。
【0012】
一方,文字行抽出部212では,202から出力された縮小画像から,文字の集合である文字行を抽出する。ここでは,黒画素の連結成分うち,文字と推定される大きさの連結成分の外接矩形の頂点座標をもとに,文字の並びと推定される外接矩形を融合することにより,文字行を生成する。行―枠対応部214では,212で抽出した文字行の頂点座標と206で抽出した枠の頂点座標を比較することにより,各文字行がどの枠内に存在するか,もしくは枠外にあるかを判定し,枠ごとに含まれる文字行の頂点座標と枠外の文字行の頂点座標254を出力する。 また,下線抽出部216では,204で抽出した罫線座標と,206で抽出した枠の頂点座標と,214で抽出した枠内の文字行座標とをもとに,下線を抽出して,下線の座標252を出力する。さらに,文字行画像抽出部218では,214で抽出された文字行座標をもとに,200で入力された画像から文字行部分の画像を切り出す。文字切り出し・文字識別部220では,文字切り出し部222と文字識別部224が協調して,文字を1文字ずつ切り出し,その文字座標260を出力する。さらに,文字識別部224では,切り出した1文字分の画像パターンに対して,識別辞書226を用いて文字を識別する。帳票名照合部228では,文字識別部224の出力である文字識別結果を入力し,単語照合部230により帳票名辞書232に格納された帳票名単語と照合することにより帳票名についての認識結果の誤りを修正して帳票名を求める。
【0013】
帳票名辞書232に格納された単語は,認識対象の帳票名である。認識対象の帳票名はあらかじめわかっており,帳票名は帳票の種類に1対1に対応する。さらに,項目照合部234では,228で照合されなかった文字認識結果を入力し,単語照合部236により項目辞書238に格納された項目名単語と照合することにより項目名についての認識結果の誤りを修正して項目名を求める。項目辞書238にされた単語は,認識対象の帳票内に記載された項目である。内容照合部240では,234で照合されなかった文字認識結果を入力し,単語照合部242により内容辞書244に格納された内容単語と照合することにより内容についての認識結果の誤りを修正する。ここで,「内容」とは帳票において,項目名に対して記載されている内容をさす。例えば,「地目」という項目に対する内容には「居宅」や「公園」などがある。内容辞書244に格納された単語は,認識対象の帳票内に記載された内容を記載する単語のうち,あらかじめ使用が決められている単語である。240の処理の結果出力される認識結果ラティス258は,1文字ごとに文字識別処理の結果である候補文字を類似度が高い順に並べたものである。この文字識別結果は,帳票名照合,項目照合,内容照合により誤りを修正してある。
【0014】
一方,帳票識別部246では,表特徴抽出部208と帳票名照合部228と項目名照合部234の出力結果を入力し,表特徴と帳票名,項目名から帳票の種類を識別し,帳票種類256を出力する。
【0015】
図3は、図2で示した登記情報認識の処理フローを示す図である。ステップ300で画像を入力し,ステップ302で当該画像を縮小する。次いで,ステップ304で画像から罫線を抽出し,ステップ306で罫線から枠を抽出する。さらに,ステップ308で表の特徴を抽出する。また,ステップ310で当該縮小画像から文字行を抽出し,ステップ312で,抽出した行と枠とを対応付ける。また,ステップ314で,罫線と枠と文字行の座標から下線を抽出する。さらに,ステップ316で,文字行の座標値に基づいて帳票画像から文字行部分の画像のみを抽出する。ステップ318で,当該文字行画像を1文字ずつの画像に分割し,ステップ320で切り出された画像パターンに対して文字識別を実行する。ステップ322では,文字識別結果を帳票名の単語と照合して帳票名を識別する。ステップ324では,文字識別結果を項目名の単語と照合して項目名を識別する。ステップ326では,文字識別結果を内容の単語と照合して内容を識別する。ステップ328では,ステップ308の処理結果である表の特徴とステップ322の処理結果である帳票名とステップ324の処理結果である項目名から帳票の種類を識別する。ステップ330では,300から328の処理で得た結果を出力する。
【0016】
図4は,認識対象である登記済通知書の画像を,説明のために簡略的に示した図である。帳票画像400の例では,帳票名「権利に関する建物登記済通知書(専有)」401が記載されており。横罫線402,404,406,408と縦罫線410,412,414,416が印刷されている。また,項目として「符号」418と「所在」420,「地目」422がある。「符号」の内容としては「1」(424)と「2」(426),「所在」の内容としては428と430に「国分寺市東恋ヶ窪1丁目280番地」が記載されている。「地目」の内容としては,「宅地」(432)と「公園」(434)が記載されている。さらに,内容424「1」,428「国分寺市東恋ヶ窪1丁目280番地」,432「宅地」には,それぞれ下線436,438,440が印刷されている。
【0017】
図5は,図4の帳票画像に対する,図3のステップ304の罫線抽出処理結果を示すものである。(a)の500は横罫線の抽出結果であり,(b)の520は縦罫線の抽出結果である。(a)では,図4の横罫線402から408に相当する罫線として,それぞれ,502から508が抽出されている。下線436,438,440に相当する下線として,それぞれ,510,514,516が抽出されている。512と518は,「市東恋」の横ストロークをつなげることによって,罫線として抽出したものである。この離れた横ストロークが接続される現象は,横罫線を抽出する際に黒画素を横方向に収縮・膨張処理することにより,接近した黒画素が接続されることに起因する。また,(b)では,図4の縦罫線410から416に相当する罫線として,それぞれ,522から528が抽出されている。
【0018】
図6は,図4の帳票画像に対する,図3のステップ306の枠抽出処理結果を示すものである。600は枠抽出結果である。602から618の9個の枠が抽出されている。
【0019】
図7は,図4の帳票画像に対する,図3のステップ310の文字行抽出処理結果を示すものである。700は文字行抽出結果である。図4の文字行401,418,420,422,424から434の文字行に対して,それぞれ702から720の文字行の外接矩形が抽出されている。
【0020】
図8は,図3のステップ314の下線抽出処理に関する処理フローである。罫線抽出処理304,枠抽出処理306,文字行抽出処理310の結果を用いて
,ステップ800では,枠を構成しない罫線を抽出する。ステップ802では,ステップ800で抽出した罫線の本数分だけ,以下の処理を繰り返す。ステップ804では,文字行の座標と罫線の座標を比較する。比較の方法については図9と図10を用いて説明する。ステップ806では,比較した値が基準を満たすか否かを判定する。基準値を満たす場合,ステップ808で,比較対象の罫線を下線とする。なお,上記ステップ808において抽出された2本の下線について,端点同士がが微小な間隔で離れており,延長線上に存在する場合には,1本の下線であるとすることもできる。また,上記ステップ808において抽出した下線の長さが基準値以下であれば,下線とみなさないとすることもできる。
【0021】
図9は,図8の処理フローを説明するための帳票の枠の例である。横罫線900と902,縦罫線904と906,文字行908,下線910が印刷されている。
【0022】
図10は,図9の例から罫線と文字行を抽出した結果である。この図を用いて下線の判定を説明する。下線判定処理は,文字行と同一枠内にある罫線の中で,文字行の下に位置し,文字行とほぼ同じ長さの罫線を下線と判定する。図10において,1007は文字が印刷されていた領域であり,1008は1007の外接矩形である。図9の900から910の罫線は,それぞれ1000から1010として抽出されている。さらに,1012は文字の横ストロークを罫線として抽出したものである。抽出された罫線の中から,枠を構成していない罫線として,1010と1012が抽出される。以下,1010を例として下線と判定される場合について説明し,1012を例として下線と判定されない場合を説明する。
【0023】
図10の1010について判定する。まず,罫線の下端のy座標と文字行の下端のy座標との差d11(1014)を求める。次に,罫線の上端のy座標と文字行の上端のy座標との差d12(1016)を求める。さらに,罫線のx方向の長さL1(1018)と文字行のx方向の長さLc(1020)との差を求める。この値を基準値,α,β,γ1,γ2と比較する。d11が文字行より下でα未満であり,d12がβ以上であり,L1―Lcがγ1以上γ2以下であれば,この罫線を下線とする。上記の処理の判定基準であるα,β,γ1,γ2の値は経験的に求めることができる。
【0024】
例えば,αは,文字行と下線との間隔が一定であればその値を用いることができる。一定でなければ,枠の高さと文字の高さの差の1/2を用いることができる。βは,文字行の下端と下線との間隔と,文字の高さとが一定であれば,この2つの値の和を用いることができる。γ1とγ2の値は,一文字程度のマージンを見込んで,γ1は文字幅に(−1)をかけた値,γ2は文字幅等を用いることができる。上記のα,β,γ1,γ2の値の設定にあたっては,帳票の傾きや,線のかすれやつぶれ等に対して頑健性をもたせるため,マージンをもたせて値を設定することができる。また,d11の値の許容値について,負の値を許容すれば,下線が文字と重なる場合にも対応できる。
【0025】
次に,図10の1012について判定する。まず,罫線の下端のy座標と文字行の下端のy座標との差d21(1022)を求める。次に,罫線の上端のy座標と文字行の上端のy座標との差d22(1024)を求める。さらに,罫線のx方向の長さL2(1026)と文字行のx方向の長さLc(1020)との差を求める。これらの値を上記α,β,γ1,γ2と比較した場合,d21は負の大きな値となり,d22はβより小さな値になるため,下線ではないと判定される。
【0026】
なお,ここで用いたd11,d12は文字の高さや枠の高さ等で正規化してもよい。また,L1とLcの差の代わりに比を比較してもよい。α,β,γ1,γ2の値は,比較対象の定義に合わせて設定する。
【0027】
また,ここでは,罫線の下端のy座標と文字行の下端のy座標との差1014と,罫線の上端のy座標と文字行の上端のy座標との差1016,罫線のx方向の長さ(1018)と文字行のx方向の長さ(1020)との差の3つの評価値を用いたが,必要に応じてこの中の1つもしくは2つのみを用いていもよい。
【0028】
図11は,図3のステップ314下線抽出処理において,文字行の座標の代わりに文字の座標を用いた例である。図10で説明した判定基準を用いて,枠を構成しない罫線1108と文字の外接矩形1112を比較することにより,1108は下線であると判定できる。また,枠を構成しない罫線1110と文字の外接矩形1114を比較することにより,1110は下線でないと判定できる。
【0029】
図12は,文字行内の一部の文字に対してのみ下線が印刷されている例である。枠1200内に,文字行1202と下線1204が記載されている。図11の方法を用いれば,文字行中の「1丁目280番」の文字のみに下線が印刷されていることを判定できる。
【0030】
図13は,図3のステップ314の下線抽出処理に関する別の処理フローである。登記済通知書では,図4の436,438,440のように同一線上に複数の下線が存在することが多い。一方,下線436は短いので,文字内の横方向のストロークと長さが変わらないため,罫線抽出の際に抽出もれする可能性がある。この処理では,罫線抽出の際に抽出もれする可能性のある短い下線を正しく抽出することを目的とする。このため,まず長い下線を抽出し,この下線の延長上にある罫線を下線と判定する。
【0031】
以下,図13の各ステップについて説明する。ステップ1300では,長い下線のみを抽出する。この処理は,図8で示した処理等を用いて実現できる。ステップ1302では,横方向のランレングスデータのうち枠線を構成しないランレングスデータを抽出する。ステップ1304では,抽出したランレングスデータの個数分についてステップ1306と1308の処理を繰り返す。ステップ1306では,対象とするランレングスデータが下線の延長線上にあるか否かを判定する。延長線上にあれば,ステップ1308で下線を構成するランレングスデータであるとして抽出する。ステップ1310では,ステップ1308で下線を構成すると判定されたランレングスデータから構成される罫線を下線として抽出する。なお,上記ステップ1310において抽出された2本の下線について,端点同士がが微小な間隔で離れており,延長線上に存在する場合には,1本の下線であるとすることもできる。また,上記ステップ1310において抽出した下線の長さが基準値以下であれば,下線とみなさないとすることもできる。
【0032】
図14は,図13の処理フローを説明するための帳票の枠の例である。横罫線1400と1402,縦罫線1404から1410,下線1412から1416,文字行1418から1422が印刷されている。
【0033】
図15は,図14の画像から枠を構成しない横方向のランレングスデータと長い下線とを抽出した結果である。1500は図13のステップ1300で抽出された長い下線である。横方向のランレングスデータの連結成分のうち,1502と1504は1500の延長線上1508から許容範囲w(1510)以内にあるので,下線であると判定する。1506はwよりも外にあるので,下線はないと判定する。
【0034】
図16は,図3のステップ314の文字行抽出処理に関する別の処理フローである。この処理では,枠を構成しない横方向のランレングスデータの長さの値をランの中点から傾き方向に投影して作成したヒストグラムを用いて下線を抽出する。以下,図16の各ステップにてついて説明する。ステップ1600では,横方向のランレングスデータのうち枠線を構成しないランレングスデータを抽出する。ステップ1602では,抽出したランレングスデータの長さの値を,ランの中点から傾き方向に投影してヒストグラムを作成する。ステップ1604では,ヒストグラムの山の数だけステップ1606とステップ1608の処理を繰り返す。ステップ1606では,投影値が基準値以上であるか否かを判定する。基準値以上であれば,ステップ1608で投影されたランレングスデータは下線を構成すると判定する。ステップ1610では,ステップ1608で下線を構成すると判定されたランレングスデータから下線を抽出する。なお,上記ステップ1610において抽出された2本の下線について,端点同士がが微小な間隔で離れており,延長線上に存在する場合には,1本の下線であるとすることもできる。また,上記ステップ1610において抽出した下線の長さが基準値以下であれば,下線とみなさないとすることもできる。
【0035】
図17は,図14の画像から枠を構成しない横方向のランレングスデータを抽出し,ヒストグラムを作成した結果である。1700から1706は図16のステップ1600で抽出された横方向のランレングスデータの連結成分である。ヒストグラム1708と1710は,ステップ1602で投影された結果である。ステップ1606において,1708と1710について,許容範囲w(1712)の範囲内の面積を基準値と比較する。この場合,1708は基準値以上,1710は基準値未満であるとすると,1700,1702,1704は下線であり,1706は下線ではないと判定できる。
【0036】
図18は,図3のステップ328の帳票識別処理に関する処理フローである。ステップ308では表の特徴量を抽出する。ステップ322では帳票名の単語照合結果を求める。ステップ324では項目名の単語照合結果を求める。ステップ1800では,308,322,324の結果からそれぞれ導出される帳票の種類を用いて,多数決により帳票種類を識別する。
【0037】
ステップ308で抽出する表の特徴としては,罫線の接続関係,枠の個数,枠の配置関係,縦罫線の本数,横罫線の本数等がある。罫線の接続関係が帳票の種類ごとに異なる場合には,特開平7―141462号公報に記載されている技術を用いて帳票の種類を特定できる。
【0038】
【表1】
【0039】
表1では,ステップ308で抽出する表の特徴の例として,認識対象である登記済通知書の縦の実線罫線の本数を示している。これにより,縦の実線罫線は7,8,10,11,12,16本のうちのいずれかでることがわかる。このうち,8本と10本の場合を除けば,帳票の種類が一意に決定する。8本と10本の場合も帳票種類の候補を挙げることができる。
【0040】
また,ステップ322で照合する帳票名の単語は,帳票名全てを一つの単語として登録してもよく,「権利」「表示」,「建物」「土地」,「一般」,「専有」,「一棟」など特徴的な単語のみを登録してもよい。
【0041】
【表2】
【0042】
表2は,ステップ308で照合する項目名の中から一部を抜粋して示したものである。表2より,「所在」や「所」のように複数の帳票に共通する項目名や,「地積」や「一棟の建物番号」,「棟」,「表」のように帳票固有の項目名などがある。帳票固有の項目名をもたない種類の帳票でも,複数の項目を組み合わせて存在を判定することにより,「表示に関する建物登記済通知書(一般)」と「表示に関する建物登記済通知書(専有)」を除く5種類の帳票の種類を識別することができる。例えば,「床面積」の項目が存在し,「一棟の建物番号」の項目が存在しなければ「権利に関する建物登記済通知書(一般)」と識別することができる。
【0043】
ステップ1800では,ステップ308,322,324の結果を統合して帳票の種類を識別する。統合の手段としては,上記3つの結果の多数決を用いることができる。
【0044】
ステップ1800において,308,322,324の各ステップで,一意に帳票の種類を識別できない場合でも,各ステップの処理結果を相互に補完することによって,帳票の種類を識別することもできる。例えば,ステップ308において,縦の実線罫線の本数が8本抽出された場合,表1より帳票の種類は「表示に関する土地登記済通知書」,「表示に関する建物登記済通知書(一般)」,「表示に関する建物登記済通知書(専有)」の3種類が考えられる。しかし,ステップ324において,項目名「表」が抽出されれば,「表示に関する土地登記済通知書」であると一意に決定できる。
【0045】
なお,ステップ1800において,308,322,324の3つのステップの結果を用いるのではなく,2つのみを用いることもできる。
【0046】
なお,ステップ1800において,308,322,324の各ステップの結果を同等に扱うのではなく,一つのステップで得た結果から帳票を識別し,他のステップで得た結果は,帳票識別の結果を検証するために用いることもできる。
【0047】
図19は,本発明の一実施例である登記情報システムの構成図である。101から109の構成は図1に同じである。ソータ1900は,認識部101で認識し,修正部105で修正した結果に基づき,登記済通知書を記載内容の優先度順に帳票100をソートする。以下にソートの例を2つ挙げる。第一は,所在と地番に該当する文字から,町ごとに丁目,番地,号の順にソートする。第二は,作成日,番号の順にソートする。また,ソートする対象は,登記済通知書の帳票でも,認識結果のデータでもよい。
【0048】
【発明の効果】
本発明の帳票認識方法によれば,登記済通知書のような非定型帳票に対しても高精度に帳票の種類を識別することができる。
【0049】
また,本発明の帳票認識方法によれば,下線を文字中のストロークなどと間違うことなく,高精度に抽出することができる。
【0050】
また,本発明の帳票認識方法によれば,帳票の認識結果に基づいて,帳票をソートすることができる。
【図面の簡単な説明】
【図1】本発明の一実施例である登記情報認識システムの構成図である。
【図2】登記情報認識の処理過程を示すブロック図である。
【図3】図2で示した登記情報認識のPAD図である。
【図4】認識対象である登記済通知書の画像の説明図である。
【図5】図4の画像に対して図3のステップ304の罫線抽出処理をした結果を示す図である。
【図6】図4の画像に対して図3のステップ306の枠抽出処理をした結果を示す図である。
【図7】図4の画像に対して図3のステップ310の文字行抽出処理をした結果を示す図である。
【図8】図3のステップ314の下線抽出処理に関するPAD図である。
【図9】下線抽出対象画像の説明図である。
【図10】図9の画像に対して罫線と文字行を抽出した結果を示す図である。
【図11】図9の画像に対して罫線を抽出し,文字を切り出した結果を示す図である。
【図12】文字行の一部の文字に対してのみ下線が印刷されている画像の説明図である。
【図13】図3のステップ314の下線抽出処理に関するPAD図である。
【図14】下線抽出対象画像の説明図である。
【図15】図14の画像に対して枠線を構成しないランレングスデータと長い下線線を抽出した結果を示す図である。
【図16】図3のステップ314の下線抽出処理に関するPAD図である。
【図17】図14の画像に対して枠線を構成しないランレングスデータを抽出し,ランレングスデータの長さを傾き方向に投影した結果を示す図である。
【図18】図3のステップ328の帳票識別処理に関するPAD図である。
【図19】本発明の一実施例である,ソート機能をもつ登記情報認識システムの構成図である。
【符号の説明】
200…画像入力、204…罫線抽出、206…枠抽出、208…表特徴抽出、246…帳票識別、222…文字切り出し、224…文字識別、236…単語照合、240…内容照合[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a form, in particular, to various forms in which registration information relating to real estate is described, and more particularly to a form recognition method for reading character data from a registered notice and automatically inputting it.
[0002]
[Prior art]
Examples of the prior art relating to identification of the form type include the following. The first is a method of identifying the form type by reading the ID number indicating the form type described at the same position for all types of forms. The second is a method of identifying the form type by identifying the frame structure when the frame structure is different for each form type. This example is described in JP-A-7-141462.
[0003]
[Problems to be solved by the invention]
There are currently seven types of registered notifications regarding real estate. These forms are used for data input for taxation related to real estate. However, since this notification form does not include an ID number for specifying the form type, the form is identified by reading the ID number. Conventional methods cannot be used. Furthermore, since these forms are atypical forms having the same type but different frame shapes, it is not possible to use a conventional method for identifying the form from the frame structure. In addition, when a conventional method for identifying a form by reading characters in the title part is used, there is a problem that the identification accuracy of the form greatly depends on the accuracy of character recognition. The form name of the registered notice is “Land registered notice on rights”, “Building registered notice on rights (general)”, “Building registered notice on rights (exclusive)”, “Land registration on display” There are seven types: “Notification of completed building”, “Notification of registered building concerning display (general)”, “Notification of registered building regarding display (one building)”, and “Notification of registered building regarding display (proprietary)”. Of these, the “Building registered notice on display (general)” and the “Building registered notice on display (one building)” differ only in one character, so the identification accuracy for these two types may be low. is there.
[0004]
Accordingly, a first object of the present invention is to propose a form recognition unit having a high-precision form identification unit for reading objects having various types of forms.
[0005]
In the conventional underline detection method, since ruled lines other than the frame line are underlined, there is a possibility that noise components such as horizontal strokes of characters are erroneously extracted as underlines. Accordingly, a second object of the present invention is to propose a form recognition unit having a highly accurate underline detection unit.
[0006]
[Means for Solving the Problems]
In a first aspect, the present invention is a recognition information recognition method for inputting a surface image of a registered notice and reading characters, and a character line extracting means for extracting a character line from an image of a registered notice; A first character for identifying the type of registered notice is selected from the character line selecting means and the character identifying means for reading the character line of the form name by selecting the character line of the form name from the positional relationship between the extracted character lines and the frame. Form identification means, ruled line extraction means for extracting ruled lines from registered notice images, table feature extraction means for extracting table features from the extracted ruled lines, and types of registered notices are identified from table features The second form identifying means, the character line extracting means for extracting the character line from the image of the registered notification, the character identifying means for reading the extracted character line, and the item name of the form are selected from the read results. Combination of item name selection means and item name ; And a third form identification means for identifying the type of registration completion notice from, by combining the results of the three means, provides a form recognition method for identifying the type of registration completion notice.
[0007]
In a second aspect, the present invention is a recognition information recognition method for inputting a surface image of a registered notice and reading characters, and for extracting a character line and a ruled line from the image of the registered notice. A ruled line type determining unit that distinguishes a frame ruled line and a ruled line that is not a frame ruled line from the extracted ruled line, a means for detecting a character line in a frame that includes a ruled line that is not a frame ruled line, a character line in the frame, There is provided a form recognition method comprising an underline detection means for determining whether or not a ruled line that is not a frame ruled line in the frame is an underline based on a positional relationship with a ruled line that is not a frame ruled line.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described in detail. Note that the present invention is not limited thereby.
[0009]
FIG. 1 is a configuration diagram of a registration information system according to an embodiment of the present invention. A
[0010]
FIG. 2 is a block diagram showing a registration information recognition process. The
[0011]
The input image is output to the
[0012]
On the other hand, character line extractor 212 Then, a character line that is a set of characters is extracted from the reduced image output from 202. Here, based on the vertex coordinates of the circumscribed rectangle of the connected component of black pixels among the connected components of black pixels, the character line is generated by fusing the estimated circumscribed rectangle with the arrangement of characters. To do. The line-frame correspondence unit 214 compares the vertex coordinates of the character line extracted in 212 with the vertex coordinates of the frame extracted in 206 to determine in which frame each character line exists or is outside the frame. The determination is made, and the vertex coordinates of the character line included in each frame and the vertex coordinates 254 of the character line outside the frame are output. The
[0013]
A word stored in the
[0014]
On the other hand, the
[0015]
FIG. 3 is a diagram showing a processing flow of registration information recognition shown in FIG. In
[0016]
FIG. 4 is a diagram simply showing an image of a registered notification that is a recognition target for the sake of explanation. In the example of the
[0017]
FIG. 5 shows the ruled line extraction processing result of
[0018]
FIG. 6 shows the result of frame extraction processing in
[0019]
FIG. 7 shows the result of the character line extraction process in
[0020]
FIG. 8 shows the
In
[0021]
FIG. 9 is an example of a form frame for explaining the processing flow of FIG. Horizontal ruled
[0022]
FIG. 10 shows the result of extracting ruled lines and character lines from the example of FIG. Underline determination will be described with reference to FIG. In the underline determination process, a ruled line that is positioned below the character line and has the same length as the character line is determined to be an underline among the ruled lines within the same frame as the character line. In FIG. 10, reference numeral 1007 denotes an area where characters are printed, and
[0023]
The determination is made for 1010 in FIG. First, a difference d11 (1014) between the y coordinate of the lower end of the ruled line and the y coordinate of the lower end of the character line is obtained. Next, a difference d12 (1016) between the y coordinate of the upper end of the ruled line and the y coordinate of the upper end of the character line is obtained. Further, the difference between the length L1 (1018) in the x direction of the ruled line and the length Lc (1020) in the x direction of the character line is obtained. This value is compared with the reference values α, β, γ1, and γ2. If d11 is less than α below the character line, d12 is equal to or greater than β, and L1-Lc is equal to or greater than γ1 and equal to or less than γ2, the ruled line is set as an underline. The values of α, β, γ1, and γ2, which are the determination criteria for the above processing, can be obtained empirically.
[0024]
For example, the value of α can be used if the distance between the character line and the underline is constant. If it is not constant, 1/2 of the difference between the frame height and the character height can be used. For β, the sum of these two values can be used if the distance between the lower end and the underline of the character line and the height of the character are constant. The values of γ1 and γ2 allow for a margin of about one character, γ1 can be a value obtained by multiplying the character width by (−1), γ2 can be a character width or the like. In setting the values of α, β, γ1, and γ2, the values can be set with a margin in order to provide robustness against the inclination of the form, blurring of the lines, and collapse of the lines. In addition, if a negative value is allowed for the allowable value of d11, it is possible to cope with the case where the underline overlaps with the character.
[0025]
Next, 1012 in FIG. 10 is determined. First, the difference d21 (1022) between the y coordinate of the lower end of the ruled line and the y coordinate of the lower end of the character line is obtained. Next, a difference d22 (1024) between the y coordinate of the upper end of the ruled line and the y coordinate of the upper end of the character line is obtained. Further, the difference between the length L2 (1026) in the x direction of the ruled line and the length Lc (1020) in the x direction of the character line is obtained. When these values are compared with the above α, β, γ1, and γ2, d21 is a large negative value and d22 is a smaller value than β, so it is determined that it is not underlined.
[0026]
Note that d11 and d12 used here may be normalized by the height of the character, the height of the frame, or the like. Further, the ratio may be compared instead of the difference between L1 and Lc. The values of α, β, γ1, and γ2 are set according to the definition of the comparison target.
[0027]
Also, here, the
[0028]
FIG. 11 is an example in which character coordinates are used instead of character line coordinates in the underline extraction process in
[0029]
FIG. 12 is an example in which underlines are printed only for some characters in the character line. In a
[0030]
FIG. 13 shows the
[0031]
Hereinafter, each step of FIG. 13 will be described. In
[0032]
FIG. 14 is an example of a form frame for explaining the processing flow of FIG. Horizontal ruled lines 1400 and 1402, vertical ruled
[0033]
FIG. 15 shows a result of extracting lateral run-length data and a long underline that do not constitute a frame from the image of FIG. 1500 is the long underline extracted in
[0034]
FIG. 16 is another processing flow related to the character line extraction processing in
[0035]
FIG. 17 shows the result of extracting the run-length data in the horizontal direction that does not constitute a frame from the image of FIG. 14 and creating a histogram.
[0036]
FIG. 18 is a process flow relating to the form identification process in step 328 of FIG. In
[0037]
Features of the table extracted in
[0038]
[Table 1]
[0039]
Table 1 shows the number of vertical solid ruled lines of the registered notification that is the recognition target as an example of the characteristics of the table extracted in
[0040]
The form name words to be collated in
[0041]
[Table 2]
[0042]
Table 2 shows a part of the item names to be collated in
[0043]
In
[0044]
In
[0045]
In
[0046]
In
[0047]
FIG. 19 is a configuration diagram of a registration information system according to an embodiment of the present invention. The
[0048]
【The invention's effect】
According to the form recognition method of the present invention, the type of form can be identified with high accuracy even for an atypical form such as a registered notice.
[0049]
Further, according to the form recognition method of the present invention, underline can be extracted with high accuracy without being mistaken for strokes in characters.
[0050]
Further, according to the form recognition method of the present invention, the forms can be sorted based on the form recognition result.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a registration information recognition system according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a registration information recognition process.
FIG. 3 is a PAD diagram of registration information recognition shown in FIG. 2;
FIG. 4 is an explanatory diagram of an image of a registered notification that is a recognition target.
5 is a diagram showing a result of ruled line extraction processing in
6 is a diagram illustrating a result of frame extraction processing in
7 is a diagram illustrating a result of character line extraction processing in
FIG. 8 is a PAD related to the underline extraction process in
FIG. 9 is an explanatory diagram of an underline extraction target image.
10 is a diagram illustrating a result of extracting ruled lines and character lines from the image of FIG. 9;
11 is a diagram illustrating a result of extracting a ruled line and cutting out characters from the image of FIG. 9;
FIG. 12 is an explanatory diagram of an image in which an underline is printed only for some characters in a character line.
FIG. 13 is a PAD related to the underline extraction process in
FIG. 14 is an explanatory diagram of an underline extraction target image.
15 is a diagram illustrating a result of extracting run-length data that does not constitute a frame line and a long underline from the image of FIG. 14;
16 is a PAD related to the underline extraction process in
FIG. 17 is a diagram illustrating a result of extracting run-length data that does not constitute a frame line from the image of FIG. 14 and projecting the length of the run-length data in the tilt direction.
18 is a PAD related to the form identification process in step 328 of FIG. 3;
FIG. 19 is a configuration diagram of a registration information recognition system having a sort function according to an embodiment of the present invention.
[Explanation of symbols]
200: Image input, 204: Ruled line extraction, 206: Frame extraction, 208 ... Table feature extraction, 246 ... Form identification, 222 ... Character extraction, 224 ... Character identification, 236 ... Word verification, 240 ... Content verification
Claims (1)
画像入力部において、帳票の画像を二値化して入力し、
枠抽出部において、前記帳票の画像から黒画素の連続状態に基づいて検出される罫線のうちの枠罫線を抽出して、枠罫線を構成しない罫線を特定し,
下線抽出部において、当該枠罫線を構成しない罫線から下線を抽出し,当該下線の延長線上に存在する黒画素を検出し,検出した黒画素の並びを下線であると判定することを特徴とする帳票認識方法。In the form recognition method that reads the characters by inputting the surface image of the form,
In the image input part, input the image of the form as binarized,
In the frame extraction unit, the ruled lines that are detected based on the continuous state of black pixels are extracted from the image of the form, and the ruled lines that do not constitute the frame ruled lines are identified ,
An underline extraction unit extracts an underline from a ruled line that does not constitute the frame ruled line, detects a black pixel existing on an extension line of the underline, and determines that the detected arrangement of black pixels is an underline Form recognition method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11457396A JP3689485B2 (en) | 1996-05-09 | 1996-05-09 | Form recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11457396A JP3689485B2 (en) | 1996-05-09 | 1996-05-09 | Form recognition method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005127313A Division JP2005293605A (en) | 2005-04-26 | 2005-04-26 | Form recognition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09305701A JPH09305701A (en) | 1997-11-28 |
JP3689485B2 true JP3689485B2 (en) | 2005-08-31 |
Family
ID=14641226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11457396A Expired - Lifetime JP3689485B2 (en) | 1996-05-09 | 1996-05-09 | Form recognition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3689485B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE516649C2 (en) * | 1999-07-09 | 2002-02-05 | Jema Jori Ab | Method of assigning ID to an object in a database |
JP4416890B2 (en) * | 1999-12-20 | 2010-02-17 | 富士通株式会社 | Form identification device |
JP2007328820A (en) * | 2007-09-05 | 2007-12-20 | Hitachi Ltd | Form recognition method |
JP5640645B2 (en) * | 2010-10-26 | 2014-12-17 | 富士ゼロックス株式会社 | Image processing apparatus and image processing program |
JP6531368B2 (en) * | 2014-06-30 | 2019-06-19 | キヤノンマーケティングジャパン株式会社 | INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, PROCESSING METHOD, AND PROGRAM |
-
1996
- 1996-05-09 JP JP11457396A patent/JP3689485B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH09305701A (en) | 1997-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8792715B2 (en) | System and method for forms classification by line-art alignment | |
US6687401B2 (en) | Pattern recognizing apparatus and method | |
US7120318B2 (en) | Automatic document reading system for technical drawings | |
US6970601B1 (en) | Form search apparatus and method | |
US8059868B2 (en) | License plate recognition apparatus, license plate recognition method, and computer-readable storage medium | |
EP0332471A2 (en) | Character recognition apparatus | |
JP3636809B2 (en) | Image processing method | |
JPH08305796A (en) | Pattern extracting device, table preparing device for pattern recognition and pattern recognition device | |
JP2000285190A (en) | Method and device for identifying slip and storage medium | |
JP3606500B2 (en) | Rectangle classification method | |
JP3689485B2 (en) | Form recognition method | |
JPH09319824A (en) | Document recognizing method | |
JP2898562B2 (en) | License plate determination method | |
JP3600380B2 (en) | Image processing method and fax character recognition device | |
US6351560B1 (en) | Apparatus, method, and program for locating an objective on a form and a recording medium for recording the program for locating the objective on the form | |
JP2005293605A (en) | Form recognition method | |
JP2007328820A (en) | Form recognition method | |
JP4046941B2 (en) | Document format identification device and identification method | |
JP2005250786A (en) | Image recognition method | |
JP2001109887A (en) | Area extracting method, method and device for extracting address area, and image processor | |
US6678427B1 (en) | Document identification registration system | |
JP2002366893A (en) | Document recognizing method | |
JP3428504B2 (en) | Character recognition device | |
JPH0877293A (en) | Character recognition device and generating method for dictionary for character recognition | |
JP2004030340A (en) | Document identifying apparatus and identifying method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050613 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080617 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090617 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090617 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100617 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100617 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110617 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110617 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120617 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120617 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130617 Year of fee payment: 8 |
|
EXPY | Cancellation because of completion of term |