JP4194309B2 - Document direction estimation method and document direction estimation program - Google Patents

Document direction estimation method and document direction estimation program Download PDF

Info

Publication number
JP4194309B2
JP4194309B2 JP2002202959A JP2002202959A JP4194309B2 JP 4194309 B2 JP4194309 B2 JP 4194309B2 JP 2002202959 A JP2002202959 A JP 2002202959A JP 2002202959 A JP2002202959 A JP 2002202959A JP 4194309 B2 JP4194309 B2 JP 4194309B2
Authority
JP
Japan
Prior art keywords
rectangles
area
rectangle
character
document
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002202959A
Other languages
Japanese (ja)
Other versions
JP2004046528A (en
Inventor
裕 勝山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2002202959A priority Critical patent/JP4194309B2/en
Publication of JP2004046528A publication Critical patent/JP2004046528A/en
Application granted granted Critical
Publication of JP4194309B2 publication Critical patent/JP4194309B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、画像中の文書方向を推定する文書方向推定方法および文書方向推定プログラムに関するものである。
【0002】
【従来の技術】
従来、文書をスキャナー装置で読み取った文書画像の文字認識は、文書画像から文字領域を抽出し、抽出した文字領域について文字の配置されている方向に文字認識するようにしていた。
【0003】
この際、抽出した文字領域について、4方向に順次回転して文字認識をそれぞれ行い、領域内文字の信頼度の平均値を求め、次に、全体の画像での平均値が最も高い方向を文書の方向とし、文字認識していた(特開平8−212298号公報)。
【0004】
また、文書画像から文字領域を抽出し、抽出した文字領域に属性(タイトル、本文など)をつける。文字領域を4方向に回転して文字認識を行い、領域内文字の信頼度を予め定めた属性の優先順位を使って文書方向を決定する。このとき、方向決定には、各文字領域から求めた方向をもとに文書全体の方向を多数決で決める(特開平9−69136号公報)。
【0005】
また、文書画像から文字領域を抽出し、抽出した文字領域を4方向に回転して文字認識を行い、領域内文字の信頼度からそれぞれの領域の方向を決める。文書全体では、部分領域の面積を考慮して方向を決定する(特開平2001−312697号公報)。
【0006】
【発明が解決しようとする課題】
上述した従来の技術では、全て文字領域を求め、当該文字領域について画像を回転し、回転後の画像の文字認識をそれぞれ行い、信頼度の高い方向を文書方向と決定していた。
【0007】
このため、以下のような課題があった。
(1) 文字領域が正しく行われていればよいが、例えば文字領域の中に一部図形がかかる場合は、そのパターンの文字認識結果の信頼度や距離値が、領域全体の信頼度や距離値の平均などに影響を与えてしまい、領域の文書方向を正しく求められないという問題があった。
【0008】
(2) 文書画像から抽出した文字領域の全てについて文字認識してその信頼度から方向を推定することは、当該文字領域に含まれる文字数分の文字認識処理が必要となり、文書方向決定のための処理時間が長くかかってしまうという問題があった。
【0009】
(3) (2)の問題を避けるため、文書方向を決定する文字領域の数を制限して少なくして高速化を図ることが考えられるが、文字領域を減らしたのでは文書全体としての方向を誤る可能性が大となってしまう問題があった。
【0010】
本発明は、これらの問題を解決するため、文書画像から文字方向を決定する際に、文書方向の推定精度を保ちながら処理速度を速くし、かつ文書画像全体から文書方向を推定することを目的としている。
【0011】
【課題を解決するための手段】
図1を参照して課題を解決するための手段を説明する。
【0012】
図1において、レイアウト解析手段14は、画像をレイアウト解析してテキスト領域、表領域などを抽出するものである。
【0013】
探索領域抽出手段15は、テキスト領域内の矩形について距離が近い矩形をまとめることを、まとめた矩形が指定数あるいはまとめ処理が指定回数となるまで繰り返して矩形数を減らすなどするものである。
【0014】
文字認識手段16は、文字を認識するものである。
次に、動作を説明する。
【0015】
レイアウト解析手段14が画像をレイアウト解析してテキスト領域を抽出し、探索領域抽出手段15が抽出したテキスト領域内の矩形について距離が近い矩形をまとめることを、まとめた矩形が指定数あるいはまとめ処理が指定回数となるまで繰り返して矩形数を減らし、まとめた矩形をもとに文書方向を決定するようにしている。
【0016】
この際、探索領域抽出手段15が抽出したテキスト領域内の各矩形について、矩形サイズが所定サイズの範囲内、かつ当該矩形を中心にした所定探索領域内で白から黒あるいは黒から白あるいは両者の変化数を当該探索領域で除算した値が所定範囲内、かつ前記探索範囲内に大きな矩形がない当該矩形について前記距離が近いを矩形をまとめることを、まとめた矩形が指定数あるいはまとめ処理が指定回数となるまで繰り返すようにしている。
【0017】
また、探索領域抽出手段15がまとめた矩形の重心を算出して当該重心に最も近い矩形を選択して当該選択した矩形を中心に探索領域を決定するようにしている。
【0018】
また、まとめた矩形内の全矩形あるいは探索領域内の全矩形を4方向に回転させてそれぞれの文字認識を行い、最も確からしい文書方向を決定するようにしている。
【0019】
また、画像をレイアウト解析して抽出した表領域内の、各セルについてレイアウト解析して抽出したテキスト領域について、レイアウト解析してテキスト領域を抽出するようにしている。
【0020】
従って、文書画像から文字方向を決定する際に、文書方向の推定精度を保ちながら処理速度を速くし、かつ文書画像全体から文書方向を推定することが可能となる。
【0021】
【発明の実施の形態】
次に、図1から図8を用いていて本発明の実施の形態および動作を順次詳細に説明する。
【0022】
図1は、本発明のシステム構成図を示す。
図1において、処理装置1は、プログラムに従い各種処理を実行するものであって、入力手段11、ラベリング手段12、文字サイズ推定手段13、レイアウト解析手段14、探索領域抽出手段15、文字認識手段16、および出力手段17などから構成されるものである。
【0023】
入力手段11は、OCR2で読み取った文書の画像を取り込んだりなどするものである。
【0024】
ラベリング手段12は、画像上で、ある黒画素に注目して当該黒画素に隣接する他の黒画素を順次連結した当該領域にラベルを付与するものである。
【0025】
文字サイズ推定手段13は、ラベリング手段12によってラベルを付与した、画素の連結した領域中の文字サイズ(文字に相当する矩形のサイズ)の最頻度のサイズ(縦H0、横W0のサイズ)を算出するものである(図5の(b)参照)。
【0026】
レイアウト解析手段14は、画像中の表領域、図形領域、およびテキスト領域を解析するものである(図4参照)。
【0027】
探索領域抽出手段15は、テキスト領域内の矩形について、距離が近い矩形をまとめることを、まとめた矩形が指定数あるいはまとめ処理が指定回数となるまで繰り返して矩形数を減らし、当該まとめた矩形の重心に最も近い矩形を中心とした所定サイズの探索領域を抽出するものである(図7参照)。
【0028】
文字認識手段16は、文字を認識するものである。
出力手段17は、文字認識結果をファイル4に出力するものである。
【0029】
OCR2は、書類をスキャナで読み取って画像を生成するものである。
画像データ3は、書類をスキャナで読み取った画像である。
【0030】
ファイル4は、画像データ3について文字認識した結果を格納するファイルである。
【0031】
次に、図2および図3のフローチャートの順番に従い、図1の構成の動作を順次詳細に説明する。
【0032】
図2および図3は、本発明の動作説明フローチャートを示す。
図2において、S1は、入力する。これは、文書をスキャナーなどで読み取った文書画像を図1の処理装置1に入力する。
【0033】
S2は、黒画素連結領域を抽出する。これは、画像上で例えば左上の黒画素に連結する他の黒画素を全て抽出し当該領域にラベルを付与する(ラベリング)。
【0034】
S3は、文字サイズを推定する。これは、S1でラベリングした黒画素を連結した各領域をもとに,文字サイズを推定する(図5の(b)で後述)。
【0035】
S4は、レイアウト解析を行う。これは、S2で抽出した黒画素の連結領域についてレイアウト解析、即ち、表領域、図領域、およびテキスト領域を解析する(図4を用いて後述する)。そして、テキスト領域については、S11以降の処理を実行する。表領域については、S31以降を実行する。
【0036】
S11は、S4のレイアウト解析でテキスト領域と解析された領域(テキスト領域)について、1つのテキスト領域を選択する。
【0037】
S12は、テキスト領域内の1矩形を選択する。
S13は、条件3,4,5の判定を行う。これは、テキスト領域内の矩形につて、後述する図7の条件3,4、5の判定を行う。ここで、
・条件3は、矩形の幅WとS3で推定した文字サイズW0との差の絶対値が閾値以下、かつ、矩形の高HがS3で推定した文字サイズH0との差の絶対値が閾値以下かを判別する。
【0038】
・条件4は、探索領域(図7の(b)参照)内の線密度が閾値以下か判別する(図7を用いて後述する)。
【0039】
・条件5は、探索矩形内に大きな矩形がない。
以上の3つの条件を全て満たしたときにYESとなり、S14で文字候補として抽出し、S15に進む。一方、NOの場合には、S15に進む。
【0040】
S15は、テキスト領域内の矩形について全てS12からS15の処理を終了したか判別する。YESの場合には、S16に進む。NOの場合には、S12以下を繰り返す。
【0041】
S16は、全てのテキスト領域が終了か判別する。YESの場合には、全てのテキスト領域について、文字候補の抽出を終了したので、S17に進む。NOの場合には、S11に戻り繰り返す。
【0042】
S17は、文字候補をクラスタリングする。
S18は、クラスタが指定の数か判別する。これらS17、S18は、S14で抽出したテキスト領域内の文字候補の矩形についてクラスタリング、即ち、ある矩形に近い他の矩形をまとめることを順次行い、全体のまとめた矩形の数が所定数(例えば3個)になるまで繰り返す(図8を用いて後述する)。YESの場合には、クラスタの数が指定の数になったので、S19に進む。NOの場合には、S17を繰り返す。
【0043】
S19は、矩形候補を生成する。これは、S18のYESでクラスタリングして指定個数になったので、当該指定個数になった矩形の集合を矩形候補とする。
【0044】
S20は、重心を計算する。これは、S19で矩形の集合の矩形候補の全体の重心を求める(図8参照)。
【0045】
S21は、重心に最も近い矩形候補を選択する。これは、S20で求めた重心に最も近い矩形候補を選択する(図8の矩形候補□(中が黒)を選択する)。
【0046】
S22は、S21で選択した矩形を中心とした探索領域を求める。これは、S21で求めた例えば図8の矩形候補□(中が黒)を中心として探索領域を求める。そして、図2のS41に進む。
【0047】
S41は、探索領域の取り込みを行う。
S42は、4方向に回転した画像を作成する。これらS41、S42は、図2のS22で求めた、例えば図8の探索領域の画像を取り込み、4方向に回転させた画像をそれぞれ作成する。
【0048】
S43は、文字認識する。これは、S44で4方向に回転させた探索領域の画像について、それぞれ文字認識を行う。
【0049】
S44は、最も確からしい方向を判定する。これは、S43で4方向に回転させた探索領域の画像について、それぞれ文字認識を行い、文字認識度の最も高い方向を文字方向として判定する。
【0050】
S45は、領域終了か判別する。YESの場合には、S46に進む。NOの場合には、S41に戻り、次の探索領域について繰り返す。
【0051】
S46は、各探索領域の方向を決定する。
S47は、多数決で方向を決定する。これらS46、S47は、各探索領域の文字認識率の高い方向をそれぞれ決定し、テキスト領域内で当該決定した探索領域内の文字方向について多数決で1つを決定する。
【0052】
S48は、全体を多数決した方向で文字認識する。これは、S47で決めた方向で、当該テキスト領域内の全ての文字矩形について文字認識を行う。
【0053】
以上によって、文書画像上でテキスト領域を抽出し、条件3,4,5の判定で文字候補矩形のみを抽出し、抽出した文字候補についてクラスタリングを行ってまとめた矩形を生成して矩形数を減らし(例えば3個、5個などに減らし)、当該減らしたまとめた矩形の重心に最も近い文字候補矩形を中心に探索領域を設定し、当該探索領域内について文字認識して文字方向を判定してテキスト領域の全体の文字方向を多数決で決定し、当該決定した文字方向でテキスト領域内の矩形の文字認識を行うことにより、テキスト領域内の文字方向を少ない探索領域内のみで迅速かつに処理量少なくして決定し、決定した文字方向でテキスト領域内の文字認識を行うことが可能となる。
【0054】
図2のS31は、S4のレイアウト解析で表領域と判定されたので、当該表領域内のセルを抽出する。
【0055】
S32は、セル内をレイアウト解析してテキスト領域だけ抽出する。これは、S4のレイアウト解析と同様に行う。
【0056】
S33は、条件1,2に合致した領域を抽出する。これは、表のセル内のテキスト領域について、後述する図6の(a)の条件1,2に合致する領域を抽出する。ここで、
・条件1は、領域サイズが閾値の範囲内
・条件2は、領域内の黒画素密度が閾値の範囲内
とそれぞれ判定し、両者が満たされた領域のみを抽出する。
【0057】
S34は、閾値サイズ以上の領域か判別する。YESの場合には、表領域のセル内のテキスト領域と判明したので、既述したS11からS22で探索領域を求め、続いて図3のS41からS48で文字方向を決定して文字認識する。一方、S34のNOの場合には、S35で面積でソートし、S36で大きな指定個を探索領域として求め、当該求めた探索領域について既述した図3のS41からS48で文字方向を決定して文字認識する。
【0058】
以上によって、表領域内のセルがテキスト領域の場合にも、同様に探索領域を求めて文字方向を迅速かつ処理量少なく決定し、当該文字方向でテキスト領域の文字認識を行うことが可能となる。
【0059】
図4は、本発明の説明図(その1)を示す。
図4の(a)は、原画像例を示す。ここでは、画像上に図示のように、図、テキスト、表があるとする。
【0060】
図4の(b)は、レイアウト解析結果例を示す。これは、図4の(a)の原画像について、既述した図2のS4のレイアウト解析して得たレイアウト解析結果の例を示す。ここで、
・表領域は、黒画素が所定以上の長さ連結する罫線で構成されている領域として判定する。
【0061】
・図領域は、サイズが閾値より大きな黒画素連結領域がある領域として判定する。
【0062】
・テキスト領域は、原画像中で、表領域、図領域でない領域をここでは、テキスト領域と判定する。
【0063】
以上の処理によって、原画像中からテキスト領域を抽出したり、更に、表領域内のセルについてレイアウト解析してテキスト領域を抽出(既述した図2のS32)したりなどすることが可能となる。
【0064】
図5は、本発明の説明図(その2)を示す。
図5の(a)は、ラベリング結果例を示す。ここで、各矩形は、原画像上で、ある黒画素に連結する他の黒画素をまとめ、当該まとめた黒画素のあつまりについて内接する矩形として生成したものである。
【0065】
図5の(b)は、文字サイズ推定例を示す。
図5の(b−1)は、文字サイズの幅W0を推定する説明図を示す。図示の曲線は、図5の(a)などのラベリング結果の各文字矩形の幅Wを全て求め、横軸を当該求めた幅、縦軸をその頻度で表した曲線である。そして、図示のように求めた最頻度の幅を文字サイズ幅W0と推定する。本実施例は最頻度の文字サイズ幅を文字サイズ幅W0として推定したが、平均文字サイズ幅を文字サイズ幅W0として推定してもよい。
【0066】
図5の(b−2)は、文字サイズの高H0を推定する説明図を示す。図示の曲線は、図5の(a)などのラベリング結果の各文字矩形の高Hを全て求め、横軸を当該求めた高、縦軸をその頻度で表した曲線である。そして、最頻度の高H0を図示のように求め、文字サイズ高H0と推定する。本実施例は最頻度の文字サイズ高を文字サイズ高H0として推定したが、平均文字サイズ高を文字サイズ高H0として推定してもよい。
【0067】
図6は、本発明の説明図(その3)を示す。
図6の(a)は、条件を示す。これは、既述した図2の表領域内のセルについてレイアウト解析して抽出したテキスト領域について、テキストが含まれている可能性が高い領域を抽出する条件であって、ここでは、
・条件1は、閾値<領域サイズ<閾値
・条件2は、閾値<領域内の黒画素密度<閾値
である。即ち、条件1で表領域内のセルについてテキスト領域とレイアウト解析された領域について、当該領域のサイズが所定の閾値の範囲内(条件1)、かつ当該領域内の黒画素の密度が所定の閾値の範囲内(条件2)のときに、可能性大のテキスト領域として抽出する。
【0068】
図7は、本発明の説明図(その4)を示す。
図7の(a)は、条件を示す。これら条件3,4,5は、既述した図2のS13の条件3,4,5であって、文字矩形として抽出する条件であり、
・条件3は、ΔW=|W−W0|<閾値 かつ ΔH=|H−H0|<閾値
(W0,H0は推定文字サイズの幅、高(図5の(b)))
・条件4は、閾値<探索領域の線密度<閾値
(線密度は領域内をラスタスキャンしたときの白から黒の変化点数/領域面積)
・条件5は、探索矩形内に大きな矩形が無い
(探索領域内をラベリングして大きな矩形を探索して無い)
である。ここで、条件3は、テキスト領域内の矩形の幅Wと高Hが、既述した図5の(b)で推定した文字サイズの幅W0と高H0とのそれぞれの差が所定閾値以内であるという条件である。条件4は、文字矩形を中心とした探索領域の線密度(探索領域内を一定方向にスキャンして例えば白から黒に変わる点の数を当該探索領域の面積で除算した値)が所定の閾値の範囲内であるという条件である。条件5は、文字矩形を中心とした探索領域内に、大きな矩形がないという条件である。
【0069】
以上の条件3,4,5を満たした場合、既述した図2のS13のYESとなり、当該文字矩形を文字候補として抽出することが可能となる。
【0070】
図7の(b)は、探索領域の決定例を示す。図示のテキスト領域内の例えばほぼ中央の文字”か”の矩形に注目し、当該矩形の幅W,高Hとし、当該矩形を中心にして探索領域を図示のように設け、図7の(a)の条件3,4,5を適用し、ここでは、文字矩形候補として抽出する。
【0071】
図8は、本発明の説明図(クラスタリングと最終探索領域の抽出例)を示す。
図8において、▲1▼の文字矩形は、既述した図2のS14で文字候補として抽出された矩形を示す。
【0072】
▲2▼のクラスタリング結果のクラスタは、文字矩形をクラスタリング、即ち、文字矩形に最も距離の近い他の文字矩形同士をまとめることを繰り返し行い、文字矩形の数を減らすことで求められた。文字矩形間の距離は、本実施例の場合、各矩形の左上の座標同士の距離とした。図8では3個に減らした、クラスタとしてまとめた文字矩形を示す。
【0073】
▲3▼の×は、クラスタ重心である。本実施例では、クラスタ重心は、クラスタを構成する文字矩形の左上の座標値の平均値から求められる。
▲4▼の探索領域は、クラスタ重心に最も近い矩形□(中が黒)を中心に求めた探索領域を示す。
【0074】
以上のようにして算出した▲4▼の探索領域について、既述した図3のS41からS48の処理により、文字方向を迅速かつ処理量を少なくして決定し、当該決定した文字方向でテキスト領域内の文字認識を行うことが可能となる。
【0075】
【発明の効果】
以上説明したように、本発明によれば、画像中からテキスト領域を抽出し、当該テキスト領域中の矩形のうちから条件3,4,5により文字矩形候補を抽出し、当該文字矩形候補をまとめて数を減らし、当該減らした後のまとめた矩形の重心に近い文字矩形候補を中心に所定サイズの探索領域を決定し、当該探索領域で文字方向を決め、当該決めた文字方向でテキスト領域の文字認識を行う構成を採用しているため、文書画像から文字方向を決定する際に、文書方向の推定精度を保ちながら処理量を削減して迅速、かつ文書画像全体から文書方向を推定することが可能となる。そして、推定した文字方向でテキスト領域の文字認識を行うことが可能となる。
【図面の簡単な説明】
【図1】本発明のシステム構成図である。
【図2】本発明の動作説明フローチャート(その1)である。
【図3】本発明の動作説明フローチャート(その2)である。
【図4】本発明の説明図(その1)である。
【図5】本発明の説明図(その2)である。
【図6】本発明の説明図(その3)である。
【図7】本発明の説明図(その4)である。
【図8】本発明の説明図(クラスタリングと最終探索領域の抽出例)である。
【符号の説明】
1:処理装置
11:入力手段
12:ラベリング手段
13:文字サイズ推定手段
14:レイアウト解析手段
15:探索領域抽出手段
16:文字認識手段
17:出力手段
2:OCR
3:画像データ
4:ファイル(認識結果)
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a document direction estimation method and a document direction estimation program for estimating a document direction in an image.
[0002]
[Prior art]
Conventionally, character recognition of a document image obtained by reading a document with a scanner device extracts a character area from the document image, and recognizes the extracted character area in the direction in which the characters are arranged.
[0003]
At this time, character recognition is performed by sequentially rotating the extracted character area in four directions to obtain an average value of the reliability of the characters in the area, and then the direction with the highest average value in the entire image is Character recognition (Japanese Patent Laid-Open No. 8-212298).
[0004]
In addition, a character area is extracted from the document image, and attributes (title, text, etc.) are attached to the extracted character area. Character recognition is performed by rotating the character area in four directions, and the document orientation is determined by using the priority of attributes in which the reliability of the characters in the area is determined in advance. At this time, for direction determination, the direction of the entire document is determined by majority decision based on the direction obtained from each character area (Japanese Patent Laid-Open No. 9-69136).
[0005]
In addition, a character area is extracted from the document image, the extracted character area is rotated in four directions to perform character recognition, and the direction of each area is determined from the reliability of the characters in the area. In the entire document, the direction is determined in consideration of the area of the partial region (Japanese Patent Laid-Open No. 2001-312697).
[0006]
[Problems to be solved by the invention]
In the conventional technique described above, all character areas are obtained, the image is rotated for the character areas, character recognition is performed on the rotated image, and the direction with high reliability is determined as the document direction.
[0007]
For this reason, there were the following problems.
(1) The character area only needs to be correctly performed. For example, when a part of a figure is applied to the character area, the reliability or distance value of the character recognition result of the pattern is the reliability or distance of the entire area There is a problem in that the average of the values is affected and the document direction of the area cannot be obtained correctly.
[0008]
(2) Character recognition for all the character regions extracted from the document image and estimation of the direction from the reliability require character recognition processing for the number of characters included in the character region, There was a problem that it took a long processing time.
[0009]
(3) In order to avoid the problem of (2), it is conceivable to increase the speed by limiting the number of character areas for determining the document direction. However, if the number of character areas is reduced, the direction of the whole document There is a problem that the possibility of mistakes becomes large.
[0010]
In order to solve these problems, an object of the present invention is to increase the processing speed while maintaining the accuracy of estimating the document direction and determine the document direction from the entire document image when determining the character direction from the document image. It is said.
[0011]
[Means for Solving the Problems]
Means for solving the problem will be described with reference to FIG.
[0012]
In FIG. 1, a layout analysis unit 14 performs layout analysis on an image and extracts a text area, a table area, and the like.
[0013]
The search area extraction means 15 is to reduce the number of rectangles by repeatedly collecting rectangles that are close to each other in the text area until the number of collected rectangles is the designated number or the number of times the summarization process is performed.
[0014]
The character recognition means 16 recognizes characters.
Next, the operation will be described.
[0015]
The layout analysis means 14 performs layout analysis on the image to extract a text area, and the rectangles within the distance of the rectangles in the text area extracted by the search area extraction means 15 are grouped together. The number of rectangles is repeated until the specified number of times is reached, and the document orientation is determined based on the collected rectangles.
[0016]
At this time, for each rectangle in the text area extracted by the search area extraction means 15, the rectangle size is within a predetermined size range, and white to black or black to white or both within a predetermined search area centered on the rectangle. The number of changes divided by the search area is within a predetermined range, and the rectangles that are close to each other with no large rectangle within the search range are grouped together. It repeats until it reaches the number of times.
[0017]
Further, the centroid of the rectangles collected by the search area extraction means 15 is calculated, the rectangle closest to the centroid is selected, and the search area is determined with the selected rectangle as the center.
[0018]
In addition, all the rectangles in the collected rectangles or all the rectangles in the search area are rotated in four directions to perform character recognition to determine the most probable document direction.
[0019]
In addition, the text area extracted by performing layout analysis for each cell in the table area extracted by performing layout analysis on the image is subjected to layout analysis to extract the text area.
[0020]
Accordingly, when determining the character direction from the document image, it is possible to increase the processing speed while maintaining the estimation accuracy of the document direction and to estimate the document direction from the entire document image.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
Next, embodiments and operations of the present invention will be sequentially described in detail with reference to FIGS.
[0022]
FIG. 1 shows a system configuration diagram of the present invention.
In FIG. 1, a processing apparatus 1 executes various processes according to a program, and includes an input unit 11, a labeling unit 12, a character size estimation unit 13, a layout analysis unit 14, a search area extraction unit 15, and a character recognition unit 16. , And output means 17 and the like.
[0023]
The input unit 11 takes in an image of a document read by the OCR 2 or the like.
[0024]
The labeling means 12 gives a label to the region in which other black pixels adjacent to the black pixel are sequentially connected while paying attention to a certain black pixel on the image.
[0025]
The character size estimation unit 13 calculates the most frequent size (vertical H0, horizontal W0 size) of the character size (rectangular size corresponding to the character) in the pixel-connected region, to which the label is applied by the labeling unit 12. (See FIG. 5B).
[0026]
The layout analysis means 14 analyzes a table area, a graphic area, and a text area in the image (see FIG. 4).
[0027]
The search area extracting means 15 repeats the process of collecting rectangles that are close to each other in the text area until the number of collected rectangles is the specified number or the number of times the grouping process is performed, thereby reducing the number of rectangles. A search area having a predetermined size centered on a rectangle closest to the center of gravity is extracted (see FIG. 7).
[0028]
The character recognition means 16 recognizes characters.
The output unit 17 outputs the character recognition result to the file 4.
[0029]
The OCR 2 reads a document with a scanner and generates an image.
Image data 3 is an image obtained by reading a document with a scanner.
[0030]
The file 4 is a file for storing the result of character recognition for the image data 3.
[0031]
Next, the operation of the configuration of FIG. 1 will be sequentially described in detail in the order of the flowcharts of FIGS.
[0032]
2 and 3 are flowcharts for explaining the operation of the present invention.
In FIG. 2, S1 is input. In this case, a document image obtained by reading a document with a scanner or the like is input to the processing apparatus 1 shown in FIG.
[0033]
In S2, a black pixel connection area is extracted. For example, all other black pixels connected to the upper left black pixel are extracted on the image, and a label is assigned to the area (labeling).
[0034]
S3 estimates the character size. In this method, the character size is estimated on the basis of each region obtained by connecting the black pixels labeled in S1 (described later in FIG. 5B).
[0035]
In S4, layout analysis is performed. In this case, layout analysis, that is, a table area, a figure area, and a text area is analyzed for the black pixel connection area extracted in S2 (to be described later with reference to FIG. 4). And about a text area | region, the process after S11 is performed. For the table area, S31 and subsequent steps are executed.
[0036]
In S11, one text area is selected for the area (text area) analyzed in the layout analysis in S4.
[0037]
In S12, one rectangle in the text area is selected.
In S13, conditions 3, 4, and 5 are determined. In this case, the conditions 3, 4 and 5 in FIG. 7 to be described later are determined for the rectangle in the text area. here,
Condition 3 is that the absolute value of the difference between the rectangular width W and the character size W0 estimated at S3 is less than the threshold, and the absolute value of the difference between the rectangle height H and the character size H0 estimated at S3 is less than the threshold. Is determined.
[0038]
Condition 4 determines whether or not the line density in the search area (see FIG. 7B) is equal to or less than a threshold (described later with reference to FIG. 7).
[0039]
Condition 5 is that there is no large rectangle in the search rectangle.
When all the above three conditions are satisfied, the answer is YES, the character candidates are extracted in S14, and the process proceeds to S15. On the other hand, if NO, the process proceeds to S15.
[0040]
In step S15, it is determined whether the processing in steps S12 to S15 has been completed for all rectangles in the text area. If YES, the process proceeds to S16. In the case of NO, S12 and subsequent steps are repeated.
[0041]
In S16, it is determined whether all the text areas are completed. In the case of YES, extraction of character candidates has been completed for all text regions, and the process proceeds to S17. If NO, return to S11 and repeat.
[0042]
In step S17, character candidates are clustered.
In S18, it is determined whether the number of clusters is a specified number. In S17 and S18, clustering is performed on the candidate character rectangles in the text area extracted in S14, that is, other rectangles close to a certain rectangle are sequentially collected, and the total number of rectangles is a predetermined number (for example, 3 It repeats until it becomes (piece) (it mentions later using Drawing 8). In the case of YES, since the number of clusters has reached the specified number, the process proceeds to S19. If NO, repeat S17.
[0043]
S19 generates a rectangle candidate. Since this is the specified number after clustering with YES in S18, a set of rectangles having the specified number is set as a rectangle candidate.
[0044]
S20 calculates the center of gravity. In S19, the center of gravity of the rectangle candidates of the set of rectangles is obtained (see FIG. 8).
[0045]
S21 selects a rectangle candidate closest to the center of gravity. This selects the rectangle candidate closest to the center of gravity obtained in S20 (selects the rectangle candidate □ (inside is black) in FIG. 8).
[0046]
S22 calculates | requires the search area | region centering on the rectangle selected by S21. For example, the search area is obtained centering on the rectangle candidate □ (inside is black) in FIG. Then, the process proceeds to S41 in FIG.
[0047]
In S41, the search area is fetched.
In S42, an image rotated in four directions is created. In S41 and S42, for example, the image of the search area shown in FIG. 8 obtained in S22 of FIG. 2 is taken and images rotated in four directions are respectively created.
[0048]
S43 recognizes characters. In this process, character recognition is performed for each image in the search area rotated in four directions in S44.
[0049]
S44 determines the most probable direction. In this process, character recognition is performed for each search region image rotated in four directions in S43, and the direction with the highest character recognition level is determined as the character direction.
[0050]
In S45, it is determined whether or not the region is finished. If YES, the process proceeds to S46. If NO, return to S41 and repeat for the next search area.
[0051]
S46 determines the direction of each search area.
In S47, the direction is determined by majority vote. In S46 and S47, the direction in which the character recognition rate of each search area is high is determined, and one is determined by majority for the character direction in the search area determined in the text area.
[0052]
In S48, characters are recognized in the direction in which the majority is determined. This performs character recognition for all the character rectangles in the text area in the direction determined in S47.
[0053]
As described above, the text area is extracted from the document image, only the character candidate rectangles are extracted according to the determinations of the conditions 3, 4 and 5, and the extracted character candidates are clustered to generate a combined rectangle to reduce the number of rectangles. (E.g., reduce to 3, 5, etc.), a search area is set around the character candidate rectangle closest to the center of gravity of the reduced rectangle, character recognition is performed in the search area, and the character direction is determined. By deciding the entire character direction of the text area by majority decision and performing rectangular character recognition in the text area in the determined character direction, the character direction in the text area can be processed quickly and quickly in only a small search area It is possible to perform the character recognition in the text region in the determined character direction with the determined character direction.
[0054]
Since S31 in FIG. 2 is determined as a table area in the layout analysis of S4, cells in the table area are extracted.
[0055]
In S32, only the text area is extracted by analyzing the layout of the cell. This is performed in the same manner as the layout analysis in S4.
[0056]
In S33, an area that meets the conditions 1 and 2 is extracted. This extracts an area that matches the conditions 1 and 2 in FIG. 6A described later with respect to the text area in the table cell. here,
Condition 1 determines that the area size is within the threshold range Condition 2 determines that the black pixel density within the area is within the threshold range, and extracts only the area where both are satisfied.
[0057]
In S34, it is determined whether the area is equal to or larger than the threshold size. In the case of YES, since the text area is found in the table area cell, the search area is obtained in S11 to S22 described above, and then the character direction is determined in S41 to S48 in FIG. 3 to recognize the character. On the other hand, in the case of NO in S34, the area is sorted in S35, a large designated item is obtained as a search area in S36, and the character direction is determined in S41 to S48 of FIG. Recognize characters.
[0058]
As described above, even when a cell in the table area is a text area, it is possible to determine a search area in a similar manner, determine a character direction quickly and with a small amount of processing, and perform character recognition in the text area in the character direction. .
[0059]
FIG. 4 shows an explanatory diagram (part 1) of the present invention.
FIG. 4A shows an example of an original image. Here, it is assumed that there are a figure, a text, and a table as shown in the figure.
[0060]
FIG. 4B shows an example of the layout analysis result. This shows an example of the layout analysis result obtained by performing the layout analysis of S4 of FIG. 2 described above for the original image of FIG. here,
The front area is determined as an area composed of ruled lines in which black pixels are connected for a predetermined length or more.
[0061]
The figure area is determined as an area where there is a black pixel connection area whose size is larger than the threshold value.
[0062]
As the text area, an area that is not a table area or a figure area in the original image is determined as a text area here.
[0063]
Through the above processing, it is possible to extract a text area from the original image, and further extract a text area by analyzing the layout of the cells in the table area (S32 in FIG. 2 described above). .
[0064]
FIG. 5 shows an explanatory diagram (part 2) of the present invention.
FIG. 5A shows an example of a labeling result. Here, each rectangle is generated as a rectangle that inscribes other black pixels connected to a certain black pixel on the original image and that is inscribed in the block of the collected black pixels.
[0065]
FIG. 5B shows an example of character size estimation.
FIG. 5B-1 is an explanatory diagram for estimating the width W0 of the character size. The curve shown in the figure is a curve in which the width W of each character rectangle as a result of labeling such as (a) in FIG. 5 is obtained, the horizontal axis represents the obtained width and the vertical axis represents the frequency. Then, the most frequently obtained width as shown in the figure is estimated as the character size width W0. In the present embodiment, the most frequent character size width is estimated as the character size width W0, but the average character size width may be estimated as the character size width W0.
[0066]
FIG. 5B-2 is an explanatory diagram for estimating the high H0 of the character size. The curve shown in the figure is a curve in which the height H of each character rectangle in the labeling result such as FIG. 5A is obtained, the horizontal axis represents the obtained height, and the vertical axis represents the frequency. Then, the most frequent high H0 is obtained as shown in the figure, and the character size high H0 is estimated. In the present embodiment, the most frequent character size height is estimated as the character size height H0, but the average character size height may be estimated as the character size height H0.
[0067]
FIG. 6 shows an explanatory diagram (part 3) of the present invention.
FIG. 6A shows the conditions. This is a condition for extracting a region that is likely to contain text from the text region extracted by layout analysis of the cells in the table region of FIG. 2 described above.
Condition 1 is threshold <region size <threshold. Condition 2 is threshold <black pixel density in region <threshold. That is, with respect to the area that has been subjected to layout analysis for the cells in the table area under the condition 1, the size of the area is within a predetermined threshold (condition 1) and the density of black pixels in the area is the predetermined threshold. Within the range (condition 2), it is extracted as a text region with a high possibility.
[0068]
FIG. 7 shows an explanatory diagram (part 4) of the present invention.
FIG. 7A shows the conditions. These conditions 3, 4, and 5 are the conditions 3, 4, and 5 of S13 in FIG.
Condition 3 is that ΔW = | W−W0 | <threshold and ΔH = | H−H0 | <threshold (W0 and H0 are the estimated character size width and high ((b) in FIG. 5)).
Condition 4 is threshold <line density of search area <threshold (line density is the number of change points from white to black when area is raster scanned / area of area)
-Condition 5 is that there is no large rectangle in the search rectangle (the search rectangle is not searched for a large rectangle).
It is. Here, the condition 3 is that the width W and the height H of the rectangle in the text area are within a predetermined threshold when the difference between the width W0 and the height H0 of the character size estimated in FIG. It is a condition that there is. Condition 4 is that a line density of a search area centered on a character rectangle (a value obtained by dividing the number of points in which the search area is scanned in a certain direction and changed from white to black, for example, by the area of the search area) is a predetermined threshold value. It is a condition that it is within the range. Condition 5 is a condition that there is no large rectangle in the search area centered on the character rectangle.
[0069]
When the above conditions 3, 4 and 5 are satisfied, the result of S13 in FIG. 2 described above is YES, and the character rectangle can be extracted as a character candidate.
[0070]
FIG. 7B shows an example of determining a search area. For example, pay attention to the rectangle of the character “ka” in the middle of the illustrated text area. The width W and the height H of the rectangle, and a search area is provided as shown in FIG. ), 3, 4 and 5 are applied, and here, they are extracted as character rectangle candidates.
[0071]
FIG. 8 is an explanatory diagram of the present invention (clustering and final search area extraction example).
In FIG. 8, a character rectangle of (1) indicates a rectangle extracted as a character candidate in S14 of FIG.
[0072]
The cluster of the clustering result of (2) was obtained by repeatedly clustering the character rectangles, that is, repeatedly combining other character rectangles closest to the character rectangles, and reducing the number of character rectangles. In this embodiment, the distance between the character rectangles is the distance between the upper left coordinates of each rectangle. FIG. 8 shows character rectangles reduced to three and collected as clusters.
[0073]
The x in (3) is the cluster centroid. In the present embodiment, the cluster centroid is obtained from the average value of the upper left coordinate values of the character rectangles constituting the cluster.
The search area (4) indicates a search area obtained around the rectangle □ (inside is black) closest to the cluster centroid.
[0074]
With respect to the search area (4) calculated as described above, the character direction is determined quickly and with a small amount of processing by the processes of S41 to S48 of FIG. 3, and the text area is determined in the determined character direction. Character recognition can be performed.
[0075]
【The invention's effect】
As described above, according to the present invention, a text region is extracted from an image, character rectangle candidates are extracted from the rectangles in the text region according to conditions 3, 4, and 5, and the character rectangle candidates are collected. The search area of a predetermined size is determined around a candidate character rectangle that is close to the center of gravity of the collected rectangles after the reduction, the character direction is determined in the search area, and the text area is determined in the determined character direction. Since the character recognition configuration is adopted, when determining the character direction from the document image, the processing amount is reduced while maintaining the document direction estimation accuracy, and the document direction is estimated from the entire document image quickly. Is possible. Then, it is possible to perform character recognition of the text area in the estimated character direction.
[Brief description of the drawings]
FIG. 1 is a system configuration diagram of the present invention.
FIG. 2 is a flowchart (part 1) illustrating the operation of the present invention.
FIG. 3 is a flowchart (part 2) illustrating the operation of the present invention.
FIG. 4 is an explanatory diagram (part 1) of the present invention.
FIG. 5 is an explanatory diagram (part 2) of the present invention.
FIG. 6 is an explanatory diagram (part 3) of the present invention.
FIG. 7 is an explanatory diagram (part 4) of the present invention.
FIG. 8 is an explanatory diagram of the present invention (clustering and final search area extraction example).
[Explanation of symbols]
1: Processing device 11: Input means 12: Labeling means 13: Character size estimation means 14: Layout analysis means 15: Search area extraction means 16: Character recognition means 17: Output means 2: OCR
3: Image data 4: File (recognition result)

Claims (5)

画像中の文書方向を推定する文書方向推定方法において、
画像をレイアウト解析してテキスト領域を抽出する第1のステップと、
前記抽出したテキスト領域内の矩形について距離が近い矩形をまとめることを、まとめた矩形が指定数あるいはまとめ処理が指定回数となるまで繰り返して矩形数を減らす第2のステップと、
前記まとめた矩形の重心を算出して当該重心に最も近い矩形を選択して当該選択した矩形を中心に探索領域を決定する探索領域決定ステップと、
前記決定した探索領域の画像について指定された複数の方向に文字認識を行い、文字認識度の高い方向を文書方向決定する第3のステップと
を有する文書方向推定方法。
In a document direction estimation method for estimating a document direction in an image,
A first step of analyzing the layout of the image and extracting a text region;
A second step of reducing the number of rectangles by repeatedly collecting rectangles that are close in distance to the rectangles in the extracted text area until the number of collected rectangles is a specified number or until a specified number of times of bundling processing;
A search area determining step of calculating a center of gravity of the collected rectangles, selecting a rectangle closest to the center of gravity, and determining a search area around the selected rectangle;
A document direction estimation method comprising: a third step of performing character recognition in a plurality of directions designated for the image of the determined search area and determining a direction having a high character recognition degree as a document direction.
前記抽出したテキスト領域内の各矩形について、当該矩形サイズが所定サイズの範囲内、かつ当該矩形を中心にした所定探索領域内で白から黒あるいは黒から白あるいは両者の変化数を当該探索領域で除算した値が所定範囲内、かつ前記探索範囲内に大きな矩形がない当該矩形について前記距離が近い矩形をまとめることを、まとめた矩形が指定数あるいはまとめ処理が指定回数となるまで繰り返すことを特徴とする請求項1記載の文書方向推定方法。  For each rectangle in the extracted text area, the number of changes in white to black or black to white or both in the predetermined search area centered on the rectangle is determined in the search area. It is characterized by repeating the collection of rectangles that are close to each other with respect to the rectangle that has a divided value within a predetermined range and no large rectangle within the search range until the number of combined rectangles reaches a specified number or a specified number of times of grouping processing. The document direction estimation method according to claim 1. 前記まとめた矩形内の全矩形あるいは前記探索領域内の全矩形を4方向に回転させてそれぞれの文字認識を行い、最も確からしい文書方向を決定することを特徴とする請求項1あるいは請求項記載の文書方向推定方法。Perform each character recognition by rotating the entire rectangular or all rectangles of the search region of the combined the rectangle in four directions, and determines the most probable document direction according to claim 1 or claim 2 The document orientation estimation method described. 前記画像をレイアウト解析しえT抽出した表領域内の、各セルについてレイアウト解析して抽出したテキスト領域について、前記第2のステップ以降を実行することを特徴とする請求項1から請求項のいずれかに記載の文書方向推定方法。The image of the layout analysis Shie T extracted tablespace, the text area extracted by the layout analysis for each cell, of claims 1 to 3, characterized in that executes subsequent second step The document direction estimation method according to any one of the above. 画像中の文書方向を推定する文書方向推定プログラムにおいて、
コンピュータに、
画像をレイアウト解析してテキスト領域を抽出する第1のステップと、
前記抽出したテキスト領域内の矩形について距離が近い矩形をまとめることを、まとめた矩形が指定数あるいはまとめ処理が指定回数となるまで繰り返して矩形数を減らす第2のステップと、
前記まとめた矩形の重心を算出して当該重心に最も近い矩形を選択して当該選択した矩形を中心に探索領域を決定する探索領域決定ステップと、
前記決定した探索領域の画像について指定された複数の方向に文字認識を行い、文字認識度の高い方向を文書方向決定する第3のステップと
を実行させるための文書方向推定プログラム。
In a document orientation estimation program that estimates the orientation of a document in an image,
On the computer,
A first step of analyzing the layout of the image and extracting a text region;
A second step of reducing the number of rectangles by repeatedly collecting rectangles that are close in distance to the rectangles in the extracted text area until the number of collected rectangles is a specified number or until a specified number of times of bundling processing;
A search area determining step of calculating a center of gravity of the collected rectangles, selecting a rectangle closest to the center of gravity, and determining a search area around the selected rectangle;
It performs character recognition in a plurality of directions specified for the image in the search area with the determined, document direction estimation program for executing the third step of determining a high character recognition degree direction and the document direction.
JP2002202959A 2002-07-11 2002-07-11 Document direction estimation method and document direction estimation program Expired - Fee Related JP4194309B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002202959A JP4194309B2 (en) 2002-07-11 2002-07-11 Document direction estimation method and document direction estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002202959A JP4194309B2 (en) 2002-07-11 2002-07-11 Document direction estimation method and document direction estimation program

Publications (2)

Publication Number Publication Date
JP2004046528A JP2004046528A (en) 2004-02-12
JP4194309B2 true JP4194309B2 (en) 2008-12-10

Family

ID=31708998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002202959A Expired - Fee Related JP4194309B2 (en) 2002-07-11 2002-07-11 Document direction estimation method and document direction estimation program

Country Status (1)

Country Link
JP (1) JP4194309B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4983526B2 (en) * 2007-10-15 2012-07-25 富士ゼロックス株式会社 Data processing apparatus and data processing program
JP5950317B1 (en) * 2016-02-25 2016-07-13 有限会社Ics Sakabe Code recognition system, code recognition method, code recognition program, and package sorting system
JP7234495B2 (en) * 2018-01-25 2023-03-08 富士フイルムビジネスイノベーション株式会社 Image processing device and program
CN112560599A (en) * 2020-12-02 2021-03-26 上海眼控科技股份有限公司 Text recognition method and device, computer equipment and storage medium

Also Published As

Publication number Publication date
JP2004046528A (en) 2004-02-12

Similar Documents

Publication Publication Date Title
CN111814722B (en) Method and device for identifying table in image, electronic equipment and storage medium
CN101453575B (en) Video subtitle information extracting method
US6917706B2 (en) Ruled line extracting apparatus for extracting ruled line from normal document image and method thereof
JP2951814B2 (en) Image extraction method
US20050238257A1 (en) Form search apparatus and method
US6711292B2 (en) Block selection of table features
CN110766017B (en) Mobile terminal text recognition method and system based on deep learning
CN114529925B (en) Method for identifying table structure of whole line table
US20030012438A1 (en) Multiple size reductions for image segmentation
JP3851742B2 (en) Form processing method and apparatus
CN112507782A (en) Text image recognition method and device
CN114004204A (en) Table structure reconstruction and character extraction method and system based on computer vision
CN115578741A (en) Mask R-cnn algorithm and type segmentation based scanned file layout analysis method
CN116824608A (en) Answer sheet layout analysis method based on target detection technology
CN111832497B (en) Text detection post-processing method based on geometric features
JP2001043313A (en) Character segmenting method
JP4194309B2 (en) Document direction estimation method and document direction estimation program
JP2926066B2 (en) Table recognition device
CN111814801A (en) Method for extracting labeled strings in mechanical diagram
CN116543391A (en) Text data acquisition system and method combined with image correction
JPH08320914A (en) Table recognition method and device
CN114332866A (en) Document curve separation and coordinate information extraction method based on image processing
CN114581928A (en) Form identification method and system
JPH05342412A (en) Extracting system for gradient vector and feature extracting system for character recognition
JP4409678B2 (en) Ruled line extraction method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080916

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080922

R150 Certificate of patent or registration of utility model

Ref document number: 4194309

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121003

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121003

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131003

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees