JP2796561B2 - Tabular document recognition method - Google Patents

Tabular document recognition method

Info

Publication number
JP2796561B2
JP2796561B2 JP1282736A JP28273689A JP2796561B2 JP 2796561 B2 JP2796561 B2 JP 2796561B2 JP 1282736 A JP1282736 A JP 1282736A JP 28273689 A JP28273689 A JP 28273689A JP 2796561 B2 JP2796561 B2 JP 2796561B2
Authority
JP
Japan
Prior art keywords
ruled line
image information
ruled
vertical
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP1282736A
Other languages
Japanese (ja)
Other versions
JPH03142691A (en
Inventor
浩司 片野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Efu Efu Shii Kk
Fuji Electric Co Ltd
Original Assignee
Efu Efu Shii Kk
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Efu Efu Shii Kk, Fuji Electric Co Ltd filed Critical Efu Efu Shii Kk
Priority to JP1282736A priority Critical patent/JP2796561B2/en
Publication of JPH03142691A publication Critical patent/JPH03142691A/en
Application granted granted Critical
Publication of JP2796561B2 publication Critical patent/JP2796561B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Character Input (AREA)
  • Character Discrimination (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、文字、表、図等が混在する文書を読込ん
で文書画像情報とし、この文書画像情報から個々の情報
を分離して認識する表形式文書認識方式に関する。
DETAILED DESCRIPTION OF THE INVENTION [Industrial Application Field] The present invention reads a document in which characters, tables, figures, and the like are mixed to form document image information, and separates and recognizes individual information from the document image information. It relates to a tabular document recognition system.

〔従来の技術〕[Conventional technology]

従来、光学文字認識装置(OCR)等の文字認識装置で
は、文書を画像情報として読取り、この画像情報を行或
いは列と文字群とに分離し、さらに文字と思われる所で
細分化して文字認識を行うようにしているが、表中の文
字を認識する場合には、罫線が含まれていることから枠
内の文字については行間や文字間がことなるため、誤認
識も多くなり、しかも表の構造を認識しているわけでは
ないので、その表自信が持つ意味を失わせてしまうとい
う課題があった。
2. Description of the Related Art Conventionally, a character recognition device such as an optical character recognition device (OCR) reads a document as image information, separates this image information into rows or columns and a character group, and further subdivides the portion where it is considered to be a character to perform character recognition. However, when recognizing the characters in the table, the characters in the frame have different line spacing and character spacing due to the inclusion of the ruled lines, which increases the number of misrecognitions. The problem is that the meaning of the table itself is lost because it does not recognize the structure of the table itself.

この課題を解決するために、従来、昭和63年電子情報
通信学会春季全国大会予稿集第2−224頁に記載されて
いるように、文書画像を水平(又は垂直)方向に走査
し、黒画素数のヒストグラムを形成し、次いでヒストグ
ラムの山の部分について、高さが閾値以上である区間を
山の幅として、その幅が小さいものを抽出し、それに対
応する文書画像の領域を線分の領域とし、さらに線分領
域を線分の方向に走査し、白画素が閾値以上連続する部
分を終点として線分を抽出し、その後抽出した線分から
表の外接矩形を求めて欄情報を生成し、表構造を認識す
ることが提案されている。
In order to solve this problem, a document image is scanned in the horizontal (or vertical) direction as described in the IEICE Spring National Convention Preprints, p. The histogram of the number is formed, and then, for the peak portion of the histogram, a section whose height is equal to or larger than the threshold is set as the width of the peak, the one having a small width is extracted, and the corresponding document image region is defined as a line segment region. Further, the line segment area is scanned in the direction of the line segment, a line segment is extracted with a portion where the white pixels are continuous over the threshold value as an end point, and then a circumscribed rectangle of the table is obtained from the extracted line segment to generate column information, It has been proposed to recognize the table structure.

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

しかしながら、上記従来の表形式文書認識方式にあっ
ては、文書画像を水平又は垂直方向に走査する関係で、
水平又は垂直方向に連続する罫線の場合には、罫線を切
り出すことができるが、例えば水平方向の2本の罫線間
を結ぶ短い垂直方向の罫線がある場合にはこれを検出す
ることができないので、細かく区分けされた表を正確に
認識するには、文書画像を短い罫線を認識可能な大きさ
の領域に分割し、各領域毎に水平及び垂直方向の走査を
行ってヒストグラムを作成する必要があり、画像認識を
行う場合の処理時間が長くなると共に、分割領域の周縁
部に罫線があるときには判別が困難であり、また各分割
領域で抽出した罫線候補を連結する場合の処理時間も長
くなり、さらには文字群が実線、点線等の線によって区
分けされず、空白領域による仮想罫線によって区分けさ
れた表については表認識を行うことができないという未
解決の課題があった。
However, in the above-described conventional tabular document recognition method, a document image is scanned in a horizontal or vertical direction.
In the case of a ruled line that is continuous in the horizontal or vertical direction, the ruled line can be cut out. However, for example, if there is a short vertical ruled line connecting two horizontal ruled lines, this cannot be detected. In order to accurately recognize a finely divided table, it is necessary to divide a document image into regions having a size that can recognize short ruled lines, and perform a horizontal and vertical scan for each region to create a histogram. Yes, the processing time for performing image recognition becomes longer, and it is difficult to determine when there is a ruled line at the periphery of the divided region, and the processing time for connecting ruled line candidates extracted in each divided region also becomes longer. Further, there is an unsolved problem that a character group is not separated by a line such as a solid line or a dotted line, and a table separated by a virtual ruled line by a blank area cannot be recognized. .

そこで、この発明は、上記従来例の未解決の課題に着
目してなされたものであり、表認識を短時間で正確に行
うことができ、また空白領域による仮想罫線であっても
容易に表認識を行うことができる表形式文書認識方式を
提供することを目的としている。
Therefore, the present invention has been made by focusing on the unsolved problem of the conventional example, and can perform table recognition accurately in a short time, and can easily display a table even if it is a virtual ruled line by a blank area. It is an object of the present invention to provide a tabular document recognition system capable of performing recognition.

〔課題を解決するための手段〕[Means for solving the problem]

上記目的を達成するために、請求項(1)に係る表形
式文書認識方式は、文字と罫線とが混在する表形式文書
を画像読取装置で読取り、該画像読取装置からの画像情
報中の罫線を切り出し、文字情報を文字認識するように
した表形式文書認識方式であって、前記画像情報に基づ
いて水平及び垂直罫線を決定して表形式を認識する表形
式認識手段と、該表形式認識手段で認識された各罫線で
画成される領域の文字情報を一括して文字認識する文字
認識手段とを備え、前記表形式認識手段は、前記画像情
報を所定幅の帯状領域に分割し、各帯状領域をその長手
方向と直交する方向に投影した投影データを形成する投
影データ形成手段と、該投影データ形成手段で形成した
投影データから罫線候補を抽出する罫線候補抽出手段
と、該罫線候補抽出手段で抽出した罫線候補を隣接する
帯状領域間で連結して罫線を決定する罫線決定手段とを
備えていることを特徴としている。
In order to achieve the above object, a tabular document recognition method according to claim 1 reads a tabular document in which characters and ruled lines coexist with an image reading device, and reads a ruled line in image information from the image reading device. A table format recognizing method for extracting character information and character recognition, and determining horizontal and vertical ruled lines based on the image information and recognizing the table format. Character recognition means for collectively character recognition of character information of an area defined by each ruled line recognized by the means, the table format recognition means divides the image information into a band-shaped area of a predetermined width, Projection data forming means for forming projection data by projecting each band-shaped area in a direction perpendicular to the longitudinal direction thereof; ruled line candidate extracting means for extracting ruled line candidates from the projection data formed by the projection data forming means; Extraction hand It is characterized in that the in the extracted ruled line candidate and a ruled line determining means for determining a border linked between adjacent band-like region.

また、請求項(2)に係る表形式文書認識方式は、請
求項(1)に係る発明において、前記表形式認識手段
が、前記画像情報を垂直方向及び水平方向の何れか一方
に走査して前記投影データ形成手段、罫線候補抽出手段
及び罫線決定手段で一方の罫線を決定し、決定した罫線
を前記画像情報から消去した消去画像情報を他方に走査
して前記投影データ形成手段、罫線候補抽出手段及び罫
線決定手段で他方の罫線を決定し、決定された罫線を前
記消去画像情報から消去した罫線消去画像情報を走査し
て空白部を抽出し、抽出された空白部のうち前記垂直方
向及び水平方向の罫線以外の空白部を仮想罫線として決
定し、水平方向及び垂直方向罫線及び仮想罫線に基づい
て表形式を認識することを特徴としている。
In the tabular document recognition method according to claim (2), in the invention according to claim (1), the table format recognition unit scans the image information in one of a vertical direction and a horizontal direction. One of the ruled lines is determined by the projection data forming means, ruled line candidate extracting means and ruled line determining means, and erased image information obtained by deleting the determined ruled line from the image information is scanned by the other, and the projection data forming means and ruled line candidate extracting are performed. Means and the ruled line determining means determine the other ruled line, scan the ruled line erased image information obtained by erasing the determined ruled line from the erased image information, and extract a blank portion. A blank portion other than the horizontal ruled lines is determined as a virtual ruled line, and the table format is recognized based on the horizontal and vertical ruled lines and the virtual ruled line.

〔作用〕[Action]

請求項(1)に係る表形式文書認識方式においては、
画像読取装置で読取った2値化画像情報を例えば水平方
向の複数の帯状領域に分割し、これら帯状領域の夫々に
ついてその長手方向と直交する方向に投影データをと
り、この投影データから例えば幅狭の垂直方向の罫線候
補を抽出することにより、垂直罫線候補を正確に抽出す
ることができ、この抽出した罫線候補を隣接する帯状領
域間で連結することにより、垂直罫線を認識することが
できる。また、水平罫線を抽出するには、2値化画像情
報を垂直方向の複数の帯状領域に分割し、その長手方向
と直交する投影データから水平方向罫線候補を抽出し、
各帯状領域の罫線候補を連結することにより、水平罫線
を抽出することができる。そして、抽出された罫線で画
成される領域の文字情報を文字認識手段で一括して文字
認識することにより、行又は列に対しての項目毎に文字
のみ或いは数字のみ等の指定を行うことができ、文字認
識装置での文字認識率及び認識速度を向上させることが
できる。
In the tabular document recognition system according to claim (1),
The binarized image information read by the image reading device is divided into, for example, a plurality of horizontal belt-like regions, and projection data is obtained for each of these belt-like regions in a direction orthogonal to the longitudinal direction. By extracting the vertical ruled line candidates, the vertical ruled line candidates can be accurately extracted, and the vertical ruled lines can be recognized by connecting the extracted ruled line candidates between adjacent belt-shaped regions. In order to extract a horizontal ruled line, the binarized image information is divided into a plurality of strips in the vertical direction, and horizontal ruled line candidates are extracted from projection data orthogonal to the longitudinal direction.
A horizontal ruled line can be extracted by connecting ruled line candidates in each band-shaped region. The character information of the area defined by the extracted ruled lines is collectively recognized by the character recognizing means, so that only characters or only numbers are designated for each row or column item. Thus, the character recognition rate and the recognition speed in the character recognition device can be improved.

また、請求項(2)に係る表形式文書認識方式におい
ては、画像情報から例えば垂直方向の罫線を認識し、次
いで認識した垂直方向の罫線を画像情報から消去した消
去画像情報から水平方向の罫線を認識し、この水平方向
の罫線を消去画像情報から消去した罫線消去画像情報を
走査して空白部を抽出し、抽出された空白部のうち前記
垂直方向及び水平方向の罫線以外の空白部を仮想罫線と
して決定し、水平方向及び垂直方向罫線と仮想罫線とに
基づいて表形式を認識するので、罫線認識の時間を短縮
して正確な罫線認識を行う。
Further, in the tabular document recognition method according to claim (2), for example, a vertical ruled line is recognized from the image information, and then the recognized vertical ruled line is deleted from the image information. , And scans the ruled line erased image information in which the horizontal ruled lines have been erased from the erased image information to extract blank portions. Of the extracted blank portions, blank portions other than the vertical and horizontal ruled lines are extracted. Since it is determined as a virtual ruled line and the table format is recognized based on the horizontal and vertical ruled lines and the virtual ruled line, the ruled line recognition time is reduced and accurate ruled line recognition is performed.

〔実施例〕〔Example〕

以下、この発明の実施例を図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

第1図はこの発明の概略構成を示すブロック図であ
る。
FIG. 1 is a block diagram showing a schematic configuration of the present invention.

図中、1はイメージスキャナーであって、パーソナル
コンピュータ等で構成される処理装置4によって制御さ
れ、第2図に示すように、垂直罫線RV及び水平罫線RH
よって形成された表T内に任意の文字が描かれた表形式
文書Dを読取り、これを所定レベルで黒白画素に2値化
した2値化画像情報を出力する。
In the figure, 1 is a image scanner is controlled by a configured processor 4 with a personal computer or the like, as shown in FIG. 2, which is formed by the vertical ruled lines R V and horizontal ruled lines R H in the table T It reads a tabular document D on which arbitrary characters are drawn, and outputs binarized image information obtained by binarizing this into black and white pixels at a predetermined level.

このイメージスキャナー1の2値化画像情報は、図形
分離部2に送出され、この図形分離部2で表情報とこれ
によって区分けされた文字情報とに分割され、文字情報
が光学文字認識装置(OCR)3に入力され、この光学文
字認識装置3で文字認識が行われて認識された文字デー
タが処理装置4に入力される。
The binarized image information of the image scanner 1 is sent to a graphic separation unit 2 and divided into table information and character information divided by the graphic separation unit 2, and the character information is converted into an optical character recognition device (OCR). 3), the character data is recognized by the optical character recognition device 3, and the recognized character data is input to the processing device 4.

図形分離部2は、例えばインタフェース回路2a、演算
処理装置2b及びドット対応の画像メモリを含む記憶装置
2cを少なくとも有し、イメージスキャナー1からの2値
化画像情報が入力されると、この2値化画像情報を記憶
装置2cの画像メモリに格納し、次いで演算処理装置2bで
第3図の処理を実行する。すなわち、先ずステップで
垂直罫線RVを抽出する垂直罫線抽出処理を実行し、次い
でステップに移行して水平罫線RHを抽出する水平罫線
抽出処理を実行し、次いでステップに移行して罫線に
よらず罫線に対応する空白領域による仮想罫線RIを抽出
する仮想罫線抽出処理を実行し、次いでステップに移
行して各処理で抽出した垂直罫線RV、水平罫線RH及び仮
想罫線RIで囲まれる欄内の画像情報を光学文字読取装置
3に送出する。
The figure separating unit 2 is, for example, a storage device including an interface circuit 2a, an arithmetic processing unit 2b, and a dot-compatible image memory.
2c, when the binarized image information is input from the image scanner 1, the binarized image information is stored in the image memory of the storage device 2c, and then the processing shown in FIG. Execute That is, first run the vertical ruled line extracting process for extracting a vertical ruled line R V in step, then the process proceeds to step running horizontal ruled line extracting process for extracting a horizontal rule R H, then depending on the borders proceeds to step not virtual ruled-line extraction process for extracting the virtual border R I by blank areas corresponding to the ruled line is executed, then the vertical ruled line extracted with proceeds to the processing in step R V, surrounded by horizontal rule R H and the virtual border R I Is sent to the optical character reading device 3.

ここで、垂直罫線抽出処理は、第4図に示すようにス
テップで画像メモリに格納されている2値化画像情報
を、第7図(a)に示すように、所定幅の水平方向(X
方向)に延長する複数N個の帯状領域BX1〜BXNに分割す
るように水平方向に順次垂直方向の所定幅W分づつ読出
し、夫々の帯状領域BX1〜BXNについてその長手方向(X
方向)と直交する垂直方向(Y方向)に投影して第7図
(b)に示すように、黒画素となる論理値“1"の垂直投
影データを形成し、次いでステップに移行して、この
投影データから垂直罫線候補を抽出する。この垂直罫線
候補の抽出は、投影データを予め設定した閾値で再度2
値化し、この2値化データの“1"が連続する部分を探索
し、罫線は通常幅狭であることから“1"の連続幅が予め
設定した幅以下であるときに、これを垂直罫線候補とし
て抽出し、その他を文字候補として抽出する。
Here, in the vertical ruled line extraction process, as shown in FIG. 4, the binary image information stored in the image memory in the step is converted into a predetermined width in the horizontal direction (X) as shown in FIG.
A plurality of N strip-like regions BX 1 ~BX N sequential vertical predetermined width W min increments read in the horizontal direction so as to divide into, each band region BX 1 ~BX N the longitudinal direction for extending direction) (X
Direction (Y direction) perpendicular to the vertical direction (Y direction) to form vertical projection data of a logical value "1" which becomes a black pixel as shown in FIG. 7 (b). Vertical ruled line candidates are extracted from the projection data. The extraction of the vertical ruled line candidate is performed by re-projecting the projection data at a preset threshold value.
The binarized data is searched for a portion where "1" s are continuous. When the continuous width of "1" is smaller than a predetermined width, the ruled line is usually narrow. Extract as candidates and extract others as character candidates.

次いで、ステップに移行して、文字候補中に含まれ
る垂直罫線候補を抽出する罫線候補再抽出処理を実行す
る。すなわち、第7図(a)に示すように、ある帯状領
域BXi内に水平罫線RHを含む場合には、その投影データ
は、第7図(b)に示すように、水平罫線RHを表す論理
値“1"分だけ嵩上げされるので、第7図(b)で点線図
示の所定の閾値T1で再2値化を行っても、各垂直罫線RH
間で論理値“1"が連続することになり、全体が文字候補
として認識されてしまう。このため、罫線候補再抽出処
理では、論理値“1"が連続する幅区間内の最大値(罫線
を含んでいるときには、その罫線部分が通常は高いピー
クとなる)と、その軸区間内の平均値とで再々2値化を
行うことにより、第7図(c)に示すように、文字候補
中に含まれる垂直罫線候補を抽出することができる。
Next, the process proceeds to a step, in which a ruled line candidate re-extraction process for extracting a vertical ruled line candidate included in the character candidate is executed. That is, as shown in FIG. 7 (a), in the case where a certain band region BX i includes a horizontal ruled lines R H, the projection data, as shown in FIG. 7 (b), the horizontal ruled lines R H Is increased by the logical value “1” representing the vertical ruled line R H even if re-binarization is performed at a predetermined threshold T 1 indicated by a dotted line in FIG. 7B.
The logical value “1” continues between them, and the whole is recognized as a character candidate. For this reason, in the ruled line candidate re-extraction process, the maximum value within the width section where the logical value “1” is continuous (when a ruled line is included, the ruled line portion usually has a high peak) is determined by By performing binarization again with the average value, a vertical ruled line candidate included in a character candidate can be extracted as shown in FIG. 7 (c).

次いで、ステップに移行して、各帯状領域BX1〜BXN
について、罫線候補の抽出が完了したか否かを判定し、
罫線候補抽出が完了していない帯状領域があるときに
は、ステップに移行して次の画像メモリの読出アドレ
スを次の帯状領域BXi+1となるように設定してから前記
ステップに戻り、全ての帯状領域BX1〜BXNについて罫
線候補の抽出が完了したときには、ステップに移行し
て各帯状領域BX1〜BXNで抽出した垂直罫線候補を垂直方
向に連結して垂直罫線候補列を形成する。この垂直罫線
候補列を形成するには、隣接する帯状領域間で各罫線候
補群から垂直方向(Y方向)に重なりを持つ垂直罫線候
補を抽出して両者を連結することにより行う。
Next, the process proceeds to steps, where each of the band-shaped areas BX 1 to BX N
It is determined whether or not extraction of ruled line candidates has been completed for
If there is a band area for which ruled line candidate extraction has not been completed, the process proceeds to step S, where the read address of the next image memory is set so as to be the next band area BX i + 1 . when the ruled line candidate extraction has been completed for the band region BX 1 ~BX N, to form a vertical ruled line candidate sequence by concatenating the vertical ruled line candidates extracted proceeds to step on each strip-like regions BX 1 ~BX N in the vertical direction . This vertical ruled line candidate row is formed by extracting vertical ruled line candidates having an overlap in the vertical direction (Y direction) from each ruled line candidate group between adjacent belt-shaped regions and connecting them.

次いで、ステップに移行して、垂直罫線候補列をそ
の延長方向と直交する方向即ちX方向に投影して投影デ
ータをとり、この投影データがあるレベル以上連続して
いるときに罫線として認識し、その投影データから始端
及び終端座標を求めることで垂直罫線を決定してから処
理を終了して第3図の処理に復帰する。
Next, the process proceeds to a step, in which the vertical ruled line candidate sequence is projected in a direction orthogonal to the extension direction, that is, in the X direction, to obtain projection data. When the projection data is continuous for a certain level or more, it is recognized as a ruled line. The vertical ruled line is determined by obtaining the start and end coordinates from the projection data, and then the process is terminated and the process returns to the process of FIG.

また、水平罫線抽出処理は、第5図に示すように先ず
ステップで、画像メモリに格納されている2値化画像
情報から前記垂直罫線候補抽出処理で決定された垂直罫
線RVを消去した消去2値化画像情報を作成し、これを画
像メモリに格納する。
In the horizontal ruled line extraction process, as shown in FIG. 5, first, in a step, the vertical ruled line R V determined in the vertical ruled line candidate extraction process is deleted from the binarized image information stored in the image memory. Binary image information is created and stored in an image memory.

次いで、ステップに移行して、消去2値化画像情報
について、前記垂直罫線候補抽出処理における帯状領域
BX1〜BXNに代えて所定幅Wで垂直方向に分割して垂直帯
状領域BY1〜BYMを形成するように、消去2値化画像情報
を垂直方向に所定幅分づつ読出し、その長手方向(Y方
向)とは直交するX方向に投影して投影データを作成す
る。
Next, the process proceeds to a step, wherein the band-shaped area in the vertical ruled line candidate extraction processing is applied to the erased binary image information.
BX 1 instead ~BX N to form a vertical stripe region BY 1 ~BY M by dividing in the vertical direction at a predetermined width W, a predetermined width of one by reading vertically erase binary image information, the longitudinal Projection data is created by projecting in the X direction orthogonal to the direction (Y direction).

次いで、ステップに移行して、投影データに基づい
て前記垂直罫線候補抽出処理と同様の処理を行うことに
より水平罫線候補を抽出する。
Next, the process proceeds to a step in which horizontal ruled line candidates are extracted by performing the same processing as the vertical ruled line candidate extracting process based on the projection data.

次いで、ステップに移行して全ての垂直帯状領域BY
1〜BYMについて水平罫線候補の抽出を完了したか否かを
判定し、抽出が未完了であるときには、ステップに移
行して次の垂直帯状領域BYj+1に対応する読出アドレス
を設定してから前記ステップに戻り、全ての垂直帯状
領域BY1〜BYMについて水平罫線候補の抽出が完了したと
きには、ステップに移行する。
Then, the process proceeds to all the vertical band areas BY
It is determined whether or not the extraction of horizontal ruled line candidates has been completed for 1 to BY M , and if the extraction has not been completed, the process proceeds to step and sets a read address corresponding to the next vertical band-shaped region BY j + 1. Then, the process returns to the step, and when the extraction of the horizontal ruled line candidates is completed for all the vertical band-shaped areas BY 1 to BY M , the process proceeds to the step.

このステップでは、隣接する垂直帯状領域の水平罫
線候補を抽出して連結することにより、水平罫線候補列
を作成し、次いでステップに移行して水平罫線候補列
をX方向に投影することにより、水平罫線を決定する。
In this step, a horizontal ruled line candidate row is created by extracting and connecting horizontal ruled line candidates in adjacent vertical band-shaped areas, and then the process proceeds to step to project the horizontal ruled line candidate row in the X direction. Determine the ruled line.

さらに、仮想罫線抽出処理は、第6図に示すように、
先ずステップで、第8図に示すように、上記垂直罫線
候補抽出処理及び水平罫線候補抽出処理によって求めら
れた垂直罫線RV及び水平罫線RHの最外罫線に外接する矩
形の最外罫線枠Fの内側を仮想罫線処理領域に設定し、
次いでステップに移行して、画像メモリに格納されて
いる垂直罫線消去2値化画像情報から水平罫線RHを消去
して第9図に示すような2値化画像情報を形成し、次い
でステップに移行して、2値化画像情報を前述した水
平罫線候補抽出処理と同様に、複数M個の帯状領域BY1
〜BYMに分割し、これら帯状領域BY1〜BYMの夫々につい
てX方向の投影データを形成し、付いでステップに移
行して、投影データから論理値“0"を表す領域を仮想罫
線候補として抽出する。この結果、例えば各帯状領域BY
i-1,BYi及びBYi+1で第10図(a)に示すように、空白部
の仮想罫線候補を抽出することができる。
Further, the virtual ruled line extraction process is performed as shown in FIG.
First, as shown in FIG. 8, a rectangular outermost ruled line frame circumscribing the outermost ruled lines of the vertical ruled line R V and the horizontal ruled line RH obtained by the vertical ruled line candidate extracting process and the horizontal ruled line candidate extracting process as shown in FIG. Set the inside of F to the virtual ruled line processing area,
Next, the process proceeds to a step, in which the horizontal ruled line RH is deleted from the vertical ruled line deleted binary image information stored in the image memory to form binary image information as shown in FIG. Then, similarly to the horizontal ruled line candidate extraction processing described above, the binarized image information is converted into a plurality of M band-shaped areas BY 1.
Divided into ~BY M, for each of these strip-like regions BY 1 ~BY M to form an X-direction projection data, the process proceeds to step in with the virtual border candidate region representing a logic value "0" from the projection data Extract as As a result, for example, each band-shaped area BY
As shown in FIG. 10A, virtual ruled line candidates in a blank portion can be extracted from i-1 , BY i and BY i + 1 .

次いで、ステップに移行して全ての垂直帯状領域BY
1〜BYMについて仮想罫線候補の抽出が完了したか否かを
判定し、仮想罫線候補の抽出が未完了の垂直帯状領域が
あるときには、ステップに移行して画像メモリに対す
る読出アドレスを次の帯状領域BYi+1に対応するアドレ
スに更新してからステップに戻り、全ての垂直帯状領
域BY1〜BYMについて仮想罫線候補の抽出が完了したとき
には、ステップに移行する。
Then, the process proceeds to all the vertical band areas BY
It is determined whether or not the extraction of the virtual ruled line candidates has been completed for 1 to BY M. If there is a vertical band-shaped region for which the extraction of the virtual ruled line candidates has not been completed, the process proceeds to step and the read address for the image memory is changed to the next band. After the address is updated to the address corresponding to the area BY i + 1 , the process returns to the step. When the extraction of the virtual ruled line candidates has been completed for all the vertical band-shaped areas BY 1 to BY M , the process proceeds to the step.

このステップでは、前記ステップで抽出した仮想
罫線候補は、空白部の全てが候補となるため、候補の大
きさの違いが著しくなり、例えば第10図(a)における
帯状領域BYiでは、全てが仮想罫線候補となってしまう
ので、この帯状領域BYiの仮想罫線候補と、これに隣接
する帯状領域BYi-1及びBYi+1の仮想罫線候補CA1及びCA2
の数を算出し、両者の仮想罫線候補数を比較して何れか
多い方の仮想罫線候補に合わせて仮想罫線候補を分割し
て仮想罫線分割候補CA1′及びCA2′を選定する。
In this step, the virtual border candidates extracted in step, because all the blank portions are candidates, the difference in the size of the candidate becomes remarkable, the strip-like regions BY i in example FIG. 10 (a), all since becomes virtual ruled line candidate, and the virtual border candidate of the band-like region bY i, strip-like regions bY i-1 and bY i + 1 of the virtual border candidate CA 1 and CA 2 adjacent thereto
Are calculated, the number of virtual ruled line candidates is compared, and the virtual ruled line candidates are divided according to the larger virtual ruled line candidate to select virtual ruled line division candidates CA 1 ′ and CA 2 ′.

次いで、ステップに移行して、抽出した仮想罫線分
割候補を含む全ての仮想罫線候補のうち、隣接する帯状
領域の互いに水平方向に連接する仮想罫線候補を探索し
て連結し、仮想罫線候補列を形成する。
Next, the process proceeds to step S, among all the virtual ruled line candidates including the extracted virtual ruled line division candidates, searching for and connecting the virtual ruled line candidates that are adjacent to each other in the adjacent band-shaped region in the horizontal direction, and linking the virtual ruled line candidate columns. Form.

次いで、ステップに移行して、仮想罫線候補列のう
ち前述した罫線候補抽出処理で決定した垂直罫線RV及び
水平罫線RHと重なる仮想罫線候補列を消去し、残りの仮
想罫線候補列について仮想罫線を決定してから第4図の
処理に戻る。この仮想罫線の決定は、仮想罫線候補列が
罫線に比較して幅広であるので、仮想罫線候補列の始端
及び終端における仮想罫線候補の中点を代表的とし、こ
の代表点の座標を求めることにより、両代表点を結ぶ線
分を仮想罫線として決定する。
Next, the process goes to a step where the virtual ruled line candidate line overlapping with the vertical ruled line R V and the horizontal ruled line RH determined in the above described ruled line candidate extracting process is deleted from the virtual ruled line candidate sequence, and the virtual ruled line candidate sequence is virtualized. After determining the ruled line, the process returns to the processing of FIG. In this determination of the virtual ruled line, since the virtual ruled line candidate column is wider than the ruled line, the middle point of the virtual ruled line candidate at the start and end of the virtual ruled line candidate column is made representative, and the coordinates of this representative point are obtained. Thus, a line segment connecting both representative points is determined as a virtual ruled line.

なお、仮想罫線を決定するときに、稀に第11図(a)
に示すように幅広の仮想罫線候補CA11に対して幅狭の複
数の仮想罫線候補CA12及びCA13が連接する場合があり、
この場合には幅広の仮想罫線候補CA11の中点と幅狭の仮
想罫線候補CA13の中点とを代表点に選定すると、仮想罫
線を誤抽出することになるので、幅広の仮想罫線候補と
幅狭の仮想罫線候補とが連結されて仮想罫線候補列が形
成される場合には、第11図(b)に示すように、幅狭の
仮想罫線候補の何れか一方の中点を唯一の代表点として
選択し、仮想罫線を決定すると共に、残りの幅狭の仮想
罫線候補に対しては幅広罫線候補に接する境界位置を仮
想罫線の終点又は始点座標として決定する。
Note that when determining the virtual ruled line, in rare cases, FIG.
There may be multiple virtual border candidate CA 12 and CA 13 narrow is articulated with respect to the wide of the virtual border candidate CA 11 as shown in,
In this case, if the middle point of the wide virtual ruled line candidate CA 11 and the middle point of the narrow virtual ruled line candidate CA 13 are selected as representative points, the virtual ruled line will be erroneously extracted. When the virtual ruled line candidate is formed by concatenating the virtual ruled line candidate with the narrow virtual ruled line candidate, as shown in FIG. And the virtual ruled line is determined, and for the remaining narrow virtual ruled line candidates, the boundary position in contact with the wide ruled line candidate is determined as the end point or start point coordinates of the virtual ruled line.

このようにして、全ての罫線及び仮想罫線を決定する
ことにより表形式の知識が終了したら、前記第4図のス
テップに移行して、各罫線で囲まれる欄の文字情報を
一括して光学文字認識装置3に出力する。
When knowledge of the table format is completed by determining all ruled lines and virtual ruled lines in this way, the process proceeds to the step of FIG. 4 to collectively collect the character information of the column surrounded by each ruled line into an optical character. Output to the recognition device 3.

したがって、光学文字認識装置3では、表形式文書D
の各欄毎に文字認識を行うことになるので、文字認識率
を向上させることができると共に、表構造を認識するこ
とができるので、表形式文書の行又は列に対しての項目
毎に文字のみ或いは数字のみなどの指定を行うことが可
能となり、文字の選択数を選定することができ、認識率
と認識速度の向上を図ることができる。さらに、光学文
字認識装置3で認識した文字を制御コードに変換してパ
ーソナルコンピュータ等で構成される演算処理装置4に
入力することにより、住所録や電話帳などの氏名、住
所、電話番号等のデータベースを作成する場合に、これ
らの文書をイメージスキャナーで読込むだけでよく、デ
ータベースの作成を容易に行うことができる。
Therefore, in the optical character recognition device 3, the tabular document D
Since character recognition is performed for each column, the character recognition rate can be improved, and the table structure can be recognized. It is possible to specify only characters or only numbers, the number of selected characters can be selected, and the recognition rate and the recognition speed can be improved. Further, by converting the characters recognized by the optical character recognition device 3 into control codes and inputting them to the arithmetic processing device 4 composed of a personal computer or the like, the names, addresses, telephone numbers, etc. When a database is created, it is only necessary to read these documents with an image scanner, and the database can be easily created.

なお、上記実施例においては、画像読取装置としてイ
メージスキャナー1を適用した場合について説明した
が、これに限定されるものではなく、テレビカメラ、固
体撮像装置等の任意の画像読取装置を適用することがで
きる。
In the above embodiment, the case where the image scanner 1 is applied as the image reading apparatus has been described. However, the present invention is not limited to this, and any image reading apparatus such as a television camera and a solid-state imaging device may be applied. Can be.

また、上記実施例においては、表形式文書の罫線が実
線である場合について説明したが、これに限定されるも
のではなく、破線、鎖線等の罫線である場合にも投影デ
ータのピークが実線の場合に比較して小さくなるだけで
あるので、容易に罫線を認識することができる。
In the above embodiment, the case where the ruled line of the tabular document is a solid line has been described. However, the present invention is not limited to this. Even when the ruled line is a broken line, a chain line, or the like, the peak of the projection data has a solid line. Since it is only smaller than the case, the ruled line can be easily recognized.

さらに、上記実施例においては、イメージスキャナー
1の読取方向と表形式文書の罫線方向とが一致している
場合について説明したが、これに限らず表形式文書の2
値化画像情報がイメージスキャナー1の読取方向とずれ
ている場合には、垂直罫線RV、水平罫線RH及び仮想罫線
RIの始終端座標を決定する場合に、罫線候補列の罫線候
補を抽出する場合の投影方向とは直交する方向の投影デ
ータをとり、これによって始端及び終端座標を求めると
共に、罫線候補列の方程式を求めることにより、始点及
び終点座標を決定することができる。但し、仮想罫線候
補については、前述したように実在する罫線がないこと
により、代表点となる仮想罫線候補列の始端及び終端の
中点を結ぶ直線の方程式を利用する。
Furthermore, in the above-described embodiment, the case where the reading direction of the image scanner 1 and the ruled line direction of the tabular document match each other has been described.
If the valued image information deviates from the reading direction of the image scanner 1, the vertical ruled line R V , the horizontal ruled line RH, and the virtual ruled line
When determining the starting and end coordinates of the R I, taking the direction of the projection data to be orthogonal to the projection direction when extracting a ruled line candidate of the ruled line candidate string, whereby along with determining the start and end coordinates, borders candidate strings By obtaining the equations, the start point and end point coordinates can be determined. However, for the virtual ruled line candidate, as described above, since there is no actual ruled line, an equation of a straight line connecting the start point and the middle point of the terminal point of the virtual ruled line candidate sequence serving as a representative point is used.

〔発明の効果〕〔The invention's effect〕

以上説明したように、請求項(1)に係る表形式文書
認識方式にあっては、表形式文書の表を形成する垂直罫
線及び水平罫線をそれぞれ両者に直交する帯状領域に分
割した2値化画像情報をその長手方向と直交する方向に
投影した投影データに基づいて罫線候補を抽出するよう
にしたので、2値化画像情報の分割数を少なくすること
ができ、表形式文書の認識速度を向上させることがで
き、しかも表構造を認識してこの表構造の各欄毎に文字
認識を行うので、行又は列に対しての項目毎の文字のみ
或いは数字のみ等の指定を行うことができ、文字認識装
置での文字の選択数を限定できることで、文字認識装置
の文字認識率及び認識速度を向上させることができ、さ
らには表形式を認識することができるので、表形式文書
から所定項目毎のデータベースを作成する場合に、表形
式文書を文字読取装置で読取るだけで容易に作成するこ
とができる効果が得られる。
As described above, in the tabular document recognition method according to claim (1), the vertical ruled lines and the horizontal ruled lines forming the table of the tabular document are divided into a band-like area orthogonal to both. Since ruled line candidates are extracted based on projection data obtained by projecting image information in a direction orthogonal to the longitudinal direction, the number of divisions of the binarized image information can be reduced, and the recognition speed of the tabular document can be reduced. In addition, since the table structure is recognized and character recognition is performed for each column of the table structure, it is possible to specify only characters or only numbers for each item for a row or a column. By limiting the number of selected characters in the character recognition device, the character recognition rate and the recognition speed of the character recognition device can be improved, and the table format can be recognized. Every day When creating a base, effect that can be created easily by simply reading in character reader tabular document is obtained.

また、請求項(2)に係る表形式文書認識方式にあっ
ては、前記請求項(1)の効果に罫線を認識するに当た
って、罫線を認識する毎に、認識した罫線を画像情報か
ら消去しながら罫線認識を行うので、罫線認識の時間を
短縮して正確な罫線認識を行うことができると共に、最
後に空白部を抽出して仮想罫線を決定するので、罫線に
よって区分けされておらず、空白部分による仮想罫線に
よって区分けされている表形式であっても、罫線がある
ものとして認識することができるので、文字認識装置で
の文字認識率及び認識速度をより向上させることができ
る効果が得られる。
In the tabular document recognition method according to claim (2), in recognizing the ruled line in the effect of claim (1), every time the ruled line is recognized, the recognized ruled line is deleted from the image information. Since ruled line recognition is performed, accurate ruled line recognition can be performed by shortening the ruled line recognition time. In addition, since a blank portion is extracted and a virtual ruled line is determined, the ruled line is not separated by the ruled line, and is Even if the table format is divided by the virtual ruled line by the part, it can be recognized as having a ruled line, so that the character recognition rate and the recognition speed in the character recognition device can be further improved. .

【図面の簡単な説明】[Brief description of the drawings]

第1図はこの発明の概略構成を示すブロック図、第2図
は表形式文書を示す説明図、第3図〜第6図は図形分離
部における処理手順の一例を示すフローチャート、第7
図(a),(b)及び(c)は夫々この発明の動作の説
明に供する水平帯状領域,その垂直投影データ及び再々
2値化データを示す説明図、第8図は仮想罫線処理領域
を示す説明図、第9図は消去2値化情報を示す説明図、
第10図(a)及び(b)並びに第11図(a)及び(b)
は夫々仮想罫線抽出処理の説明に供する説明図である。 図中、1はイメージスキャナー(文字読取装置)、2は
図形分離部、3は光学文字認識装置、4は演算処理装
置、Dは表形式文書、RVは垂直罫線、RHは水平罫線であ
る。
FIG. 1 is a block diagram showing a schematic configuration of the present invention, FIG. 2 is an explanatory diagram showing a tabular document, FIGS. 3 to 6 are flowcharts showing an example of a processing procedure in a graphic separation unit, FIG.
(A), (b) and (c) are explanatory diagrams showing a horizontal band-like region, its vertical projection data and re-binarized data for explaining the operation of the present invention, respectively. FIG. 8 shows a virtual ruled line processing region. FIG. 9 is an explanatory diagram showing erasure binarization information;
FIGS. 10 (a) and (b) and FIGS. 11 (a) and (b)
FIG. 7 is an explanatory diagram for explaining a virtual ruled line extraction process. In the figure, 1 is an image scanner (character reading device), 2 is a graphic separation unit, 3 is an optical character recognition device, 4 is an arithmetic processing device, D is a tabular document, R V is a vertical ruled line, and R H is a horizontal ruled line. is there.

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.6,DB名) G06K 9/00 - 9/82──────────────────────────────────────────────────続 き Continued on the front page (58) Field surveyed (Int.Cl. 6 , DB name) G06K 9/00-9/82

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】文字と罫線とが混在する表形式文書を画像
読取装置で読取り、該画像読取装置からの画像情報中の
罫線を切り出し、文字情報を文字認識するようにした表
形式文書認識方式であって、前記画像情報に基づいて水
平及び垂直罫線を決定して表形式を認識する表形式認識
手段と、該表形式認識手段で認識された各罫線で画成さ
れる領域の文字情報を一括して文字認識する文字認識手
段とを備え、前記表形式認識手段は、前記画像情報を所
定幅の帯状領域に分割し、各帯状領域をその長手方向と
直交する方向に投影した投影データを形成する投影デー
タ形成手段と、該投影データ形成手段で形成した投影デ
ータから罫線候補を抽出する罫線候補抽出手段と、該罫
線候補抽出手段で抽出した罫線候補を隣接する帯状領域
間で連結して罫線を決定する罫線決定手段とを備えてい
ることを特徴とする表形式文書認識方式
An image reading apparatus reads a tabular document in which characters and ruled lines are mixed, cuts out ruled lines in image information from the image reading apparatus, and recognizes character information as characters. A table format recognition unit that determines a horizontal and vertical ruled line based on the image information to recognize a table format, and character information of an area defined by each ruled line recognized by the table format recognition unit. Character recognition means for collectively recognizing characters, wherein the table format recognition means divides the image information into band-shaped regions having a predetermined width, and projects projection data obtained by projecting each band-shaped region in a direction orthogonal to its longitudinal direction. Projection data forming means for forming, ruled line candidate extracting means for extracting ruled line candidates from the projection data formed by the projected data forming means, and connecting ruled line candidates extracted by the ruled line candidate extracting means between adjacent belt-shaped regions. Ruled line Tabular document recognition system, characterized in that it comprises a ruled line determination means for determining
【請求項2】前記表形式認識手段は、前記画像情報を垂
直方向及び水平方向の何れか一方に走査して前記投影デ
ータ形成手段、罫線候補抽出手段及び罫線決定手段で一
方の罫線を決定し、決定した罫線を前記画像情報から消
去した消去画像情報を他方に走査して前記投影データ形
成手段、罫線候補抽出手段及び罫線決定手段で他方の罫
線を決定し、決定された罫線を前記消去画像情報から消
去した罫線消去画像情報を走査して空白部を抽出し、抽
出された空白部のうち前記垂直方向及び水平方向の罫線
以外の空白部を仮想罫線として決定し、水平方向及び垂
直方向罫線及び仮想罫線に基づいて表形式を認識するこ
とを特徴とする請求項(1)記載の表形式文書認識方
式。
2. The table format recognizing means scans the image information in one of a vertical direction and a horizontal direction, and determines one ruled line by the projection data forming means, ruled line candidate extracting means and ruled line determining means. The erased image information obtained by erasing the determined ruled line from the image information is scanned on the other side, and the other ruled line is determined by the projection data forming means, ruled line candidate extracting means and ruled line determining means. A blank portion is extracted by scanning the ruled line erased image information erased from the information, and a blank portion other than the vertical and horizontal ruled lines among the extracted blank portions is determined as a virtual ruled line, and a horizontal and vertical ruled line is determined. The table format document recognition method according to claim 1, wherein the table format is recognized based on the virtual ruled lines.
JP1282736A 1989-10-30 1989-10-30 Tabular document recognition method Expired - Lifetime JP2796561B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1282736A JP2796561B2 (en) 1989-10-30 1989-10-30 Tabular document recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1282736A JP2796561B2 (en) 1989-10-30 1989-10-30 Tabular document recognition method

Publications (2)

Publication Number Publication Date
JPH03142691A JPH03142691A (en) 1991-06-18
JP2796561B2 true JP2796561B2 (en) 1998-09-10

Family

ID=17656380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1282736A Expired - Lifetime JP2796561B2 (en) 1989-10-30 1989-10-30 Tabular document recognition method

Country Status (1)

Country Link
JP (1) JP2796561B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2789971B2 (en) * 1992-10-27 1998-08-27 富士ゼロックス株式会社 Table recognition device
JP4731748B2 (en) * 2001-07-12 2011-07-27 キヤノン株式会社 Image processing apparatus, method, program, and storage medium
CN105426856A (en) * 2015-11-25 2016-03-23 成都数联铭品科技有限公司 Image table character identification method
CN107622233A (en) * 2017-09-11 2018-01-23 畅捷通信息技术股份有限公司 A kind of Table recognition method, identifying system and computer installation

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61269779A (en) * 1985-05-24 1986-11-29 Agency Of Ind Science & Technol Document picture analyzing system
JPS63101983A (en) * 1986-10-17 1988-05-06 Fujitsu Ltd Character string extracting system
JPH083831B2 (en) * 1987-12-25 1996-01-17 富士通株式会社 Character line detector

Also Published As

Publication number Publication date
JPH03142691A (en) 1991-06-18

Similar Documents

Publication Publication Date Title
JP3615333B2 (en) Ruled line eraser
JP2796561B2 (en) Tabular document recognition method
JPH1031716A (en) Method and device for extracting character line
Nguyen et al. Enhanced character segmentation for format-free Japanese text recognition
JPH0721817B2 (en) Document image processing method
JPS62121589A (en) Character segmenting system
JP4040231B2 (en) Character extraction method and apparatus, and storage medium
JP4409678B2 (en) Ruled line extraction method
JP3402755B2 (en) Area division method
JP2789622B2 (en) Character / graphic area determination device
JP2908495B2 (en) Character image extraction device
JP2022051198A (en) Ocr processor, ocr processing method, and program
JP2003317107A (en) Method and device for ruled-line detection
JP2797523B2 (en) Drawing follower
JPH11242716A (en) Image processing method and storage medium
JP3502130B2 (en) Table recognition device and table recognition method
JPH1166230A (en) Device, method, and medium for document recognition
JP3517077B2 (en) Pattern extraction device and method for extracting pattern area
JP2993533B2 (en) Information processing device and character recognition device
JP4439054B2 (en) Character recognition device and character frame line detection method
JP4571447B2 (en) Character image extraction program, character image extraction method, and character image extraction apparatus
JP3376931B2 (en) Character line extraction method and apparatus
JP3976804B2 (en) Image processing method
JPS6361382A (en) Character component removing method for linear image
JP3024234B2 (en) Document image ruled line extraction device