JP2618468B2 - Document processing device - Google Patents

Document processing device

Info

Publication number
JP2618468B2
JP2618468B2 JP1036212A JP3621289A JP2618468B2 JP 2618468 B2 JP2618468 B2 JP 2618468B2 JP 1036212 A JP1036212 A JP 1036212A JP 3621289 A JP3621289 A JP 3621289A JP 2618468 B2 JP2618468 B2 JP 2618468B2
Authority
JP
Japan
Prior art keywords
document
line
area
blank
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP1036212A
Other languages
Japanese (ja)
Other versions
JPH02288991A (en
Inventor
勝美 細川
浩司 片野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP1036212A priority Critical patent/JP2618468B2/en
Publication of JPH02288991A publication Critical patent/JPH02288991A/en
Application granted granted Critical
Publication of JP2618468B2 publication Critical patent/JP2618468B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)
  • Document Processing Apparatus (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、文書中に表を認識することが可能な文書処
理装置に関する。
Description: TECHNICAL FIELD The present invention relates to a document processing apparatus capable of recognizing a table in a document.

〔従来の技術〕[Conventional technology]

従来、この種の表認識技術として罫線を抽出し、罫線
によつて囲まれた領域について文字を認識する方式や、
フオーマツト(表の構造や文字領域等)を予め指定して
おき、そのフオーマットに合わせて認識する方式などが
ある。
Conventionally, as this type of table recognition technology, a ruled line is extracted and characters are recognized in an area surrounded by the ruled line.
There is a method in which a format (table structure, character area, etc.) is specified in advance, and recognition is performed in accordance with the format.

前者の方式では、罫線の抽出手法として投影法や追跡
法など種々であるが、いづれの方法にしても、罫線によ
つて表の要素(文字等)が囲まれていることが必要であ
る。なお、この方式では、一枚ごとに異つた表でも認識
でき、フオーマットを指定しておくことも可能である。
In the former method, there are various methods such as a projection method and a tracking method as a ruled line extraction method. In any case, it is necessary that the table elements (characters and the like) are surrounded by the ruled line. In this method, different tables can be recognized for each sheet, and a format can be designated.

一方、後者の方式では、罫線の有無にかかわらずフオ
ーマットを指定しておくことによつて、同一構造の表の
連続認識が可能であるが、構造が異なる表ごとにフオー
マットを指定する必要がある。
On the other hand, in the latter method, it is possible to continuously recognize tables having the same structure by specifying a format regardless of the presence or absence of ruled lines, but it is necessary to specify a format for each table having a different structure. .

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

第10A図は氏名と住所を記述した例を示し、このよう
な場合は、罫線による構造を利用する前者の方式からで
は第10B図のような領域R1〜R4しか理解できず、氏名21
と住所22の対応関係が不明になるという問題がある。
FIG. 10A shows an example in which a name and an address are described.In such a case, only the regions R1 to R4 as shown in FIG.
There is a problem that the correspondence between the address and the address 22 becomes unknown.

一方、フオーマツトを第10C図のように指定する後者
の方式では、第10A図には対応できるが、第10D図の表に
なると対応できなくなり、新たにフオーマツトを作る必
要が生じると云う問題がある。
On the other hand, the latter method of specifying the format as shown in Fig. 10C can cope with Fig. 10A, but it cannot support the format shown in Fig. 10D, and there is a problem that it is necessary to create a new format. .

〔課題を解決するための手段〕[Means for solving the problem]

文書を読み取る画像入力部と、読み取られた画像デー
タを記憶する第1の記憶部と、この第1記憶部の画像デ
ータを処理して文字を認識する文字認識部と、前記画像
データを圧縮する圧縮部と、この圧縮された画像データ
を記憶する第2の記憶部と、この第2記憶部の内容にも
とづき少なくとも表の予め指定された領域内の罫線と空
白行とを抽出して該罫線と空白行とから表構造を認識す
る表認識部とを設け、この罫線と空白行とで形成される
領域内の文字を前記文字認識部により認識できるように
する。
An image input unit that reads a document, a first storage unit that stores the read image data, a character recognition unit that processes the image data in the first storage unit to recognize characters, and compresses the image data. A compression unit, a second storage unit for storing the compressed image data, and extracting at least a ruled line and a blank line in a predetermined area of the table based on the contents of the second storage unit, And a table recognizing unit for recognizing the table structure from the blank line and the blank line. Characters in an area formed by the ruled line and the blank line are recognized by the character recognizing unit.

〔作用〕[Action]

例えば、第10A図と第10D図のように、罫線の構造は同
じであるが罫線のない部分が異なる表も認識できるよ
う、第10E図のように表領域を固定領域23と可変領域24
とに分け、可変領域24から罫線と同等の意味をもつ空白
行を第10F図に符号25で示す如く抽出することにより、
氏名と住所の如き各要素間の対応付けを誤りなく行い、
フオーマツトの異なる文書にも柔軟に対応できるように
する。このとき、可変領域を項目データ別に24A(第9A
図参照)と24B(第9図参照)に分けるべく、第9A図,
第9B図のように罫線を抽出する。領域24Bと領域24Aから
求まる空白行は必ずしも一致しないが、互いに一致する
空白行のみを抽出することで、罫線と同等の意味をも
つ、第10F図に符号25で示すような空白行を得ることが
できる。以後、連続処理をするときは、少なくとも可変
領域および罫線の構造データを不揮発性メモリ等に格納
しておき、これを再利用できるようにしておく。
For example, as shown in FIGS. 10A and 10D, the table area is divided into a fixed area 23 and a variable area 24 as shown in FIG. 10E so that a table having the same ruled line structure but different portions without ruled lines can be recognized.
By extracting blank lines having the same meaning as the ruled lines from the variable area 24 as shown by reference numeral 25 in FIG. 10F,
Make the correspondence between each element such as name and address without error,
To be able to respond flexibly to documents of different formats. At this time, the variable area is set to 24A (9th A
Figure 9A, to divide into 24B (see Figure 9) and 24B (see Figure 9)
The ruled lines are extracted as shown in FIG. 9B. Blank lines obtained from the region 24B and the region 24A do not necessarily match, but by extracting only blank lines that match each other, a blank line having the same meaning as a ruled line as indicated by reference numeral 25 in FIG.10F is obtained. Can be. Thereafter, when performing the continuous processing, at least the structural data of the variable area and the ruled line are stored in a nonvolatile memory or the like so that they can be reused.

なお、罫線が全くない表については表認識領域全体を
可変領域とし、垂直罫線の位置を別途指定することによ
り可能となる。
For a table having no ruled line, the entire table recognition area can be set as a variable region and the position of the vertical ruled line can be specified separately.

〔実施例〕 第1図は本発明の実施例を示す構成図で、1は文書、
2は画像入力部、3は画像圧縮部、4A,4Bは画像メモ
リ、5は文字認識部、6は表認識部、7はホストCPU、
8はCRT、9はキーボードである。また、第2A,2B,3,4,5
A,5B,6A,6B,7A,7Bおよび8図は本発明を具体的に説明す
るための説明図である。
FIG. 1 is a block diagram showing an embodiment of the present invention.
2 is an image input unit, 3 is an image compression unit, 4A and 4B are image memories, 5 is a character recognition unit, 6 is a table recognition unit, 7 is a host CPU,
8 is a CRT and 9 is a keyboard. In addition, 2A, 2B, 3, 4, 5
A, 5B, 6A, 6B, 7A, 7B and FIG. 8 are explanatory views for specifically explaining the present invention.

文書1は画像入力部2から入力され、一方はそのまま
画像メモリ4Aに格納され、もう一方は画像圧縮部3を通
り、圧縮された画像が画像メモリ4Bに格納される。圧縮
比はホストCPU7により、例えば1/2n(n=0,1,2,3)の
比から選択する。表認識部6ではメモリ4Bに格納するデ
ータ量を減らし処理時間を上げるために、この圧縮画像
を用いる。
The document 1 is input from the image input unit 2, one of which is stored in the image memory 4A as it is, the other passes through the image compression unit 3, and the compressed image is stored in the image memory 4B. The compression ratio is selected by the host CPU 7 from, for example, a ratio of 1/2 n (n = 0, 1, 2, 3). The table recognizing unit 6 uses the compressed image in order to reduce the amount of data stored in the memory 4B and increase the processing time.

格納後、画像データはCRT8に表示されるので、まず第
2A図に符号10で示す如き表認識領域を指定する。表認識
部6では、垂直罫線抽出の場合、第2B図のように領域10
を横長の帯状に分割し、帯11A〜11Dごとに投影を取る。
例えば11Bの帯では、投影データは第3図(イ)のよう
になるので、閾値レベルTHによつて第3図(ロ)の如く
2値化する。その後、文字と罫線とを幅の閾値TWで分離
し、第3図(ハ)を得る。第2B図の帯から抽出された結
果を示すと、第4図のようになる。以後、水平罫線も同
様に処理すると、罫線の抽出を終了する。
After storage, the image data is displayed on CRT8.
A table recognition area indicated by reference numeral 10 in FIG. 2A is designated. In the case of vertical ruled line extraction, the table recognizing unit 6 reads out the area 10 as shown in FIG.
Is divided into horizontally long strips, and projection is performed for each of the strips 11A to 11D.
For example, in the 11B band, since the projection data is as shown in FIG. 3 (b), it is binarized as by connexion Figure 3 the threshold level T H (ii). Thereafter, to separate the characters and ruled lines in the threshold T W width, obtaining a third view of (c). FIG. 4 shows the result extracted from the band of FIG. 2B. Thereafter, when the horizontal ruled line is processed in the same manner, the extraction of the ruled line is completed.

次に、空白行を決定するために罫線26を抽出した後、
その領域を罫線抽出の際の投影法と同様の処理を行う。
つまり、第5A図の如く領域を縦方向に複数の帯領域に分
割し、その各々で投影値を求める。ただし、この際に抽
出するデータは、罫線の場合とは逆に“0"の区間12(空
白行候補)を抽出し、この空白行候補12のデータ群の連
結関係から空白行25を第5B図の如く求める。また、項目
データ領域についても第6A図の如く罫線26を指示し、同
様に空白行候補12を求め、文字列と文字列の間のデータ
について空白行候補12の下側からDだけ上側で幅W領域
群13を第6B図の如く求める。その結果を第7A図に示す。
次に、得られた空白行25と13とが一致する空白行25のみ
を第7B図の如く残す。したがつて第7A図の25Aは消去さ
れる。罫線と空白行によつて区切られた長方形の文字領
域14を第8図の如く求め、その座標を文字認識部5へ送
り、文字認識を行う。その後、各認識部15,16から各々
の認識結果をホストCPU7へ送り、表示,フアイリング,
伝送等を行う。
Next, after extracting the ruled line 26 to determine a blank line,
Processing similar to the projection method at the time of ruled line extraction is performed on the area.
That is, as shown in FIG. 5A, the region is divided into a plurality of band regions in the vertical direction, and the projection value is obtained for each of the regions. However, in the data to be extracted at this time, a section 12 (blank line candidate) of “0” is extracted in reverse to the case of the ruled line, and the blank line 25 is changed to the 5B Obtain as shown in the figure. Also, for the item data area, the ruled line 26 is designated as shown in FIG. 6A, and blank line candidates 12 are similarly obtained. The W region group 13 is obtained as shown in FIG. 6B. The results are shown in FIG. 7A.
Next, only the blank line 25 where the obtained blank lines 25 and 13 match is left as shown in FIG. 7B. Thus, 25A in FIG. 7A is erased. A rectangular character area 14 separated by ruled lines and blank lines is obtained as shown in FIG. 8, and its coordinates are sent to the character recognition unit 5 to perform character recognition. After that, the recognition results are sent from the recognition units 15 and 16 to the host CPU 7, and are displayed, filled,
Perform transmission, etc.

次に、同様の表が来た場合、罫線抽出後、例えばこの
例では、可変領域は、水平罫線の上から2本目と3本
目、垂直罫線の左から1本目と3本目の間の領域、とい
うように前回の指定および処理結果を用いることで、自
動的に連続して認識することが可能となる。そのために
は、少なくとも処理領域(可変領域)と罫線の構造デー
タを不揮発性メモリ等に格納しておくことが必要なのは
云う迄もない。
Next, when a similar table comes, after the ruled line is extracted, for example, in this example, the variable region is the second and third lines from the top of the horizontal ruled line, the region between the first and third lines from the left of the vertical ruled line, By using the previous designation and processing result, recognition can be automatically and continuously performed. To this end, it is needless to say that it is necessary to store at least the processing area (variable area) and the structure data of the ruled lines in a nonvolatile memory or the like.

〔発明の効果〕 本発明によれば、罫線が無い部分の認識が可能とな
り、罫線の無い部分が可変である表も連続的に認識する
ことが可能となる。これにより、従来では一枚毎にフオ
ーマツトを指定する必要があつたが、本発明では一度設
定すると以降は自動的に対応し得るため、処理時間の短
縮やオペレータの負担を大幅に軽減することができる。
[Effects of the Invention] According to the present invention, it is possible to recognize a portion having no ruled line, and it is also possible to continuously recognize a table in which a portion having no ruled line is variable. In this way, in the past, it was necessary to specify a format for each sheet, but in the present invention, once it is set, it can be handled automatically, so that the processing time can be shortened and the burden on the operator can be greatly reduced. it can.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明の実施例を示すブロツク図、第2A図は表
認識領域を説明するための説明図、第2B図は垂直罫線抽
出用帯領域を説明するための説明図、第3図は投影デー
タとその処理方法を説明するための説明図、第4図は第
2A図から抽出された垂直罫線を説明するための説明図、
第5A図は空白行抽出用帯領域を説明するための説明図、
第5B図は第2A図から抽出された全空白行を説明するため
の説明図、第6A図は項目データ領域の空白行領域を説明
するための説明図、第6B図は項目データ領域における空
白行の抽出方法を説明するための説明図、第7A図は第6A
図の項目データ領域から抽出された空白行領域を説明す
るための説明図、第7B図は第2A図から最終的に抽出され
た空白行を説明するための説明図、第8図は文字枠を説
明するための説明図、第9A図および第9B図は項目データ
領域を説明するための説明図、第10A,10B,10C,10D,10E
および10F図はいずれも従来方式の問題点を説明するた
めの説明図である。 符号説明 1……文書、2……画像入力部、3……画像圧縮部、4
A,4B……画像メモリ、5……文字認識部、6……表認識
部、7……ホストCPU、8……CRT、9……キーボード、
10……表認識領域、11A〜11D……帯、12……空白行候
補、13……空白行領域、14……文字枠、21……氏名デー
タ、22……住所データ、23……固定領域、24……可変領
域、24A,24B……項目別データ領域、25……空白行、26
……罫線、TH,TW……しきい値、D……距離、W……領
域幅。
FIG. 1 is a block diagram showing an embodiment of the present invention, FIG. 2A is an explanatory diagram for explaining a table recognition area, FIG. 2B is an explanatory diagram for explaining a vertical ruled line extraction band area, and FIG. FIG. 4 is an explanatory diagram for explaining projection data and a processing method thereof, and FIG.
Explanatory diagram for explaining vertical ruled lines extracted from FIG. 2A,
FIG. 5A is an explanatory diagram for explaining a blank line extraction band region,
FIG. 5B is an explanatory diagram for explaining all blank lines extracted from FIG. 2A, FIG. 6A is an explanatory diagram for explaining a blank line region in the item data area, and FIG. 6B is a blank in the item data region. FIG. 7A is an explanatory diagram for explaining a row extraction method, and FIG.
FIG. 7B is an explanatory diagram for explaining a blank line area extracted from the item data area of FIG. 7, FIG. 7B is an explanatory diagram for explaining a blank line finally extracted from FIG. 2A, and FIG. FIGS. 9A and 9B are explanatory diagrams for explaining the item data area, and FIGS. 10A, 10B, 10C, 10D, and 10E.
10F and 10F are explanatory diagrams for explaining the problems of the conventional system. Reference numeral 1... Document, 2... Image input unit, 3.
A, 4B: image memory, 5: character recognition unit, 6: table recognition unit, 7: host CPU, 8: CRT, 9: keyboard,
10: table recognition area, 11A to 11D: band, 12: blank line candidate, 13: blank line area, 14: character frame, 21: name data, 22: address data, 23: fixed Area, 24: Variable area, 24A, 24B: Data area by item, 25: Blank line, 26
...... borders, T H, T W ...... threshold, D ...... distance, W ...... region width.

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】文書を読み取る画像入力部と、読み取られ
た画像データを記憶する第1の記憶部と、この第1記憶
部の画像データを処理して文書を認識する文字認識部
と、前記画像データを圧縮する圧縮部と、この圧縮され
た画像データを記憶する第2の記憶部と、この第2記憶
部の内容にもとづき少なくとも表の予め指定された領域
内の罫線と空白行とを抽出して該罫線と空白行とから表
構造を認識する表認識部と、を備え、この罫線と空白行
とで形成される領域内の文字を前記文字認識部にて認識
可能にしてなることを特徴とする文書処理装置。
An image input unit for reading a document; a first storage unit for storing the read image data; a character recognition unit for processing the image data in the first storage unit to recognize the document; A compression unit for compressing the image data, a second storage unit for storing the compressed image data, and at least a ruled line and a blank line in a predetermined area of the table based on the contents of the second storage unit. A table recognizing unit for extracting and recognizing a table structure from the ruled line and the blank line, wherein a character in an area formed by the ruled line and the blank line can be recognized by the character recognizing unit. A document processing apparatus characterized by the above-mentioned.
【請求項2】請求項1に記載の文書処理装置において、
前記空白行は文書が横書の場合は横方向の投影値から抽
出し、文書が縦書の場合は縦方向の投影値から抽出する
ことを特徴とする文書処理装置。
2. The document processing apparatus according to claim 1, wherein
The document processing apparatus according to claim 1, wherein the blank line is extracted from a horizontal projection value when the document is horizontal writing, and is extracted from a vertical projection value when the document is vertical writing.
【請求項3】請求項1に記載の文書処理装置において、
処理領域を指定して罫線および空白行を抽出した後は、
処理領域および罫線の構造が変わらない限り、先に指定
および抽出された情報にもとづき連続処理を可能にして
なることを特徴とする文書処理装置。
3. The document processing apparatus according to claim 1, wherein
After specifying the processing area and extracting ruled lines and blank lines,
A document processing apparatus wherein continuous processing is enabled based on previously specified and extracted information as long as the structure of a processing area and a ruled line do not change.
JP1036212A 1989-02-17 1989-02-17 Document processing device Expired - Lifetime JP2618468B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1036212A JP2618468B2 (en) 1989-02-17 1989-02-17 Document processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1036212A JP2618468B2 (en) 1989-02-17 1989-02-17 Document processing device

Publications (2)

Publication Number Publication Date
JPH02288991A JPH02288991A (en) 1990-11-28
JP2618468B2 true JP2618468B2 (en) 1997-06-11

Family

ID=12463447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1036212A Expired - Lifetime JP2618468B2 (en) 1989-02-17 1989-02-17 Document processing device

Country Status (1)

Country Link
JP (1) JP2618468B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032770A (en) * 2000-06-23 2002-01-31 Internatl Business Mach Corp <Ibm> Method and system for processing document and medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61296481A (en) * 1985-06-24 1986-12-27 Mitsubishi Electric Corp Document reader

Also Published As

Publication number Publication date
JPH02288991A (en) 1990-11-28

Similar Documents

Publication Publication Date Title
CN109933756B (en) Image file transferring method, device and equipment based on OCR (optical character recognition), and readable storage medium
US5048107A (en) Table region identification method
JPH0750483B2 (en) How to store additional information about document images
EP0568161A1 (en) Interctive desktop system
KR870011552A (en) Document registration method
JPS6126150A (en) Registering and retrieving device of document picture file
JP2618468B2 (en) Document processing device
JPH0126088B2 (en)
JPH10207981A (en) Document recognition method
JP2803736B2 (en) Character recognition method
JPH06131497A (en) Table recognition system
JPS61198376A (en) Optical character reader
JP2666931B2 (en) Optical character reader
JPH03142691A (en) Table format document recognizing system
JP2606560B2 (en) Document image storage device
JPS6360671A (en) Document picture processor
JP3668026B2 (en) Publication electronic processing equipment
JPS6331830B2 (en)
JP2682873B2 (en) Recognition device for tabular documents
JP2539026B2 (en) Character extraction device
JPS6246039B2 (en)
JP2000029986A (en) Method for reading slip data and recording medium and device for reading slip data
JPH07104940B2 (en) Figure recognition device
CN113392756A (en) Method and device for identifying picture book
JPH09269970A (en) Method for recognizing character and its device