JP2001094760A - Information processing device - Google Patents

Information processing device

Info

Publication number
JP2001094760A
JP2001094760A JP26937299A JP26937299A JP2001094760A JP 2001094760 A JP2001094760 A JP 2001094760A JP 26937299 A JP26937299 A JP 26937299A JP 26937299 A JP26937299 A JP 26937299A JP 2001094760 A JP2001094760 A JP 2001094760A
Authority
JP
Japan
Prior art keywords
area
image
information
character
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP26937299A
Other languages
Japanese (ja)
Inventor
Makoto Takaoka
真琴 高岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP26937299A priority Critical patent/JP2001094760A/en
Publication of JP2001094760A publication Critical patent/JP2001094760A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Control Or Security For Electrophotography (AREA)
  • Character Discrimination (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing device that can easily and quickly correct an electronic document by using an image of an original. SOLUTION: Information of an area whose correction is designated is extracted in an image of an original that is divided into areas (S1-S5), after a user corrects the extracted information, the corrected information is again converted into an image, the image of the designated area included in the original image is deleted and the image reflecting the correction is again embedded to the area from which the image is deleted.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、スキャナ等の光学
式の画像読み取り装置によって入手した文書原稿のデー
タに対して部分的な修正等が可能な情報処理装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus capable of partially correcting data of a document manuscript obtained by an optical image reading apparatus such as a scanner.

【0002】[0002]

【従来の技術】従来より、電子化された情報を扱うオフ
ィス環境においては、スキャナ等の光学式の画像読み取
り装置によってパーソナルコンピュータ(PC)等の情
報処理装置に読み込んだ文書原稿のデータ(電子ドキュ
メント)を利用する機会がよくある。このような場合、
ユーザは、電子ドキュメントの元となる文書原稿をスキ
ャナ等によって読み取ることによってPC内に原稿文書
の画像データを入手し、一般的なOCRソフトウェアを
用いて、その画像データを電子ドキュメントに変換す
る。
2. Description of the Related Art Conventionally, in an office environment where electronic information is handled, data of a document manuscript (electronic document) read into an information processing device such as a personal computer (PC) by an optical image reading device such as a scanner. ) Is often used. In such a case,
The user obtains the image data of the original document in the PC by reading the original document of the electronic document with a scanner or the like, and converts the image data into the electronic document using general OCR software.

【0003】図12は、情報処理装置による一般的な電
子ドキュメント作成時の処理の流れを示す図である。
FIG. 12 is a diagram showing a flow of processing when a general electronic document is created by an information processing apparatus.

【0004】同図に示すように、レイアウト解析処理モ
ジュール202では、予めスキャナ等によって入手した
文書画像データ(原稿画像)201に対するレイアウト
解析を行うことにより、当該文書画像を、文字領域、図
形領域、表領域等の領域毎に分離する。
As shown in FIG. 1, a layout analysis processing module 202 performs a layout analysis on document image data (original image) 201 obtained in advance by a scanner or the like, thereby converting the document image into a character area, a graphic area, Separate for each area such as a table area.

【0005】次に、文字認識処理モジュール203で
は、レイアウト解析処理モジュール202によって領域
分割された文字領域等に対して一般的な文字認識処理を
行う。
Next, the character recognition processing module 203 performs general character recognition processing on the character areas and the like divided by the layout analysis processing module 202.

【0006】そして、文書フォーマット変換モジュール
204では、文字認識処理モジュールにおける認識結果
に対して、一般に流通している電子文書の形式に変換す
ることにより、電子ドキュメントとしてのテキスト文書
205に変換する。また、変換後のテキスト文書として
は、例えば、Word(Microsoft社ワープロ
ソフト)がサポートしているRTF(Rich Tex
t Format)等の電子ドキュメントが知られてい
る。
[0006] The document format conversion module 204 converts the recognition result in the character recognition processing module into a generally distributed electronic document format, thereby converting it into a text document 205 as an electronic document. The converted text document includes, for example, RTF (Rich Text) supported by Word (word processing software of Microsoft Corporation).
Electronic documents such as “t Format” are known.

【0007】ここで、RTFをサポートする一般的なO
CRソフトウエアによる画像処理の流れを概説する。
Here, a general O which supports RTF is used.
The flow of image processing by CR software will be outlined.

【0008】図13は、一般的なOCRソフトウエアに
おけるGUI(Graphic User Inter
face)を例示する図である。
FIG. 13 shows a GUI (Graphic User Inter) in general OCR software.
FIG.

【0009】同図において、左側のウインドウには変換
対象の画像が表示されると共に、領域分割後のレイアウ
トの解析結果を表わす枠が表示されている。一方、右側
のウインドウには、左側のウインドウに含まれる文字領
域に対する文字認識の結果が表示されている。この文字
認識の結果の原画像は、図14に示すような文書画像で
ある。そして、入手したレイアウト情報と文字認識結果
とを用いてRTF保存処理を行うことにより、一般的な
ワープロソフトに従った図15に示すような電子ドキュ
メント(電子文書)を得ることができる。
In FIG. 1, an image to be converted is displayed in a left window, and a frame representing a layout analysis result after area division is displayed. On the other hand, in the right window, the result of character recognition for the character area included in the left window is displayed. The original image resulting from this character recognition is a document image as shown in FIG. Then, by performing the RTF saving process using the obtained layout information and the character recognition result, an electronic document (electronic document) as shown in FIG. 15 according to general word processing software can be obtained.

【0010】しかしながら、入手した電子ドキュメント
には、図15に示す如く文字認識結果が一部間違ってい
たり、表のレイアウトが若干異なってしまうことが多
い。これは、電子ドキュメントに変換するに際して原稿
文書と完全に一致するように再現するのは困難なためで
ある。
[0010] However, in the obtained electronic document, the character recognition result is often partially incorrect or the table layout is slightly different as shown in FIG. This is because it is difficult to convert an electronic document so that it completely matches the original document.

【0011】図15の例では、文字領域として認識され
た“認識サンプル”という図14の原画像に対して
“ル”という文字が欠落しているが、このような場合に
は、“ル”は欠落した訳ではなく、当該認識結果が当該
文字領域の文書枠からはみ出してしまい、影に隠れてい
る場合がよくあり、例えば文字枠の幅を少し調整すれば
欠落したように見える文字が出てくる場合が多い。これ
は、認識結果のフォントサイズや文字間の認識のずれ等
が原因となっている。
In the example shown in FIG. 15, the character "R" is missing from the original image of FIG. 14 called "recognition sample" recognized as a character area. Is not lost, the recognition result protrudes from the document frame of the character area, and is often hidden by the shadow.For example, if the width of the character frame is slightly adjusted, a character that appears to be missing appears. Often comes. This is due to a font size of a recognition result, a shift in recognition between characters, and the like.

【0012】また、図15には例示していないが、この
他にも、例えば長い文書であると、文字間や行間等の認
識のずれが原因となって、最終行近辺では原稿画像には
存在する文字列が同様にはみ出してしまい、影に隠れて
見えない場合や、表領域の部分の最下位の罫線が表示さ
れていなかったり、表を構成するセル内の文字がセンタ
リングされているものや左寄せされているものが混じっ
てしまう場合もある。これらは、何れも領域分割後の各
領域における誤認識が原因となっている。
Although not illustrated in FIG. 15, for example, in the case of a long document, a document image may not be included in the vicinity of the last line due to a misalignment between characters or lines. If the existing character string protrudes in the same way and is hidden by shadows and cannot be seen, the lowest ruled line in the table area is not displayed, or the characters in the cells that make up the table are centered And sometimes the left-justified ones are mixed. These are all caused by erroneous recognition in each area after the area division.

【0013】上記の図15に含まれる程度の誤認識であ
れば、ユーザは電子ドキュメントに変換された状態のま
まで一般的なワープロソフトウエア(文書エディタ)を
用いれば簡単に修正できるが、電子ドキュメントと原稿
画像(元画像)とを見比べながら個々の部分を修正する
のは非効率的である。
[0015] If the recognition error is of the degree included in FIG. 15, the user can easily correct it by using general word processing software (document editor) while being converted into an electronic document. It is inefficient to correct individual parts while comparing the document with the original image (original image).

【0014】この場合、原稿画像自体に修正を加えるこ
とが考えられるが、画像そのものを修正する場合、ユー
ザは、一般的なレタッチソフトを用いて修正すべき画像
の箇所を矩形で囲み、その囲んだ部分の画像データを消
去し、その消去した矩形領域に本来の文字を貼り付ける
という一連の作業を、修正すべき個々の領域に対して行
わなければならず、かなり煩わしい作業である。
In this case, it is conceivable to modify the original image itself. When modifying the image itself, the user encloses a portion of the image to be modified with a rectangle using general retouching software, and encloses the rectangle. A series of operations of erasing the image data of the blank portion and pasting the original character to the erased rectangular region must be performed for each region to be corrected, which is a rather troublesome operation.

【0015】そこで、本発明では、原稿画像を利用して
電子ドキュメントの修正を容易且つ迅速に行うことが可
能な情報処理装置の提供を目的とする。
Accordingly, an object of the present invention is to provide an information processing apparatus capable of easily and quickly correcting an electronic document using a document image.

【0016】[0016]

【課題を解決するための手段】上記の目的を達成するた
め、本発明に係る情報処理装置は、以下の構成を特徴と
する。
In order to achieve the above object, an information processing apparatus according to the present invention has the following configuration.

【0017】即ち、入力された原稿画像のレイアウト解
析を行う解析手段と、前記解析手段による解析結果の中
から、修正対象領域として指定された領域に関する情報
を抽出する抽出手段と、前記抽出手段によって抽出され
た修正対象領域に関する情報を修正可能な修正手段と、
前記原稿画像の中から、前記修正手段により修正した修
正対象領域に関する情報が表わす画像領域を消去する消
去手段と、前記消去手段により画像が消去された領域
に、前記修正手段により修正した修正対象領域に関する
情報が表わす画像を挿入する画像更新手段とを備える。
That is, analysis means for analyzing the layout of the input document image, extraction means for extracting information on an area designated as a correction target area from the analysis results by the analysis means, and extraction means Correcting means for correcting information on the extracted correction target area,
Erasing means for erasing, from the original image, an image area represented by the information on the correction target area corrected by the correction means, and a correction target area corrected by the correction means in an area where the image is deleted by the erasing means. Image updating means for inserting an image represented by the information about

【0018】また、例えば前記消去手段は、前記修正対
象領域に関する情報が表わす画像領域のうち、その領域
に含まれる文字を囲む矩形内の画像領域を消去すると良
い。
Further, for example, the erasing means may erase an image area within a rectangle surrounding characters included in the area, from among the image areas represented by the information on the correction target area.

【0019】[0019]

【発明の実施の形態】以下、本発明に係る情報処理装置
及び情報処理方法の一実施形態を、図面を参照して詳細
に説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of an information processing apparatus and an information processing method according to the present invention will be described below in detail with reference to the drawings.

【0020】図1は、本実施形態における情報処理装置
のブロック構成図であり、一般的なパーソナルコンピュ
ータを採用しても良い。
FIG. 1 is a block diagram of an information processing apparatus according to the present embodiment, and a general personal computer may be employed.

【0021】図中、22は、CRT等のディスプレイ、
23は入力手段であるキーボードである。24は、ブー
トプログラム等を記憶しているROMである。25は、
各種処理結果を一時記憶するRAMである。26は、後
述する文書修正処理を実現するプログラム等を記憶する
ハードディスクドライブ(HDD)等の記憶装置であ
る。27は、外部の装置と通信回線30を介して通信す
るための通信インタフェースである。そして28は、文
書や表等が含まれる原稿を光学的に読み取ることによ
り、その原稿のデジタル画像データ(原稿画像)を生成
する一般的なスキャナである。これらの各構成は、内部
バス29を介して接続されており、CPU21は記憶装
置26に記憶したプログラムに従って当該情報処理装置
の全体を制御する。
In the drawing, reference numeral 22 denotes a display such as a CRT,
Reference numeral 23 denotes a keyboard as input means. A ROM 24 stores a boot program and the like. 25 is
This is a RAM for temporarily storing various processing results. Reference numeral 26 denotes a storage device such as a hard disk drive (HDD) for storing a program for realizing a document correction process described later. Reference numeral 27 denotes a communication interface for communicating with an external device via the communication line 30. Reference numeral 28 denotes a general scanner that optically reads a document including a document, a table, and the like to generate digital image data (document image) of the document. These components are connected via an internal bus 29, and the CPU 21 controls the entire information processing apparatus according to a program stored in the storage device 26.

【0022】図2は、本実施形態における情報処理装置
による原稿画像修正時の処理の流れを示す図である。
FIG. 2 is a diagram showing the flow of processing when an original image is corrected by the information processing apparatus according to the present embodiment.

【0023】同図に示すように、レイアウト解析処理モ
ジュール102では、予めスキャナ等を利用して当該情
報処理装置内に入手した文書画像データ(原稿画像)1
01に対するレイアウト解析を行うことにより、当該原
稿画像を、文字領域、図形領域、表領域等の領域毎に分
離する。このとき、表領域に対しては、その表領域に対
する一般的な構造解析が行われることにより、その表領
域の構造を表わす表構造情報が生成される。
As shown in FIG. 1, in the layout analysis processing module 102, document image data (original image) 1 obtained in advance in the information processing apparatus by using a scanner or the like.
By performing a layout analysis on the document image 01, the document image is separated into regions such as a character region, a graphic region, and a table region. At this time, a general structure analysis is performed on the table area to generate table structure information indicating the structure of the table area.

【0024】次に、文字認識処理モジュール103で
は、レイアウト解析処理モジュール102によって領域
分割された文字領域及び表領域に含まれる文字に対して
一般的な文字認識処理を行う。
Next, the character recognition processing module 103 performs general character recognition processing on characters included in the character area and the table area divided by the layout analysis processing module 102.

【0025】次に、オブジェクト抽出モジュール104
では、文字認識処理モジュールにおける認識結果のう
ち、ユーザが修正を希望する所望の領域を抽出可能な、
オブジェクトの抽出処理を行う。ここでオブジェクトと
は、図14に示した文書画像の例で説明すると、図14
のオブジェクトの構成は、同図最上段のTitle_T
ext,そのタイトル下のText領域1,そのテキス
ト領域左下のText領域2,そのテキスト領域右側の
写真(Pict)傾域,そして、最下部の表(Tabl
e)領域というオブジェクトの構成を有しており、オブ
ジェクト抽出モジュール104では、これらのオブジェ
クトのうち所望する領域のみ抽出して修正を行なう。
Next, the object extraction module 104
In the recognition result in the character recognition processing module, it is possible to extract a desired area that the user wants to correct,
Performs object extraction processing. Here, the object will be described with reference to the example of the document image shown in FIG.
The structure of the object is Title_T at the top of the figure.
ext, a text area below the title 1, a text area at the lower left of the text area 2, a picture (Pict) slope area on the right side of the text area, and a table (Tabl) at the bottom.
e) The object extraction module 104 has a configuration of an object called an area, and the object extraction module 104 extracts and corrects only a desired area from these objects.

【0026】次に、オブジェクト修正モジュール105
では、ユーザが抽出を指定したオブジェクトに対して、
文字修正や表修正が可能なモジュールである。
Next, the object correction module 105
Now, for objects that the user has specified to extract,
It is a module that can modify characters and tables.

【0027】次に、画像修正モジュール106では、原
稿画像(元画像)に描かれていた文字、表罫線等を消去
した後、その消去した部分に、修正した文字等のオブジ
ェクトに相当する画像を書き込むことにより、修正が完
了した原稿画像107を得る。
Next, the image correction module 106 deletes characters, table rule lines, and the like drawn on the original image (original image), and places an image corresponding to an object such as a corrected character on the deleted portion. By writing, a document image 107 that has been corrected is obtained.

【0028】以上の各モジュールを情報処理装置に実行
させることにより、ユーザは、例えば図15の如く入力
された原画像を、図14に示すような正しい状態の原稿
画像に容易に修正することができる。
By causing the information processing apparatus to execute each of the above modules, the user can easily correct the input original image as shown in FIG. 15 to a correct original image as shown in FIG. it can.

【0029】次に、上述した各モジュールの機能につい
て、原稿画像に含まれる表領域をユーザが修正する場合
を例に詳細に説明する(尚、表領域の修正手順の詳細に
ついては、図6から図8を参照して後述する)。
Next, the function of each of the above-described modules will be described in detail with reference to an example in which a user modifies a table area included in a document image. This will be described later with reference to FIG. 8).

【0030】図3は、本実施形態における情報処理装置
による原稿画像修正処理を示すフローチャートであり、
予め記憶装置26に格納されているプログラムに従って
CPU21が実行する処理を示す。
FIG. 3 is a flowchart showing a document image correcting process by the information processing apparatus according to the present embodiment.
The processing executed by the CPU 21 according to a program stored in the storage device 26 in advance is shown.

【0031】同図において、ステップS1:スキャナ2
8を利用して、或いは記憶装置26から、図14に例示
するような文書画像データ(原稿画像)を読み込む(原
稿画像は通信回線30を介して外部装置から入手しても
良い)。尚、本実施形態では、白黒2値画像を修正の対
象としている。
In the figure, step S1: scanner 2
The document image data (document image) illustrated in FIG. 14 is read using the storage device 8 or from the storage device 26 (the document image may be obtained from an external device via the communication line 30). In this embodiment, a black-and-white binary image is to be corrected.

【0032】ステップS2:ステップS1で当該情報処
理装置内に読み込んだ原稿画像に対するレイアウト解析
を一般的な手法によって行うことにより、当該原稿画像
を、文字領域、図形領域、表領域等の領域毎に分離する
と共に、表領域については構造解析を行うことにより表
構造情報を生成する。
Step S2: By performing a layout analysis on the original image read into the information processing apparatus in step S1 by a general method, the original image is divided into character areas, graphic areas, table areas, and the like. In addition to the separation, table structure information is generated by performing structural analysis on the table area.

【0033】ステップS3:ステップS2で領域分割さ
れた各領域に含まれる文字部分について一般的な文字認
識処理を行う。
Step S3: A general character recognition process is performed on the character portion included in each of the regions divided in step S2.

【0034】ステップS4:ステップS3における文字
認識処理の結果を、記憶装置26等に格納する。
Step S4: The result of the character recognition processing in step S3 is stored in the storage device 26 or the like.

【0035】ステップS5:ステップS4で記憶した認
識結果のうち、キーボード23等を利用してユーザが修
正対象として指定したオブジェクトを抽出する。本実施
形態では、原稿画像に含まれる表領域が指定されたもの
とする。
Step S5: From the recognition results stored in step S4, an object specified by the user as a correction target is extracted using the keyboard 23 or the like. In the present embodiment, it is assumed that a table area included in the document image is specified.

【0036】このとき、CPU21は、原稿画像の中か
ら修正対象の表領域の画像データを抽出するのではな
く、指定された表領域のオブジェクトとして、ステップ
S2で構造解析した結果である表構造情報と、その表の
内部に含まれる文字情報とを抽出する。
At this time, the CPU 21 does not extract the image data of the table area to be corrected from the document image, but extracts the table structure information as a result of the structural analysis in step S2 as an object of the designated table area. And character information included in the table.

【0037】ステップS6:ステップS5でユーザが指
定したオブジェクトの領域に対応する矩形形状の領域
(対象領域)を、ユーザが修正可能にする。
Step S6: The rectangular area (target area) corresponding to the area of the object specified by the user in step S5 can be modified by the user.

【0038】即ち、CPU21は、指定された表領域に
ついてステップS5で抽出したところの、表構造情報及
び文字情報に基づいて、図4に示す如くディスプレイ2
2上に表ワークシートを表示し、その表ワークシートに
対するユーザの入力を許容する。本実施形態では、一般
的なOCRソフトウェアを起動することにより、図5に
示すように、左側のウィンドウにはステップS2におけ
るレイアウト解析の結果が表示されており、右側のウィ
ンドウには図4に示す表ワークシート内の氏名と得点を
表わす数字が変更された状態を示している。
That is, based on the table structure information and the character information extracted in step S5 for the designated table area, the CPU 21 displays the display 2 as shown in FIG.
2 to display a table worksheet and allow a user to input the table worksheet. In the present embodiment, by activating general OCR software, the result of the layout analysis in step S2 is displayed in the left window as shown in FIG. 5, and the right window shown in FIG. This shows a state in which the numbers indicating the names and scores in the table worksheet have been changed.

【0039】ステップS7:ステップS5でユーザが指
定したオブジェクトの領域に対応する矩形形状の領域
(対象領域)を、原稿画像(元画像)の中から消去す
る。
Step S7: A rectangular area (target area) corresponding to the area of the object designated by the user in step S5 is erased from the original image (original image).

【0040】ステップS8:当該対象領域に、ステップ
S6でユーザが修正した情報に対応する画像(修正画
像)を生成し、その生成した画像を当該対象領域に書き
込む。これにより、本実施形態では、図4の内容から図
5に示す内容に表領域だけが修正(変更)された図14
に示す原稿画像が得られる。
Step S8: Generate an image (corrected image) corresponding to the information corrected by the user in step S6 in the target area, and write the generated image in the target area. Thus, in the present embodiment, only the table area is modified (changed) from the content of FIG. 4 to the content of FIG.
Is obtained.

【0041】ステップS9:ステップS8で当該対象領
域に修正画像が書き込まれた原稿画像のデータを、記憶
装置26等に格納する。
Step S9: The data of the original image in which the corrected image has been written in the target area in step S8 is stored in the storage device 26 or the like.

【0042】ここで、上述した図3の原稿画像修正処理
により行われる表領域の修正手順について詳細に説明す
る。
Here, a procedure for correcting a table area performed by the above-described document image correcting process of FIG. 3 will be described in detail.

【0043】ステップS2でレイアウト解析を行なう
と、原稿画像は、文字領域、表領域、写真領域等の各種
属性を持った複数種類の領域に分離される。レイアウト
解析の手法については、現在では周知の輪郭線追跡によ
る解析手法やラベリング方式による解析手法を採用すれ
ば良い。
When the layout analysis is performed in step S2, the document image is separated into a plurality of types of regions having various attributes such as a character region, a table region, and a photograph region. As a layout analysis method, a well-known analysis method based on contour tracing or an analysis method based on a labeling method may be adopted at present.

【0044】図6は、本実施形態におけるレイアウト解
析の結果として生成される属性情報の構造を示す図であ
る。
FIG. 6 is a diagram showing the structure of attribute information generated as a result of layout analysis in this embodiment.

【0045】同図に示すように、本実施形態でレイアウ
ト解析の結果として生成される属性の種類としては、T
ext、Picture、Table、Line、No
iseの各領域を採り得る。
As shown in the figure, the type of attribute generated as a result of the layout analysis in this embodiment is T
ext, Picture, Table, Line, No
Each region of the issue can be taken.

【0046】Text領域は、原稿画像中の文字が含ま
れる領域を表わし、図6に示すように、本文(TX_T
ext)、タイトル(TX_TITLE)、キャプショ
ン(TX_CAPTION)、そしてサブ属性として表
内文字(TB_CELL)の各属性が付与される。
The Text area represents an area including characters in a document image, and as shown in FIG.
ext), title (TX_TITLE), caption (TX_CAPTION), and in-table character (TB_CELL) as sub-attributes.

【0047】Picture領域は、原稿画像中の写真
や絵の領域を表わし、図6に示すように、自然画(PI
_PICTURE)、線画及び図形)等(PI_DRA
W)の各属性が付与される。
The Picture area represents an area of a photograph or a picture in a document image, and as shown in FIG.
_PICTURE), line drawings and figures), etc. (PI_DRA
Each attribute of W) is assigned.

【0048】Table領域は、原稿画像中の表領域を
表わし、図6に示すように、表外枠(TB_FRAM
E)、表内の罫線で囲まれた領域(TB_REGIO
N)、表内セル(TB_CELL)、文字行単位(TB
_ELEMENT)の各属性(表構造情報)が付与され
る。
The Table area represents a table area in a document image, and as shown in FIG. 6, an outer frame (TB_FRAM).
E), an area surrounded by ruled lines in the table (TB_REGIO)
N), table cell (TB_CELL), character row unit (TB
_ELEMENT) (table structure information).

【0049】Line領域は、原稿画像中の線画を表わ
し、図6に示すように、水平線(HLINE)、垂直線
(VLINE)、斜め線(SLINE)、閉領域でない
線(Frame)の各属性が付与される。
The Line area represents a line image in a document image. As shown in FIG. 6, each attribute of a horizontal line (HLINE), a vertical line (VLINE), a diagonal line (SLINE), and a line (Frame) that is not a closed area is shown. Granted.

【0050】そして、Noise領域は、原稿画像のう
ち、上記の各領域として認識できなかった領域に対して
設定される。
The noise area is set for an area of the document image that cannot be recognized as each of the above areas.

【0051】図7は、本実施形態におけるレイアウト解
析の結果として生成される属性情報のデータ保存時の構
造を示す図であり、RAM25や記憶装置26に格納さ
れる際のアドレス構造を示す。
FIG. 7 is a diagram showing a structure of attribute information generated as a result of layout analysis in the present embodiment when data is stored, and shows an address structure when stored in the RAM 25 or the storage device 26.

【0052】同図において、領域1002から領域10
06には、図6に示すレイアウト解析の結果が保存され
る。
In the same figure, the region 1002 to the region 10
06 stores the results of the layout analysis shown in FIG.

【0053】領域1007には、Text領域1002
に対してステップS3で行われる文字認識結果が保存さ
れる。文字認識結果が格納される領域1007は、その
内部で更に、文字領域の外枠情報(Area)、行情報
(Line)、文字情報(Character)、そし
て文字コード情報(Code)の各領域を有しており、
文字コード情報には、文字認識の候補文字の情報も含ま
れている。
The area 1007 includes a text area 1002
Is stored in step S3. An area 1007 in which the character recognition result is stored further includes areas of outer frame information (Area), line information (Line), character information (Character), and character code information (Code) of the character area. And
The character code information also includes information on candidate characters for character recognition.

【0054】そして、領域1008には、Pictur
e領域として認識された画像領域が、原稿画像から切り
出されて保存される。
In the area 1008, Pictur
The image area recognized as the e area is cut out from the document image and stored.

【0055】次に、図7及び図8に示すレイアウト解析
の結果を利用して行われる領域情報の中から、ユーザが
修正対象として指定した領域を抽出するステップS5の
抽出処理について、表領域を抽出する場合を例にして説
明する。
Next, from the area information performed using the results of the layout analysis shown in FIG. 7 and FIG. The case of extraction will be described as an example.

【0056】図8は、本実施形態における修正対象領域
の抽出処理の流れを説明する図である。
FIG. 8 is a diagram for explaining the flow of the process of extracting a correction target area in the present embodiment.

【0057】ユーザが修正対象領域として表領域を指定
すると、図7に示したデータ構造の領域1002から1
007の中から、表領域の構造情報1005、そしてそ
の表領域に含まれる文字認識情報1010が抽出され
る。
When the user designates a table area as the area to be corrected, one of the areas 1002 to 1001 of the data structure shown in FIG.
From 007, the structure information 1005 of the table area and the character recognition information 1010 included in the table area are extracted.

【0058】次に、抽出された表領域の構造情報100
5と、文字認識情報1010とを利用して、表ワークシ
ート1105を作成する。作成した表ワークシート11
05において、構造情報1005のCELL情報により
文字の保管が指定されているセルは、当該ワークシート
の1つのセルを占有し、そのセルの内部は、文字認識情
報1010の文字コード情報(Code)に応じた文字
によって埋められる。例えば、図8内の表1106に含
まれる“前期”なる文字は、当該ワークシートの上2行
を占有しているため、表ワークシート1105のセルB
−4の位置に入り、“前期”の左隣には空白セルとな
る。一般に、表ワークシートを構成するセル内の文字数
はあまり多くないため、この場合、文字情報1010に
おけるArea情報もLine情報も文字情報とあまり
変わらない領域を指していることになる。
Next, the structure information 100 of the extracted table area
5 and the character recognition information 1010, a table worksheet 1105 is created. Table worksheet created 11
At 05, a cell for which character storage is specified by the cell information of the structure information 1005 occupies one cell of the worksheet, and the inside of the cell is included in the character code information (Code) of the character recognition information 1010. Filled with the corresponding character. For example, the character “previous” included in the table 1106 in FIG. 8 occupies the upper two lines of the worksheet.
-4, there is a blank cell to the left of “earlier period”. In general, the number of characters in the cells constituting the table worksheet is not so large, and in this case, both the Area information and the Line information in the character information 1010 indicate an area that is not much different from the character information.

【0059】1106には、表ワークシート1105に
埋め込む文字情報に加え、更に文字枠情報も示してい
る。この枠は、表ワークシート1105に埋め込むべき
文字情報に基づいて、矩形形状の文字スペースを1文字
単位で切り出す文字切り処理の結果と、その文字切り処
理の結果により隣接する文字は1つの枠として結合させ
る結合処理の結果とに従って矩形を算出した結果を示し
ている。
1106 shows character frame information in addition to the character information to be embedded in the table worksheet 1105. This frame is based on the character information to be embedded in the table worksheet 1105. Based on the character information, the result of the character cutting process of cutting out the rectangular character space in units of one character, and the adjacent characters according to the result of the character cutting process are regarded as one frame. It shows the result of calculating a rectangle in accordance with the result of the combining process for combining.

【0060】1107は、算出した文字枠情報と、ユー
ザによる修正(変更)箇所の指定情報とに基づいて、数
字の矩形を消去した状態を示しており、数字の書かれた
枠内を、クリア(白で埋める)することにより得られ
る。
Reference numeral 1107 denotes a state in which the number rectangle is erased based on the calculated character frame information and the user's correction (change) designation information, and the inside of the number box is cleared. (Fill with white).

【0061】1108は、1107の如くクリアされた
文字枠の部分に、ステップS6で入力された新規の文字
(数字)を画像として書き込んで得た表である。ここ
で、ユーザが表ワークシート1105に対して入力した
新規の文字を、原稿画像と同種の白黒2値画像に変換す
る方法としては、その入力された文字を文字認識するこ
とによって文字矩形情報を入手し、その文字矩形情報に
含まれるサイズ情報に応じたフォントを用いて、当該文
字領域に対して一般的なフォントレンダリング処理を施
すことにより画像化すれば良い。
Reference numeral 1108 denotes a table obtained by writing, as an image, the new characters (numeric characters) input in step S6 in the portion of the character frame cleared as in 1107. Here, as a method of converting a new character input by the user to the table worksheet 1105 into a black-and-white binary image of the same type as the original image, character rectangular information is obtained by character recognition of the input character. It is sufficient to obtain the image by performing a general font rendering process on the character area using a font corresponding to the size information included in the character rectangle information.

【0062】このように、本実施形態に係る情報処理装
置では、原稿画像の部分修正を行うに際して、その原稿
画像の修正対象の画像部分に新たな画像を埋め込むこと
により、原稿画像を容易に修正・変更することができ
る。
As described above, in the information processing apparatus according to the present embodiment, when a document image is partially corrected, the original image is easily corrected by embedding a new image in the image portion to be corrected of the document image.・ Can be changed.

【0063】尚、本実施形態では、Table領域の修
正を対象に説明したが、Text領域を修正対象として
も良い。この場合、文字列がずれたときには修正対象の
文字を1文字ずつ移動させれば良い。また、Pictu
re領域を修正対象とするときには、図7の画像保管領
域1008に格納されている画像に画像レタッチソフト
ウエアを用いて修正を施し、原稿画像の対応する位置に
埋め込めば良い <実施形態の変形例1>上記の実施形態では、表領域に
含まれる文字情報のみを変更する例を説明したが、本変
形例では、更に表構造も変更する場合について説明す
る。
Although the present embodiment has been described with reference to the modification of the table area, the text area may be modified. In this case, when the character string is shifted, the characters to be corrected may be moved one by one. Also, Pictu
When the re area is to be corrected, the image stored in the image storage area 1008 in FIG. 7 may be corrected using image retouching software and embedded in the corresponding position of the document image. 1> In the above embodiment, an example in which only the character information included in the table area is changed has been described. However, in the present modification, a case in which the table structure is further changed will be described.

【0064】図9は、修正対象の表領域に対して、その
表領域に含まれる文字情報と、表構造とを変更する場合
を説明する図である。
FIG. 9 is a diagram for explaining a case where, for a table area to be corrected, character information and a table structure included in the table area are changed.

【0065】図9において、1201は修正前の原稿画
像に含まれる表領域の画像である。例えば、この表に1
列追加する場合は、1202に示すように空白行を1行
挿入し、1203に示すように当該空白行に所望の文字
を挿入する。新たな文字の入力操作は、ユーザにより表
ワークシートで行われる。
In FIG. 9, reference numeral 1201 denotes an image of a table area included in a document image before correction. For example, in this table
When adding a column, one blank line is inserted as shown at 1202, and desired characters are inserted into the blank line as shown at 1203. The input operation of a new character is performed by the user on the table worksheet.

【0066】表ワークシートを用いた行の追加は、ユー
ザの操作としては容易であるため好ましいが、表構造の
変更を伴うため、その変更を元の表領域の情報に反映さ
せる必要が有る。
Adding a row using a table worksheet is preferable because it is easy for the user to operate, but it involves a change in the table structure, and it is necessary to reflect the change in the original table area information.

【0067】そこで、本変形例では、元の原稿画像の範
囲を拡張しても他のオブジェクトに影響されないような
場合には表領域そのものを一旦消去し、表の枠組みを再
描画させる。これは、罫線を画像に書き込む処理とな
る。
Therefore, in this modification, when the range of the original document image is not affected by other objects even if the range of the original document image is expanded, the table area itself is temporarily deleted and the frame of the table is redrawn. This is a process of writing a ruled line in an image.

【0068】罫線の書き込み処理は、新規に線を書き込
む方法であっても、元の原稿画像の表領域から線を切り
出して書き込んでも良い。後者の場合、新規の行は、そ
の一つ前の行の線を用いてコピーすれば良い。
The writing process of the ruled line may be a method of writing a new line or a method of writing by cutting out a line from the table area of the original document image. In the latter case, the new line may be copied using the line of the previous line.

【0069】次に、表の罫線が描かれたら、その表を構
成するセルの中に文字を挿入する。セルの中に文字を挿
入するに際して、ユーザによる文字修正が行われていな
い文字部分であって、行修正と関係ない場所の文字部分
については、その文字部分を元の原稿画像から切り出し
て、新規の表内の対応するセルの中に挿入する。一方、
文字修正は行われていないが、行修正(図9の1202
では行の追加)が行われた部分に位置する原稿画像の文
字については、例えば1202中の“合計”という文字
は、修正前と比較して下に移動しているため、そのまま
元の画像に含まれる文字を貼り付けるのではなく、追加
された文字行分だけ下げた位置に貼り付ける。そして、
追加された行には、ユーザが入力した新規の文字(数
字)を書き込む。
Next, when the ruled lines of the table are drawn, characters are inserted into the cells constituting the table. When inserting a character into a cell, for a character portion that has not been corrected by the user and is not related to the line correction, the character portion is cut out from the original document image and a new character portion is cut out. Insert into the corresponding cell in the table. on the other hand,
Although the character is not corrected, the line is corrected (1202 in FIG. 9).
For example, as for the characters of the original image located in the portion where the line has been added), the character “total” in 1202 has been moved down compared to before the correction. Instead of pasting the included characters, paste them at the position lowered by the added character line. And
A new character (number) input by the user is written in the added line.

【0070】図10は、本実施形態の変形例1における
表領域の修正処理を示すフローチャートである。
FIG. 10 is a flowchart showing a process of correcting a table area according to the first modification of the present embodiment.

【0071】同図において、ステップS21〜ステップ
S23:原稿画像の中の修正対象がユーザにより指定さ
れたら(ステップS21)、その表領域の情報を図3の
ステップS5と同様に抽出し(ステップS22)、抽出
した情報に基づいて図9の1201に示すように表ワー
クシートを生成・表示する(ステップS23)。
In the figure, steps S21 to S23: When a correction target in a document image is designated by the user (step S21), information on the table area is extracted in the same manner as step S5 in FIG. 3 (step S22). ), A table worksheet is generated and displayed based on the extracted information as shown by 1201 in FIG. 9 (step S23).

【0072】ステップS24:表示されている表ワーク
シートに対して、例えば図9の1202及び1203に
示すような表構造の変更を伴う修正(文字の修正を含
む)を、ユーザが入力する。このとき、後段の処理ステ
ップにて利用すべく、表構造の変更を伴う修正及び文字
修正が入力されたか否かに応じて、内部処理フラグの状
態を変更する。このとき、文字修正の有無については、
当該内部処理フラグによって1文字単位で記憶する。
Step S24: For the displayed table worksheet, the user inputs a correction (including a correction of characters) accompanying a change in the table structure as shown in, for example, 1202 and 1203 in FIG. At this time, the state of the internal processing flag is changed according to whether or not a correction accompanied by a change in the table structure and a character correction have been input for use in a subsequent processing step. At this time, the presence or absence of character correction
It is stored in units of one character according to the internal processing flag.

【0073】ステップS25:ステップS24にて記憶
した内部処理フラグの状態を検出することにより、表示
している表ワークシートに対して表構造の変更を伴うよ
うな修正がなされたか否かを判断し、その判断でYES
(表構造の変更あり)のときにはステップS30に進
み、NO(表構造の変更なし)のときにはステップS2
6に進む。
Step S25: By detecting the state of the internal processing flag stored in step S24, it is determined whether or not the displayed table worksheet has been modified so as to change the table structure. , YES
When the table structure has been changed, the process proceeds to step S30, and when NO (no change in the table structure), the process proceeds to step S2.
Proceed to 6.

【0074】ステップS26:ステップS25の判断で
NOのときには、ステップS24にて記憶した内部処理
フラグの状態を検出することにより、表示されている表
ワークシートにおいて、文字の修正が行われたか否かを
判断する。
Step S26: If the determination in step S25 is NO, the state of the internal processing flag stored in step S24 is detected to determine whether or not the character has been corrected in the displayed table worksheet. Judge.

【0075】ステップS27:ステップS26の判断で
文字の修正が無いと判断したときには処理を終了する。
Step S27: If it is determined in step S26 that there is no character correction, the process is terminated.

【0076】ステップS28,ステップS29:ステッ
プS26の判断で文字の修正が有ると判断したときに
は、ステップS24にて記憶した内部処理フラグの状態
を検出することにより、その修正された文字の部分を1
文字単位で修正し、ステップS29では、新たに入力さ
れた文字を、1文字単位でText領域1002(図
7)に格納する。
Steps S28 and S29: If it is determined in step S26 that the character is corrected, the state of the internal processing flag stored in step S24 is detected, and the corrected character portion is set to 1
Correction is performed in units of characters, and in step S29, the newly input character is stored in text region 1002 (FIG. 7) in units of one character.

【0077】ステップS30,ステップS31:ステッ
プS25の判断でYESのときには、現在抽出されてい
る表領域全体を一旦消去し(ステップS30)、表の枠
組みを、新規に線を書き込む、或いは元の原稿画像の表
領域から線を切り出すことによって再描画し(ステップ
S31)、ステップS32,ステップS33:ユーザに
よる文字修正が行われていない文字部分であって、行修
正と関係ない場所の文字部分は、元の原稿画像から切り
出して挿入し(ステップS32)、ユーザによる文字修
正が行われている文字部分には、その修正された文字を
1文字単位で挿入する。
Steps S30 and S31: If the determination in step S25 is YES, the entire currently extracted table area is temporarily erased (step S30), and the table framework is changed to a new line or the original document is written. The image is redrawn by cutting out a line from the table area of the image (step S31). Steps S32 and S33: The character portions that have not been subjected to character correction by the user and are not related to the line correction are: The original document image is cut out and inserted (step S32), and the corrected character is inserted in units of one character into the character portion where the character has been corrected by the user.

【0078】ステップS34:表ワークシートを画像に
変換し、元の原稿画像の対応する部分に埋め込むことに
より、修正後の原稿画像を得る。
Step S34: The front worksheet is converted into an image and embedded in a corresponding portion of the original document image to obtain a corrected document image.

【0079】このように、本変形例では、原稿画像に含
まれる表領域の文字情報と表構造とを反映させることが
できる。
As described above, in this modification, the character information and the table structure of the table area included in the original image can be reflected.

【0080】<実施形態の変形例2>上記の変形例1で
は、ステップS30及びステップS31において表の罫
線を表示するときに、元の原稿画像の範囲を拡張しても
他のオブジェクトに干渉しないとして説明したが、本変
形例では、他のオブジェクトと重なってしまう場合につ
いて説明する。
<Modification 2 of Embodiment> In Modification 1, when displaying the ruled lines of the table in steps S30 and S31, even if the range of the original document image is expanded, it does not interfere with other objects. However, in the present modification, a case where the object overlaps with another object will be described.

【0081】図11は、本実施形態の変形例2における
表領域の修正処理を示すフローチャートのうち、図10
に示す変形例1のフローチャートと異なる部分を抜粋し
たフローチャートである。
FIG. 11 is a flowchart showing a process of correcting a table area according to the second modification of the present embodiment.
10 is a flowchart in which portions different from those of the first modification shown in FIG.

【0082】同図において、ステップS25の判断で表
構造に修正が加えられたと判断したときには、ステップ
S35において他のオブジェクトと重なるか否かを判断
し、YESのときには切り出した表領域を縮小して、拡
張しても元の位置に入るようにしてからステップS30
に進み、NOのときにはステップS30に進む。この判
断には、表修正後の領域情報に含まれる当該領域を表わ
す座標情報或いは辺情報と、他のオブジェクトの領域情
報に含まれる当該領域を表わす座標情報或いは辺情報と
を比較することにより、重複する部分が有るかを判断す
れば良い。また、切り出した表領域を縮小する方法とし
ては、例えば、線形間引き処理、或いは補間間引き処理
等の一般的な画像縮小処理を採用すれば良い。
In the figure, when it is determined in step S25 that the table structure has been modified, it is determined in step S35 whether or not it overlaps with another object. In the case of YES, the cut-out table area is reduced. , So that the original position is obtained even after the expansion
The process proceeds to step S30 if NO. In this determination, by comparing the coordinate information or the side information indicating the area included in the area information after the table correction with the coordinate information or the side information indicating the area included in the area information of another object, What is necessary is just to judge whether there is an overlapping part. As a method of reducing the cut-out table region, for example, a general image reduction process such as a linear thinning process or an interpolation thinning process may be adopted.

【0083】尚、本変形例では、ステップS36で画像
を縮小する場合には、ステップS32で修正なしの文字
をコピーするときに、縮小された画像内の当該文字を利
用する。また、新規に追加された文字については、ステ
ップS36における画像の縮小率に対応したポイントの
文字を使用する。
In this modification, when the image is reduced in step S36, when the character without correction is copied in step S32, the character in the reduced image is used. For the newly added character, the character at the point corresponding to the reduction ratio of the image in step S36 is used.

【0084】このような本変形例によれば、修正対象の
表領域と他の領域が重なることを防止することができ
る。
According to this modification, it is possible to prevent the table area to be corrected from overlapping another area.

【0085】[0085]

【他の実施形態】尚、本発明は、複数の機器(例えばホ
ストコンピュータ、インタフェイス機器、リーダ、プリ
ンタ等)から構成されるシステムに適用しても、一つの
機器からなる装置(例えば、複写機、ファクシミリ装置
等)に適用してもよい。
[Other Embodiments] Even if the present invention is applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), an apparatus (for example, a copying machine) Machine, facsimile machine, etc.).

【0086】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体(または記録媒体)を、システムあるい
は装置に供給し、そのシステムあるいは装置のコンピュ
ータ(またはCPUやMPU)が記憶媒体に格納されたプログ
ラムコードを読み出し実行することによっても、達成さ
れることは言うまでもない。この場合、記憶媒体から読
み出されたプログラムコード自体が前述した実施形態の
機能を実現することになり、そのプログラムコードを記
憶した記憶媒体は本発明を構成することになる。また、
コンピュータが読み出したプログラムコードを実行する
ことにより、前述した実施形態の機能が実現されるだけ
でなく、そのプログラムコードの指示に基づき、コンピ
ュータ上で稼働しているオペレーティングシステム(OS)
等が実際の処理の一部または全部を行い、その処理によ
って前述した実施形態の機能が実現される場合も含まれ
ることは言うまでもない。
Further, an object of the present invention is to supply a storage medium (or a recording medium) in which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or an apparatus, and a computer (a computer) of the system or the apparatus. It is needless to say that the present invention can also be achieved by a CPU or an MPU) reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium implements the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention. Also,
When the computer executes the readout program code, not only the functions of the above-described embodiments are realized, but also the operating system (OS) running on the computer based on the instructions of the program code.
It goes without saying that the present invention includes a case in which the functions of the above-described embodiments are implemented by performing part or all of the actual processing.

【0087】更に、記憶媒体から読み出されたプログラ
ムコードが、コンピュータに挿入された機能拡張カード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張カードや機能拡張ユニットに備わ
るCPU等が実際の処理の一部または全部を行い、その処
理によって前述した実施形態の機能が実現される場合も
含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into the memory provided in the function expansion card inserted into the computer or the function expansion unit connected to the computer, the program code is read based on the instruction of the program code. Needless to say, a case is also included in which a CPU or the like provided in the function expansion card or function expansion unit performs part or all of actual processing, and the processing realizes the functions of the above-described embodiments.

【0088】[0088]

【発明の効果】以上説明したように、本発明によれば、
原稿画像を利用して電子ドキュメントの修正を容易且つ
迅速に行うことが可能な情報処理装置の提供が実現す
る。
As described above, according to the present invention,
An information processing apparatus capable of easily and quickly correcting an electronic document using a document image is provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態における情報処理装置のブロック構
成図である。
FIG. 1 is a block diagram of an information processing apparatus according to an embodiment.

【図2】本実施形態における情報処理装置による原稿画
像修正時の処理の流れを示す図である。
FIG. 2 is a diagram showing a flow of processing when a document image is corrected by the information processing apparatus according to the embodiment.

【図3】本実施形態における情報処理装置による原稿画
像修正処理を示すフローチャートである。
FIG. 3 is a flowchart illustrating a document image correction process performed by the information processing apparatus according to the embodiment.

【図4】原稿画像から抽出した表領域の文字情報と構造
情報とに基づいて作成された表ワークシートの一例を示
す図である。
FIG. 4 is a diagram illustrating an example of a table worksheet created based on character information and structure information of a table area extracted from a document image.

【図5】レイアウト解析の結果と、表ワークシートとが
表示されたOCRソフトウェアのGUIを示す図であ
る。
FIG. 5 is a view showing a GUI of OCR software on which a result of layout analysis and a table worksheet are displayed.

【図6】本実施形態におけるレイアウト解析の結果とし
て生成される属性情報の構造を示す図である。
FIG. 6 is a diagram illustrating a structure of attribute information generated as a result of layout analysis according to the embodiment.

【図7】本実施形態におけるレイアウト解析の結果とし
て生成される属性情報のデータ保存時の構造を示す図で
ある。
FIG. 7 is a diagram showing a structure of attribute information generated as a result of layout analysis in the embodiment when data is stored.

【図8】本実施形態における修正対象領域の抽出処理の
流れを説明する図である。
FIG. 8 is a diagram illustrating a flow of a process of extracting a correction target area according to the present embodiment.

【図9】修正対象の表領域に対して、その表領域に含ま
れる文字情報と、表構造とを変更する場合を説明する図
である。
FIG. 9 is a diagram illustrating a case where character information and a table structure included in a table area to be modified are changed.

【図10】本実施形態の変形例1における表領域の修正
処理を示すフローチャートである。
FIG. 10 is a flowchart illustrating a correction process of a table area according to a first modification of the embodiment.

【図11】本実施形態の変形例2における表領域の修正
処理を示すフローチャートのうち、図10に示す変形例
1のフローチャートと異なる部分を抜粋したフローチャ
ートである。
11 is a flowchart in which a part different from the flowchart of the first modification shown in FIG. 10 is extracted from the flowchart showing the correction processing of the table area in the second modification of the embodiment.

【図12】情報処理装置による一般的な電子ドキュメン
ト作成時の処理の流れを示す図である。
FIG. 12 is a diagram showing a flow of processing when a general electronic document is created by the information processing apparatus.

【図13】一般的なOCRソフトウエアにおけるGUI
を例示する図である。
FIG. 13: GUI in general OCR software
FIG.

【図14】文書画像(原稿画像)の例を示す図である。FIG. 14 is a diagram illustrating an example of a document image (document image).

【図15】図14に例示する原稿画像を、一般的なワー
プロソフトに従った電子ドキュメントに変換した場合を
例示する図である。
FIG. 15 is a diagram exemplifying a case where the document image illustrated in FIG. 14 is converted into an electronic document according to general word processing software;

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 入力された原稿画像のレイアウト解析を
行う解析手段と、 前記解析手段による解析結果の中から、修正対象領域と
して指定された領域に関する情報を抽出する抽出手段
と、 前記抽出手段によって抽出された修正対象領域に関する
情報を修正可能な修正手段と、 前記原稿画像の中から、前記修正手段により修正した修
正対象領域に関する情報が表わす画像領域を消去する消
去手段と、 前記消去手段により画像が消去された領域に、前記修正
手段により修正した修正対象領域に関する情報が表わす
画像を挿入する画像更新手段と、を備えることを特徴と
する情報処理装置。
An analyzing means for analyzing a layout of an input document image; an extracting means for extracting information on an area designated as a correction target area from an analysis result by the analyzing means; Correcting means for correcting the extracted information on the correction target area; erasing means for erasing, from the original image, an image area represented by the information on the correction target area corrected by the correcting means; And an image updating unit for inserting an image represented by the information on the correction target region corrected by the correction unit into the region where is deleted.
【請求項2】 前記消去手段は、前記修正対象領域に関
する情報が表わす画像領域のうち、その領域に含まれる
文字を囲む矩形内の画像領域を消去することを特徴とす
る請求項1記載の情報処理装置。
2. The information according to claim 1, wherein the erasing unit erases an image area within a rectangle surrounding a character included in the area included in the information about the area to be corrected. Processing equipment.
【請求項3】 前記修正手段は、前記修正対象領域とし
て指定された領域が表領域である場合に、その表領域に
関する情報を、表ワークシート形式のマンマシンインタ
フェースにより修正可能であることを特徴とする請求項
1記載の情報処理装置。
3. When the area specified as the area to be corrected is a table area, the correction means can correct information on the table area by a man-machine interface in a table worksheet format. The information processing apparatus according to claim 1.
【請求項4】 前記修正手段は、前記修正対象領域とし
て指定された領域が文字領域である場合に、その文字領
域に関する情報を、テキストエディタ形式のマンマシン
インタフェースにより修正可能であることを特徴とする
請求項1記載の情報処理装置。
4. The method according to claim 1, wherein when the area specified as the area to be corrected is a character area, the correction means can correct information on the character area by a text editor type man-machine interface. The information processing apparatus according to claim 1, wherein
【請求項5】 前記修正手段は、前記修正対象領域とし
て指定された領域がピクチャ領域である場合に、そのピ
クチャ領域に関する情報を、画像レタッチ形式のマンマ
シンインタフェースにより修正可能であることを特徴と
する請求項1記載の情報処理装置。
5. The image processing apparatus according to claim 1, wherein when the area specified as the area to be corrected is a picture area, the correcting means can correct information on the picture area by a man-machine interface in an image retouching format. The information processing apparatus according to claim 1, wherein
【請求項6】 前記修正手段において、前記表ワークシ
ート形式のマンマシンインタフェースを介して入力され
た修正情報により、前記表領域の構造が変更された場合
において、 前記画像更新手段は、前記修正手段にて入力された修正
情報に応じて、前記原稿画像に含まれる前記修正対象領
域以外の一部の画像領域を移動させることを特徴とする
請求項5記載の情報処理装置。
6. When the structure of the table area is changed by the correction information input through a man-machine interface in the form of a table worksheet, the image updating means may include the correction means. 6. The information processing apparatus according to claim 5, wherein a part of the image area other than the correction target area included in the document image is moved according to the correction information input in step (a).
【請求項7】 前記修正手段において、前記表ワークシ
ート形式のマンマシンインタフェースを介して入力され
た修正情報により、前記表領域の構造が変更された場合
において、 前記画像更新手段は、前記修正手段にて入力された修正
情報に応じて前記修正対象領域を更新することによって
周囲の他の領域と干渉すると判断したとき、更新に先立
って該修正対象領域を縮小することを特徴とする請求項
1記載の情報処理装置。
7. The image updating means, wherein the structure of the table area is changed by correction information input through a man-machine interface in the form of a table worksheet. 2. The method according to claim 1, wherein when it is determined that the correction target area is updated according to the correction information input and interferes with other surrounding areas, the correction target area is reduced prior to the update. An information processing apparatus according to claim 1.
JP26937299A 1999-09-22 1999-09-22 Information processing device Withdrawn JP2001094760A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26937299A JP2001094760A (en) 1999-09-22 1999-09-22 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26937299A JP2001094760A (en) 1999-09-22 1999-09-22 Information processing device

Publications (1)

Publication Number Publication Date
JP2001094760A true JP2001094760A (en) 2001-04-06

Family

ID=17471491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26937299A Withdrawn JP2001094760A (en) 1999-09-22 1999-09-22 Information processing device

Country Status (1)

Country Link
JP (1) JP2001094760A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008311930A (en) * 2007-06-14 2008-12-25 Canon Inc Image processor, image processing method, computer program, and storage medium
US7899246B2 (en) 2005-09-16 2011-03-01 Ricoh Company, Limited Image display device, image display method, and computer product
CN105245751A (en) * 2014-07-07 2016-01-13 佳能株式会社 Information processing apparatus and information processing method
JP2016027444A (en) * 2014-07-07 2016-02-18 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2016046668A (en) * 2014-08-22 2016-04-04 キヤノン株式会社 Information processing device, information processing method, and program
US10607381B2 (en) 2014-07-07 2020-03-31 Canon Kabushiki Kaisha Information processing apparatus
JP2021149977A (en) * 2020-03-13 2021-09-27 株式会社バリューブリッジ Submitted data re-editing device, submitted data re-editing method and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7899246B2 (en) 2005-09-16 2011-03-01 Ricoh Company, Limited Image display device, image display method, and computer product
EP1764999B1 (en) * 2005-09-16 2013-03-20 Ricoh Company, Ltd. Image display device image display method, and computer product
JP2008311930A (en) * 2007-06-14 2008-12-25 Canon Inc Image processor, image processing method, computer program, and storage medium
CN105245751A (en) * 2014-07-07 2016-01-13 佳能株式会社 Information processing apparatus and information processing method
EP2966578A1 (en) 2014-07-07 2016-01-13 Canon Kabushiki Kaisha Information processing apparatus, information processing method, program, and storage medium
JP2016027681A (en) * 2014-07-07 2016-02-18 キヤノン株式会社 Information processing device, information processing method, and program
JP2016027444A (en) * 2014-07-07 2016-02-18 キヤノン株式会社 Information processing apparatus, information processing method, and program
US9898845B2 (en) 2014-07-07 2018-02-20 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
US10607381B2 (en) 2014-07-07 2020-03-31 Canon Kabushiki Kaisha Information processing apparatus
JP2016046668A (en) * 2014-08-22 2016-04-04 キヤノン株式会社 Information processing device, information processing method, and program
JP2021149977A (en) * 2020-03-13 2021-09-27 株式会社バリューブリッジ Submitted data re-editing device, submitted data re-editing method and program

Similar Documents

Publication Publication Date Title
CN102117269B (en) Apparatus and method for digitizing documents
JP4235286B2 (en) Table recognition method and apparatus
US5734761A (en) Editing scanned document images using simple interpretations
JP5121599B2 (en) Image processing apparatus, image processing method, program thereof, and storage medium
US8952985B2 (en) Digital comic editor, method and non-transitory computer-readable medium
JP4623169B2 (en) Image processing apparatus and image processing program
JPH10240220A (en) Information processing equipment having annotation display function
JP2001094760A (en) Information processing device
JP7241506B2 (en) Correction support device and correction support program for optical character recognition results
JP2002203206A (en) Device and method for identifying document format
JP2000322417A (en) Device and method for filing image and storage medium
JP2014078203A (en) Image processing device and image processing program
US20180032244A1 (en) Input control device, input control method, character correction device, and character correction method
JP4830763B2 (en) Image processing system and image processing program
JPH08329187A (en) Document reader
TWI396099B (en) The typographical method of video text file
JP2003046746A (en) Method and apparatus for processing image
JP2000082110A (en) Ruled line deletion device, character picture extraction device, ruled line deletion method, character picture extraction method and storage medium
JP4357226B2 (en) Form definition device, form definition method, and form definition program
US6275609B1 (en) Image processing apparatus and method
JPH11187231A (en) Image retrieving device and image retrieval method
US8473856B2 (en) Information processing apparatus, information processing method, and information processing program
JP2800205B2 (en) Image processing device
JP3424942B2 (en) Bilingual image forming device
US20090241063A1 (en) Information processing apparatus, information processing method, and computer readable medium for designing a gui

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20061205