JP4974367B2 - Region dividing method and apparatus, and program - Google Patents
Region dividing method and apparatus, and program Download PDFInfo
- Publication number
- JP4974367B2 JP4974367B2 JP2007239484A JP2007239484A JP4974367B2 JP 4974367 B2 JP4974367 B2 JP 4974367B2 JP 2007239484 A JP2007239484 A JP 2007239484A JP 2007239484 A JP2007239484 A JP 2007239484A JP 4974367 B2 JP4974367 B2 JP 4974367B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- region
- user
- extraction
- specified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Character Input (AREA)
Description
本発明は、文書の画像データより文字領域、表領域、写真領域等の領域を識別して抽出する領域分割方法及び装置、並びにその方法を実行するためのコンピュータプログラムに関する。 The present invention relates to an area dividing method and apparatus for identifying and extracting areas such as a character area, a table area, and a photograph area from image data of a document, and a computer program for executing the method.
文書を読み取って生成した画像データを処理し、テキストデータとして再利用する場合、文字で書かれた文章の存在範囲などを示すレイアウト情報を取得することが重要である。例えば、文書の文字認識を行う場合、文書をイメージスキャナ等で画像データとして読み込み、文字領域と図形領域等に領域分割を行なってレイアウト情報を得る。そして、文字領域に関しては文字認識処理を行なってテキストデータへ変換する。この場合、領域分割は文字認識処理の前処理として利用されることになる。領域分割は、文字認識処理の前処理だけでなく、文書の画像データを光ディスク等にファィリングしたり、ファクシミリで送信したりする場合にも、文書の画像中の属性の異なる領域の処理方法を最適化する等のために重要な技術である。 When image data generated by reading a document is processed and reused as text data, it is important to acquire layout information indicating the existence range of sentences written in characters. For example, when character recognition of a document is performed, the document is read as image data with an image scanner or the like, and layout information is obtained by dividing the area into character areas and graphic areas. The character area is converted into text data by performing character recognition processing. In this case, the area division is used as a pre-process for the character recognition process. For area segmentation, the processing method for areas with different attributes in the document image is optimal not only for character recognition pre-processing, but also when document image data is filed on an optical disk or transmitted by facsimile. It is an important technology for making it easier.
自動的に領域分割を行う技術としては、射影を利用する方法(特許文献1)、黒画素の統合による方法(特許文献2)等、様々な手法が提案されている。しかし、これらの自動的な領域分割技術では、複雑なレイアウトや不規則な形式の文書を正確に領域分割することは非常に困難である。 Various techniques such as a method using projection (Patent Document 1) and a method using black pixel integration (Patent Document 2) have been proposed as techniques for automatically dividing an area. However, with these automatic area dividing techniques, it is very difficult to accurately divide a complex layout or an irregularly formatted document.
また、手動による情報を利用して領域分割を行う技術として、領域分割装置に対して、ユーザーが文書画像中の任意の領域を選択し、選択した各領域毎にその内部にポイントを1つずつ指定し、領域分割装置において該指定されたポイントの位置を証拠として利用して文書画像の領域分割を行うようにした領域分割方法及び装置がある(特許文献3)。この技術によれば、ユーザーの領域指定情報を積極的に利用することで、領域分割の精度を高めることができる。 In addition, as a technique for performing region division using manual information, the user selects an arbitrary region in the document image with respect to the region dividing device, and points are set inside each selected region. There is an area dividing method and apparatus that designates and performs area division of a document image using the position of the designated point as evidence in an area dividing apparatus (Patent Document 3). According to this technique, it is possible to improve the accuracy of region division by actively using the user's region designation information.
しかしながら、特許文献3に記載されている技術では、文書画像中の領域分割する領域中の1点をそれぞれ指定することで領域識別を行うため、文書画像中に存在するほぼ全ての領域を指定しないと、正確な領域識別ができない。つまり、10個の領域のうち、識別が必要な領域が1個であるとしても、残りの9個の識別不要な領域をも選択しないと、正確な識別が行えない。そのため、自動領域識別を行った結果を修正する場合や、単純に1、2個の領域の識別が必要な場合での使用には適していない。また、PDA(携帯情報端末)の表示部やMFP(マルチファンクションプリンタ)の操作パネルなどのようなサイズの小さな画面では、正確なポイントの指定(位置指定)は困難である。
However, in the technique described in
本発明は、このような問題を解決するためになされたもので、その目的は、手動入力を利用して領域分割を行うときに、識別の必要な領域に対するおおまかな位置指定で正確な領域識別を可能にすることである。 The present invention has been made to solve such a problem. The purpose of the present invention is to accurately identify a region by roughly specifying a region to be identified when performing region division using manual input. Is to make it possible.
本発明の領域分割方法は、文書画像を表示する工程と、ユーザーにより指定された、表示されている文書画像の分割対象領域の一部であるユーザー指定領域の位置情報を取得する工程と、前記ユーザー指定領域中の文書画像データに基づいて、前記分割対象領域の抽出を行う工程とを有し、該抽出を行う工程は、前記ユーザー指定領域の内部の情報を抽出する特徴抽出工程と、該抽出された情報に基づいて、前記ユーザー指定領域を文字候補、表候補、図又は写真候補に分類する属性分類工程と、分類された各候補に応じた領域抽出処理を行う工程とを有することを特徴とする領域分割方法である。
本発明のプログラムは、コンピュータに、本発明の領域分割方法の各工程を実行させるためのプログラムである。
本発明の領域分割装置は、本発明のプログラムがインストールされたコンピュータを有する領域分割装置である。
The region dividing method of the present invention includes a step of displaying a document image, a step of acquiring position information of a user-specified region that is specified by a user and is a part of a region to be divided of the displayed document image, based on the document image data in the user-specified region, the possess and performing extraction of the divided region of interest, the step of performing the extract unloading includes a feature extraction step of extracting internal information of the user-specified region, the based on the extracted information, the user-specified region character candidate, that the table candidates, and organic and performing an attribute classification step of classifying the figure or photograph candidate area extraction processing according to the classified each candidate which is a region dividing method according to claim.
Program of the present invention, the computer is a program for executing the steps of the area dividing method of the present invention.
The area dividing apparatus of the present invention is an area dividing apparatus having a computer in which the program of the present invention is installed.
本発明によれば、手動入力を利用して領域分割を行うときに、識別の必要な領域に対するおおまかな位置指定で正確な領域抽出が可能になる。また、領域抽出の前に属性判別を行い、判別された属性(文字、表、図又は写真)に応じて最適な抽出方法を用いることで、最適な抽出結果を得ることができる。 According to the present invention, when performing region division using manual input, it is possible to accurately extract a region by specifying a rough position for a region that needs to be identified. Further, by performing attribute discrimination before region extraction and using an optimum extraction method according to the discriminated attribute (character, table, figure or photograph), an optimum extraction result can be obtained.
以下、本発明の実施形態について図面を参照しながら説明する。
[第1の実施形態]
図1は本発明の第1の実施形態の領域分割装置の構成を示す概略ブロック図である。この領域分割装置は、領域分割処理をマイクロプロセッサ等のデジタル処理により実行し得るように構成したものである。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
FIG. 1 is a schematic block diagram showing the configuration of the area dividing apparatus according to the first embodiment of the present invention. This area dividing device is configured to execute the area dividing process by digital processing such as a microprocessor.
この領域分割装置は、文書を光学的に読み取り、電気信号である文書画像データに変換するスキャナ1と、この領域分割装置全体の制御や各種処理を行うCPU2と、領域分割された文書画像データなどを蓄積するメモリ3と、スキャナ1から入力された文書画像データや領域分割された文書画像データなどを表示するディスプレイ4と、領域分割された文書画像データなどを印刷する印刷装置5と、マウス、タブレットとペンなどのポインティングデバイス6と、CPU2が動作するときに使用する各種プログラムが格納されたプログラム格納ROM/RAM7と、CPU2が動作するときにデータ及びプログラムを一時的に記憶するワークエリアRAM8と、CD−ROMやFDからプログラムを読み込むためのCD−ROM/FDドライブ9とを備えており、これらがバス10に接続されている。
The area dividing device includes a
図2は本実施形態の領域分割装置の動作を示すフローチャートである。
まずステップS1で画像入力を行う。ここでは、図3に示すサンプル文書11をスキャナ1にセットする。スキャナ1から出力されたサンプル文書11の文書画像データは、ステップS2でディスプレイ4に送られ、サンプル文書11の画像が表示される。
FIG. 2 is a flowchart showing the operation of the area dividing apparatus of this embodiment.
First, image input is performed in step S1. Here, the
次いでステップS3で、ユーザーは、ディスプレイ4に表示されているサンプル文書11の画像を見ながらポインティングデバイス6を操作することで、指定領域を入力する。ここでは、図4に示すように、表11aの一部の領域を丸12で囲むことで、表11aの位置をおおまかに指定する。このようにユーザーが指定した領域(以下、ユーザー指定領域と言う)は、ステップS4でディスプレイ4に表示される。
Next, in step S <b> 3, the user inputs the designated area by operating the
次にステップS5で、CPU2は、ユーザー指定領域を、CPU2で扱いやすい領域に変換する。例えば、ユーザーが丸12で囲んだ領域の座標の最大値及び最小値に基づいて矩形データで扱ったり、ユーザー指定領域そのものを切り取って扱ったりしてもよい。
Next, in step S <b> 5, the
次にステップS6でユーザー指定領域の内部の情報抽出を行う。例としてユーザー指定領域の内部の画像データを二値化し、射影のヒストグラムをX,Y軸双方に取ることなどがある(特公平7−95335号公報参照)。ユーザー指定領域の内部の射影のヒストグラムの0に近い値の連続値はおよそ文字間、行間の情報とみなすことが可能であり、ステップS7でその情報を利用して領域分割を行う。この例では射影のヒストグラムの0の連続値が続いた場合、その付近が領域の切れ目と判断することが可能である。(文字領域の場合)。 Next, in step S6, information inside the user designated area is extracted. For example, the image data inside the user-specified area is binarized, and a projection histogram is taken on both the X and Y axes (see Japanese Patent Publication No. 7-95335). The continuous value close to 0 in the projection histogram inside the user-specified area can be regarded as information between characters and between lines. In step S7, the information is divided into regions. In this example, when a continuous value of 0 in the projection histogram continues, it is possible to determine that the vicinity is an area break. (For character areas).
次いでステップS8で領域分割の結果をディスプレイ4に表示する。ここでは、サンプル文書11の表11aが表領域として抽出され、その外側に表領域を示す枠13が表示される。もしも抽出された表領域とサンプル文書11の表領域11aとが不一致であった場合は、ステップS9でユーザーはポインティングデバイス6を用いて修正する。このように必要に応じて修正された領域分割結果は文字認識装置などで利用するため、ステップS10で出力される。
In step S8, the result of area division is displayed on the display 4. Here, the table 11a of the
このように、本実施形態の領域分割装置によれば、ユーザーは、文書画像をディスプレイ4で見ながら、抽出したい領域全体を正確に指定せず、その一部をおおまかに指定するだけで、自動的に領域全体を高精度に抽出することができる。また、その高速性と相まって、インタラクティブな修正も可能である。 As described above, according to the region dividing apparatus of the present embodiment, the user does not specify the entire region to be extracted accurately while viewing the document image on the display 4, and only specifies roughly a part of the region. Therefore, the entire area can be extracted with high accuracy. Also, coupled with its high speed, interactive correction is possible.
[第2の実施形態]
図6は本発明の第2の実施形態の領域分割装置の動作を示すフローチャートである。この図において、図2と同一又は対応するステップには、図2と同じ符号を付した。なお、本実施形態及び後述する第3乃至第5の実施形態の領域分割装置の概略構成のブロック図は第1の実施形態(図1)と同じである。さらに、本実施形態及び後述する第3乃至第5の実施形態にて、スキャナ1から読み取る文書も第1の実施形態と同じサンプル文書11であり、ユーザー指定領域も第1の実施形態と同じ、丸12である。
[Second Embodiment]
FIG. 6 is a flowchart showing the operation of the area dividing apparatus according to the second embodiment of the present invention. In this figure, steps that are the same as or correspond to those in FIG. The block diagram of the schematic configuration of the area dividing apparatus according to the present embodiment and third to fifth embodiments described later is the same as that of the first embodiment (FIG. 1). Further, in the present embodiment and the third to fifth embodiments described later, the document read from the
本実施形態では、領域抽出の前に、ステップS11でユーザー指定領域の属性判別(文字、表、図又は写真)を行う。属性判別は本出願人の特許である特許第3344774号、特許第3215163号などの既知の技術で対応可能である。 In the present embodiment, before region extraction, attribute determination (character, table, figure or photograph) of the user-specified region is performed in step S11. Attribute discrimination can be handled by known techniques such as Japanese Patent Nos. 3344774 and 3215163, which are patents of the present applicant.
図7は、属性判別処理の一例を示すフローチャートである。
まずステップS21でユーザー指定領域の画像データを入力し、次いでステップS22で画像データを二値化する。ただし、ユーザー指定領域の画像データが二値である場合、この二値化処理は行わない。
FIG. 7 is a flowchart illustrating an example of attribute determination processing.
First, in step S21, image data in the user designated area is input, and then in step S22, the image data is binarized. However, when the image data in the user-specified area is binary, this binarization process is not performed.
次にステップS23で黒画素連結成分の抽出を行い、次いでステップS24で白画素連結成分の抽出を行う。そして、ステップS23の抽出結果を用いて、ステップS25で黒画素罫線矩形を抽出し、ステップS24の抽出結果を用いて、ステップS26で白画素罫線矩形の抽出を行う。ここで、黒画素罫線矩形を抽出は、水平方向、垂直方向のそれぞれについて、長い黒画素連結のみで行い、白画素罫線矩形を抽出は、水平方向、垂直方向のそれぞれについて、長い白画素連結のみで行う。最後にステップS27で、ルールベース或いは特徴量ベースにより、表か否かを判別する。 Next, in step S23, black pixel connected components are extracted, and in step S24, white pixel connected components are extracted. Then, a black pixel ruled rectangle is extracted in step S25 using the extraction result in step S23, and a white pixel ruled rectangle is extracted in step S26 using the extraction result in step S24. Here, the black pixel ruled rectangle is extracted only by long black pixel connection in each of the horizontal direction and the vertical direction, and the white pixel ruled rectangle is extracted only by long white pixel connection in each of the horizontal direction and the vertical direction. To do. Finally, in step S27, it is determined whether the table is a rule base or a feature amount base.
図8〜図10はルールベースによる判別例を説明するための図である。
図8に示すように、ユーザー指定領域内に4本ずつの横罫線21及び縦罫線22からなる表の一部が存在し、それらの罫線により区画された9個(横3個×縦3個)のセルのうち、上段のセルに文字「XXX」、「YYY」、「ZZZ」が記入されているものとする。
8 to 10 are diagrams for explaining an example of discrimination based on the rule base.
As shown in FIG. 8, a part of a table composed of four horizontal ruled
このように、白背景、黒字で表が描かれている場合、罫線は黒画素であるため、図9に示すように、ユーザー指定領域に対して長い黒画連結のみで、水平方向の黒画素罫線矩形23、垂直方向の黒画素罫線矩形24が検出される。
In this way, when the table is drawn with a white background and black characters, the ruled line is a black pixel, so as shown in FIG. A ruled
しかし、白画素罫線矩形は、水平方向、垂直方向それぞれの罫線から罫線の間にしか存在できないため、白画素連結の長いものはなく、太くなる傾向がある。図10Aは、図8の表からステップS26で得られる白画素罫線矩形を、分かり易くするため黒に反転して表示したものである。縦罫線に関しては太過ぎるため、この場合の矩形の縦横比の制限により得られない。また、図8では、セルの内部に文字が存在するため、その文字数が多くて文字の左右に十分な長さの余白が存在しない場合は、例えば図10Bに示すように、セル内の文字「XXX」の左右の余白の長さL1、L2が、白画素連結を長いとみなす閾値未満の場合は(「YYY」、「ZZZ」も同じ)、検出される白画素罫線矩形は図10Cに示すようなものとなる。 However, since the white pixel ruled rectangle can only exist between the ruled lines in the horizontal direction and the vertical direction, there is no long white pixel connection and tends to be thick. FIG. 10A shows the white pixel ruled line rectangle obtained in step S26 from the table of FIG. 8 by inverting it to black for easy understanding. Since the vertical ruled line is too thick, it cannot be obtained due to the limitation of the aspect ratio of the rectangle in this case. In FIG. 8, since there are characters inside the cell, if the number of characters is large and there is no sufficient margin on the left and right of the character, for example, as shown in FIG. 10B, the character “ When the lengths L1 and L2 of the left and right margins of “XXX” are less than a threshold value that considers white pixel connection to be long (the same applies to “YYY” and “ZZZ”), the detected white pixel ruled rectangle is shown in FIG. 10C. It will be like that.
このように、ステップS11で属性判別を行った後に、ステップS12で、判別された属性に応じた領域範囲の作成(領域抽出処理)を実行する。 As described above, after performing the attribute determination in step S11, in step S12, creation of a region range (region extraction process) according to the determined attribute is executed.
本実施形態によれば、領域抽出の前に属性判別を行い、判別された属性(文字、表、図又は写真)に応じて最適な抽出方法を用いることで、最適な抽出結果を得ることができる。 According to this embodiment, it is possible to obtain an optimum extraction result by performing attribute discrimination before region extraction and using an optimum extraction method according to the discriminated attribute (character, table, figure or photograph). it can.
[第3の実施形態]
図11は本発明の第3の実施形態の領域分割装置の動作を示すフローチャートである。この図において、図6(第2の実施形態)と同一又は対応するステップには図6と同じ符号を付した。
[Third Embodiment]
FIG. 11 is a flowchart showing the operation of the area dividing apparatus according to the third embodiment of the present invention. In this figure, the same or corresponding steps as those in FIG. 6 (second embodiment) are denoted by the same reference numerals as those in FIG.
本実施形態では、ステップS13でユーザー指定領域の内部特性の分類を行い、その分類の結果に応じて、ステップS14で領域範囲の作成(領域抽出処理)を実行する。つまり、ユーザー指定領域の分類を、その後のユーザーの利用目的に応じた分類ではなく、あくまで領域分割を成功させるのに役に立つ分類を行い、内部の情報から推測される、最適な領域分割手法を選択する。 In the present embodiment, the internal characteristics of the user-specified area are classified in step S13, and an area range is created (area extraction process) in step S14 according to the classification result. In other words, the classification of the user-specified area is not a classification according to the purpose of use of the subsequent user, but a classification that is useful for the successful segmentation of the area is performed, and the optimal area segmentation method inferred from internal information is selected To do.
本実施形態は、例えば長い横線が沢山あるにも拘わらず表領域ではない場合などに有効である。図12にその例を示す。この例では、文字「○」、「△」、「□」の下に長い横線21が存在する。この図に示されている領域の一部をユーザーが丸22で囲むと、第2の実施形態の場合、ステップS11の属性判別手段によっては「表領域」と判別することもある。そして、ステップS13の表領域に対する領域範囲作成手法が後述する第4の実施形態のようなものであった場合、ユーザーが考える領域より狭い範囲を結果として出力することになってしまう。
This embodiment is effective when, for example, there are many long horizontal lines but they are not table regions. An example is shown in FIG. In this example, a long
このような場合が生じることを考慮すると、属性判別手段により、ユーザーが後段の処理で使用する属性を出力するのではなく、領域抽出手段にとって有効となるような属性を出力することにもメリットがある。図12のような例であれば、長い横線が多いからといって表という属性を出力するよりも、その後に位置する複数の領域抽出手法のうちのどれが最適かという結果を出力する方がよりユーザーフレンドリーな結果となる。真の属性については領域が決定した後で再判定することも可能である。 Considering that such a case may occur, there is also a merit in outputting attributes that are effective for the region extracting means, instead of outputting attributes that the user uses in subsequent processing by the attribute determining means. is there. In the example as shown in FIG. 12, it is better to output the result of which one of the plurality of region extraction methods located after the output is more appropriate than outputting the attribute of the table simply because there are many long horizontal lines. The result is more user-friendly. The true attribute can be determined again after the area is determined.
本実施形態によれば、ユーザー指定領域の内部特性の分類結果に応じて最適な領域抽出手法を選択するため、図12のような場合でも、正確な領域抽出を行うことができる。 According to the present embodiment, since the optimum region extraction method is selected according to the classification result of the internal characteristics of the user-specified region, accurate region extraction can be performed even in the case of FIG.
[第4の実施形態]
図13は本発明の第4の実施形態の領域分割装置の動作を示すフローチャートである。この図において、図6(第2の実施形態)と同一又は対応するステップには図6と同じ符号を付した。
[Fourth Embodiment]
FIG. 13 is a flowchart showing the operation of the area dividing apparatus according to the fourth embodiment of the present invention. In this figure, the same or corresponding steps as those in FIG. 6 (second embodiment) are denoted by the same reference numerals as those in FIG.
本実施形態では、ステップS15でユーザー指定領域の属性の判別を行い、表と判別されたときに、ステップS16で表領域の抽出を行う。ここで、ステップS15では、第2の実施形態のステップS11とは異なり、表の判別及び背景か白か黒かの判別のみ行う。 In this embodiment, the attribute of the user designated area is determined in step S15, and when it is determined to be a table, the table area is extracted in step S16. Here, in step S15, unlike step S11 of the second embodiment, only the discrimination of the table and the discrimination of the background, white or black are performed.
ステップS16の具体的構成例のフローチャートを図14に示す。
ステップS31で文書画像データをワークエリアRAM8に読み込み、ステップS32で文書画像の全面から前景色で罫線抽出を行う。この罫線抽出の方法は、ハフ変換を利用するものや画素連続(ランと呼ぶ)のうち、閾値以上の長いものだけを利用して連結成分を求めることで罫線候補を作成するなど、既存のものを利用して構わない。
FIG. 14 shows a flowchart of a specific configuration example of step S16.
In step S31, the document image data is read into the
こうして全画面上に得られた罫線矩形のうち、ステップS33でユーザー指定領域に含まれるものの抽出する。図15Aは、ステップS33の抽出結果の一例であり、フリーハンド曲線により定まるユーザー指定領域31内に含まれる罫線32(横罫線2本、縦罫線2本を実線で表示)が抽出されている。
Of the ruled line rectangles obtained on the entire screen in this way, those included in the user designated area are extracted in step S33. FIG. 15A is an example of the extraction result of step S33, and ruled lines 32 (two horizontal ruled lines and two vertical ruled lines are displayed as solid lines) included in the user-specified
次に、ステップS34でユーザー指定領域に含まれている罫線(ステップS33で抽出)と交差或いは接触をしている罫線を抽出する。図15Bは、ステップS33で抽出された罫線32と交差或いは接触している罫線(図15Aの破線33)を抽出した結果を示している。
Next, in step S34, a ruled line that intersects or contacts the ruled line included in the user-specified area (extracted in step S33) is extracted. FIG. 15B shows the result of extracting a ruled line (broken line 33 in FIG. 15A) that intersects or is in contact with the ruled
最後にステップS35で、ステップS34で抽出された罫線の座標の最大値及び最小値から表領域を確定する。これにより、図15Bに実線で示す表領域が抽出される。 Finally, in step S35, the table area is determined from the maximum and minimum values of the ruled line coordinates extracted in step S34. As a result, a table region indicated by a solid line in FIG. 15B is extracted.
このように、本実施形態によれば、ユーザー指定領域が表領域であった場合に、高精度の抽出結果が得られる。なお、図14では、処理を単純化するために、最初に全画面上の罫線を抽出しているが、見つかった罫線の近辺から探索していく方法でもよく、罫線抽出の方法の相違が結果に大きく影響することはない。 As described above, according to this embodiment, when the user-specified area is a table area, a highly accurate extraction result can be obtained. In FIG. 14, in order to simplify the process, the ruled lines on the entire screen are first extracted. However, a method of searching from the vicinity of the found ruled lines may be used. There is no significant impact on
[第5の実施形態]
図16は本発明の第5の実施形態の領域分割装置の動作を説明するための図である。本実施形態の領域分割装置の基本的な動作のフローは図6(第2の実施形態)と同じであり、分類結果(ステップS11の属性判別)で表と判定されたときの、領域範囲の求め方(ステップS12に対応)についての発明である。
[Fifth Embodiment]
FIG. 16 is a diagram for explaining the operation of the area dividing apparatus according to the fifth embodiment of the present invention. The basic operation flow of the region dividing apparatus of this embodiment is the same as that in FIG. 6 (second embodiment), and the region range when the classification result (attribute determination in step S11) is determined to be a table. It is an invention about how to obtain (corresponding to step S12).
ここではユーザー指定領域中の連結成分を求め、その連結成分がユーザー指定範囲に接触しているものについて調べる。そして、指定領域ぎりぎりの位置に接触している連結成分に対して、探索範囲を広げ、広げた範囲にも画素が連続していたら、その連結成分を成長させる(大きくする)。これを繰り返していくと、指定領域範囲に収まっている画素と連結されている画素が明らかになり、それを囲む領域が抽出される。 Here, a connected component in the user specified area is obtained, and the connected component is in contact with the user specified range. Then, the search range is expanded with respect to the connected component that is in contact with the position of the designated area, and if the pixel continues in the expanded range, the connected component is grown (enlarged). As this process is repeated, the pixels connected to the pixels within the designated area range become clear, and the area surrounding them is extracted.
図16の場合、フリーハンド曲線により定まるユーザー指定領域41を囲む矩形の領域42(破線で表示)を簡易的にユーザー指定領域とする。また、領域42内の黒画素(3本の横罫線の各々の一部、1本の縦罫線の一部、8個の○)をユーザー指定領域に含まれる画素と考える。そして、これらの画素が含まれる連結成分を操作していき、連結成分矩形を最終的に抽出する。
In the case of FIG. 16, a rectangular area 42 (displayed by a broken line) surrounding the user-specified
図17は、画素の連結成分を利用した矩形抽出方法の一例を示す図である。図のAに示すように、主走査方向に黒ラン(黒の矩形として図示)の抽出を行い、Bに示すように、黒ランの連結成分を統合して、矩形領域51〜53を作成する。次にCに示すように、副走査方向にも矩形を成長させていき、矩形領域54及び55を作成する。このとき、矩形に重なりがあっても、ランが連結していないもの(ここでは矩形領域53)は統合せず、別扱いとする。
FIG. 17 is a diagram illustrating an example of a rectangular extraction method using a connected component of pixels. As shown in A of the figure, black runs (shown as black rectangles) are extracted in the main scanning direction, and as shown in B, the connected components of the black runs are integrated to create
なお、ここでは、単純に白背景で黒前景という前提であるが、多値画像及び明度反転画像も検出の対象となることがある。その場合、多値画像であれば最初に二値化を行って、条件を整える。次に図7に示した処理フローにより、前景と背景を判別するステップを行う。そして、得られた前景色、背景色をそれぞれ白或いは黒に割り当て、前述した本実施形態の処理を行うことで対応可能である。 Here, it is assumed that the background is simply a white background and a black foreground, but a multi-valued image and a lightness inverted image may also be detected. In that case, if it is a multi-valued image, binarization is performed first to adjust the conditions. Next, a step of discriminating between the foreground and the background is performed according to the processing flow shown in FIG. This can be dealt with by assigning the obtained foreground color and background color to white or black, respectively, and performing the processing of this embodiment described above.
以上の第1乃至第4の実施形態に共通していえることは、ユーザーの意図した領域を高速に抽出する(切り出す)ことができるという点であり、判別可能な易しい表(単純な構成の表)であれば、おおまかな指定でも抽出できるという点である。また、自動判別が難しい表については、ユーザーによる指定時に実際に必要な領域に近づけるといったことをすることで、より精度の高い抽出結果が得られる。さらに、この表の難易度と自動領域抽出のトレードオフの関係はユーザーが学習して使いこなすのが容易であるというメリットがある。 What can be said in common with the first to fourth embodiments described above is that the region intended by the user can be extracted (cut out) at high speed, and an easily distinguishable table (simple configuration table). ), It is possible to extract even roughly. For a table that is difficult to be automatically identified, a more accurate extraction result can be obtained by making it closer to the area actually required when designated by the user. In addition, the relationship between the difficulty level of this table and the trade-off between automatic area extraction has the advantage that it is easy for the user to learn and use.
1・・・スキャナ、2・・・CPU、4・・・ディスプレイ、6・・・ポインティングデバイス。
DESCRIPTION OF
Claims (5)
該抽出を行う工程は、前記ユーザー指定領域の内部の情報を抽出する特徴抽出工程と、該抽出された情報に基づいて、前記ユーザー指定領域を文字候補、表候補、図又は写真候補に分類する属性分類工程と、分類された各候補に応じた領域抽出処理を行う工程とを有することを特徴とする領域分割方法。 A step of displaying a document image, a step of obtaining position information of a user-designated area that is a part of a division target area of the displayed document image designated by a user, and document image data in the user-designated area based on, it possesses and performing extraction of the divided region of interest,
The extracting step includes a feature extracting step of extracting information inside the user-specified area, and classifying the user-specified area into character candidates, table candidates, figures, or photo candidates based on the extracted information. area dividing method which is characterized in that chromatic and attribute classification step, and performing region extraction processing in accordance with each candidate classified.
前記特徴抽出工程は、二値画像から黒画素或いは白画素の連結成分矩形を抽出する矩形抽出工程と、罫線を抽出する罫線抽出工程とを有し、前記属性分類工程は、これらの抽出結果から予め定められた特徴量空間のどのカテゴリに最も近いかで属性の分類結果を得ることを特徴とする領域分割方法。 The area dividing method according to claim 1, wherein:
The feature extraction step includes a rectangle extraction step for extracting a connected component rectangle of black pixels or white pixels from a binary image, and a ruled line extraction step for extracting ruled lines. The attribute classification step is based on these extraction results. predetermined feature amount closest or in the area dividing method according to claim Rukoto obtain classification results of the attribute to which category space.
前記領域抽出処理を行う工程は、前記属性分類工程にて表候補となった領域に対して、ユーザー指定領域に含まれる画素の連結成分から連結がなくなる位置まで成長させ、最大の連結矩形である領域をユーザー指定の表領域とすることを特徴とする領域分割方法。 The area dividing method according to claim 1, wherein:
The step of performing the region extraction process is the largest connected rectangle by growing from the connected components of the pixels included in the user-specified region to a position where the connection is lost with respect to the region that is a table candidate in the attribute classification step. A region dividing method characterized in that the region is a user-specified table region .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007239484A JP4974367B2 (en) | 2007-09-14 | 2007-09-14 | Region dividing method and apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007239484A JP4974367B2 (en) | 2007-09-14 | 2007-09-14 | Region dividing method and apparatus, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009070242A JP2009070242A (en) | 2009-04-02 |
JP4974367B2 true JP4974367B2 (en) | 2012-07-11 |
Family
ID=40606404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007239484A Expired - Fee Related JP4974367B2 (en) | 2007-09-14 | 2007-09-14 | Region dividing method and apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4974367B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5735823B2 (en) * | 2011-03-01 | 2015-06-17 | 株式会社ユビキタスエンターテインメント | Spreadsheet control program, spreadsheet control device, and spreadsheet control method |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01196657A (en) * | 1988-02-01 | 1989-08-08 | Nippon Telegr & Teleph Corp <Ntt> | Method for recognizing document structure |
JP2906465B2 (en) * | 1989-08-02 | 1999-06-21 | 富士ゼロックス株式会社 | Image processing device |
JP2938490B2 (en) * | 1990-01-08 | 1999-08-23 | 株式会社リコー | Area specifying method and area specifying device |
JP3113747B2 (en) * | 1992-10-22 | 2000-12-04 | 松下電器産業株式会社 | Character recognition device and character recognition method |
JP3344774B2 (en) * | 1993-06-25 | 2002-11-18 | 株式会社リコー | Rectangle classification method |
JPH0822507A (en) * | 1994-07-08 | 1996-01-23 | Matsushita Electric Ind Co Ltd | Document recognition device |
JPH09128479A (en) * | 1995-11-01 | 1997-05-16 | Ricoh Co Ltd | Method and device for dividing area |
JP4164976B2 (en) * | 2000-02-03 | 2008-10-15 | 沖電気工業株式会社 | Character recognition device |
JP2006227768A (en) * | 2005-02-16 | 2006-08-31 | Hitachi Omron Terminal Solutions Corp | Method and program for character recognition in portable terminal |
-
2007
- 2007-09-14 JP JP2007239484A patent/JP4974367B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009070242A (en) | 2009-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8428356B2 (en) | Image processing device and image processing method for generating electronic document with a table line determination portion | |
JP5455038B2 (en) | Image processing apparatus, image processing method, and program | |
JP5616308B2 (en) | Document modification detection method by character comparison using character shape feature | |
JP5337563B2 (en) | Form recognition method and apparatus | |
JP2010250425A (en) | Underline removal apparatus | |
KR101248449B1 (en) | Information processor, information processing method, and computer readable medium | |
JP2002015280A (en) | Device and method for image recognition, and computer- readable recording medium with recorded image recognizing program | |
US10887491B2 (en) | Image processing apparatus for processing of highlighted regions | |
JP4780184B2 (en) | Image processing apparatus and image processing program | |
JP5601027B2 (en) | Image processing apparatus and image processing program | |
JP4974367B2 (en) | Region dividing method and apparatus, and program | |
JP4830763B2 (en) | Image processing system and image processing program | |
US11288536B2 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP2007081882A (en) | Apparatus and method for reading manuscript | |
JP4710672B2 (en) | Character color discrimination device, character color discrimination method, and computer program | |
JP4866184B2 (en) | Image processing apparatus, image direction determination method, and image direction determination program | |
JP5109548B2 (en) | Image processing apparatus and program | |
JP2006268180A (en) | Image processing system | |
JP2019195117A (en) | Information processing apparatus, information processing method, and program | |
JP4810995B2 (en) | Image processing apparatus, method, and program | |
JP7520605B2 (en) | Image processing device, image processing method, and program | |
JP7570843B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE FORMING SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM | |
US8432555B2 (en) | Image processing apparatus, image processing method, computer-readable medium and computer data signal | |
JP2002049890A (en) | Device and method for recognizing picture and computer- readable recording medium where picture recognizing program is recorded | |
JP2010044517A (en) | Image processor, image processing method, image processing program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100406 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120406 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120409 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4974367 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150420 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |