JP4587167B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP4587167B2
JP4587167B2 JP2004290386A JP2004290386A JP4587167B2 JP 4587167 B2 JP4587167 B2 JP 4587167B2 JP 2004290386 A JP2004290386 A JP 2004290386A JP 2004290386 A JP2004290386 A JP 2004290386A JP 4587167 B2 JP4587167 B2 JP 4587167B2
Authority
JP
Japan
Prior art keywords
cell
area
point
mapping
mapped
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004290386A
Other languages
Japanese (ja)
Other versions
JP2006106972A5 (en
JP2006106972A (en
Inventor
充 鵜沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004290386A priority Critical patent/JP4587167B2/en
Publication of JP2006106972A publication Critical patent/JP2006106972A/en
Publication of JP2006106972A5 publication Critical patent/JP2006106972A5/ja
Application granted granted Critical
Publication of JP4587167B2 publication Critical patent/JP4587167B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Character Discrimination (AREA)

Description

本発明は、スキャナなどの入力装置より読み込まれた紙文書を編集可能な電子データへ変換する技術に関し、特に紙文書中の表枠オブジェクトを解析し、罫線に置き換える技術に関する   The present invention relates to a technique for converting a paper document read from an input device such as a scanner into editable electronic data, and more particularly to a technique for analyzing a table frame object in a paper document and replacing it with a ruled line.

近年、情報の電子化が進み、文書を紙ではなく電子化して保存、あるいは送信するシステムが急速に普及している。特に、フルカラーの文書を保存、送信に適した電子データとしては、紙原稿を文字、表、図等のオブジェクトへ像域分離し、各オブジェクトに適した形態でデータ化したベクトルデータが適しており、データ量を削減し、更にオブジェクトを再利用することが可能となる。   In recent years, as information has been digitized, systems for storing or transmitting documents in electronic form instead of paper are rapidly spreading. In particular, as electronic data suitable for storing and transmitting full-color documents, vector data obtained by separating an image area of a paper original into objects such as characters, tables, and figures and converting it into a form suitable for each object is suitable. The amount of data can be reduced and the object can be reused.

ここで、文書中の表オブジェクトについては、像域分離処理により表中のテキスト情報を抽出する一方、表枠を2値画像データとして抽出することが可能である。この2値画像データとして抽出された表枠は、表枠の解析処理により、罫線などで表現されるベクトルデータに変換される(例えば、特許文献1参照)。そして、ベクトルデータに変換された表枠はベクトルデータとしてデータサイズが小さくなるだけでなく、表枠としての再利用性も高い。
特開平5−12489号公報
Here, for the table object in the document, the text information in the table is extracted by the image area separation process, while the table frame can be extracted as binary image data. The table frame extracted as the binary image data is converted into vector data expressed by ruled lines or the like by the analysis processing of the table frame (see, for example, Patent Document 1). The table frame converted to vector data not only has a small data size as vector data, but also has high reusability as a table frame.
Japanese Patent Laid-Open No. 5-12489

表枠及び表中のテキストを含めて、文書中のオブジェクトを2値化して抽出する際に、画像領域で2値化、もしくはオブジェクト毎に2値化するために、それぞれ2値化の閾値は画像領域、もしくはオブジェクト領域により設定される。   When binarizing and extracting an object in a document including a table frame and text in the table, the binarization threshold is set in order to binarize the image area or binarize each object. It is set by the image area or the object area.

例えば、表領域について2値化を行った場合、図25に示す(a)のように、色の濃いセルがあると、図25に示す(b)のように、色の濃いセルは塗りつぶされた画像として生成されるという問題が生じる。また、2値化した際に、セル内にノイズが多く発生するという問題が生じる。   For example, when binarization is performed on the table area, if there is a dark cell as shown in FIG. 25A, the dark cell is filled as shown in FIG. 25B. There arises a problem that it is generated as an image. In addition, when binarized, there is a problem that a lot of noise is generated in the cell.

尚、このようなセルについては、正常に文字情報を抽出することができない。元原稿がカラー原稿である場合は、各セル色の相関関係によって2値化によりセルの塗りつぶしが発生する場合が多く、表枠の正確な抽出は困難であり、非常に深刻な問題となっている。   For such cells, character information cannot be extracted normally. When the original document is a color document, cell filling often occurs due to binarization due to the correlation between the cell colors, and it is difficult to accurately extract the table frame, which is a very serious problem. Yes.

本発明は、上述の課題を解決するためになされたもので、本来文字情報が埋め込まれているセルが2値化処理により塗りつぶされることを防止し、表中の全ての文字情報を抽出することを目的とする。   The present invention has been made to solve the above-mentioned problem, and prevents cells in which character information is originally embedded from being filled by binarization processing, and extracts all character information in a table. With the goal.

本発明の画像処理装置は、表領域の2値画像データをアウトライン化した結果に基づいて、表の外枠領域と表内部のセルの矩形領域とを抽出する抽出手段と、前記外枠領域に対して前記セルの矩形領域をマッピングし、前記外枠領域内で当該セルの矩形領域がマッピングされない領域において前記セルの矩形領域の角点に基づいて色塗りセルを作成するマッピング手段と、前記マッピング手段のマッピング結果に基づいて、前記表領域の構成を認識する認識手段と、前記色塗りセルについて2値化処理を行い、セル内のオブジェクトを抽出する再処理手段と、前記認識手段で認識した前記表領域の構成と前記再処理手段で抽出した結果とに基づいて、表データを作成する表データ作成手段と、を有し、前記マッピング手段は、前記外枠領域の交点と既にマッピングを行った前記セルの矩形領域の角点との中から注目点を抽出し、当該注目点との一定距離以内に未だマッピングされていない前記セルの矩形領域の角点があれば、当該注目点と当該角点とが一致すると判定して当該角点を有するセルの矩形領域をマッピングしていき、当該注目点との一定距離以内に未だマッピングされていない前記セルの矩形領域の角点がなければ、未だマッピングされていない前記セルの矩形領域の角点を通る水平線及び垂直線に基づいて、前記色塗りセルを作成することを特徴とする。 The image processing apparatus of the present invention includes an extraction unit that extracts an outer frame region of a table and a rectangular region of a cell in the table based on the result of the outline of the binary image data of the table region, and the outer frame region. Mapping means for mapping a rectangular area of the cell to the area, and creating a colored cell based on corner points of the rectangular area of the cell in an area where the rectangular area of the cell is not mapped in the outer frame area; Based on the mapping result of the means, the recognition means for recognizing the structure of the table area, the re-processing means for performing binarization processing on the colored cells and extracting the objects in the cells, and the recognition means based on the result of extracting the structure and the re-processing means of the tablespace, and table data generating means for generating table data, was closed, the mapping means, of the outer frame region If a point of interest is extracted from a point and a corner point of the rectangular area of the cell that has already been mapped, and there is a corner point of the rectangular region of the cell that is not yet mapped within a certain distance from the point of interest Then, it is determined that the point of interest matches the corner point, and the rectangular region of the cell having the corner point is mapped, and the rectangular region of the cell that has not yet been mapped within a certain distance from the point of interest. If there is no corner point, the colored cell is created based on a horizontal line and a vertical line passing through the corner point of the rectangular area of the cell that has not yet been mapped .

また、本発明の画像処理方法は、抽出手段が、表領域の2値画像データをアウトライン化した結果に基づいて、表の外枠領域と表内部のセルの矩形領域とを抽出する抽出工程と、マッピング手段が、前記外枠領域に対して前記セルの矩形領域をマッピングし、前記外枠領域内で当該セルの矩形領域がマッピングされない領域において前記セルの矩形領域の角点に基づいて色塗りセルを作成するマッピング工程と、認識手段が、前記マッピング工程でのマッピング結果に基づいて、前記表領域の構成を認識する認識工程と、再処理手段が、前記色塗りセルについて2値化処理を行い、セル内のオブジェクトを抽出する再処理工程と、表データ作成手段が、前記認識工程で認識した前記表領域の構成と前記再処理手段で抽出した結果とに基づいて、表データを作成する表データ作成工程と、を有し、前記マッピング工程では、前記外枠領域の交点と既にマッピングを行った前記セルの矩形領域の角点との中から注目点を抽出し、当該注目点との一定距離以内に未だマッピングされていない前記セルの矩形領域の角点があれば、当該注目点と当該角点とが一致すると判定して当該角点を有するセルの矩形領域をマッピングしていき、当該注目点との一定距離以内に未だマッピングされていない前記セルの矩形領域の角点がなければ、未だマッピングされていない前記セルの矩形領域の角点を通る水平線及び垂直線に基づいて、前記色塗りセルを作成することを特徴とする。 Further, the image processing method of the present invention includes an extraction step in which the extraction unit extracts the outer frame region of the table and the rectangular region of the cell inside the table based on the result of the outline of the binary image data of the table region. Mapping means maps the rectangular area of the cell to the outer frame area, and color-paints the rectangular area of the cell in the outer frame area based on the corner points of the rectangular area of the cell. A mapping step for creating a cell, a recognition unit for recognizing the configuration of the table area based on a mapping result in the mapping step, and a reprocessing unit for binarizing the colored cell A reprocessing step of extracting an object in a cell, and a table data creation unit based on the configuration of the table area recognized in the recognition step and the result extracted by the reprocessing unit A table data creation step of creating a table data, have a, in the mapping step, to extract the target point from the corner point of the rectangular region of the cell already subjected to mapping the intersection of the outer frame region, If there is a corner point of the rectangular area of the cell that has not yet been mapped within a certain distance from the point of interest, it is determined that the point of interest matches the corner point, and the rectangular area of the cell having the corner point is determined. If there are no corner points of the rectangular area of the cell that are not yet mapped within a certain distance from the target point, horizontal and vertical lines passing through the corner points of the rectangular area of the cell that are not yet mapped Based on the above, the colored cell is created .

本発明によれば、カラー原稿より表枠中のノイズを除去し、表枠を正確に抽出し、セル内のノイズ、塗りつぶしにより文字情報が抽出されないことを防止できる。また、正確な表枠ベクトル情報を抽出できる。   According to the present invention, it is possible to remove noise in a table frame from a color document, accurately extract the table frame, and prevent character information from being extracted due to noise and fill in a cell. In addition, accurate table frame vector information can be extracted.

以下、図面を参照しながら発明を実施するための最良の形態について詳細に説明する。   The best mode for carrying out the invention will be described below in detail with reference to the drawings.

図1は、実施例1における文書処理装置の外観を示す図である。図1において、101はコンピュータ装置であり、後述するフローチャートを参照して説明する処理を実現するためのプログラムを含む、文書の電子化処理プログラムを実行する。また、コンピュータ装置101は、ユーザに状況や画像を表示するためのディスプレイ装置102と、ユーザの操作を受け付けるキーボードやマウス等のポインティングデバイスを含んで構成される入力装置103とを付随する。このディスプレイ装置102としては、CRTやLCD等が用いられる。104はスキャナ装置であり、文書画像を光学的に読み取って電子化し、得られた画像データをコンピュータ装置101に送る。尚、スキャナ装置104としては、カラースキャナを用いるものとする。   FIG. 1 is a diagram illustrating an appearance of a document processing apparatus according to the first embodiment. In FIG. 1, reference numeral 101 denotes a computer device that executes a document digitization processing program including a program for realizing processing described with reference to a flowchart described later. Further, the computer apparatus 101 is accompanied by a display apparatus 102 for displaying a situation and an image to the user, and an input apparatus 103 configured to include a pointing device such as a keyboard and a mouse for receiving a user operation. As the display device 102, a CRT, an LCD, or the like is used. A scanner device 104 optically reads and digitizes a document image and sends the obtained image data to the computer device 101. Note that a color scanner is used as the scanner device 104.

図2は、実施例1における文書処理装置の構成の一例を示すブロック図である。図2において、201はCPUであり、後述するROM又はRAMに格納された制御プログラムを実行することにより、後述する電子化処理を含む各種機能を実現する。202はROMであり、CPU201によって実行される各種制御プログラムや制御データが格納されている。203はRAMであり、CPU201によって実行される各種制御プログラムを格納したり、CPU201が各種処理を実行するのに必要な作業領域が定義されている。   FIG. 2 is a block diagram illustrating an example of the configuration of the document processing apparatus according to the first embodiment. In FIG. 2, reference numeral 201 denotes a CPU, which realizes various functions including electronic processing described later by executing a control program stored in a ROM or RAM described later. A ROM 202 stores various control programs executed by the CPU 201 and control data. A RAM 203 stores various control programs executed by the CPU 201 and defines a work area necessary for the CPU 201 to execute various processes.

204は外部記憶装置であり、詳細は後述する実施例1における処理をCPU101によって実現するための制御プログラムや、スキャナ装置104で読み取って得られた文書画像データ等を格納する。そして、205はコンピュータバスであり、上述した各構成を接続するものである。   Reference numeral 204 denotes an external storage device, which stores a control program for realizing the processing in the first embodiment to be described later by the CPU 101, document image data obtained by reading with the scanner device 104, and the like. A computer bus 205 connects the above-described components.

図3は、文書処理装置における文書の電子化処理の概要を示す図である。ここで、電子化処理の流れは、まず入力部301において、電子化の対象であるカラー文書をスキャナ装置104によって読み込み、画像データとして外部記憶装置204に格納する。次に、2値化処理302において、後段の像域分離処理、アウトライン生成処理のために、外部記憶装置204に格納された文書の画像データに対して2値化処理を施す。そして、像域分離処理303では、2値化処理302で得られた2値画像から、文字、図、表、枠、線などの要素を抽出し、各領域に分割する。   FIG. 3 is a diagram showing an overview of document digitization processing in the document processing apparatus. Here, the flow of digitization processing is as follows. First, in the input unit 301, a color document to be digitized is read by the scanner device 104 and stored in the external storage device 204 as image data. Next, in the binarization processing 302, the binarization processing is performed on the image data of the document stored in the external storage device 204 for the subsequent image area separation processing and outline generation processing. In the image area separation process 303, elements such as characters, diagrams, tables, frames, lines, and the like are extracted from the binary image obtained in the binarization process 302 and divided into areas.

次に、ベクトル化処理304において、領域分割された画像データに対して、文字部は文字認識部305で文字認識を行い、アウトライン作成部306でアウトラインベクトルデータへ変換する。また、表、枠の要素については表処理部308でアウトライン化し、アウトラインを罫線化する。尚、アウトライン作成部306で変換された画像データは、各オブジェクトの輪郭線が滑らかな曲線により表現される高画質で、解像度に依存しない、かつ編集容易なベクトルデータへ変換される。   Next, in the vectorization process 304, the character part of the image data divided into regions is recognized by the character recognition unit 305, and converted into outline vector data by the outline creation unit 306. Further, the table and frame elements are outlined by the table processing unit 308, and the outline is ruled. Note that the image data converted by the outline creation unit 306 is converted into vector data with high image quality in which the outline of each object is expressed by a smooth curve, independent of resolution, and easy to edit.

一方、その他の図、写真画、背景については、例えば背景については、圧縮部309でJPEG圧縮など各々に適した形態で保持、圧縮する。   On the other hand, for other figures, photographs, and backgrounds, for example, the background is held and compressed by the compression unit 309 in a form suitable for each, such as JPEG compression.

次に、電子文書作成処理310は、分割された要素毎の属性に基づいて文字認識データや表構造データを用い、それぞれ変換された画像データに基づき電子化文書を作成する。そして、出力部311は生成された電子化文書を外部記憶装置204に格納する。   Next, the electronic document creation processing 310 creates a digitized document based on the converted image data using character recognition data and table structure data based on the attribute of each divided element. Then, the output unit 311 stores the generated digitized document in the external storage device 204.

尚、出力部311の出力形態は外部記憶装置204への格納に限られるものではなく、ディスプレイ装置102へ表示したり、不図示のネットワークインターフェースを介してネットワーク上の他の装置へ出力したり、不図示のプリンタへ送出したりすることも可能である。   Note that the output form of the output unit 311 is not limited to storage in the external storage device 204, and is displayed on the display device 102 or output to other devices on the network via a network interface (not shown). It can also be sent to a printer (not shown).

ここで、図1及び図2に示す文書処理装置において実行される文書の電子化処理(図3参照)における各処理の詳細について、以下順に説明する。   Here, the details of each process in the document digitization process (see FIG. 3) executed in the document processing apparatus shown in FIGS. 1 and 2 will be described in the following order.

[2値化処理]
2値化処理302では、入力された文書画像データより輝度情報を抽出し、その輝度値のヒストグラムを作成する。ヒストグラム上より複数の閾値を設定し、各々の閾値で2値化された2値画像上の黒画素の連結等を解析することで最適な閾値を導出し、その閾値による2値画像を得る。
[Binarization processing]
In the binarization process 302, luminance information is extracted from the input document image data, and a histogram of the luminance values is created. A plurality of threshold values are set on the histogram, and an optimal threshold value is derived by analyzing the connection of black pixels on the binary image binarized with each threshold value, and a binary image based on the threshold values is obtained.

[像域分離処理]
像域分離処理303とは、図4に示す左側の読み取られた1ページのイメージデータをオブジェクト毎の塊(ブロック)として認識し、各々の塊を文字/図画/写真/線/表等の属性に判定し、図4に示す右側のように、異なる属性(TEXT/PICTURE/PHOTE/LINE/TABLE)を持つ領域に分割する処理である。
[Image area separation processing]
The image area separation process 303 recognizes the image data of one page read on the left side shown in FIG. 4 as a block (block) for each object, and sets each block as an attribute such as character / drawing / photo / line / table. This process is to divide into areas having different attributes (TEXT / PICTURE / PHOTE / LINE / TABLE) as shown on the right side of FIG.

像域分離処理303では、2値化処理302で得られた2値画像より、黒画素の輪郭線追跡を行って黒画素輪郭で囲まれる画素の塊を抽出する。また、面積の大きい黒画素の塊については、内部にある白画素に対しても輪郭線追跡を行い、白画素の塊を抽出し、更に一定面積以上の白画素の塊の内部からは再帰的に黒画素の塊を抽出する。   In the image area separation process 303, the pixel line surrounded by the black pixel outline is extracted from the binary image obtained in the binarization process 302 by tracing the outline of the black pixel. Also, for black pixel blocks with a large area, contour tracing is also performed for white pixels inside, and white pixel blocks are extracted, and recursively from the inside of white pixel blocks with a certain area or more. A black pixel block is extracted.

このようにして得られた黒画素の塊を、大きさ及び形状で分類し、異なる属性を持つ領域へ分類していく。例えば、縦横比が1に近く、大きさが一定の範囲のものを文字相当の画素塊とし、更に近接する文字が整列良くグループ化可能な部分を文字領域、扁平な画素塊を線領域、一定の大きさ以上で、かつ四角系の白画素塊を整列よく内包する黒画素塊の占める範囲を表領域、不定形の画素塊が散在している領域を写真領域、それ以外の任意形状の画素塊を図画領域、などとする。   The black pixel blocks thus obtained are classified by size and shape, and are classified into regions having different attributes. For example, if the aspect ratio is close to 1 and the size is within a certain range, it is a pixel block corresponding to the character, the portion where adjacent characters can be grouped in a well-aligned manner is the character region, and the flat pixel block is the line region. The area occupied by a black pixel block that is well-aligned and contains square white pixel blocks in a well-aligned manner is a table region, an area where irregular pixel blocks are scattered is a photo region, and pixels of any other shape A block is defined as a drawing area.

図5は、像域分離処理303で分離された各ブロックに対するブロック情報と入力ファイル情報を示す図である。図5に示すように、ブロック情報は、各ブロックの属性、座標(X,Y)、幅(W)、高さ(H)、OCR情報を含み、属性1は文字、属性2は図画、属性3は表、属性4は線、属性5は写真である。そして、入力ファイル情報は、ブロック総数N(図5に示す例では、ブロック1〜ブロック6までの6である)を有する。   FIG. 5 is a diagram showing block information and input file information for each block separated by the image area separation process 303. As shown in FIG. 5, the block information includes attributes of each block, coordinates (X, Y), width (W), height (H), and OCR information, where attribute 1 is text, attribute 2 is drawing, attribute 3 is a table, attribute 4 is a line, and attribute 5 is a photograph. The input file information has a total number N of blocks (6 in the example shown in FIG. 5 from block 1 to block 6).

尚、各ブロックに対して、より鮮明な2値画像を得ようとした場合は、ここでブロック毎に上述した2値化処理を行っても良い。   If a clearer binary image is to be obtained for each block, the above-described binarization process may be performed for each block.

[文字認識部]
文字認識部305では、文字単位で切り出された画像に対して、パターンマッチングの一手法を用いて認識を行い、対応する文字コードを得る。この認識処理は、文字画像から得られる特徴を数十次元の数値列に変換した観測特徴ベクトルと、予め字種毎に求められている辞書特徴ベクトルとを比較し、最も距離の近い字種を認識結果とする処理である。この特徴ベクトルの抽出には種々の公知手法があり、例えば文字をメッシュ状に分割し、各メッシュ内の文字線を方向別に線素としてカウントしたメッシュ数次元ベクトルを特徴とする方法がある。
[Character recognition section]
The character recognition unit 305 recognizes an image cut out in units of characters using a pattern matching method, and obtains a corresponding character code. This recognition process compares an observed feature vector obtained by converting a feature obtained from a character image into a numerical sequence of several tens of dimensions with a dictionary feature vector obtained in advance for each character type, and determines the character type with the closest distance. This is a process for obtaining a recognition result. There are various known methods for extracting the feature vector. For example, there is a method characterized by dividing a character into meshes and using a mesh number-dimensional vector obtained by counting character lines in each mesh as line elements according to directions.

像域分離処理303で抽出された文字領域に対して文字認識を行う場合、まず該当領域に対して横書き、縦書きの判定を行い、それぞれ対応する方向に行を切り出し、その後、文字を切り出して文字画像を得る。この横書き、縦書きの判定は、該当領域内で画素値に対する水平/垂直の射影を取り、水平射影の分散が大きい場合には横書き領域と判定し、垂直射影の分散が大きい場合には縦書き領域と判定すれば良い。また、文字列及び文字への分解は、横書きならば水平方向の射影を利用して行を切り出し、更に切り出された行に対する垂直方向の射影から、文字を切り出すことで行う。縦書きの文字領域に対しては、水平と垂直を逆にすれば良い。尚、この時、文字のサイズが検出できる。   When character recognition is performed on the character area extracted in the image area separation process 303, first, horizontal writing and vertical writing are determined for the corresponding area, and the lines are cut out in the corresponding directions, and then the characters are cut out. Get a character image. This horizontal / vertical writing is determined by taking a horizontal / vertical projection of the pixel values in the corresponding area. If the horizontal projection variance is large, the horizontal writing area is determined. If the vertical projection variance is large, the vertical writing is performed. What is necessary is just to determine with an area | region. In the case of horizontal writing, the character strings and characters are decomposed by cutting out lines using horizontal projection, and further cutting out characters from the vertical projection of the cut lines. For vertically written character areas, horizontal and vertical may be reversed. At this time, the character size can be detected.

[アウトライン生成部]
アウトライン作成部306では、像域分離処理303で図画或いは線、表領域とされた領域を対象に、抽出された画素塊の輪郭をベクトルデータに変換する。具体的には、輪郭をなす画素の点列を角と看倣される点で区切って、各区間を部分的な直線或いは曲線で近似する。角とは曲率が極大となる点であり、曲率が極大となる点は、図6に示すように、任意点Piに対して左右k個の離れた点Pi−k,Pi+kの間に弦を引いたとき、この弦とPiの距離が極大となる点として求められる。更に、点Pi−k,Pi+k間の弦の長さ/弧の長さをRとし、Rの値が閾値以下である点を角とみなすことができる。角によって分割された後の各区間は、直線は点列に対する最小二乗法など、曲線は3次スプライン関数などを用いてベクトル化することができる。
[Outline generator]
The outline creation unit 306 converts the contour of the extracted pixel block into vector data for the region that has been the image, line, or table region in the image region separation process 303. Specifically, a point sequence of pixels forming an outline is divided by points regarded as corners, and each section is approximated by a partial straight line or curve. An angle is a point where the curvature is maximum, and the point where the curvature is maximum is that a string is placed between k left and right points Pi-k and Pi + k with respect to an arbitrary point Pi as shown in FIG. It is obtained as a point where the distance between the string and Pi becomes maximum when drawn. Furthermore, let R be the chord length / arc length between the points Pi-k and Pi + k, and the point where the value of R is equal to or less than the threshold value can be regarded as a corner. Each section after being divided by the corners can be vectorized by using a least square method for a straight line and a curve using a cubic spline function.

また、対象が内輪郭を持つ場合、像域分離処理で抽出した白画素輪郭の点列を用いて、同様に部分的直線或いは曲線で近似する。   Further, when the target has an inner contour, it is similarly approximated by a partial straight line or a curve using the point sequence of the white pixel contour extracted by the image area separation process.

[表処理部]
表処理部308では、表中のセル及びその構成を認識し、表枠を罫線により表現する等、セル毎に編集可能な電子データへ変換する。尚、表部は、像域分離処理303により、表枠として表枠中の文字部と分離して抽出されている。
[Table processing section]
The table processing unit 308 recognizes the cells in the table and the configuration thereof, and converts the data into editable electronic data for each cell, for example, by expressing the table frame with ruled lines. It should be noted that the table portion is extracted as a table frame separated from the character portion in the table frame by the image area separation processing 303.

図7は、表処理部308における表処理を示すフローチャートである。まず、像域分離処理303で分離された表部を2値化し、表枠の2値データを得る(ステップS701)。ここでは、像域分離処理303より入力された表枠の2値データをそのまま出力しても良い。また、像域分離処理303で得られた表領域に対して、再度2値化処理、表枠抽出処理を行い、正確に表枠を抽出しても良い。   FIG. 7 is a flowchart showing the table processing in the table processing unit 308. First, the table part separated by the image area separation process 303 is binarized to obtain binary data of a table frame (step S701). Here, the binary data of the table frame input from the image area separation process 303 may be output as it is. Alternatively, the binarization process and the table frame extraction process may be performed again on the table area obtained by the image area separation process 303 to accurately extract the table frame.

次に、ステップS701で得られた表枠について表構成を認識する(ステップS702)。図8は、表枠を認識する処理を示すフローチャートである。まず、表枠について上述したアウトライン処理によりアウトライン化し、滑らかな直線及び曲線で表枠を表現する(ステップS801)。次に、表枠のアウトラインよりセルを表現しているセルアウトラインを抽出する(ステップS802)。ここで、元々アウトラインは、外輪郭と内輪郭に分類されているが、まず外輪郭のうち、表全体の外枠を構成しているアウトラインを抽出する。尚、表の内部に表が存在するような場合もあるので、外枠は複数抽出される場合もある。   Next, the table structure is recognized for the table frame obtained in step S701 (step S702). FIG. 8 is a flowchart showing processing for recognizing a table frame. First, the table frame is outlined by the outline processing described above, and the table frame is expressed by smooth straight lines and curves (step S801). Next, a cell outline representing a cell is extracted from the outline of the table frame (step S802). Here, the outline is originally classified into an outer outline and an inner outline. First, an outline constituting an outer frame of the entire table is extracted from the outer outline. Since there may be a table inside the table, a plurality of outer frames may be extracted.

次に、外枠の内側に存在するセルを構成しているアウトラインを抽出する。尚、ここでの処理はアウトラインよりそのアウトラインがセルを構成するサイズであるか否かを判定し、更にアウトラインを図形認識処理によりアウトラインが矩形図形、もしくは三角図形を構成しているか否かを判定する。尚、矩形図形、三角図形、もしくは矩形図形の集合と判定されたアウトラインをセルアウトラインとする。図9に示す(a),(b),(c)は、矩形図形、三角図形、矩形図形の集合と判定されたアウトラインの一例である。   Next, the outline which comprises the cell which exists inside an outer frame is extracted. In this process, it is determined from the outline whether or not the outline is the size that constitutes the cell, and further, it is determined whether or not the outline constitutes a rectangular figure or a triangular figure by graphic recognition processing. To do. An outline determined as a rectangular figure, a triangular figure, or a set of rectangular figures is defined as a cell outline. (A), (b), and (c) shown in FIG. 9 are examples of outlines determined to be a rectangular figure, a triangular figure, and a set of rectangular figures.

次に、ステップS702で外枠、もしくはセルを構成していると判定されたセルアウトラインについてセル図形へ変換する(ステップS803)。具体的には、まず、ステップS802で外枠を構成するアウトラインと内部セルを構成するアウトラインが抽出されているが、外枠を構成するアウトラインの角度が全て90°で表現される図形であると判定された場合、90°角の間を直線で表現した図形へ変換する。次に、外枠の内側のセルを構成すると判定されたセルについて、セル図形へ変換する。ここで、セル図形とは矩形図形である。   Next, the cell outline determined to constitute the outer frame or cell in step S702 is converted into a cell graphic (step S803). Specifically, first, in step S802, the outline constituting the outer frame and the outline constituting the inner cell are extracted. However, the figure represents that all the angles of the outline constituting the outer frame are represented by 90 °. If it is judged, it is converted into a figure that expresses between 90 ° angles as a straight line. Next, the cell determined to constitute the cell inside the outer frame is converted into a cell figure. Here, the cell graphic is a rectangular graphic.

例えば、図9に示すセルアウトラインをセル図形へ変換した例を図10に示す。図9に示すセルアウトライン(a),(b),(c)はそれぞれ図10に示す(a),(b),(c)のように変換される。ここで、図9に示す(a)のセルアウトラインは矩形図形の当てはめ処理によりそのまま図10に示す(a)となる。図9に示す(b)のような三角図形のセルアウトラインも同様に、矩形図形の当てはめ処理を行う。この三角図形に対する矩形図形の当てはめ処理では、三角を構成するセルアウトラインを囲むようにセル矩形を当てはめる。   For example, FIG. 10 shows an example in which the cell outline shown in FIG. 9 is converted into a cell figure. The cell outlines (a), (b), and (c) shown in FIG. 9 are converted into (a), (b), and (c) shown in FIG. 10, respectively. Here, the cell outline of (a) shown in FIG. 9 becomes (a) shown in FIG. 10 as it is by the fitting process of the rectangular figure. Similarly, the triangle outline cell outline as shown in FIG. 9B is subjected to a rectangular figure fitting process. In the fitting process of the rectangular figure to the triangular figure, the cell rectangle is fitted so as to surround the cell outline constituting the triangle.

尚、当てはめられた矩形図形は最終的にその位置関係よりセル図形同士統合され一つのセル図形として抽出する。例えば、図10に示す(b)のセル図形は、図11に示すセル図形に統合され、一つのセル図形として表現される。統合されないセル図形も当然あり、それらの図形についてはそのまま三角アウトラインに当てはめられたセル図形をセル図形とする。   Note that the fitted rectangular figure is finally integrated with each other from the positional relationship and extracted as one cell figure. For example, the cell graphic of (b) shown in FIG. 10 is integrated into the cell graphic shown in FIG. 11 and expressed as one cell graphic. Of course, there are cell figures that are not integrated, and for those figures, cell figures that are applied to the triangle outline are used as cell figures.

また、図9に示す(c)のような矩形図形の集合として抽出されるセルアウトラインは、図10に示す(c)のように各矩形図形へ分離する。この矩形図形への分離処理では、アウトラインの中の直角をなすであろう角を見つけ出し、その角点の構成から矩形図形へ分解する。尚、更に抽出されたセル全てを用いて表の水平方向及び垂直方向を求め、セル図形全てを求められた水平方向及び垂直方向の成分からなるセル図形へ変換する。このように外枠図形とセル図形は抽出されるが、各セル図形はその構成されるセルアウトラインにより属性情報がつけられる。図12は、セル図形と、それを構成するセルアウトライン及び各属性情報の一例を示す図である。   Further, a cell outline extracted as a set of rectangular figures as shown in FIG. 9C is separated into rectangular figures as shown in FIG. 10C. In this separation processing into rectangular figures, corners that will form a right angle in the outline are found, and the composition of the corner points is decomposed into rectangular figures. Further, the horizontal and vertical directions of the table are obtained using all the extracted cells, and all the cell graphics are converted into cell graphics comprising the obtained horizontal and vertical components. In this way, the outer frame figure and the cell figure are extracted, but each cell figure is given attribute information by its cell outline. FIG. 12 is a diagram illustrating an example of a cell graphic, a cell outline constituting the cell graphic, and each attribute information.

次に、ステップS803で変換したセル図形をマッピングするためのマッピング領域を作成する(ステップS804)。ここで、マッピング領域とはセル図形をマッピングするための領域であり、外枠内部の領域がそのままマッピング領域となる。また、外枠の交点を抽出しておく。交点とは、表の罫線と罫線が交差する点のことであり、外枠においては、外枠の角点がそのまま交点となる。図13にマッピング領域と交点の一例を示す。   Next, a mapping area for mapping the cell graphic converted in step S803 is created (step S804). Here, the mapping area is an area for mapping the cell graphic, and the area inside the outer frame is directly used as the mapping area. Also, the intersections of the outer frames are extracted. The intersection is a point where the ruled line of the table intersects with the ruled line. In the outer frame, the corner point of the outer frame becomes the intersection. FIG. 13 shows an example of the mapping area and the intersection.

次に、セル図形マッピング領域にセル図形をマッピングし(ステップS805)、セル図形の構成を認識する。具体的には、ステップS804で作成されたマッピング領域内にセル図形をマッピングしていき、マッピングされるセル図形より表の罫線と罫線が交差する交点を抽出していくことで、表構成を認識する。即ち、交点の隣接関係を調べていくことで、表構成を認識する。   Next, the cell graphic is mapped to the cell graphic mapping area (step S805), and the configuration of the cell graphic is recognized. Specifically, the table figure is recognized by mapping the cell figure in the mapping area created in step S804, and extracting the intersection where the ruled line of the table intersects the ruled line from the mapped cell figure. To do. That is, the table structure is recognized by examining the adjacent relationship between the intersections.

ここで、ステップS805におけるセル図形をマッピングするセル図形マッピング処理の詳細について説明する。   Here, details of the cell graphic mapping process for mapping the cell graphic in step S805 will be described.

図14は、セル図形マッピング処理を示すフローチャートである。まず、上述した外枠の交点より注目点を抽出する(ステップS1401)。ここで、注目点とは、右側と下側に隣接して繋がっている交点を持つ交点で、それら3点を含む矩形領域がマッピング領域であり、かつ該矩形領域に対し、まだ何もマッピングされていない交点である。図15にマッピング領域と交点とマッピングセルと注目点の関係を示した例を示す。   FIG. 14 is a flowchart showing the cell graphic mapping process. First, an attention point is extracted from the intersection point of the outer frame described above (step S1401). Here, the attention point is an intersection having intersections adjacent to each other on the right side and the lower side. A rectangular area including these three points is a mapping area, and nothing is mapped to the rectangular area. Not an intersection. FIG. 15 shows an example showing the relationship between the mapping area, the intersection, the mapping cell, and the point of interest.

次に、抽出した注目点に対し、該注目点を左上の交点とするセル図形が存在するか否かを判定する(ステップS1402)。具体的には、未だマッピングされていない全てのセル図形の左上の角点と注目点との距離を調べ、セル図形の左上の角点と注目点との距離が一定値以内であり、最も注目点に近いセル図形を注目点と左上の角点が一致するセル図形と判定する。ここで、注目点と左上の角点が一致するセル図形が存在すれば、該セル図形をマッピング領域上にマッピングする(ステップS1403)。   Next, for the extracted attention point, it is determined whether or not there is a cell graphic having the attention point at the upper left intersection (step S1402). Specifically, the distance between the upper left corner point of all cell shapes that have not yet been mapped and the attention point is examined, and the distance between the upper left corner point of the cell shape and the attention point is within a certain value, and the most attention A cell graphic close to a point is determined as a cell graphic in which the point of interest matches the upper left corner. Here, if there is a cell graphic in which the attention point and the upper left corner point match, the cell graphic is mapped on the mapping area (step S1403).

また、セル図形全ての左上の角点と注目点との距離が一定値以内にあるセル図形が存在しなければ、色塗りセルを作成し、マッピングする(ステップS1404)。色塗りセルは、矩形図形である。まず、注目点とその隣接する右側と下側の交点より少し広げた矩形領域(以後矩形領域Aと呼ぶ)内に、まだマッピングされていないセル図形の角点がないか判定し、角点が存在すれば、その角点を通る水平方向及び垂直方向の直線によって領域を区切る。この区切り作業を矩形領域A内に存在する角点全てに対して行い、水平線及び垂直線によって区切られた領域の最も左上にある区切られた矩形図形を色塗りセルとし、マッピングする。   If there is no cell graphic in which the distance between the upper left corner of all cell graphics and the target point is within a certain value, a colored cell is created and mapped (step S1404). A colored cell is a rectangular figure. First, it is determined whether there is a corner point of a cell figure that has not yet been mapped within a rectangular area (hereinafter referred to as a rectangular area A) that is slightly wider than the intersection of the right point and its adjacent right side and the lower side. If present, the area is delimited by horizontal and vertical straight lines passing through the corner points. This division operation is performed for all corner points existing in the rectangular area A, and the rectangular figure at the upper left of the area divided by the horizontal and vertical lines is used as a colored cell and mapped.

図16は、矩形領域A内に色塗りセルを作成する例を示す図である。図16に示す例では、矩形領域A内に2つのセル図形の角点が存在するので、それらの角点を通る水平方向及び垂直方向の直線によって矩形領域Aを区切り、区切られた領域の最も左上にある区切られた矩形図形を色塗りセルとしてマッピングする。 FIG. 16 is a diagram illustrating an example of creating a colored cell in the rectangular area A. In the example shown in FIG. 16, since the corner points of two cell figures exist in the rectangular region A, the rectangular region A is divided by horizontal and vertical straight lines passing through these corner points, and the most of the divided regions. Map the rectangular figure in the upper left as a colored cell.

次に、ステップS1403、S1404でマッピングされたセル図形よりセル図形上の交点を作成する(ステップS1405)。交点はこのマッピング図形の角点がそのまま交点となるが、もしマッピング図形の角点が、既に存在する交点との距離がある閾値以内であれば、その角点により作成される交点は既に存在すると判断できるため、その角点より新たな交点は作成しない。ここで、マッピング図形の左上の交点は注目点と一致と判断されているため、左上の角点より新たな交点は作成されない。また、マッピング図形の右上の角点より作成される交点は注目点より水平線上にあるとして作成し、左下の角点は注目点より垂直線上にあるとして作成する。   Next, an intersection on the cell graphic is created from the cell graphic mapped in steps S1403 and S1404 (step S1405). The intersection point of this mapping figure is the intersection point as it is, but if the corner point of the mapping figure is within a certain threshold distance from the existing intersection point, the intersection point created by that corner point already exists Since it can be judged, no new intersection is created from the corner. Here, since the intersection at the upper left of the mapping figure is determined to coincide with the point of interest, a new intersection from the upper left corner is not created. Also, the intersection created from the upper right corner point of the mapping figure is created on the horizontal line from the attention point, and the lower left corner point is created on the vertical line from the attention point.

次に、現在抽出されている交点の中で注目点が存在するか否かを判定する(ステップS1406)。注目点とは、上述したように、右側と下側に隣接し繋がっている交点を持つ交点で、それら3点を含む矩形領域がマッピング領域であり、かつ該矩形領域に対しまだ何もマッピングされていない交点である。交点が囲む領域内にセル図形及び色塗りセルがマッピングされていない領域が存在すれば注目点は存在する。尚、注目点が存在しない場合には表構成認識処理を終了とする。また、まだ注目点が存在する場合は、ステップS1401に戻り、再度注目点を抽出して一連の処理を繰り返す。 Next, it is determined whether or not there is a point of interest among the intersections currently extracted (step S1406). The point of interest, as described above, at the intersection with the intersection which is connected adjacent to the right and bottom sides, a rectangular region including its these three points are mapping area, and still nothing to the rectangular region It is an unmapped intersection. If there is an area where no cell graphic or colored cell is mapped in the area surrounded by the intersection, the point of interest exists. If there is no point of interest, the table structure recognition process is terminated. If the point of interest still exists, the process returns to step S1401, and the point of interest is extracted again and a series of processing is repeated.

以上の繰り返し処理により、交点の隣接関係が作成され、罫線を表現することが可能となる。図17に作成された交点の隣接関係と、マッピングされたセル図形及び色塗りセル、またセル図形の場合はその属性情報を記述した例を示す。尚、図17に示す属性情報により得られる表罫線は図18に示すようになる。   By the above iterative process, the adjacent relationship between the intersections is created, and it becomes possible to express a ruled line. FIG. 17 shows an example in which the adjacent relationship of intersections created, mapped cell graphics and colored cells, and attribute information in the case of cell graphics are described. The table ruled lines obtained from the attribute information shown in FIG. 17 are as shown in FIG.

ここで、図14に示したセル図形マッピング処理が終了すると、図8に示すステップS806へ進み、罫線の太さ及び位置関係を調節し、交点の正確な位置を抽出する。罫線の太さは、ステップS805でマッピングされたセル図形のうち、隣接するセル図形の距離から求められる。また、罫線の位置は隣接するセル図形の中間となるように調節する。   Here, when the cell graphic mapping process shown in FIG. 14 is completed, the process proceeds to step S806 shown in FIG. 8, and the thickness and positional relationship of the ruled lines are adjusted to extract the exact position of the intersection. The thickness of the ruled line is obtained from the distance between adjacent cell graphics among the cell graphics mapped in step S805. Further, the position of the ruled line is adjusted so as to be in the middle of adjacent cell graphics.

尚、交点の位置はステップS806で得られる罫線同士の交わる交点として正確な位置を求める。   It should be noted that the position of the intersection is determined as the intersection where the ruled lines obtained in step S806 intersect.

[色塗りセル再処理]
図7に示すステップS703では、表構成認識処理(ステップS702)で抽出された色塗りセルについて再処理を行う。
[Color cell reprocessing]
In step S703 shown in FIG. 7, re-processing is performed on the colored cells extracted in the table configuration recognition process (step S702).

図19は、色塗りセル再処理を示すフローチャートである。まず、セルの判別を行う(ステップS1901)。セル判別では、ステップS702で作成した色塗りセルの区切りについて原稿上でもセルの区切りが存在するか否かを判別し、場合によっては色塗りセルを統合する。具体的には、原画像について、隣り合う色塗りセルの区切り線に対応する近隣画素のエッジ成分を調べ、原画像において区切り線上の罫線があるか否かを判別する。もし、原画像上で罫線が無いと判別された場合は、2つのセルを統合し一つのセルとする。以上の統合処理を隣接する色塗りセル全てに対して行い、セルを抽出する。   FIG. 19 is a flowchart showing the color painting cell reprocessing. First, cell discrimination is performed (step S1901). In the cell determination, it is determined whether or not there is a cell delimiter on the manuscript with respect to the color cell delimiter created in step S702, and in some cases, the color painted cells are integrated. Specifically, with respect to the original image, the edge components of neighboring pixels corresponding to the separation lines of adjacent colored cells are examined, and it is determined whether or not there is a ruled line on the separation line in the original image. If it is determined that there is no ruled line on the original image, the two cells are integrated into one cell. The above integration process is performed for all adjacent colored cells to extract cells.

次に、ステップS1901で抽出されたセルについて、一つのセルを一枚の画像とみなし、セル毎に2値化処理を行う(ステップS1902)。セル毎に2値化処理を行うことで、塗りつぶされていた色塗りセルより、セル内のテキスト、模様等の2値オブジェクトを抽出することが可能である。そして、セル毎に像域分離処理を行う(ステップS1903)。   Next, regarding the cells extracted in step S1901, one cell is regarded as one image, and binarization processing is performed for each cell (step S1902). By performing binarization processing for each cell, it is possible to extract binary objects such as text and patterns in the cell from the painted cells that have been filled. Then, image area separation processing is performed for each cell (step S1903).

尚、像域分離処理は、特にテキストデータを抽出するものである。抽出されたテキストデータが抽出された場合はOCRをかけてテキストコードを抽出し、更にアウトライン化してフォント化し、文字部のデータへ追加する。   Note that the image area separation process particularly extracts text data. When the extracted text data is extracted, the text code is extracted by applying OCR, further converted into a font by being outlined, and added to the data of the character part.

[表データ生成処理]
図7に示すステップS704では、ステップS702、S703で作成されたベクトル情報を使用し、表データを作成する。例えば、図18に示す表は図24に示すようになる。図24において、2401〜2403の部位からは、テキスト情報が抽出されている。また、もしテキスト情報がないセルについては、そのまま色塗りセルのままで良いとする。
[Table data generation processing]
In step S704 shown in FIG. 7, table data is created using the vector information created in steps S702 and S703. For example, the table shown in FIG. 18 is as shown in FIG. In FIG. 24, text information is extracted from parts 2401 to 2403. In addition, if a cell has no text information, it can be left as it is as a colored cell.

以上の処理により、表枠は塗りつぶされるようなセルが作成されることを回避し、表中よりテキスト情報を正確に抽出し、表データが作成される。   With the above processing, it is possible to avoid creating a cell that fills the table frame, accurately extract text information from the table, and create table data.

尚、上述の処理では、色塗りセルについて、セル判別を行い、得られる各セルについて2値化、像域分離処理を行ったが、より単純に抽出された複数の色塗りセル全ての領域を一枚の原稿と見立て、それに対して2値化、像域分離処理を行ってもよく、色塗りセルの領域より文字、線等の情報を得ることが可能である。   In the above-described processing, cell discrimination is performed for the colored cells, and binarization and image area separation processing are performed for each obtained cell. However, the regions of all of the plurality of colored cells extracted are more simply extracted. It can be regarded as a single document, and binarization and image area separation processing can be performed on the original, and information such as characters and lines can be obtained from the area of the colored cell.

[アプリデータへの変換処理]
以上の通り、1頁分のイメージデータを像域分離処理303し、ベクトル化処理304した結果は図20に示すような中間データ形式のファイルとして変換される。このようなデータ形式は、ドキュメント・アナリシス・アウトプット・フォーマット(DAOF)と呼ばれる。
[Conversion to application data]
As described above, image data for one page is subjected to the image area separation process 303, and the result of the vectorization process 304 is converted into an intermediate data format file as shown in FIG. Such a data format is called a document analysis output format (DAOF).

図20は、DAOFのデータ構造を示す図である。図20において、2001はHeaderであり、処理対象の文書画像データに関する情報が保持される。2002はレイアウト記述データ部であり、文書画像データ中の文字(TEXT)、タイトル(TITLE)、キャプション(CAPTION)、線画(LINEART)、自然画(PICTURE)、枠(FRAME)、表(TABLE)等の属性毎に認識された各ブロックの属性情報とその矩形アドレス情報を保持する。2003は文字認識記述データ部であり、TEXT、TITLE、CAPTION等のTEXTブロックを文字認識して得られる文字認識結果を保持する。2004は表記述データ部であり、TABLEブロックの構造の詳細を格納する。2005は画像記述データ部であり、PICTUREやLINEART等のブロックのイメージデータを文書画像データから切り出して保持する。   FIG. 20 shows the data structure of DAOF. In FIG. 20, reference numeral 2001 denotes a header, which holds information relating to document image data to be processed. Reference numeral 2002 denotes a layout description data section. Characters (TEXT), titles (TITLE), captions (CAPTION), line drawings (LINEART), natural images (PICTURE), frames (FRAME), tables (TABLE), etc. in the document image data. The attribute information of each block recognized for each attribute and the rectangular address information thereof are held. Reference numeral 2003 denotes a character recognition description data portion, which holds character recognition results obtained by character recognition of TEXT blocks such as TEXT, TITLE, and CAPTION. Reference numeral 2004 denotes a table description data portion, which stores details of the structure of the TABLE block. Reference numeral 2005 denotes an image description data section, which cuts out image data of blocks such as PICTURE and LINEART from document image data and holds them.

このようなDAOFは中間データとしてのみならず、それ自体がファイル化されて保存される場合もあるが、このファイルの状態では、所謂一般の文書作成アプリケーションで個々のオブジェクトを再利用することはできない。   Such a DAOF is not only used as intermediate data, but may be stored as a file itself. However, in this file state, individual objects cannot be reused in a so-called general document creation application. .

そこで、このDAOFからアプリケーションデータに変換する電子文書作成処理309について説明する。   Therefore, an electronic document creation process 309 for converting DAOF into application data will be described.

図21は、電子文書作成処理の全体の概略を示すフローチャートである。まずステップS2101において、DAOFデータの入力を行う。次に、ステップS2102において、アプリデータの元となる文書構造ツリー生成を行う。そして、ステップS2103で、文書構造ツリーに基づいてDAOF内の実データを流し込み、実際のアプリデータを生成する。   FIG. 21 is a flowchart showing an outline of the entire electronic document creation process. First, in step S2101, DAOF data is input. In step S2102, a document structure tree that is the source of application data is generated. In step S2103, actual data in the DAOF is flowed based on the document structure tree to generate actual application data.

図22は、文書構造ツリー生成処理の詳細を示すフローチャートである。また、図23は文書構造ツリーを説明するための図である。尚、全体制御の基本ルールとして、処理の流れはミクロブロック(単一ブロック)からマクロブロック(ブロックの集合体)へ移行する。尚、以下の説明で、「ブロック」はミクロブロック及びマクロブロック全体を指すものとする。   FIG. 22 is a flowchart showing details of the document structure tree generation process. FIG. 23 is a diagram for explaining the document structure tree. As a basic rule of overall control, the process flow shifts from a micro block (single block) to a macro block (an aggregate of blocks). In the following description, “block” refers to a micro block and an entire macro block.

まず、ステップS2201では、ブロック単位に縦方向の関連性に基づいて再グループ化する。スタート直後はミクロブロック単位での判定となる。ここで、関連性とは、距離が近い、ブロック幅(横方向の場合は高さ)がほぼ同一であることなどで定義することができる。また、距離、幅、高さなどの情報はDAOFを参照し、抽出する。   First, in step S2201, regrouping is performed on a block basis based on the relevance in the vertical direction. Immediately after the start, judgment is made in units of micro blocks. Here, the relevance can be defined by the fact that the distance is close and the block width (height in the horizontal direction) is substantially the same. Information such as distance, width, and height is extracted with reference to DAOF.

図23は、ページの構成とその文書構造のツリーを示す図である。図23に示す(a)は実際のページ構成、図23に示す(b)はその文書構造ツリーである。   FIG. 23 is a diagram showing a page structure and a tree of its document structure. 23A shows an actual page configuration, and FIG. 23B shows its document structure tree.

ステップS2201での結果、図23に示すT3、T4、T5が1つのグループV1として生成され、T6、T7が1つのグループV2として生成され、図23に示す(b)のように、グループV1とグループV2が同じ階層のグループとして生成される。そして、ステップS2202において、縦方向のセパレータの有無をチェックする。セパレータは、例えば物理的にはDAOF中でライン属性を持つオブジェクトである。また、論理的な意味としては、アプリ中で明示的にブロックを分割する要素である。ここでセパレータを検出した場合は、同じ階層で再分割する。   As a result of step S2201, T3, T4, and T5 shown in FIG. 23 are generated as one group V1, and T6 and T7 are generated as one group V2, and as shown in FIG. Group V2 is generated as a group of the same hierarchy. In step S2202, the presence / absence of a vertical separator is checked. For example, the separator is physically an object having a line attribute in the DAOF. In addition, as a logical meaning, it is an element that explicitly divides a block in an application. If a separator is detected here, it is subdivided at the same level.

次に、ステップS2203において、分割がこれ以上存在し得ないか否かをグループ長を利用して判定する。ここで、縦方向のグループ長がページ高さとなっている場合、文書構造ツリー生成を終了する。また、図23に示す例の場合、セパレータもなく、グループ高さはページ高さではないのでステップS2204へ進み、ブロック単位で横方向の関連性に基づいて再グループ化する。ここもスタート直後の第一回目はミクロブロック単位で判定を行うことになる。尚、関連性、及びその判定情報の定義は、縦方向の場合と同じである。   Next, in step S2203, it is determined using the group length whether or not there are no more divisions. If the vertical group length is the page height, the document structure tree generation is terminated. In the example shown in FIG. 23, since there is no separator and the group height is not the page height, the process proceeds to step S2204, and regrouping is performed on a block basis based on the horizontal relationship. Here too, the first time immediately after the start is determined in units of microblocks. The definition of the relevance and the determination information is the same as in the vertical direction.

図23に示す例の場合、T1、T2でH1が、V1、V2でH2がV1、V2の1つ上の同じ階層のグループとして生成される。そして、ステップS2205において、横方向セパレータの有無をチェックする。図23に示す例では、S1があるので、これをツリーに登録し、H1、S1、H2という階層を生成する。   In the case of the example shown in FIG. 23, H1 is generated at T1 and T2, and H1 is generated as a group in the same hierarchy above V1 and V2 at V1 and V2. In step S2205, the presence / absence of a horizontal separator is checked. In the example shown in FIG. 23, since there is S1, this is registered in the tree, and a hierarchy of H1, S1, and H2 is generated.

次に、ステップS2206において、分割がこれ以上存在し得ないか否かをグループ長を利用して判定する。ここで、横方向のグループ長がページ幅となっている場合、文書構造ツリー生成を終了する。また、そうでない場合はステップS2201に戻り、再びもう一段上の階層で、縦方向の関連性チェックから繰り返す。図23に示す例の場合、分割幅がページ幅になっているので、ここで終了し、最後にページ全体を表す最上位階層のV0が文書構造ツリーに付加される。   Next, in step S2206, it is determined using the group length whether or not there are no more divisions. If the horizontal group length is the page width, the document structure tree generation is terminated. If not, the process returns to step S2201, and the relevance check in the vertical direction is repeated again at the next higher level. In the example shown in FIG. 23, since the division width is the page width, the process ends here, and finally V0 of the highest hierarchy representing the entire page is added to the document structure tree.

文書構造ツリーが完成した後、その情報に基づいてアプリデータを生成する(ステップS2103)。図23に示す例の場合、具体的には、以下のようになる。   After the document structure tree is completed, application data is generated based on the information (step S2103). Specifically, the example shown in FIG. 23 is as follows.

即ち、H1は横方向に2つのブロックT1及びT2があるので、2カラムとし、T1の内部情報(DAOFを参照、文字認識結果の文章、画像など)を出力後、カラムを変え、T2の内部情報出力、その後S1を出力する。次に、H2は横方向に2つのブロックV1及びV2があるので、2カラムとして出力、V1はT3、T4、T5の順にその内部情報を出力、その後カラムを変え、V2のT6、T7の内部情報を出力する。   That is, since there are two blocks T1 and T2 in the horizontal direction, H1 has two columns, and after T1 internal information (refer to DAOF, text of character recognition result, image, etc.) is output, the column is changed and the internal of T2 Information is output, and then S1 is output. Next, since H2 has two blocks V1 and V2 in the horizontal direction, it outputs as two columns, V1 outputs its internal information in the order of T3, T4, T5, then changes the column, and inside of T6, T7 of V2 Output information.

以上の処理によりアプリデータへの変換処理を行うことができる。   The conversion processing into application data can be performed by the above processing.

尚、本発明は複数の機器(例えば、ホストコンピュータ,インターフェース機器,リーダ,プリンタなど)から構成されるシステムに適用しても、1つの機器からなる装置(例えば、複写機,ファクシミリ装置など)に適用しても良い。具体的には、複合機や、複写機や、ファクシミリ装置で、高品位に変倍するために、スキャンした画像データを入力し(公衆回線やネットワークから画像データを入力しても良い)、画像データから輪郭ベクトルを抽出し、抽出した輪郭ベクトルを変倍し、変倍された輪郭ベクトルから画像データを生成し、生成した画像データをプリントする際の輪郭ベクトル抽出時に適用できる。   Even if the present invention is applied to a system composed of a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), it is applied to an apparatus (for example, a copier, a facsimile machine, etc.) composed of a single device. It may be applied. Specifically, the scanned image data may be input (image data may be input from a public line or a network) in order to change the image quality with a multifunction device, copier, or facsimile machine. It can be applied when extracting a contour vector from data, scaling the extracted contour vector, generating image data from the scaled contour vector, and printing the generated image data.

また、本発明の目的は前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(CPU若しくはMPU)が記録媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。   Another object of the present invention is to supply a recording medium in which a program code of software realizing the functions of the above-described embodiments is recorded to a system or apparatus, and the computer (CPU or MPU) of the system or apparatus stores the recording medium in the recording medium. Needless to say, this can also be achieved by reading and executing the programmed program code.

この場合、記録媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記録媒体は本発明を構成することになる。   In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium storing the program code constitutes the present invention.

このプログラムコードを供給するための記録媒体としては、例えばフロッピー(登録商標)ディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。   As a recording medium for supplying the program code, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like is used. be able to.

また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

更に、記録媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

実施例1における文書処理装置の外観を示す図である。1 is a diagram illustrating an appearance of a document processing apparatus according to a first embodiment. 実施例1における文書処理装置の構成の一例を示すブロック図である。1 is a block diagram illustrating an example of a configuration of a document processing apparatus in Embodiment 1. FIG. 文書処理装置における文書の電子化処理の概要を示す図である。It is a figure which shows the outline | summary of the digitization process of the document in a document processing apparatus. 実施例1における像域分離処理を説明するための図である。FIG. 6 is a diagram for explaining image area separation processing according to the first exemplary embodiment. 像域分離処理303で分離された各ブロックに対するブロック情報と入力ファイル情報を示す図である。It is a figure which shows the block information and input file information with respect to each block isolate | separated by the image area separation process 303. FIG. アウトラインベクトルデータへの変換を説明するための図である。It is a figure for demonstrating conversion to outline vector data. 表処理部308における表処理を示すフローチャートである。It is a flowchart which shows the table process in the table process part 308. FIG. 表枠を認識する処理を示すフローチャートである。It is a flowchart which shows the process which recognizes a table frame. 矩形図形、三角図形、矩形図形の集合と判定されるアウトラインの一例を示す図である。It is a figure which shows an example of the outline determined to be a collection of a rectangular figure, a triangular figure, and a rectangular figure. 図9に示すセルアウトラインをセル図形へ変換した例を示す図である。It is a figure which shows the example which converted the cell outline shown in FIG. 9 into the cell figure. 隣接するセル図形の統合例を示す図である。It is a figure which shows the example of integration of the adjacent cell figure. セル図形を構成するセルアウトラインと各属性情報についての一例を示す図である。It is a figure which shows an example about the cell outline which comprises a cell figure, and each attribute information. マッピング領域と交点の一例を示す図である。It is a figure which shows an example of a mapping area | region and an intersection. セル図形マッピング処理を示すフローチャートである。It is a flowchart which shows a cell figure mapping process. マッピング領域と交点とマッピングセルと注目点の関係を示す図である。It is a figure which shows the relationship between a mapping area | region, an intersection, a mapping cell, and an attention point. 矩形領域A内に色塗りセルを作成する例を示す図である。It is a figure which shows the example which produces a colored cell in the rectangular area. 作成された交点の隣接関係と、マッピングされたセル図形及び色塗りセル、またセル図形の場合はその属性情報を記述した例を示す図である。It is a figure which shows the example which described the adjacent relationship of the produced intersection, the mapped cell figure, the coloring cell, and the attribute information in the case of a cell figure. 図17に示す交点の隣接関係から得られた処理結果を示す図である。It is a figure which shows the process result obtained from the adjacent relationship of the intersection shown in FIG. 色塗りセル再処理を示すフローチャートである。It is a flowchart which shows color painting cell reprocessing. ドキュメント・アナリシス・アウトプット・フォーマット(DAOF)のデータ構造を示す図である。It is a figure which shows the data structure of a document analysis output format (DAOF). 電子文書作成処理の全体の概略を示すフローチャートである。It is a flowchart which shows the outline of the whole electronic document preparation process. 文書構造ツリー生成処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of a document structure tree production | generation process. ページの構成とその文書構造のツリーを示す図である。It is a figure which shows the structure of a page, and the tree of the document structure. 本実施例において作成される表枠を示す図である。It is a figure which shows the table frame produced in a present Example. 従来の表処理における問題を説明するための図である。It is a figure for demonstrating the problem in the conventional table process.

Claims (4)

表領域の2値画像データをアウトライン化した結果に基づいて、表の外枠領域と表内部のセルの矩形領域とを抽出する抽出手段と、
前記外枠領域に対して前記セルの矩形領域をマッピングし、前記外枠領域内で当該セルの矩形領域がマッピングされない領域において前記セルの矩形領域の角点に基づいて色塗りセルを作成するマッピング手段と、
前記マッピング手段のマッピング結果に基づいて、前記表領域の構成を認識する認識手段と、
前記色塗りセルについて2値化処理を行い、セル内のオブジェクトを抽出する再処理手段と、
前記認識手段で認識した前記表領域の構成と前記再処理手段で抽出した結果とに基づいて、表データを作成する表データ作成手段と、を有し、
前記マッピング手段は、前記外枠領域の交点と既にマッピングを行った前記セルの矩形領域の角点との中から注目点を抽出し、
当該注目点との一定距離以内に未だマッピングされていない前記セルの矩形領域の角点があれば、当該注目点と当該角点とが一致すると判定して当該角点を有するセルの矩形領域をマッピングしていき、
当該注目点との一定距離以内に未だマッピングされていない前記セルの矩形領域の角点がなければ、未だマッピングされていない前記セルの矩形領域の角点を通る水平線及び垂直線に基づいて、前記色塗りセルを作成することを特徴とする画像処理装置。
Extraction means for extracting the outer frame region of the table and the rectangular region of the cell inside the table based on the result of the outline of the binary image data of the table region;
Mapping that maps the rectangular area of the cell to the outer frame area and creates a colored cell based on the corner points of the rectangular area of the cell in the area where the rectangular area of the cell is not mapped in the outer frame area Means,
Recognition means for recognizing the configuration of the table area based on the mapping result of the mapping means;
Re-processing means for performing binarization processing on the colored cells and extracting objects in the cells;
Table data creation means for creating table data based on the configuration of the table area recognized by the recognition means and the result extracted by the reprocessing means,
The mapping means extracts an attention point from the intersection of the outer frame region and the corner point of the rectangular region of the cell that has already been mapped,
If there is a corner point of the rectangular area of the cell that has not yet been mapped within a certain distance from the point of interest, it is determined that the point of interest matches the corner point, and the rectangular area of the cell having the corner point is determined. Mapping,
If there is no corner point of the rectangular area of the cell that is not yet mapped within a certain distance from the point of interest, based on the horizontal and vertical lines passing through the corner point of the rectangular area of the cell that is not yet mapped, images processor characterized in that to create a color painting cell.
抽出手段が、表領域の2値画像データをアウトライン化した結果に基づいて、表の外枠領域と表内部のセルの矩形領域とを抽出する抽出工程と、An extracting step for extracting an outer frame region of the table and a rectangular region of the cells inside the table based on the result of the extraction unit that binarizes the binary image data of the table region;
マッピング手段が、前記外枠領域に対して前記セルの矩形領域をマッピングし、前記外枠領域内で当該セルの矩形領域がマッピングされない領域において前記セルの矩形領域の角点に基づいて色塗りセルを作成するマッピング工程と、The mapping means maps the rectangular area of the cell to the outer frame area, and in the area where the rectangular area of the cell is not mapped in the outer frame area, a colored cell based on the corner points of the rectangular area of the cell Mapping process to create
認識手段が、前記マッピング工程でのマッピング結果に基づいて、前記表領域の構成を認識する認識工程と、A recognition unit for recognizing a configuration of the table area based on a mapping result in the mapping step;
再処理手段が、前記色塗りセルについて2値化処理を行い、セル内のオブジェクトを抽出する再処理工程と、A reprocessing unit that performs binarization processing on the colored cells and extracts objects in the cells;
表データ作成手段が、前記認識工程で認識した前記表領域の構成と前記再処理手段で抽出した結果とに基づいて、表データを作成する表データ作成工程と、を有し、A table data creating step for creating table data based on the configuration of the table area recognized in the recognition step and the result extracted by the reprocessing unit;
前記マッピング工程では、前記外枠領域の交点と既にマッピングを行った前記セルの矩形領域の角点との中から注目点を抽出し、In the mapping step, a point of interest is extracted from the intersection of the outer frame area and the corner point of the rectangular area of the cell that has already been mapped,
当該注目点との一定距離以内に未だマッピングされていない前記セルの矩形領域の角点があれば、当該注目点と当該角点とが一致すると判定して当該角点を有するセルの矩形領域をマッピングしていき、If there is a corner point of the rectangular area of the cell that has not yet been mapped within a certain distance from the point of interest, it is determined that the point of interest matches the corner point, and the rectangular area of the cell having the corner point is determined. Mapping,
当該注目点との一定距離以内に未だマッピングされていない前記セルの矩形領域の角点がなければ、未だマッピングされていない前記セルの矩形領域の角点を通る水平線及び垂直線に基づいて、前記色塗りセルを作成することを特徴とする画像処理方法。If there is no corner point of the rectangular area of the cell that is not yet mapped within a certain distance from the point of interest, based on the horizontal and vertical lines passing through the corner point of the rectangular area of the cell that is not yet mapped, An image processing method characterized by creating colored cells.
コンピュータを、Computer
表領域の2値画像データをアウトライン化した結果に基づいて、表の外枠領域と表内部のセルの矩形領域とを抽出する抽出手段、Extraction means for extracting the outer frame area of the table and the rectangular area of the cell inside the table based on the result of the outline of the binary image data of the table area;
前記外枠領域に対して前記セルの矩形領域をマッピングし、前記外枠領域内で当該セルの矩形領域がマッピングされない領域において前記セルの矩形領域の角点に基づいて色塗りセルを作成するマッピング手段、Mapping that maps the rectangular area of the cell to the outer frame area and creates a colored cell based on the corner points of the rectangular area of the cell in the area where the rectangular area of the cell is not mapped in the outer frame area means,
前記マッピング手段のマッピング結果に基づいて、前記表領域の構成を認識する認識手段、Recognition means for recognizing the configuration of the table area based on the mapping result of the mapping means;
前記色塗りセルについて2値化処理を行い、セル内のオブジェクトを抽出する再処理手段、Reprocessing means for performing binarization on the colored cells and extracting objects in the cells;
前記認識手段で認識した前記表領域の構成と前記再処理手段で抽出した結果とに基づいて、表データを作成する表データ作成手段、として機能させ、Based on the configuration of the table area recognized by the recognition means and the result extracted by the reprocessing means, function as table data creation means for creating table data,
前記マッピング手段は、前記外枠領域の交点と既にマッピングを行った前記セルの矩形領域の角点との中から注目点を抽出し、The mapping means extracts an attention point from the intersection of the outer frame region and the corner point of the rectangular region of the cell that has already been mapped,
当該注目点との一定距離以内に未だマッピングされていない前記セルの矩形領域の角点があれば、当該注目点と当該角点とが一致すると判定して当該角点を有するセルの矩形領域をマッピングしていき、If there is a corner point of the rectangular area of the cell that has not yet been mapped within a certain distance from the point of interest, it is determined that the point of interest matches the corner point, and the rectangular area of the cell having the corner point is determined. Mapping,
当該注目点との一定距離以内に未だマッピングされていない前記セルの矩形領域の角点がなければ、未だマッピングされていない前記セルの矩形領域の角点を通る水平線及び垂直線に基づいて、前記色塗りセルを作成するためのコンピュータプログラム。If there is no corner point of the rectangular area of the cell that is not yet mapped within a certain distance from the point of interest, based on the horizontal and vertical lines passing through the corner point of the rectangular area of the cell that is not yet mapped, A computer program for creating colored cells.
請求項記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium on which the program according to claim 3 is recorded.
JP2004290386A 2004-10-01 2004-10-01 Image processing apparatus and image processing method Expired - Fee Related JP4587167B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004290386A JP4587167B2 (en) 2004-10-01 2004-10-01 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004290386A JP4587167B2 (en) 2004-10-01 2004-10-01 Image processing apparatus and image processing method

Publications (3)

Publication Number Publication Date
JP2006106972A JP2006106972A (en) 2006-04-20
JP2006106972A5 JP2006106972A5 (en) 2007-11-15
JP4587167B2 true JP4587167B2 (en) 2010-11-24

Family

ID=36376667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004290386A Expired - Fee Related JP4587167B2 (en) 2004-10-01 2004-10-01 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4587167B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4878209B2 (en) 2006-05-15 2012-02-15 キヤノン株式会社 Image processing apparatus, image processing method, and computer program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001297303A (en) * 2000-02-09 2001-10-26 Ricoh Co Ltd Method and device for recognizing document image and computer readable recording medium
JP2004127203A (en) * 2002-07-30 2004-04-22 Ricoh Co Ltd Image processor, image processing method, program for causing computer to execute the method, and computer readable recording medium with the program recorded thereon

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001297303A (en) * 2000-02-09 2001-10-26 Ricoh Co Ltd Method and device for recognizing document image and computer readable recording medium
JP2004127203A (en) * 2002-07-30 2004-04-22 Ricoh Co Ltd Image processor, image processing method, program for causing computer to execute the method, and computer readable recording medium with the program recorded thereon

Also Published As

Publication number Publication date
JP2006106972A (en) 2006-04-20

Similar Documents

Publication Publication Date Title
US7386789B2 (en) Method for determining logical components of a document
JP4646797B2 (en) Image processing apparatus, control method therefor, and program
US8000529B2 (en) System and method for creating an editable template from a document image
JP5361574B2 (en) Image processing apparatus, image processing method, and program
CN105528614B (en) A kind of recognition methods of the cartoon image space of a whole page and automatic recognition system
JP4366011B2 (en) Document processing apparatus and method
US6532302B2 (en) Multiple size reductions for image segmentation
US8965125B2 (en) Image processing device, method and storage medium for storing and displaying an electronic document
JP2006023945A (en) Image processing system and image processing method
US20120250048A1 (en) Image processing apparatus and image processing method
JP2001297303A (en) Method and device for recognizing document image and computer readable recording medium
US20090274369A1 (en) Image processing device, image processing method, program, and storage medium
JP2007172132A (en) Layout analysis program, layout analysis device and layout analysis method
EP1017011A2 (en) Block selection of table features
JP2008176521A (en) Pattern separation extraction program, pattern separation extraction apparatus and pattern separation extraction method
JP2006253892A (en) Method and device for treating image
JP2005346137A (en) Processing method for converting into function, function approximation processor and image processor
JP5049922B2 (en) Image processing apparatus and image processing method
JP2000132689A (en) Method for identifying feature of color picture
JP2006345314A (en) Image processing apparatus and image processing method
JP4587167B2 (en) Image processing apparatus and image processing method
US20090290797A1 (en) Image processing for storing objects separated from an image in a storage device
JP5767549B2 (en) Image processing apparatus, image processing method, and program
KR100331035B1 (en) Automatic Analysis of Format Document Image
JP2006106971A (en) Chart vector data generating method and document processor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071001

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071001

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20071001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100827

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100906

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100831

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees