JP2890307B2 - Table space separation device - Google Patents

Table space separation device

Info

Publication number
JP2890307B2
JP2890307B2 JP63201028A JP20102888A JP2890307B2 JP 2890307 B2 JP2890307 B2 JP 2890307B2 JP 63201028 A JP63201028 A JP 63201028A JP 20102888 A JP20102888 A JP 20102888A JP 2890307 B2 JP2890307 B2 JP 2890307B2
Authority
JP
Japan
Prior art keywords
pattern
table area
coordinates
image
hook
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP63201028A
Other languages
Japanese (ja)
Other versions
JPH0250774A (en
Inventor
昇 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP63201028A priority Critical patent/JP2890307B2/en
Publication of JPH0250774A publication Critical patent/JPH0250774A/en
Application granted granted Critical
Publication of JP2890307B2 publication Critical patent/JP2890307B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は人間による認識のためのマーク付け等が行な
われていない一般の文書を認識するための文書画像認識
において、文字、図、表、写真などが混在する文書から
表領域を分離する装置に関するものである。
DETAILED DESCRIPTION OF THE INVENTION (Industrial Application Field) The present invention relates to a document image recognition for recognizing a general document in which a mark for human recognition is not performed. The present invention relates to an apparatus for separating a table area from a document in which photographs and the like are mixed.

(従来の技術) 従来の文字・図形分離処理は、例えば岩城修外3名著
「文字・図形分離処理におけるプロダクション・システ
ム導入の一検討」,電子通信学会技術研究報告PRL83−6
3に示されるように、文字と図形を分離するのみであ
る。つまり第2図(a)に示す表を含んだ文書画像に対
しては表の線と文字(表領域外の文字〔本文文字と見出
し文字など〕〕と表領域内の文字の両方を含む)を分離
して、同図(b)に示す文字画像と同図(c)に示す線
画像とに分離抽出するのみで、表内の文字を含んだ表領
域を分離して、同図(d)に示すような文字領域画像と
同図(e)に示すような表領域画像とに分離抽出するこ
とはできなかった。
(Conventional technology) Conventional character / graphic separation processing is described in, for example, Shugai Iwaki's three authors, "Investigation of Introduction of Production System in Character / Graph Separation Processing", IEICE Technical Report PRL83-6.
It only separates characters and graphics, as shown in 3. In other words, for a document image including the table shown in FIG. 2A, both the lines and characters of the table (characters outside the table area [text characters and index characters, etc.]) and characters within the table area are included. Is separated and extracted only into the character image shown in FIG. 2B and the line image shown in FIG. 2C, and the table area including the characters in the table is separated, and FIG. ) Cannot be separated and extracted into a character region image as shown in FIG.

このような従来技術においては、表内の文字を含んだ
表領域を抽出できないことによって、以下のような問題
点があった。
In such a conventional technique, the following problem arises because a table area including characters in a table cannot be extracted.

文書画像認識では、文字認識の際に本文領域と表内の
文字が区別できないために、文脈を用いた効率的な文字
認識を行なうことができない。
In document image recognition, efficient character recognition using context cannot be performed because the text region and the characters in the table cannot be distinguished during character recognition.

表においては、同一行(列)には同じ文字、同じ意味
の文字、あるいは反対の意味の文字などが使用されるこ
とが多いが、このような表の構造的な意味を用いて効率
的に文字認識を行なうことはできない。
In a table, the same character, the same character, or the opposite character is often used in the same row (column). Character recognition cannot be performed.

文書編集では、表の線のみに対する編集ができるのみ
で、意味を持つ表領域に対する編集ができない。
In document editing, it is only possible to edit a table line, but not a meaningful table area.

(発明が解決しようとする課題) 本発明は、文書画像認識や文書編集を効率的に行なう
ために文字をも含んだ表領域の抽出ができるようにする
ことを目的とするものである。
(Problems to be Solved by the Invention) It is an object of the present invention to enable extraction of a table area including characters in order to efficiently perform document image recognition and document editing.

(課題を解決するための手段) 本発明は、表を含む画像をデジタルで入力する画像入
力手段と、入力画像を記憶するイメージメモリと、表領
域に存在する鈎型やT字型などの表を構成する線分の交
点の特徴パターンを抽出する特徴パターン抽出手段と、
前記抽出した特徴パターンのうち最も外側に位置する特
徴パターンを求め、かつ前記抽出した特徴パターンが格
子状に存在することを確認して、前記最も外側に位置す
る特徴パターンの座標を、表領域を表す矩形の座標とし
て検出する表領域座標検出手段と、その検出した表領域
を表す矩形の座標によりイメージメモリから表領域を抽
出する表領域抽出手段とを備えた表領域分離装置であ
る。
(Means for Solving the Problems) The present invention provides image input means for digitally inputting an image including a table, an image memory for storing the input image, and a table such as a hook-shaped or T-shaped table existing in a table area. Feature pattern extraction means for extracting a feature pattern at the intersection of the line segments constituting
Finding the outermost feature pattern among the extracted feature patterns, and confirming that the extracted feature pattern exists in a lattice shape, the coordinates of the outermost feature pattern are calculated using a table area. The table area separating apparatus includes table area coordinate detecting means for detecting the coordinates of a rectangle to be displayed, and table area extracting means for extracting a table area from an image memory based on the coordinates of the detected rectangular area.

(作用) 本発明は、画像入力手段から表を含む一般文書すなわ
ち人間による処理のためのマーク付け等が行なわれてい
ない文書をデジタル入力し、その原画像をイメージメモ
リに格納しておき、その原画像に対して特徴パターン抽
出手段により鈎型やT字型などの表を構成する線分の交
点の特徴パターンを抽出し、その各座標を検出する。表
領域座標検出手段において、特徴パターン抽出手段で抽
出した特徴パターンのうち最も外側に位置する特徴パタ
ーンを求め、かつ前記抽出した特徴パターンが格子状に
存在することを確認して、前記最も外側に位置する特徴
パターンの座標を、表領域に表す矩形の座標として検出
する。例えば、特徴パターンが鈎型パターンの場合に
は、その鈎型パターンの座標が格子状に存在するか否か
を調べ、格子上に存在する場合には、最も左上の座標を
有する鈎型パターンの座標と最も右下の座標を有する鈎
型パターンの座標の対、あるいは最も右上の座標を有す
る鈎型パターンの座標と最も左下の座標を有する鈎型パ
ターンの座標の対を選択して表領域を表す矩形の座標と
する。もし、特徴パターンとしてT字型パターンを用い
る場合には、そのT字型パターの座標が格子状に存在す
るか否かを調べ、格子状に存在する場合には、x座標の
最大値、最小値およびy座標の最大値最小値を有するT
字型パターンの座標を選択して表領域を表す矩形の座標
とする。次に表領域抽出手段において表領域座標検出手
段からの表領域を表す前記座標を用い、イメージメモリ
に格納されている原画像から表領域画像と文字領域画像
(表領域外の画像)を分離する。
(Operation) According to the present invention, a general document including a table, that is, a document that has not been marked for processing by humans, is digitally input from an image input unit, and its original image is stored in an image memory. A feature pattern extracting unit extracts a feature pattern of an intersection of line segments constituting a table such as a hook shape or a T-shape from the original image, and detects respective coordinates thereof. In the table area coordinate detecting means, determine the outermost feature pattern among the feature patterns extracted by the feature pattern extracting means, and confirm that the extracted feature pattern exists in a lattice shape, and The coordinates of the feature pattern located are detected as coordinates of a rectangle represented in the table area. For example, if the feature pattern is a hook-shaped pattern, it is checked whether or not the coordinates of the hook-shaped pattern are present in a grid pattern. Select a pair of coordinates and a hook-shaped pattern coordinate having the lower right coordinate, or a pair of a hook-shaped pattern coordinate having the upper right coordinate and a hook-shaped pattern coordinate having the lower left coordinate to select a table area. The coordinates of the rectangle to represent. If a T-shaped pattern is used as the feature pattern, it is checked whether or not the coordinates of the T-shaped pattern exist in a grid pattern. T with maximum and minimum values and y-coordinates
The coordinates of the character pattern are selected to be the coordinates of a rectangle representing the table area. Next, the table area extracting means separates the table area image and the character area image (the image outside the table area) from the original image stored in the image memory using the coordinates representing the table area from the table area coordinate detecting means. .

本発明は、表領域に存在する鈎型やT字型などの表を
構成する線分の交点の特徴パターンを抽出し、その特徴
パターンの座標に基づき表領域を表わす矩形の座標を検
出し、その検出した表領域を表す矩形の座標によりイメ
ージメモリから表領域を抽出するように構成したので、
従来技術のように表の線分のみを抽出するのとは異な
り、表内の文字をも含む表領域全体を抽出することが可
能である。従って、本発明を文書画像認識の前処理に用
いた場合には、文書画像の認識を高効率に行なうために
必要な条件を備えた分離された表領域と文字領域を提供
でき、極めて有用である。
The present invention extracts a feature pattern of intersections of line segments constituting a table such as a hook shape or a T-shape existing in a table region, detects coordinates of a rectangle representing the table region based on coordinates of the feature pattern, Since the table area is configured to be extracted from the image memory by the coordinates of the rectangle representing the detected table area,
Unlike extracting only line segments of a table as in the related art, it is possible to extract the entire table area including characters in the table. Therefore, when the present invention is used for preprocessing of document image recognition, it is possible to provide a separated table region and character region having conditions necessary for performing document image recognition with high efficiency, which is extremely useful. is there.

(実施例) 第1図は本発明の一実施例を示すもので、この表領域
分離装置は、イメージメモリのような画像入力部1、イ
メージメモリ2、鈎型パターンマッチング部3、表領域
座標抽出部4、および表領域抽出部5からなっている。
(Embodiment) FIG. 1 shows an embodiment of the present invention. This table area separating apparatus includes an image input section 1 such as an image memory, an image memory 2, a hook-shaped pattern matching section 3, a table area coordinate. It consists of an extraction unit 4 and a table area extraction unit 5.

画像入力部1は、本文文字や表を含む文書画像を入力
する。たとえば、第2図(a)に示す原画像を2値デジ
タルデータとして入力する。
The image input unit 1 inputs a document image including text characters and tables. For example, the original image shown in FIG. 2A is input as binary digital data.

イメージメモリ2は、入力した2値デジタルデータを
記憶しておくメモリである。
The image memory 2 is a memory for storing the input binary digital data.

鈎型パターンマッチング部3は、第3図(a)に示う
ような表における左上の角の特等を表わすパターンをパ
ターンマッチングにより抽出する左上鈎型パターンマッ
チング部31と、第3図(b)に示すような表における右
下の角の特徴を表わすパターンをパターンマッチングに
より抽出する右下鈎型パターンマッチング部32とからな
っている。
The hook-type pattern matching unit 3 extracts the pattern representing the special feature of the upper left corner in the table as shown in FIG. 3A by pattern matching, and the hook-type pattern matching unit 31 shown in FIG. 3B. And a lower right hook type pattern matching unit 32 for extracting a pattern representing the characteristic of the lower right corner in the table as shown in FIG.

左上鈎型パターンマッチング部31においては、一例と
して次のような処理により鈎型パターンを検出しその角
(交点)の座標を求める。
The upper left hook-shaped pattern matching unit 31 detects the hook-shaped pattern by the following process, for example, and obtains the coordinates of the corner (intersection).

イメージメモリ内の画像をある画像(xi,xj)から
x方向に走査してnビットを読みだし、第1のレジスタ
に格納する。
The image in the image memory is scanned in the x direction from a certain image (xi, xj), and n bits are read and stored in the first register.

第1のレジスタのnビットのデータを1ビット左へ
シフトさせたデータを作成し、第2のレジスタに格納す
る。
Data is generated by shifting the n-bit data of the first register one bit to the left, and stores the data in the second register.

第1のレジスタのデータと第2のレジスタのデータ
との論理積をとり、第1のレジスタに格納する。
The logical product of the data of the first register and the data of the second register is calculated and stored in the first register.

ステップおよびの動作をn−1回繰り返し、第
1のレジスタの左端に黒画素を表わすビットが残ったと
きは、前記座標(xi,yj)を鈎型パターンの座標の候補
として記憶する。
Steps and operations are repeated n-1 times, and when a bit representing a black pixel remains at the left end of the first register, the coordinates (xi, yj) are stored as hook-shaped pattern coordinate candidates.

ステップ〜の手順をイメージメモリ中の画像の
全ての座標について行なう。
Steps (1) to (4) are performed for all the coordinates of the image in the image memory.

次にy方向について同様の手順を実行する。 Next, the same procedure is performed in the y direction.

即ち、 イメージメモリ内の画像をある座標(xi,yj)から
y方向に走査してnビットを読みだし、第1のレジスタ
に格納する。
That is, the image in the image memory is scanned in the y direction from a certain coordinate (xi, yj), and n bits are read out and stored in the first register.

第1のレジスタのnビットのデータを1ビット左へ
シフトさせたデータを作成し、第2のレジスタに格納す
る。
Data is generated by shifting the n-bit data of the first register one bit to the left, and stores the data in the second register.

第1のレジスタのデータと第2のレジスタのデータ
との論理積をとり、第1のレジスタに格納する。
The logical product of the data of the first register and the data of the second register is calculated and stored in the first register.

ステップおよびの動作をn−1回繰り返し、第
1のレジスタの左端に黒画素を表わすビットが残ったと
きは、前記座標(xi,yj)を鈎型パターンの座標の候補
として記憶する。
Steps and operations are repeated n-1 times, and when a bit representing a black pixel remains at the left end of the first register, the coordinates (xi, yj) are stored as hook-shaped pattern coordinate candidates.

ステップ〜の手順をイメージメモリ中の画像の
全ての座標について行なう。
Steps (1) to (4) are performed for all the coordinates of the image in the image memory.

ステップのx方向に走査して得られた鈎型パター
ンの候補と、ステップのy方向に走査して得られた鈎
型パターンの候補とを照合して一致するものを鈎型パタ
ーンと判定する。
A hook-shaped pattern candidate obtained by scanning in the x direction of the step is compared with a hook-shaped pattern candidate obtained by scanning in the y direction of the step, and a match is determined as a hook-shaped pattern.

第4図(a)に示す原画に対する抽出の結果は同図
(b)に示すようになる。
The result of extracting the original image shown in FIG. 4A is as shown in FIG.

右下鈎型パターンマッチング部32においては上記〜
の手順と同様の手順によって、第3図(b)に示す鈎
型パターンを抽出することができ、第4図(a)に示す
原画に対する抽出の結果は同図(c)に示すようにな
る。
In the lower right hook type pattern matching unit 32,
The hook-shaped pattern shown in FIG. 3 (b) can be extracted by the same procedure as that shown in FIG. 3, and the result of extraction of the original picture shown in FIG. 4 (a) is as shown in FIG. .

表領域座標抽出部4は、左上パターンマッチング部31
により抽出された鈎型パターンのうち、一番左上にある
鈎型パターンの座標を抽出する表領域左上座標抽出部41
と、右下パターンマッチング部32により抽出された鈎型
パターンのうち、一番右下にある鈎型パターンの座標を
抽出する表領域右下座標抽出部42からなっている。
The table area coordinate extracting unit 4 includes an upper left pattern matching unit 31
Table area upper left coordinate extracting unit 41 for extracting the coordinates of the uppermost left hook-shaped pattern from the hook-shaped patterns extracted by
And a table area lower right coordinate extracting unit 42 for extracting the coordinates of the lower right hook pattern among the hook patterns extracted by the lower right pattern matching unit 32.

表領域左上座標抽出部41は、左上パターンマッチング
部31により抽出された鈎型パターンの座標のうちX座標
が最もさくy座標が最も大きいものを求め、その鈎型パ
ターンが表を形成していることを確認し、その座標を表
領域抽出部5へ渡す。もし表を形成していないならば、
次の左上にある鈎型パターンの座標を求め、それが表を
形成しているかを試み、見つかるまで繰り返す。見つか
らなかった場合には表が存在しないことを表領域抽出部
5に通知する。
The table region upper left coordinate extracting unit 41 finds the coordinate of the hook-shaped pattern extracted by the upper left pattern matching unit 31 that has the smallest X coordinate and the largest y coordinate, and the hook-shaped pattern forms a table. Is confirmed, and the coordinates are passed to the table area extracting unit 5. If you do not form a table,
Find the coordinates of the next upper left hook-shaped pattern, try to see if they form a table, and repeat until you find one. If not found, the table area extracting unit 5 is notified that the table does not exist.

鈎型パターンが表を形成しているかどうかの確認は、
同じ鈎型パターンが格子状に存在しているかどうかによ
って行なう。
To check whether the hook-shaped pattern forms a table,
This is performed depending on whether or not the same hook-shaped pattern exists in a lattice shape.

表領域右下座標抽出部42は、表領域左上座標抽出部41
とほぼ同様の処理を行ない、表の右下座標を表領域抽出
部5へ渡す。
The table area lower right coordinate extracting unit 42 includes a table area upper left coordinate extracting unit 41
, And passes the lower right coordinates of the table to the table area extracting unit 5.

表領域抽出部5では、表領域左上座標領域部41より渡
された表領域の左上座標と表領域右下座標抽出部42より
渡された表領域の右下座標から、その座標に対応するイ
メージメモリ2の矩形領域を切り出し、第2図(e)に
示すような表内の文字を含んだ表領域を抽出する。ま
た、矩形座標内を白く塗りつぶすことによって第2図
(d)に示すような表領域以外の画像を得ることができ
る。
The table area extracting unit 5 calculates an image corresponding to the coordinates from the upper left coordinates of the table area passed from the table area upper left coordinate area unit 41 and the lower right coordinates of the table area passed from the table area lower right coordinate extracting unit 42. A rectangular area of the memory 2 is cut out, and a table area including characters in the table as shown in FIG. 2 (e) is extracted. In addition, an image other than the table area as shown in FIG. 2D can be obtained by filling the rectangular coordinates with white.

本実施例では表領域を示す特徴パターンとして第3図
(a),(b)の鈎型パターンを用いたが、その代りに
第3図(c),(d)の鈎型パターンを用い、表領域を
右上座標と左下座標で分離するよう構成してもよい。
In this embodiment, the hook-shaped patterns shown in FIGS. 3A and 3B are used as the characteristic patterns indicating the table area. Instead, the hook-shaped patterns shown in FIGS. 3C and 3D are used. The table area may be configured to be separated by the upper right coordinate and the lower left coordinate.

表領域の特徴パターンとしては、第5図に示すような
T字型パターンを用い表の左右端と上下端を抽出し、表
領域を分離するよう構成することもできる。その左右端
と上下端はx座標の最大値、最小値およびy座標の最大
値、最小値を有するT字型パターンの座標を選択するこ
とにより行ない、その選択した座標により表領域の矩形
座標とする。
As the characteristic pattern of the table area, a T-shaped pattern as shown in FIG. 5 may be used to extract the left and right ends and the upper and lower ends of the table to separate the table area. The left and right edges and the upper and lower edges are determined by selecting the coordinates of the T-shaped pattern having the maximum and minimum values of the x coordinate and the maximum and minimum values of the y coordinate. I do.

また、実施例では鈎型パターンマッチング部と座標検
出部を2系統持ち、並列的に処理を行なう例を示した
が、それぞれ1系統で逐次処理を行なうよう構成しても
よい。
Further, in the embodiment, the example in which the hook-type pattern matching unit and the coordinate detecting unit have two systems and the processing is performed in parallel has been described. However, it may be configured that the processing is performed sequentially by one system.

(発明の効果) 以上のように、本発明は、表領域に存在する鈎型やT
字型などの表を構成する線分の交点の特徴パターンを抽
出し、その特徴パターンの座標に基づき表領域を表わす
矩形の座標を検出し、その検出した表領域を表す矩形の
座標によりイメージメモリから表領域を抽出するように
構成したので、従来技術のように表の線分のみを抽出す
るのとは異なり、表内の文字をも含む表領域全体を抽出
することが可能である。また、抽出した特徴パターンが
格子状に存在するか否かを調べて表領域の判定をするの
で、矩形領域のうち表を形成するもののみを表領域とし
て確実に識別することができる。従って、本発明を文書
画像認識の前処理に用いた場合には、文書画像の認識を
高効率に行なうために必要な条件を備えた分離された表
領域と文字領域を提供でき、極めて有用である。
(Effect of the Invention) As described above, the present invention provides a hook-shaped or T-shaped
A feature pattern of an intersection of line segments constituting a table such as a character shape is extracted, coordinates of a rectangle representing a table region are detected based on the coordinates of the feature pattern, and an image memory is obtained based on coordinates of the rectangle representing the detected table region. Since the table area is extracted from the table, it is possible to extract the entire table area including the characters in the table, unlike the conventional technique in which only the line segments of the table are extracted. In addition, since it is determined whether or not the extracted feature pattern exists in a grid pattern, the table area is determined, so that only a rectangular area that forms a table can be reliably identified as a table area. Therefore, when the present invention is used for preprocessing of document image recognition, it is possible to provide a separated table region and character region having conditions necessary for performing document image recognition with high efficiency, which is extremely useful. is there.

また、本発明は、表領域に存在する鈎型やT字型など
の表の特徴パターンは比較的簡単な論理回路とシフトレ
ジスタ等のハードによっても構成することができるの
で、装置の構成を簡単にすることができると共に、処理
の高速化を実現することができる。
Further, according to the present invention, the characteristic pattern of the table such as the hook type or the T-shaped type existing in the table area can be constituted by a relatively simple logic circuit and hardware such as a shift register. And speeding up of processing can be realized.

【図面の簡単な説明】[Brief description of the drawings]

第1図は、本発明の一実施例を示すブロック図である。 第2図は文字と表の分離の態様を説明するための図であ
り、同図(a)は原入力画像、(b)は従来手法により
抽出した文字画像、(c)は従来手法により抽出した線
画像、(d)は文字領域画像、(e)は表領域画像の例
を示す図である。 第3図(a),(b),(c),(d)は、それぞれ本
発明で用いる鈎型パターンの例を示す図である。 第4図(a),(b),(c)は、パターンマッチング
を説明するための図であり、(a)は原画像、(b),
(c)はそれぞれ原画像から取り出した鈎型パターンの
例を示すものである。 第5図は、鈎型パターン以外の表を抽出するためのパタ
ーンの例を示す図である。 1……画像入力部、2……イメージメモリ、3……鈎型
パターンマッチング部、31……左上鈎型パターンマッチ
ング部、31……右下鈎型パターンマッチング部、4……
表領域座標抽出部、41……表領域左上座標抽出部、42…
…表領域右下座標抽出部、6……表領域抽出部。
FIG. 1 is a block diagram showing one embodiment of the present invention. FIGS. 2A and 2B are diagrams for explaining the manner of separation between a character and a table. FIG. 2A shows an original input image, FIG. 2B shows a character image extracted by a conventional method, and FIG. (D) is a diagram showing an example of a character region image, and (e) is a diagram showing an example of a table region image. FIGS. 3 (a), (b), (c) and (d) are diagrams showing examples of hook-shaped patterns used in the present invention. 4 (a), (b), and (c) are diagrams for explaining pattern matching, where (a) is an original image, (b),
(C) shows an example of a hook-shaped pattern extracted from the original image. FIG. 5 is a diagram showing an example of a pattern for extracting a table other than the hook-shaped pattern. 1 image input section, 2 image memory, 3 hook pattern matching section, 31 upper left hook pattern matching section, 31 lower right hook pattern matching section, 4
Table region coordinate extraction unit, 41 ... Table region upper left coordinate extraction unit, 42 ...
... Table area lower right coordinate extracting unit, 6... Table area extracting unit.

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】表を含む画像をデジタルで入力する画像入
力手段と、 入力画像を記憶するイメージメモリと、 表領域に存在する鈎型やT字型など表を構成する線分の
交点の特徴パターンを抽出する特徴パターン抽出手段
と、 前記抽出した特徴パターンのうち最も外側に位置する特
徴パターンを求め、かつ前記抽出した特徴パターンが格
子状に存在することを確認して、前記最も外側に位置す
る特徴パターンの座標を、表領域を表す矩形の座標とし
て検出する表領域座標検出手段と、 その検出した表領域を表す矩形の座標によりイメージメ
モリから表領域を抽出する表領域抽出手段と を備えたことを特徴とする表領域分離装置。
1. An image input means for digitally inputting an image including a table, an image memory for storing an input image, and features of intersections of line segments constituting a table, such as hooks and T-shapes, existing in a table area. A feature pattern extracting means for extracting a pattern; obtaining an outermost feature pattern among the extracted feature patterns; and confirming that the extracted feature pattern exists in a grid pattern. Table area coordinate detecting means for detecting the coordinates of the characteristic pattern to be detected as the coordinates of a rectangle representing the table area, and table area extracting means for extracting the table area from the image memory based on the coordinates of the detected rectangle representing the table area. A table region separating apparatus.
JP63201028A 1988-08-13 1988-08-13 Table space separation device Expired - Fee Related JP2890307B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63201028A JP2890307B2 (en) 1988-08-13 1988-08-13 Table space separation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63201028A JP2890307B2 (en) 1988-08-13 1988-08-13 Table space separation device

Publications (2)

Publication Number Publication Date
JPH0250774A JPH0250774A (en) 1990-02-20
JP2890307B2 true JP2890307B2 (en) 1999-05-10

Family

ID=16434251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63201028A Expired - Fee Related JP2890307B2 (en) 1988-08-13 1988-08-13 Table space separation device

Country Status (1)

Country Link
JP (1) JP2890307B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5710883A (en) * 1980-06-24 1982-01-20 Nec Corp Image data segmentation device
JPS57211672A (en) * 1981-06-22 1982-12-25 Ricoh Co Ltd Frame recognizing method
JPS62114079A (en) * 1985-11-14 1987-05-25 Oki Electric Ind Co Ltd Closed loop graphic extracting device

Also Published As

Publication number Publication date
JPH0250774A (en) 1990-02-20

Similar Documents

Publication Publication Date Title
US5129014A (en) Image registration
US8483499B2 (en) Image processing apparatus, image processing method, computer-readable medium and computer data signal
JPH04104324A (en) Program generating device
KR0167616B1 (en) Image processing apparatus and method of the same
JP2008108114A (en) Document processor and document processing method
KR930002349B1 (en) Character array devide method for press image
JP2890307B2 (en) Table space separation device
JPH06208625A (en) Method and device for processing image
JP2890306B2 (en) Table space separation apparatus and table space separation method
Peng et al. Document image matching based on component blocks
JP3070801B2 (en) Drawing management method
JPS63304387A (en) Document reader
KR940004476A (en) Image Control
KR100309679B1 (en) String Extraction Method
JPH04260980A (en) Device for recognizing graphic
JPH0697470B2 (en) Character string extractor
JP2561954B2 (en) Graphic processing device
JP2006323511A (en) Symbol-identifying method and device thereof
JP2789622B2 (en) Character / graphic area determination device
JPH0877355A (en) Weighed pattern matching method
JPH04324577A (en) Broken-line graph recognizing device
JPH03269689A (en) Document reading device
JPH01147786A (en) Reading device for document containing table
JPH0658689B2 (en) Line figure separation device
KR950001594B1 (en) Regional dividing method for digital signal

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees