JPH0514703A - Picture processor - Google Patents
Picture processorInfo
- Publication number
- JPH0514703A JPH0514703A JP3284485A JP28448591A JPH0514703A JP H0514703 A JPH0514703 A JP H0514703A JP 3284485 A JP3284485 A JP 3284485A JP 28448591 A JP28448591 A JP 28448591A JP H0514703 A JPH0514703 A JP H0514703A
- Authority
- JP
- Japan
- Prior art keywords
- image
- contour
- image processing
- area
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、デジタル複写機やファ
クシミリのようにデジタル入出力を有する機器におい
て、特定領域の画像について画像消去、斜体影付け、白
抜き等のデジタル画像処理を行ってプリンタ等に出力す
る画像処理装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a printer having a digital input / output such as a digital copying machine or a facsimile, which performs digital image processing such as image erasing, italic shadowing, and whitening on an image in a specific area. The present invention relates to an image processing device for outputting to the etc.
【0002】[0002]
【従来の技術】一般に、この種の画像処理装置で特定領
域の画像について画像処理を施す場合、原稿画像中にお
いてその処理対象領域及び処理内容を認識する必要があ
る。このような原稿画像中の画像処理領域及び処理内容
を認識させる方式として、従来は、マーカペンによりそ
の領域を指定するようにしている。例えば、特願平2−
229065号によれば、マーク画像の輪郭データを求
め、外側輪郭ループと内側輪郭ループとの対を処理対象
領域とし、これ以外をコマンドとみなしその種類を認識
するようにしている。また、特願平2−299428号
によれば、原稿画像中にマーカペンによって対象領域と
コマンドとを指定し、対象領域について指定コマンドに
従った画像処理を実行させるようにしている。特願平2
−144523号によれば、メモリに保持されている2
色のマーク画像情報の内、一方から処理領域情報を抽出
するとともに、他方から処理内容情報を得るようにして
いる。さらに、特願平2−144521号によれば、マ
ーク画像情報から連結する画素を切出して処理領域情報
を有する線画像か処理内容情報を有する文字画像かを判
定するようにしている。2. Description of the Related Art Generally, when performing image processing on an image of a specific area in an image processing apparatus of this type, it is necessary to recognize the processing target area and processing content in a document image. As a method of recognizing such an image processing area and processing content in the original image, conventionally, the area is designated by a marker pen. For example, Japanese Patent Application No. 2-
According to No. 229065, the contour data of the mark image is obtained, the pair of the outer contour loop and the inner contour loop is set as the processing target area, and the other portion is regarded as the command and its type is recognized. Further, according to Japanese Patent Application No. 2-299428, a target area and a command are specified in a document image with a marker pen, and image processing is executed for the target area according to the specified command. Japanese Patent Application 2
According to No. 144452, the two stored in the memory
The processing area information is extracted from one of the color mark image information and the processing content information is obtained from the other. Further, according to Japanese Patent Application No. 2-144521, connecting pixels are cut out from the mark image information to determine whether it is a line image having processing area information or a character image having processing content information.
【0003】[0003]
【発明が解決しようとする課題】ところが、何れの方式
も原稿に直かにマーカペンにより記入しなければなら
ず、原稿を汚してしまうものであり、大事な原稿の場合
には適用できないものである。However, in any of the methods, the manuscript must be directly written on the manuscript with a marker pen, and the manuscript becomes dirty, and it cannot be applied to the important manuscript. .
【0004】一方、このようなマーカペンによらない方
式として、例えば原稿中の表のタイトル部分のみを残し
て他の画像情報は削除したいような場合、修正液でその
部分を消すようにするとか、或いは、タイトル部分に例
えば斜体、白抜き、影付け等の画像処理を施したい場合
であれば、このような画像を有する原稿を別個に作成し
た後、これを元の原稿の所望位置に切り貼りすることに
より合成するようにしたものもある。しかし、これは原
稿自体を作成し直すものであり、やはり、原稿を損なう
ものである。On the other hand, as a method not using such a marker pen, for example, when it is desired to leave only the title portion of the table in the manuscript and delete the other image information, the portion may be erased with a correction liquid. Alternatively, if it is desired to subject the title portion to image processing such as italics, outlines, and shadowing, a document having such an image is separately prepared and then cut and pasted at a desired position of the original document. Some of them are designed to be synthesized. However, this is to recreate the manuscript itself, and again to spoil the manuscript.
【0005】[0005]
【課題を解決するための手段】原稿画像を画像入力手段
により光学的に読取って得られたデジタル画像を一旦記
憶手段に記憶させ、記憶された入力画像について画像処
理手段によりデジタル画像処理を施して画像出力手段に
出力させるようにした画像処理装置において、請求項1
記載の発明では、入力画像の輪郭線を追跡して画像輪郭
情報を出力する輪郭追跡手段と、この画像輪郭情報に基
づく各画像の輪郭の大きさからその画像が図形画像か否
かを判定する文字/図形判定手段と、判定された図形画
像の外側輪郭と内側輪郭との包含関係を求めて外側輪郭
と内側輪郭とを対応付ける輪郭包含関係判定手段と、求
められた包含関係に基づき枠線領域を抽出する領域抽出
手段とを有する領域認識手段を設け、抽出された枠線領
域から画像処理対象領域と画像処理内容とを選択指示す
る選択手段を設けた。A digital image obtained by optically reading a document image by image input means is temporarily stored in storage means, and the stored input image is subjected to digital image processing by image processing means. An image processing apparatus configured to output to an image output means,
In the described invention, the contour tracking means for tracing the contour line of the input image and outputting the image contour information, and the contour size of each image based on the image contour information are used to determine whether or not the image is a graphic image. A character / figure determining means, a contour inclusion relation determining means for associating the outer contour and the inner contour of the determined graphic image with each other and associating the outer contour with the inner contour, and a frame area based on the obtained inclusion relation. A region recognizing unit having a region extracting unit for extracting the image is provided, and a selecting unit is provided for selecting and instructing the image processing target region and the image processing content from the extracted frame line region.
【0006】請求項2記載の発明では、選択手段を抽出
された枠線領域から画像処理対象領域のサイズと画像処
理内容とを選択指示するものとし、さらに、枠線領域の
サイズを求めてそのサイズから前記選択手段により選択
された画像処理対象領域を判定する領域サイズ判定手段
を設けた。According to the second aspect of the present invention, the selecting means instructs the size of the image processing target area and the image processing content to be selected from the extracted frame line area, and further, the size of the frame line area is obtained and the selected size is calculated. Area size determination means for determining the image processing target area selected by the selection means from the size is provided.
【0007】請求項3記載の発明では、さらに、領域抽
出手段により抽出された枠線領域を形成する枠線画像を
ベクトル化するベクトル化手段と、ベクトル化された枠
線データを修正するベクトル修正手段と、修正されたベ
クトルデータを画像出力手段に対する出力メモリ中に展
開するベクトル作画手段と、ベクトル化された元の枠線
画像データを記憶手段から消去する画像消去手段と、画
像処理手段による画像処理後の画像データと前記ベクト
ル作画手段により作成された枠線ベクトル画像とを合成
する画像合成手段とを有する画像清書手段を、画像処理
手段と画像出力手段との間に設けた。In the third aspect of the present invention, further, vectorization means for vectorizing the frame line image forming the frame line area extracted by the area extraction means, and vector correction for correcting the vectorized frame line data. Means, vector drawing means for expanding the modified vector data in the output memory for the image output means, image erasing means for erasing the original vectorized frame line image data from the storage means, and image by the image processing means. An image clearing means having an image synthesizing means for synthesizing the processed image data and the frame line vector image created by the vector drawing means is provided between the image processing means and the image output means.
【0008】一方、請求項4記載の発明では、入力画像
の輪郭線を追跡して画像輪郭情報を出力する輪郭追跡手
段と、この画像輪郭情報に基づく各画像の輪郭の大きさ
からその画像が図形画像か否かを判定する文字/図形判
定手段と、判定された図形画像の外側輪郭と内側輪郭と
の包含関係を求めて外側輪郭と内側輪郭とを対応付ける
輪郭包含関係判定手段と、求められた包含関係に基づき
枠線領域を抽出する領域抽出手段と、抽出された枠線領
域相互の位置関係に基づき表構造を認識する表認識手段
とを有する領域認識手段を設け、認識された表構造中か
ら画像処理対象領域と画像処理内容とを選択指示する選
択手段を設けた。On the other hand, according to the fourth aspect of the present invention, the contour tracing means for tracing the contour line of the input image and outputting the image contour information, and the contour size of each image based on the image contour information are used to determine that image. Character / figure determining means for determining whether or not the image is a graphic image, and contour inclusion relationship determining means for determining an inclusion relationship between the outer contour and the inner contour of the determined graphic image and associating the outer contour with the inner contour. The area recognition means having area extraction means for extracting the frame area based on the inclusion relation and table recognition means for recognizing the table structure based on the positional relationship between the extracted frame areas is provided, and the recognized table structure A selecting means is provided for selecting and instructing the image processing target area and the image processing content from the inside.
【0009】また、請求項5記載の発明では、入力画像
の輪郭線を追跡して画像輪郭情報を出力する輪郭追跡手
段と、この画像輪郭情報に基づく各画像の輪郭の大きさ
からその画像が図形画像か否かを判定する文字/図形判
定手段と、判定された図形画像の輪郭データをベクトル
化する輪郭ベクトル化手段と、ベクトル化された輪郭ベ
クトルの連続性が変化する点を輪郭の特徴点として抽出
する特徴点抽出手段と、前記輪郭ベクトルと抽出された
特徴点とに基づき表構造を認識する表認識手段とを有す
る領域認識手段を設け、認識された表構造中から画像処
理対象領域と画像処理内容とを選択指示する選択手段を
設けた。According to the fifth aspect of the invention, the contour tracking means for tracing the contour line of the input image and outputting the image contour information, and the contour size of each image based on the image contour information are used to determine that image. Character / graphic determination means for determining whether or not it is a graphic image, contour vectorization means for vectorizing the contour data of the determined graphic image, and the feature of the contour that the continuity of the vectorized contour vector changes. Area recognition means having a feature point extraction means for extracting as a point and a table recognition means for recognizing a table structure based on the contour vector and the extracted feature points is provided, and an image processing target area is selected from the recognized table structure. The selecting means is provided to select and instruct the image processing content.
【0010】さらに、請求項6記載の発明では、入力画
像の輪郭線を追跡して画像輪郭情報を出力する輪郭追跡
手段と、この画像輪郭情報に基づく各画像の輪郭の大き
さからその画像が図形画像か否かを判定する文字/図形
判定手段と、判定された図形画像をベクトル化する画像
ベクトル化手段と、ベクトル化されたベクトルデータを
修正するベクトル修正手段と、修正されたベクトルデー
タに基づき表構造を認識する表認識手段とを有する領域
認識手段を設け、認識された表構造中から画像処理対象
領域と画像処理内容とを選択指示する選択手段を設け、
画像処理手段による画像処理後の画像データ中に前記ベ
クトル修正手段により修正されたベクトルデータを合成
作画するベクトル作画手段を設けた。Further, in the invention according to the sixth aspect, the contour tracking means for tracing the contour line of the input image and outputting the image contour information, and the contour size of each image based on the image contour information are used to determine that image. Character / graphic determination means for determining whether or not a graphic image, image vectorization means for vectorizing the determined graphic image, vector correction means for correcting vectorized vector data, and corrected vector data Area recognition means having a table recognition means for recognizing a table structure based on the table structure is provided, and selection means for selecting and instructing an image processing target area and image processing content from the recognized table structure is provided.
A vector drawing means for synthesizing and drawing the vector data corrected by the vector correction means in the image data after the image processing by the image processing means is provided.
【0011】一方、請求項7記載の発明では、輪郭追跡
手段と文字/図形判定手段と輪郭包含関係判定手段と領
域抽出手段とともに、抽出された各枠線領域の内側輪郭
相互の位置関係に基づき複合表構造を認識する表認識手
段を有する領域認識手段を設け、認識された複合表を各
々の表に分割する表分割手段を設け、複合表中から分割
された表の内から画像処理対象表と画像処理内容とを選
択指示する選択手段を設けた。On the other hand, according to the seventh aspect of the present invention, the contour tracing means, the character / graphic determination means, the contour inclusion relation determination means, and the area extraction means as well as the positional relationship between the inner contours of the extracted frame line areas are based on each other. Area recognition means having table recognition means for recognizing the composite table structure is provided, table division means for dividing the recognized composite table into each table is provided, and an image processing target table is selected from among the tables divided from the composite table. The selecting means is provided to select and instruct the image processing content.
【0012】また、請求項8記載の発明では、輪郭追跡
手段と文字/図形判定手段と輪郭包含関係判定手段と領
域抽出手段とともに、抽出された各枠線領域の内側輪郭
の輪郭方向が大きく変化する点を輪郭の特徴点として抽
出する特徴点抽出手段と、抽出された特徴点から最短距
離にある他の特徴点までの距離を線幅として認識する線
幅認識手段とを有して認識された線幅が他の線幅に比べ
て太い部分を表枠とみなして複合表構造を認識する領域
認識手段を設け、表枠に基づき複合表を各々の表に分割
する表分割手段を設け、複合表中から分割された表の内
から画像処理対象表と画像処理内容とを選択指示する選
択手段を設けた。According to the present invention, the contour tracing means, the character / graphic determination means, the contour inclusion relation determination means, and the area extraction means as well as the outline direction of the inside contour of each extracted frame line area change greatly. To be recognized as a contour feature point, and a line width recognition means for recognizing a distance from the extracted feature point to another feature point located at the shortest distance as a line width. Area recognition means for recognizing the composite table structure by regarding the portion whose line width is thicker than other line widths as a table frame, and providing table division means for dividing the composite table into each table based on the table frame, A selecting means is provided for selecting and instructing the image processing target table and the image processing content from the tables divided from the composite table.
【0013】さらに、請求項9記載の発明では、画像処
理装置を、カラー原稿画像を光学的に読取って白黒デジ
タル画像とカラーデジタル画像とを得る画像入力手段を
有し、これらの読取り画像を一旦記憶手段に記憶させ、
記憶された入力画像について画像処理手段によりデジタ
ル画像処理を施して画像出力手段に出力させるものと
し、白黒デジタル画像による入力画像の輪郭線を追跡し
て画像輪郭情報を出力する輪郭追跡手段と、この画像輪
郭情報に基づく各画像の輪郭の大きさからその画像が図
形画像か否かを判定する文字/図形判定手段と、判定さ
れた図形画像の外側輪郭と内側輪郭との包含関係を求め
て外側輪郭と内側輪郭とを対応付ける輪郭包含関係判定
手段と、求められた包含関係に基づき枠線領域を抽出す
る領域抽出手段と、この領域抽出手段により抽出された
各枠線領域の色分布を前記カラーデジタル画像による入
力画像に基づき調べて色領域を判定する色領域判定手段
とを有して前記領域抽出手段により抽出された領域情報
とこの色領域判定手段により判定された領域情報とによ
り複合表構造を認識する領域認識手段を設け、認識され
た複合表を各々の表に分割する表分割手段を設け、複合
表中から分割された表の内から画像処理対象表と画像処
理内容とを選択指示する選択手段を設けた。Further, in the invention described in claim 9, the image processing apparatus further comprises image input means for optically reading a color original image to obtain a black-and-white digital image and a color digital image. Store in the storage means,
It is assumed that the stored input image is subjected to digital image processing by the image processing means and output to the image output means, and a contour tracking means for tracing the contour line of the input image by the black-and-white digital image and outputting the image contour information, A character / graphic determination means for determining whether or not the image is a graphic image based on the size of the outline of each image based on the image outline information, and an inclusion relationship between the outer contour and the inner contour of the determined graphic image is obtained to the outside. The contour inclusion relation determining means for associating the contour with the inner contour, the area extracting means for extracting the frame area based on the obtained inclusion relation, and the color distribution of each frame area extracted by the area extracting means are set to the color. Area information extracted by the area extracting means and color area determining means for determining a color area by checking based on an input image of a digital image. Area recognition means for recognizing the composite table structure based on the area information determined by is provided, table division means for dividing the recognized composite table into respective tables is provided, and an image is selected from among the tables divided from the composite table. A selection means is provided to select and instruct the processing target table and the image processing content.
【0014】[0014]
【作用】原稿画像に画像処理を施して出力させる場合と
しては、枠線や表枠に囲まれた領域内の画像を対象とす
ることが多い。この点に着目すれば、マーカペン方式に
よらなくても、原稿画像中から枠線や表枠構造を抽出
し、その中の任意の領域を処理対象領域として選択する
ようにすれば、原稿自体には何の加工処理を要しないも
のとなる。ここに、請求項1記載の発明によれば、輪郭
追跡手段と文字/図形判定手段と輪郭包含関係判定手段
と領域抽出手段とによる領域認識手段により、原稿画像
中から選択対象候補として枠線領域が自動的に抽出され
るので、後は、選択手段により選択指定すればよく、マ
ーカペンによる領域指定を要しない。When the original image is subjected to the image processing and output, the image within the area surrounded by the frame lines and the table frame is often targeted. Focusing on this point, even if it is not based on the marker pen method, if a frame line or a table frame structure is extracted from the document image and an arbitrary region in it is selected as a processing target region, the document itself is Does not require any processing. According to the first aspect of the present invention, the area recognizing means including the contour tracing means, the character / graphic determining means, the contour inclusion relation determining means, and the area extracting means allows the frame area to be selected as a candidate for selection from the original image. Are automatically extracted, the subsequent selection may be performed by the selection means, and the area designation by the marker pen is not required.
【0015】この際、枠線領域が多いと選択手段による
選択項目が増えて操作性が低下するが、請求項2記載の
発明によれば、枠線領域のサイズを領域選択の選択項目
とし、後で、領域サイズ判定手段により領域を特定する
ようにしたので、選択手段による選択項目が減り、操作
性をよくして対象領域を選択できる。At this time, if the number of frame line areas is large, the number of selection items by the selection means increases and the operability deteriorates. However, according to the invention of claim 2, the size of the frame line area is made a selection item for area selection, Since the area is determined later by the area size determination means, the selection items by the selection means are reduced, and the operability can be improved to select the target area.
【0016】また、枠線画像が手書きの場合もあるが、
請求項3記載の発明によれば、ベクトル方式を利用した
画像清書手段を設けたので、最終的な出力としては必要
な画像処理とともに枠線が清書された状態の画像を得る
こともできる。Although the frame image may be handwritten,
According to the invention described in claim 3, since the image clearing means utilizing the vector system is provided, it is possible to obtain an image in which the frame lines are cleanly printed together with necessary image processing as a final output.
【0017】一方、請求項4記載の発明によれば、領域
認識手段中に表認識手段を有して表構造を認識するの
で、表中のタイトル領域の画像のみを残しそれ以外の領
域の画像を削除するといった表構造に適した画像処理へ
の対応が容易となる。特に、請求項5記載の発明によれ
ば、輪郭ベクトル化方式と特徴点抽出方式とを用いて表
構造を認識するので、複雑な表に対しても適用可能とな
る。また、請求項6記載の発明によっても、表枠の枠線
画像自体をベクトル化した後、統合等の修正を施して、
表構造を認識するようにしているので、複雑な表に対し
ても適用可能となるものであるが、特に、枠線画像のベ
クトルデータ化により少ないデータ量で済み、処理速度
も速くなる。加えて、修正されたベクトルデータをベク
トル作画手段により画像処理後の画像データ中に合成作
画するようにしたので、手書きの表枠の清書や表枠の線
幅等の変更なども可能となる。On the other hand, according to the invention described in claim 4, since the table recognition means is provided in the area recognition means to recognize the table structure, only the image of the title area in the table is left and the image of the other area is left. It becomes easy to deal with image processing suitable for a table structure such as deleting. In particular, according to the invention described in claim 5, since the table structure is recognized using the contour vectorization method and the feature point extraction method, the invention can be applied to a complicated table. Also, according to the invention of claim 6, after the frame line image itself of the table frame is vectorized, correction such as integration is performed,
Since the table structure is recognized, the present invention can be applied to a complicated table, but in particular, by converting the frame image into vector data, a small amount of data is required and the processing speed is increased. In addition, since the modified vector data is composed and drawn in the image data after the image processing by the vector drawing means, it is possible to make a clear handwriting of the table frame or change the line width of the table frame.
【0018】さらに、原稿画像に着目した場合、複合表
構造からなるものもあり、このような複合表については
各々の表に分割して別の画像処理を施したい場合もあ
る。このような場合、マーカペンやタブレットで領域を
指定してから、1つの表のみを抽出するとか、表に着色
するといった操作をしてから画像処理を行なっているの
で、分割の精度が悪いとか、複数の画像処理を選択でき
ないといった問題がある。この点、請求項7記載の発明
によれば、表を構成する項目領域の縦横の長さ、重心の
位置関係から複合表の構造を認識し、表を分割するの
で、複合表中の任意の表に対して任意の画像処理を施す
のが容易かつ正確となる。Further, when attention is paid to an original image, some of them have a composite table structure, and in such a composite table, there are cases where it is desired to divide each table into different image processing. In such a case, since the image processing is performed after the area is specified with the marker pen or the tablet and only one table is extracted or the table is colored, the division accuracy is low, There is a problem that a plurality of image processes cannot be selected. In this respect, according to the invention of claim 7, the structure of the composite table is recognized based on the vertical and horizontal lengths of the item areas forming the table and the positional relationship of the center of gravity, and the table is divided. It becomes easy and accurate to perform arbitrary image processing on the table.
【0019】また、請求項8記載の発明によれば、複合
表構造において各表構成の変化が少ないような場合であ
っても、表を構成する線分の線幅を認識し、線幅の太い
部分を表枠=表の切れ目とみなして分割するので、同様
に、複合表中の任意の表に対して任意の画像処理を施す
のが容易かつ正確となる。Further, according to the invention described in claim 8, the line width of the line segment forming the table is recognized and the line width Since the thick portion is regarded as the table frame = the break of the table and is divided, similarly, it becomes easy and accurate to perform arbitrary image processing on an arbitrary table in the composite table.
【0020】さらに、複合表が色分けされている場合に
は、請求項9記載の発明によれば、その色の違いから複
合表を分割し得るものとなり、同様に、複合表中の任意
の表に対して任意の画像処理を施すのが容易かつ正確と
なる。Further, in the case where the composite table is color-coded, according to the invention of claim 9, the composite table can be divided based on the color difference, and similarly, any table in the composite table can be divided. It becomes easy and accurate to perform arbitrary image processing on the.
【0021】[0021]
【実施例】請求項1記載の発明の一実施例を図1ないし
図3に基づいて説明する。図2はデジタル複写機等の画
像処理装置全体の概略構成を示すブロック図であり、ま
ず、原稿画像を光学的に読取って2値のデジタル画像デ
ータに変換出力するスキャナ等の画像入力手段1が設け
られている。この画像入力手段1により読取り変換され
た入力画像はバス2を通して記憶手段としてのRAM3
に格納される。このRAM3に格納された入力画像につ
いて各種の画像処理を施し再びRAM3に格納する画像
処理手段4が設けられている。さらに、RAM3に格納
された画像処理後の画像はプリンタ又はCRT等の画像
出力手段5に出力され、ハードコピーや表示に供され
る。さらに、ROM6に格納されたプログラムを実行し
て、各手段1,4,5を制御するCPU7が設けられて
いる。前記RAM3は入力画像の格納、画像処理後の画
像の格納の他、プログラムのワークエリアとして使用さ
れる。さらに、キーボード、テンキー、スタイラスペン
等により構成されてユーザからの各種メッセージを指示
入力させるための選択手段8もバス2を通して接続され
ている。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT An embodiment of the present invention will be described with reference to FIGS. FIG. 2 is a block diagram showing a schematic configuration of the entire image processing apparatus such as a digital copying machine. First, an image input means 1 such as a scanner for optically reading a document image and converting and outputting the binary image data is output. It is provided. The input image read and converted by the image input means 1 is passed through the bus 2 to the RAM 3 as a storage means.
Stored in. An image processing unit 4 is provided which performs various image processes on the input image stored in the RAM 3 and stores it in the RAM 3 again. Further, the image-processed image stored in the RAM 3 is output to the image output means 5 such as a printer or a CRT and used for hard copy or display. Further, a CPU 7 for executing the programs stored in the ROM 6 and controlling the respective means 1, 4, 5 is provided. The RAM 3 is used as a work area for programs in addition to storing input images and images after image processing. Further, a selecting means 8 constituted by a keyboard, a ten-key pad, a stylus pen, etc. for inputting various messages from the user is also connected through the bus 2.
【0022】しかして、本実施例の特徴的な領域認識処
理を行うブロック図構成を図1に示す。この処理は、主
にCPU7により行われるもので、輪郭追跡手段9と文
字/図形判定手段10と輪郭包含関係判定手段11と領
域抽出手段12とにより構成された領域認識手段13が
設けられている。輪郭追跡手段9はRAM3内の入力画
像の輪郭線を追跡して画像輪郭情報を出力するものであ
る。文字/図形判定手段10は輪郭追跡手段9からの画
像輪郭情報に基づく各画像の輪郭の大きさからその画像
が図形画像であるか文字画像であるかを判定するもので
ある。輪郭包含関係判定手段11は図形画像と判定され
た場合に、この図形画像の外側輪郭と内側輪郭との包含
関係を求めて外側輪郭と内側輪郭とを対応付けるもので
ある。領域抽出手段12は輪郭包含関係判定手段11に
より求められた包含関係に基づき枠線領域を抽出するも
のである。FIG. 1 shows a block diagram configuration for performing the characteristic area recognition processing of this embodiment. This processing is mainly performed by the CPU 7, and the area recognition means 13 including the contour tracking means 9, the character / graphic determination means 10, the contour inclusion relation determination means 11, and the area extraction means 12 is provided. . The contour tracking means 9 tracks the contour line of the input image in the RAM 3 and outputs the image contour information. The character / graphic determination means 10 determines from the size of the contour of each image based on the image contour information from the contour tracking means 9 whether the image is a graphic image or a character image. The contour inclusion relation determining means 11 determines the inclusion relation between the outer contour and the inner contour of the graphic image and associates the outer contour with the inner contour when it is determined to be a graphic image. The area extracting means 12 extracts a frame area based on the inclusion relationship obtained by the contour inclusion relationship determining means 11.
【0023】このような構成において、いま、図3(a)
に示すように枠線14を含む原稿画像が読取り入力され
た場合を考える。まず、輪郭追跡手段9はRAM3内の
画像の黒画素の輪郭線を順次追跡して輪郭線ループを抽
出する(輪郭追跡方法については後述する)。文字/図
形判定手段10では抽出された輪郭線ループの大きさと
予め設定された閾値とを比較して、入力画像が文字画像
であるか図形画像であるかを判定する(文字/図形判定
方法については後述する)。図3(b)は枠線14が図形
画像と判定された結果である図形輪郭を示し、外側輪郭
15と内側輪郭16,17とよりなる。輪郭包含関係判
定手段11ではこのような外側輪郭15と内側輪郭1
6,17との包含関係を調べ、外側輪郭15と内側輪郭
16,17とを対応付ける。包含関係判定方法について
は後述するが、図3(b)の例では、外側輪郭15に含ま
れるのが内側輪郭16,17となる。このような対応関
係に基づき領域抽出手段12では図3(c)に示すように
内側輪郭16,17に囲まれた枠線領域1,2を画像処
理対象領域候補として抽出する。このようにして、原稿
画像中で枠線14に囲まれた領域が自動的に抽出され
る。In such a configuration, FIG.
Consider a case where a document image including the frame line 14 is read and input as shown in FIG. First, the contour tracking means 9 sequentially tracks the contour lines of the black pixels of the image in the RAM 3 and extracts the contour loop (the contour tracking method will be described later). The character / graphic determination means 10 compares the size of the extracted contour line loop with a preset threshold value to determine whether the input image is a character image or a graphic image. Will be described later). FIG. 3B shows a graphic contour which is a result of the frame line 14 being determined as a graphic image, and includes an outer contour 15 and inner contours 16 and 17. In the contour inclusion relation determining means 11, such outer contour 15 and inner contour 1
The inclusive relation with 6, and 17 is examined, and the outer contour 15 and the inner contours 16 and 17 are associated. Although the inclusion relation determination method will be described later, in the example of FIG. 3B, the outer contour 15 includes the inner contours 16 and 17. Based on such a correspondence relationship, the area extracting means 12 extracts the frame line areas 1 and 2 surrounded by the inner contours 16 and 17 as image processing target area candidates as shown in FIG. In this way, the area surrounded by the frame line 14 in the original image is automatically extracted.
【0024】この後、選択手段8により、抽出された枠
線領域1,2の内、どの領域を画像処理の対象領域とす
るか、及び、どのような画像処理内容を施すかを、ユー
ザが選択指示することにより、画像処理手段4では指定
された領域1又は2に対して指定された画像処理を施
す。このような画像処理後の画像は画像出力手段5によ
り例えば紙に印刷出力される。図3(d)は領域2内の画
像消去を指定した場合の出力画像例を示し、図3(e)は
領域1内の画像に斜体、影付け処理を指定した場合の出
力画像例を示す。After this, the selection means 8 allows the user to select which of the extracted frame line areas 1 and 2 is to be the target area for image processing and what kind of image processing content is to be applied. By the selection instruction, the image processing means 4 performs the designated image processing on the designated area 1 or 2. The image after such image processing is printed out on, for example, paper by the image output means 5. FIG. 3D shows an example of an output image when the image erasing in the area 2 is designated, and FIG. 3E shows an example of an output image when the italic type and the shadowing process are designated for the image in the area 1. .
【0025】つづいて、請求項2記載の発明の一実施例
を図4及び図5により説明する。前記実施例において、
抽出された枠線領域数が多くなると、選択手段8による
選択項目が増えて操作性が低下する点に着目し、本実施
例では、抽出結果に対して外側輪郭に含まれる内側輪郭
の各枠線領域のサイズ(面積)を算出し、サイズに応じ
て画像処理対象又は処理対象外を特定させるようにした
ものである。このため、本実施例の選択手段8では画像
処理対象領域をサイズで選択指示するものとし、かつ、
領域サイズ判定手段18が付加されている。Next, an embodiment of the invention described in claim 2 will be described with reference to FIGS. In the above embodiment,
Paying attention to the fact that when the number of extracted frame line areas increases, the selection items by the selection means 8 increase and the operability deteriorates. In the present embodiment, each frame of the inner contour included in the outer contour with respect to the extraction result. The size (area) of the line region is calculated, and the image processing target or non-processing target is specified according to the size. For this reason, the selection means 8 of the present embodiment selects and instructs the image processing target area by size, and
A region size judging means 18 is added.
【0026】このような構成において、いま、図5(a)
に示すような枠線19を含む原稿画像が読取り入力され
た場合を考える。まず、前記実施例と同様に輪郭追跡手
段9と文字/図形判定手段10と輪郭包含関係判定手段
11と領域抽出手段12とによる処理を経ることによ
り、図5(b)に示すように枠線領域1,2,3なる抽出
結果が得られる。次に、ユーザは選択手段8によって、
抽出された枠線領域の内で、どの領域を画像処理の対象
とするかを、「最小領域内」「最小領域以外」「最大領
域内」「最大領域以外」の内から選択指示し、かつ、そ
の画像処理内容を選択指示する。このような指定を受け
て、領域サイズ判定手段18では、外側輪郭内に含まれ
る各枠線領域1,2,3の大きさを計算し、指定された
処理対象領域を判定する(領域サイズ判定方法について
は後述する)。図示例では、領域1<領域3<領域2な
る大きさ関係になっている。処理対象領域を判定した
後、その領域について指定された画像処理を画像処理手
段4により行い、画像出力手段5に出力する。図5(c)
は最小領域以外の画像消去を指定した場合の出力画像例
を示し、図5(d)は最小領域内の画像の斜体、影付け処
理を指定した場合の出力画像例を示す。In such a structure, FIG.
Consider a case where a document image including a frame line 19 as shown in FIG. First, as in the case of the above-described embodiment, the outline tracking means 9, the character / graphic determination means 10, the outline inclusion relation determination means 11 and the area extraction means 12 are subjected to the processing, so that a frame line is formed as shown in FIG. Extraction results of regions 1, 2, and 3 are obtained. Next, the user uses the selection means 8
In the extracted frame area, which area is to be subjected to image processing is instructed to be selected from among “in the minimum area”, “other than the minimum area”, “in the maximum area”, and “other than the maximum area”, and , Instructing selection of the image processing content. In response to such designation, the area size determination unit 18 calculates the size of each of the frame line areas 1, 2, and 3 included in the outer contour and determines the designated processing target area (area size determination). The method will be described later). In the illustrated example, there is a size relationship of region 1 <region 3 <region 2. After determining the processing target area, the image processing means 4 performs the designated image processing on the area and outputs the image processing means 5 to the image output means 5. Figure 5 (c)
Shows an example of an output image when image erasing other than the minimum area is designated, and FIG. 5D shows an example of an output image when italicizing and shading processing of an image in the minimum area is designated.
【0027】さらに、請求項3記載の発明の一実施例を
図6及び図7により説明する。本実施例は、手書き枠線
の場合に清書出力機能を持たせたものである。例えば、
図1の構成に対して、画像処理手段4・画像出力手段5
間にベクトル化手段20とベクトル修正手段21とベク
トル作画手段22と画像消去手段23と画像合成手段2
4とにより構成された画像清書手段25が設けられてい
る。ベクトル化手段20は前記領域抽出手段12により
抽出された枠線領域を形成する枠線画像をベクトル化す
るものである。ベクトル修正手段21は手書きの振れを
吸収するためにべクトル化された枠線データを修正する
ものである。ベクトル作画手段22は修正されたベクト
ルデータを画像出力手段5に対するRAM3中に展開す
るものである。画像消去手段23はベクトル化された元
の枠線画像データをRAM3から消去するものである。
画像合成手段24は画像処理手段4による画像処理後の
画像データとベクトル作画手段22により作成された枠
線ベクトル画像とを合成するものである。Further, an embodiment of the invention described in claim 3 will be described with reference to FIGS. 6 and 7. In the present embodiment, a clear copy output function is provided in the case of a handwritten frame line. For example,
Image processing means 4 and image output means 5 in comparison with the configuration of FIG.
Between the vectorization means 20, the vector correction means 21, the vector drawing means 22, the image erasing means 23, and the image synthesizing means 2.
An image clear copy means 25 constituted by 4 and 4 is provided. The vectorization means 20 vectorizes the frame line image forming the frame line area extracted by the area extraction means 12. The vector correction means 21 corrects the frame line data converted into a vector in order to absorb the shake of handwriting. The vector drawing means 22 expands the modified vector data in the RAM 3 for the image output means 5. The image erasing means 23 erases the vectorized original frame image data from the RAM 3.
The image synthesizing means 24 synthesizes the image data after the image processing by the image processing means 4 and the frame line vector image created by the vector drawing means 22.
【0028】このような構成において、いま、図7(a)
に示すような手書きの枠線26を含む原稿画像が読取り
入力された場合を考える。まず、前述した実施例と同様
に輪郭追跡手段9と文字/図形判定手段10と輪郭包含
関係判定手段11と領域抽出手段12とによる処理を経
ることにより、図7(b)に示すように枠線領域1,2,
3なる抽出結果が得られる。次に、選択手段8により例
えば領域2,3の画像消去を選択指示すると、画像処理
手段4は指定された処理を行い、図7(c)に示すような
処理結果が得られる。これまでの処理は、例えば図3の
場合と同様である。この後、処理結果がベクトル化手段
20に送られ、枠線の輪郭情報から枠線画像がベクトル
化され、図7(d)に示すような枠線画像の中心を通るベ
クトルデータと枠線画像の線幅を得る(ベクトル化方法
については後述する)。この処理と並行して、元の枠線
画像をRAM3から消去する。ついで、ベクトル修正手
段21により手書きの枠線26の振れを修正して、図7
(e)に示すような修正された輪郭ベクトルを得る(ベク
トル修正方法については後述する)。In such a structure, FIG.
Consider a case where a document image including a handwritten frame line 26 as shown in FIG. First, as in the above-described embodiment, the outline tracking means 9, the character / graphic determination means 10, the outline inclusion relation determination means 11 and the area extraction means 12 are processed to obtain a frame as shown in FIG. Line areas 1, 2,
Extraction results of 3 are obtained. Next, when the selection means 8 gives an instruction to select, for example, image deletion of the areas 2 and 3, the image processing means 4 performs the designated processing, and the processing result as shown in FIG. 7C is obtained. The processing so far is the same as the case of FIG. 3, for example. Thereafter, the processing result is sent to the vectorization means 20, the frame line image is vectorized from the outline information of the frame line, and the vector data and the frame line image passing through the center of the frame line image as shown in FIG. 7D. Line width (the vectorization method will be described later). In parallel with this processing, the original frame image is erased from the RAM 3. Then, the shake of the handwritten frame line 26 is corrected by the vector correction means 21, and
A modified contour vector as shown in (e) is obtained (the vector modification method will be described later).
【0029】修正された輪郭ベクトルデータは枠線画像
のベクトル化時に取得した線幅データとともにベクトル
作画手段22に送られ、図7(f)に示すように清書され
た輪郭ベクトルが作画される。このようなベクトル作画
画像が、画像処理手段4による画像処理後の画像データ
とともに画像合成手段24で合成されて、図7(g)に示
すような合成出力が得られる。The corrected contour vector data is sent to the vector drawing means 22 together with the line width data acquired when the frame line image is vectorized, and a cleanly written contour vector is drawn as shown in FIG. 7 (f). Such a vector drawing image is combined with the image data after the image processing by the image processing means 4 by the image combining means 24, and a combined output as shown in FIG. 7 (g) is obtained.
【0030】なお、本実施例では枠線画像消去後の画像
データ(画像処理済み)とベクトル作画後の清書された
輪郭ベクトル画像とを別のメモリ部に書込んで、画像合
成手段24により両者を合成して出力画像を作成するよ
うにしたが、ベクトル作画手段が画像合成手段を兼用
し、枠線画像消去後の画像データ中にこのベクトル作画
手段22が直接作画することにより、合成するようにし
てもよい。これによれば、画像合成手段24を省略でき
るとともに、メモリ容量を節約できる。In the present embodiment, the image data after the frame image is erased (image processed) and the cleanly drawn contour vector image after vector drawing are written in different memory units, and both are written by the image synthesizing means 24. The vector drawing means also serves as the image combining means, and the vector drawing means 22 directly draws the image data after the frame line image is erased so that the output image can be combined. You may According to this, the image synthesizing means 24 can be omitted and the memory capacity can be saved.
【0031】つづいて、請求項4記載の発明の一実施例
を図8及び図9により説明する。本実施例は、単なる枠
線領域の抽出に代えて、表枠領域の抽出を可能としたも
ので、領域認識手段13中に表認識手段31が付加され
ている。この表認識手段31は領域抽出手段12により
抽出された枠線領域相互の位置関係に基づき表構造を認
識するもので、これにより、表構造中のタイトル領域部
分とそれ以外の領域部分とに分け、分けられた領域を画
像処理対象候補として自動的に抽出できるようにしたも
のである。Next, an embodiment of the invention described in claim 4 will be described with reference to FIGS. 8 and 9. In the present embodiment, the table frame area can be extracted instead of the simple frame area extraction, and the table recognition means 31 is added to the area recognition means 13. The table recognizing means 31 recognizes the table structure based on the mutual positional relationship between the frame line areas extracted by the area extracting means 12, and thereby divides the table area into a title area portion and other area portions. The divided areas can be automatically extracted as image processing target candidates.
【0032】このような構成において、いま、図9(a)
に示すような表枠32を含む原稿画像が読取り入力され
た場合を考える。まず、前述した実施例と同様に輪郭追
跡手段9と文字/図形判定手段10とによる処理を経る
ことにより、図9(b)に示すような外側輪郭33と多数
の内側輪郭34とよりなる図形輪郭が判定結果として得
られる。ついで、輪郭包含関係判定手段11と領域抽出
手段12とによる処理を経ることにより、図9(c)に示
すように各内側輪郭34内を表枠32内の枠線領域a〜
pとして抽出する。このように抽出された領域a〜pは
表認識手段31に入力され、各領域a〜pの代表点、例
えば領域の重心を図9(d)中に示す黒丸点のように抽出
し、それらのX方向、Y方向の位置関係から表構造を認
識する。表構造が認識されると、図9(e)に示すように
表の一番上の領域(a〜d)を水平方向のタイトル領域
T1部分、一番左の領域(a,e,i,m)を垂直方向
のタイトル領域T2部分と判定する。In such a structure, FIG.
Consider a case where a document image including the table frame 32 as shown in FIG. First, as in the above-mentioned embodiment, the contour tracing means 9 and the character / figure determining means 10 perform the processing, whereby a figure composed of an outer contour 33 and a large number of inner contours 34 as shown in FIG. 9B. The contour is obtained as the determination result. Then, the contour inclusion relation determining means 11 and the area extracting means 12 perform the processing, whereby the inside contours 34 are surrounded by the frame line areas a to a in the table frame 32 as shown in FIG. 9C.
Extract as p. The areas a to p thus extracted are input to the table recognition means 31, and representative points of the respective areas a to p, for example, the center of gravity of the areas are extracted like black dots shown in FIG. The table structure is recognized from the positional relationship between the X direction and the Y direction. When the table structure is recognized, as shown in FIG. 9 (e), the top area (a to d) of the table is divided into the horizontal title area T1 and the leftmost area (a, e, i, m) is determined as the vertical title area T2 portion.
【0033】この後、ユーザが選択手段8により何れの
領域を画像処理対象とするか、及び、その処理内容を選
択指定する。この指定に応じて画像処理手段4は対象領
域について指定された画像処理を施し、画像出力手段5
に出力する。図9(f)はタイトル領域T1,T2以外の
領域の画像消去を指定した場合の出力画像例を示し、図
9(g)はタイトル領域T1,T2の画像に斜体、白抜き
処理を指定した場合の出力画像例を示す。After that, the user selects and designates which area is to be subjected to the image processing and the processing content by the selecting means 8. In response to this designation, the image processing means 4 performs the designated image processing for the target area, and the image output means 5
Output to. FIG. 9F shows an example of an output image in the case where the image erasing of the area other than the title areas T1 and T2 is designated, and FIG. 9G shows the images of the title areas T1 and T2 with the italic and white processing. An example of an output image in the case is shown.
【0034】また、請求項5記載の発明の一実施例を図
10ないし図12により説明する。前述した実施例は、
枠線領域相互間の位置関係を代表点利用により求めるよ
うにしたもので、図9(a)に示したような簡単な構造の
表認識を対象としたものであるが、本実施例では、より
複雑な構造の表であっても認識可能としたものである。
このため、輪郭追跡手段9、文字/図形判定手段10と
ともに、判定された図形画像の輪郭データをベクトル化
する輪郭ベクトル化手段35と、ベクトル化された輪郭
ベクトルの連続性が変化する点を輪郭の特徴点として抽
出する特徴点抽出手段36と、輪郭ベクトルと抽出され
た特徴点とに基づき表構造を認識する表認識手段37と
により構成された領域認識手段38が設けられている。An embodiment of the invention described in claim 5 will be described with reference to FIGS. The embodiment described above
The positional relationship between the frame line areas is obtained by using representative points, which is intended for table recognition with a simple structure as shown in FIG. 9 (a). Even a table with a more complicated structure can be recognized.
Therefore, together with the contour tracking means 9 and the character / graphic determination means 10, the contour vectorization means 35 for vectorizing the determined contour data of the graphic image, and the point where the continuity of the vectorized contour vector changes Area recognition means 38 including a feature point extraction means 36 for extracting as a feature point and a table recognition means 37 for recognizing a table structure based on the contour vector and the extracted feature points is provided.
【0035】このような構成において、いま、図11
(a)に示すような表枠39を含む原稿画像が読取り入力
された場合を考える。このような画像は輪郭追跡手段9
と文字/図形判定手段10とによる処理を経ることによ
り、図11(b)に示すような外側輪郭40と内側輪郭4
1とよりなる図形輪郭が判定結果として得られる。この
ような判定結果は輪郭ベクトル化手段35に入力され、
輪郭データのデジタルノイズを吸収する形で内側輪郭4
1の輪郭チェーンコードデータがベクトル化される。つ
いで、特徴点抽出手段36では連続する輪郭ベクトル間
の角度変化を計算し、角度変化の大きい点を特徴点とし
て抽出する(特徴点抽出方法は後述する)。図12(a)
(b)中の白丸点が特徴点を示す。表認識手段37では輪
郭ベクトル化手段35により得られた内側輪郭41の輪
郭ベクトルデータと、特徴点抽出手段36により抽出さ
れた特徴点とから、表構造、即ち、表の水平方向のタイ
トル領域T1部分と垂直方向のタイトル領域T2部分と
を認識する。In such a structure, FIG.
Consider a case where a document image including a front frame 39 as shown in (a) is read and input. Such an image is obtained by the contour tracking means 9
And the character / figure determining means 10 through the processing, the outer contour 40 and the inner contour 4 as shown in FIG.
A figure contour consisting of 1 is obtained as a determination result. Such a determination result is input to the contour vectorization means 35,
Inner contour 4 by absorbing digital noise of contour data
One contour chain code data is vectorized. Next, the feature point extraction means 36 calculates the angle change between the continuous contour vectors and extracts the point with a large angle change as the feature point (the feature point extraction method will be described later). Figure 12 (a)
White circles in (b) indicate feature points. In the table recognition means 37, from the contour vector data of the inner contour 41 obtained by the contour vectorization means 35 and the feature points extracted by the feature point extraction means 36, the table structure, that is, the title area T1 in the horizontal direction of the table. The portion and the vertical title area T2 portion are recognized.
【0036】水平方向のタイトル領域T1部分の認識方
法としては、例えば図12(a)に示すように、まず、一
番左上にある内側輪郭ループ中の一番左上の特徴点p1
を開始点として、Yの正方向に進む輪郭ベクトルv1 を
辿り、最初の特徴点p2 に辿り着く。次に、この特徴点
p2 からXの正方向に進む輪郭ベクトルv2 を辿り、次
にある特徴点p3 を探す。今度は、この特徴点p3 から
表枠の線幅に相当する距離にある特徴点p4,p5の内
で、現在の進行方向の延長方向にあり、かつ、その先に
現在の進行方向の延長方向に輪郭ベクトルv3 が存在す
る特徴点p4 を探し、その方向に進む。このような処理
を順次繰返し、同じ方向に進む特徴点が無くなったら表
枠39の端部に達したことになる。図12(a)の例では
特徴点p6が表枠の右端のものを示す。今度は、この特
徴点p6 からYの負方向に同様な追跡方法で進み、表枠
39の右上の特徴点p7 に達したら、この特徴点p7 か
らXの負方向に同様な追跡方法で進み、開始点p1 に戻
ったら追跡を完了する。このように追跡されて太線矢印
で囲まれた領域が、水平方向のタイトル領域T1部分と
なる(図11(c)参照)。As a method of recognizing the title area T1 portion in the horizontal direction, for example, as shown in FIG. 12 (a), first, the upper left uppermost feature point p 1 in the inner leftmost inner contour loop is detected.
Starting from, the contour vector v 1 traveling in the positive Y direction is traced to reach the first feature point p 2 . Next, the contour vector v 2 that advances in the positive direction of X from this feature point p 2 is traced to find the next feature point p 3 . This time, of the feature points p 4 and p 5 located at a distance corresponding to the line width of the table frame from this feature point p 3, it is in the extension direction of the current traveling direction and beyond that, the current traveling direction. The feature point p 4 in which the contour vector v 3 exists in the extension direction of is searched for. Such processing is sequentially repeated, and when there is no feature point that advances in the same direction, it means that the end of the table frame 39 has been reached. In the example of FIG. 12A, the feature point p 6 is the rightmost one of the table frame. This time, from the feature point p 6 to the negative direction of Y in the same tracking method, and when the feature point p 7 at the upper right of the table frame 39 is reached, the same tracking method from the feature point p 7 to the negative direction of X is performed. Then, the tracking is completed when returning to the starting point p 1 . The area traced in this way and surrounded by the thick line arrow is the title area T1 in the horizontal direction (see FIG. 11C).
【0037】一方、垂直方向のタイトル領域T2部分の
認識方法も基本的には同様である。例えば、図12(b)
に示すように、上記の開始点p1 からXの正方向に進む
輪郭ベクトルv4 を辿り最初の特徴点p8 を探す。今度
は、この特徴点p8 からYの正方向に進む輪郭ベクトル
v5 を辿り、次にある特徴点p9 を探す。今度は、この
特徴点p9 から表枠の線幅に相当する距離にある特徴点
p10,p11の内で、現在の進行方向の延長方向にあり、
かつ、その先に現在の進行方向の延長方向に輪郭ベクト
ルv6 が存在する特徴点p10を探し、その方向に進む。
このような処理を順次繰返し、同じ方向に進む特徴点が
無くなったら表枠39の下端部に達したことになる。図
12(b)の例では特徴点p11が表枠の下端のものを示
す。今度は、この特徴点p11からXの負方向に同様な追
跡方法で進み、表枠39の左下の特徴点p13に達した
ら、この特徴点p13からYの負方向に同様な追跡方法で
進み、開始点p1 に戻ったら追跡を完了する。このよう
に追跡されて太線矢印で囲まれた領域が、垂直方向のタ
イトル領域T2部分となる(図11(c)参照)。On the other hand, the method of recognizing the vertical title area T2 portion is basically the same. For example, FIG. 12 (b)
As shown in, the first feature point p 8 is searched for by following the contour vector v 4 that advances in the positive direction of X from the start point p 1 . This time, the contour vector v 5 that advances in the positive direction of Y from this feature point p 8 is traced, and the next feature point p 9 is searched. This time, among the feature points p 10 and p 11 located at a distance corresponding to the line width of the table frame from this feature point p 9 , it is in the extension direction of the current traveling direction,
In addition, a feature point p 10 at which the contour vector v 6 exists in the extension of the current traveling direction is searched for, and the process proceeds in that direction.
Such processing is sequentially repeated, and when there is no feature point that advances in the same direction, it means that the lower end portion of the table frame 39 has been reached. In the example of FIG. 12B, the feature point p 11 is the bottom edge of the table frame. This time, from the feature point p 11 in the negative direction of X, the same tracking method is performed, and when the feature point p 13 at the lower left of the table frame 39 is reached, the similar tracking method is performed in the negative direction of Y from the feature point p 13 Then, the tracking is completed when returning to the starting point p 1 . The area traced in this way and surrounded by a thick arrow is the title area T2 in the vertical direction (see FIG. 11C).
【0038】このような表認識手段37による処理で、
図11(a)に示した表枠39は同図(c)に示すような水
平、垂直方向のタイトル領域T1,T2を有する表構造
と認識される。この後、ユーザが選択手段8により前述
した実施例の場合と同様に、抽出された領域中のどの領
域の画像にどのような画像処理を施すかを選択指示す
る。この選択指示に応じて画像処理手段4では指定され
た画像処理を施し、画像出力手段5に出力する。図11
(d)はタイトル領域T1,T2以外の領域の画像消去を
指定した場合の出力画像例を示す。By the processing by the table recognizing means 37,
The table frame 39 shown in FIG. 11A is recognized as a table structure having horizontal and vertical title areas T1 and T2 as shown in FIG. 11C. Thereafter, the user uses the selection means 8 to select and instruct which image processing is to be performed on the image of which region in the extracted region, as in the case of the above-described embodiment. In response to this selection instruction, the image processing means 4 performs the designated image processing and outputs it to the image output means 5. Figure 11
(d) shows an example of an output image when image erasing of an area other than the title areas T1 and T2 is designated.
【0039】さらに、請求項6記載の発明の一実施例を
図13及び図14により説明する。本実施例も、前記実
施例のように複雑な表構造の表枠であっても認識可能と
したものであるが、例えば表枠が手書きのような場合で
あればその修正(清書化)をも可能としたものである。
手書き枠線の場合、その表枠の枠線画像をベクトル化
し、そのベクトルを手書きの振れを吸収する形で修正し
て作画することにより実現できる。この作画時に元の線
幅で作画させることはもちろんできるが、線幅や線種の
変更を行ってから作画させることもできる。また、ベク
トル化方式においては、表構造の認識は前記実施例方式
で行うことも可能であるが、本実施例では、枠線画像を
ベクトル化したベクトルデータを利用して表認識を行わ
せることによりデータ量を少なくし、処理速度が速くな
るようにしている。このため、輪郭追跡手段9と文字/
図形判定手段10と画像ベクトル化手段42とベクトル
修正手段43と表認識手段44とよりなる領域認識手段
45が設けられているとともに、画像処理手段4・画像
出力手段5間にはベクトル作画手段46が設けられてい
る。Further, an embodiment of the invention described in claim 6 will be described with reference to FIGS. 13 and 14. This embodiment also makes it possible to recognize even a table frame having a complicated table structure as in the above-mentioned embodiment. However, if the table frame is handwritten, for example, it is necessary to correct (clear) it. Is also possible.
In the case of a handwritten frame line, it can be realized by vectorizing the frame line image of the front frame and correcting the vector so as to absorb the shake of the handwriting. Of course, it is possible to draw with the original line width at the time of this drawing, but it is also possible to draw after changing the line width and line type. Further, in the vectorization method, the table structure can be recognized by the method of the embodiment, but in the present embodiment, the table recognition is performed by using the vector data obtained by vectorizing the frame image. To reduce the amount of data and increase the processing speed. Therefore, the contour tracking means 9 and the character /
An area recognition unit 45 including a graphic determination unit 10, an image vectorization unit 42, a vector correction unit 43, and a table recognition unit 44 is provided, and a vector drawing unit 46 is provided between the image processing unit 4 and the image output unit 5. Is provided.
【0040】画像ベクトル化手段42は図形画像自体を
ベクトル化するものである(ベクトル化方法については
後述する)。ベクトル修正手段43は画像ベクトル化手
段42によりベクトル化された輪郭ベクトルを修正する
ものであり、表認識手段44による表構造の認識に供さ
れる。また、ベクトル作画手段46は画像処理手段4に
よる画像処理後の画像データ中にベクトル修正手段43
により修正された輪郭ベクトルデータを合成作画させる
ものである。The image vectorization means 42 vectorizes the graphic image itself (the vectorization method will be described later). The vector correction means 43 corrects the contour vector vectorized by the image vectorization means 42, and is used for recognition of the table structure by the table recognition means 44. Further, the vector drawing means 46 adds the vector correction means 43 to the image data after the image processing by the image processing means 4.
The contour vector data corrected by is synthesized and drawn.
【0041】このような構成において、いま、図14
(a)に示すように表枠47(手書きであってもよい)を
含む原稿画像が読取り入力された場合を考える。この場
合も前述した実施例の場合と同様に、輪郭追跡手段9、
文字/図形判定手段10による処理を経て、表枠画像の
輪郭データが得られる(図11(b)参照)。次に、画像
ベクトル化手段42により枠線画像自体がベクトル化さ
れるとともに、枠線画像を消去した後、ベクトル修正手
段43により、手書きの表枠47の場合には手書きによ
る振れを吸収する形でベクトルを統合したり、ベクトル
化時に表枠47の線と線とで分断されたベクトルを統合
したり、水平又は垂直に近いベクトルを各々水平又は垂
直に修正する処理が行われる(修正方法については後述
する)。このようにベクトル修正の結果、図14(b)に
示すように太線と細線とにより表された修正ベクトルデ
ータが得られる。図中の白丸はベクトルの端点(始点又
は終点)を示す。In such a structure, FIG.
Consider a case where a document image including a front frame 47 (which may be handwritten) is read and input as shown in FIG. Also in this case, the contour tracking means 9,
The contour data of the table frame image is obtained through the processing by the character / graphic determination unit 10 (see FIG. 11B). Next, the frame line image itself is vectorized by the image vectorization unit 42, and after the frame line image is erased, the vector correction unit 43 absorbs the shake caused by handwriting in the case of the handwritten table frame 47. Are combined with each other, or the vectors divided by the lines of the table frame 47 at the time of vectorization are integrated, or the vector close to horizontal or vertical is corrected to horizontal or vertical, respectively. Will be described later). In this way, as a result of the vector correction, the corrected vector data represented by the thick line and the thin line as shown in FIG. 14B is obtained. White circles in the figure indicate the end points (start point or end point) of the vector.
【0042】ついで、表認識手段44では修正後の輪郭
ベクトルデータの内から、まず、外枠に相当するベクト
ル4本を探す。これは、水平又は水平に近いベクトルの
内からY方向の最小、最大のベクトルV1,V2、垂直
又は垂直に近いベクトルの内からX方向の最小、最大の
ベクトルV3,V4を検索することにより達成される。
次に、検索されたこれらの外枠ベクトルV1〜V4とほ
ぼ同じ長さでX,Y方向の小さいほうから2番目の位置
にあるベクトルV5,V6を探す。このような処理の結
果、ベクトルV1,V3,V5,V4に囲まれた領域が
水平方向のタイトル領域T1部分、ベクトルV1,V
3,V2,V6に囲まれた領域が垂直方向のタイトル領
域T2部分と認識される。図14(c)にこのような表構
造の認識結果を示す。Next, the table recognizing means 44 first searches the corrected outline vector data for four vectors corresponding to the outer frame. This is achieved by searching the minimum or maximum vectors V1 and V2 in the Y direction from horizontal or near horizontal vectors and the minimum and maximum vectors V3 and V4 in the X direction from vertical or near vertical vectors. To be done.
Next, the vectors V5 and V6 having the same length as the retrieved outer frame vectors V1 to V4 and located at the second position from the smallest in the X and Y directions are searched. As a result of such processing, the area surrounded by the vectors V1, V3, V5, and V4 is the horizontal title area T1 portion, and the vectors V1 and V4.
A region surrounded by 3, V2 and V6 is recognized as a vertical title region T2 portion. FIG. 14C shows the recognition result of such a table structure.
【0043】この後、ユーザが選択手段8により前述し
た実施例の場合と同様に、抽出された領域中のどの領域
の画像にどのような画像処理を施すかを選択指示する。
この際、画像出力時に枠線の線幅や線種を変更したい場
合には、その内容を指定する。この選択指示に応じて画
像処理手段4では指定された画像処理を実行する。この
後、ベクトル作画手段46による処理を受ける。このベ
クトル作画手段46では修正後の輪郭ベクトルデータ
を、枠線画像のベクトル化時に取得した線幅又は選択手
段8により選択指定された線幅、線種で、画像ベクトル
化手段42により枠線消去した後の画像データ中に合成
作画し、画像出力手段5に出力する。図14(d)はタイ
トル領域T1,T2以外の領域の画像消去を指定し、か
つ、枠線については外枠を太線、タイトル部分の境界線
を二重線、残った枠線の内で外枠から外枠に達している
枠線は中線、それ以外の枠線は細線を指定した場合の出
力画像例を示す。After that, the user instructs the selection means 8 to select what kind of image processing is to be performed on the image of which area in the extracted area, as in the case of the above-described embodiment.
At this time, if it is desired to change the line width and line type of the frame line when outputting the image, the content is specified. In response to the selection instruction, the image processing means 4 executes the designated image processing. Then, the vector drawing means 46 receives the processing. In the vector drawing means 46, the corrected contour vector data is erased by the image vectorization means 42 with the line width acquired at the time of vectorization of the frame image or the line width and line type selected and designated by the selection means 8. The composite image is formed in the image data after this, and is output to the image output means 5. In FIG. 14 (d), image erasing of areas other than the title areas T1 and T2 is specified, and for the frame lines, the outer frame is a thick line, the title part boundary line is a double line, and the remaining frame lines are outside. A frame line reaching the outer frame from the frame is a middle line, and other frame lines are thin lines.
【0044】さらに、請求項7記載の発明の一実施例を
図15及び図16により説明する。本実施例は、複合表
構造の場合に、その構造を解析認識して各表に分割可能
とし、各表毎に別の画像処理を可能としたものである。
このため、領域抽出手段12により抽出された各枠線領
域の内側輪郭相互の位置関係に基づき複合表構造を認識
する表認識手段53を付加した領域認識手段54が設け
られ、さらに、複合表をその切れ目で各表に分割する表
分割手段55が設けられている。選択手段8は複合表中
から分割された表の内から画像処理対象表とその画像処
理内容とを選択指示するものである。Further, an embodiment of the invention described in claim 7 will be described with reference to FIGS. 15 and 16. In the present embodiment, in the case of a composite table structure, the structure can be analyzed and recognized to be divided into each table, and different image processing can be performed for each table.
For this reason, the area recognition means 54 provided with the table recognition means 53 for recognizing the composite table structure based on the positional relationship between the inner contours of the respective frame line areas extracted by the area extraction means 12 is provided, and the composite table is further created. A table dividing means 55 for dividing each table at the break is provided. The selection unit 8 is for selecting and instructing an image processing target table and its image processing contents from the tables divided from the composite table.
【0045】このような構成において、いま、図16
(a)に示すような複合表56を含む原稿画像が読取り入
力された場合を考える。まず、前述した実施例と同様に
輪郭追跡手段9と文字/図形判定手段10とによる処理
を経ることにより、同図(b)に示すようような外側輪郭
57と多数の内側輪郭58とよりなる図形輪郭が判定結
果として得られる。ついで、輪郭包含関係判定手段11
と領域抽出手段12とによる処理を経ることにより、同
図(c)に示すように各内側輪郭58内を複合表56内の
枠線領域E1〜E28として抽出する。このように抽出
された枠線領域E1〜E28は表認識手段53に入力さ
れ、各領域E1〜E28の代表点、例えば領域の重心を
同図(d)中に黒丸点で示すように抽出し、それらのX,
Y方向の位置関係から複合表56の構造を認識する。こ
の認識結果から複合表56の構造上の切れ目を認識し、
そこを分割部分と認識する。同図(d)の例であれば、枠
線領域E1〜E16により一つの表56aが構成され、
枠線領域E17〜E28により別の表56bが構成され
ていることが判り、分割部分が判明する。そこで、表分
割手段55では領域E13〜E16と領域E17〜E1
9との境目部分を分割部分として複合表56を2つの表
56a,56bに分割する。同図(e)はこの分割結果を
示す。もっとも、図示例は分割部分を判りやすくするた
め、分割結果を故意にずらして示すが、実際には、表構
造情報が分割されるだけである。In such a structure, FIG.
Consider a case where a document image including the composite table 56 as shown in FIG. First, by performing the processing by the contour tracing means 9 and the character / figure determining means 10 as in the above-described embodiment, the outer contour 57 and a large number of inner contours 58 as shown in FIG. The figure contour is obtained as the determination result. Then, the contour inclusion relation determining means 11
Then, the inside of each inner contour 58 is extracted as the frame area E1 to E28 in the composite table 56 as shown in FIG. The frame line areas E1 to E28 thus extracted are input to the table recognizing means 53, and representative points of the respective areas E1 to E28, for example, the center of gravity of the areas are extracted as shown by black dots in FIG. , Their X,
The structure of the composite table 56 is recognized from the positional relationship in the Y direction. From the recognition result, the structural break of the composite table 56 is recognized,
Recognize it as a divided part. In the example of FIG. 6D, one table 56a is configured by the frame line areas E1 to E16,
It can be seen that the frame areas E17 to E28 form another table 56b, and the divided portions are found. Therefore, in the table dividing means 55, the areas E13 to E16 and the areas E17 to E1 are
The composite table 56 is divided into two tables 56a and 56b with the boundary portion with 9 as the division portion. FIG. 6E shows the result of this division. Of course, in the illustrated example, the division result is intentionally shifted in order to make the division part easier to understand, but in reality, only the table structure information is divided.
【0046】選択手段8は抽出された表56a,56b
の領域の内、何れを画像処理の対象とし、どのような画
像処理を施すのかをユーザに選択させる。画像処理手段
4はこのようなユーザ指示に基づき選択された表56a
又は56bの領域について選択された画像処理を施し、
画像出力手段5に出力する。同図(f)は表56aの領域
についてはハッチング状の網掛け処理を施し、表56b
の領域についてはそのタイトル部分の認識処理を行な
い、タイトル部分に斜体、影付け処理を行なった出力画
像例を示す。The selection means 8 uses the extracted tables 56a and 56b.
The user is allowed to select which one of the areas is to be subjected to image processing and what kind of image processing should be performed. The image processing means 4 selects the table 56a selected based on such a user instruction.
Or, perform the selected image processing on the area of 56b,
The image is output to the image output means 5. In the same figure (f), hatching is applied to the area of the table 56a, and
An example of an output image in which the title portion of the area is subjected to recognition processing, and the title portion is italicized and shaded is shown.
【0047】つづいて、請求項8記載の発明の一実施例
を図17ないし図19により説明する。前記実施例は、
枠線領域相互の位置関係の代表点利用により複合表構造
を解析して分割するようにしたものであるが、各表構造
に変化がなく、境界の表枠の線幅を太くして区別してい
るような場合には有効でない。そこで、本実施例では、
複合表を構成する線分の線幅を認識して複合表構造、即
ち、その切れ目部分を認識して分割し得るようにしたも
のである。Next, an embodiment of the present invention will be described with reference to FIGS. 17 to 19. In the above embodiment,
The composite table structure is analyzed and divided by using the representative points of the positional relationship between the frame line areas, but there is no change in each table structure and the line width of the boundary table frame is thickened to distinguish them. It is not effective in such cases. Therefore, in this embodiment,
This is a structure in which the line widths of the line segments that make up the composite table are recognized so that the composite table structure, that is, the breaks, can be recognized and divided.
【0048】このため、本実施例の領域認識手段54に
は表認識手段53に代えて、特徴点抽出手段59と線幅
認識手段60とが設けられている。特徴点抽出手段59
は領域抽出手段12により抽出された各枠線領域の内側
輪郭の輪郭方向が大きく変化する点を輪郭の特徴点とし
て抽出するものである。また、線幅認識手段60は抽出
された特徴点から最短距離にある特徴点までの距離を線
幅として認識するものである。Therefore, the area recognition means 54 of this embodiment is provided with a feature point extraction means 59 and a line width recognition means 60 in place of the table recognition means 53. Feature point extraction means 59
Is to extract, as a feature point of the contour, a point in which the contour direction of the inner contour of each frame area extracted by the area extracting unit 12 changes greatly. The line width recognizing means 60 recognizes the distance from the extracted feature point to the shortest feature point as the line width.
【0049】こような構成において、いま、図18(a)
に示すように、構造的に差異のない2つの表61a,6
1bからなる複合表61を含む原稿画像が読取り入力さ
れた場合を考える。このような画像は、輪郭追跡手段
9、文字/図形判定手段10、輪郭包含関係判定手段1
1による処理を経ることにより、図16(c)の場合と同
様な輪郭が得られる。このように得られた輪郭線は、特
徴点抽出手段59により、予め定められ誤差範囲内に入
るように直線近似して輪郭ベクトルを生成し、その連続
する輪郭ベクトルの角度差が閾値より大きい場合、そこ
を輪郭の特徴点として抽出する。図18(b)中の黒丸点
がこの輪郭特徴点を示している。With such a structure, FIG.
As shown in FIG. 2, two tables 61a and 6 having no structural difference are shown.
Consider a case where a document image including the composite table 61 composed of 1b is read and input. Such an image includes a contour tracking means 9, a character / graphic determination means 10, and a contour inclusion relation determination means 1.
By going through the process of 1, the contour similar to the case of FIG. The contour line thus obtained is linearly approximated by the feature point extraction means 59 so as to fall within a predetermined error range to generate a contour vector, and the angle difference between the continuous contour vectors is larger than the threshold value. , And extract them as the feature points of the contour. The black circle points in FIG. 18B indicate the contour feature points.
【0050】線幅認識手段60では、抽出された輪郭の
特徴点の内、ある点から最も近い位置にある別の特徴点
との距離を線幅として認識する。図19中に示す矢印が
線幅として認識された距離を表している。ここに、特徴
点間を結ぶ線が水平、垂直又はそれに近い場合には、そ
の線を線幅とし、それ以外の斜めの場合にはその斜め線
を破線矢印で示すように水平、垂直方向に射影したもも
のを線幅とする。The line width recognizing means 60 recognizes, as the line width, the distance between the extracted outline feature points and another feature point closest to a certain point. The arrow shown in FIG. 19 represents the distance recognized as the line width. Here, if the line connecting the feature points is horizontal, vertical, or close to it, the line is taken as the line width, and in the case of other diagonal lines, the diagonal line is set in the horizontal or vertical direction as indicated by the broken arrow. The projected object is the line width.
【0051】また、本実施例の表分割手段62は求めら
れた線幅が他より大きい部分を調べ、そこを複合表61
の分割部分と判定して各表61a,61bに分割する。
図18(b)中の破線が分割された各表61a,61bを
示す。この後の処理は、前記実施例と同様である。Further, the table dividing means 62 of this embodiment examines a portion where the obtained line width is larger than the others, and finds that portion in the composite table 61.
It is determined that the table is a divided portion and divided into each of the tables 61a and 61b.
18B shows the respective tables 61a and 61b in which the broken line is divided. The subsequent processing is the same as that of the above-mentioned embodiment.
【0052】さらに、請求項9記載の発明の一実施例を
図20及び図21により説明する。本実施例は、各表毎
に色分けされた複合表の場合に、その構造を認識して各
表に分割し得るようにしたものである。このため、本実
施例にあっては、まず、画像入力手段63が、カラー原
稿画像を光学的に読取って白黒デジタル画像(白黒2値
画像)とカラーデジタル画像とを得るものとされてい
る。輪郭追跡手段9、文字/図形判定手段10、輪郭包
含関係判定手段11及び領域抽出手段12は、画像入力
手段63からの画像情報の内、白黒デジタル画像に基づ
いて処理するものとされている。また、この画像入力手
段63から得られるカラーデジタル画像と領域抽出手段
12から得られる領域情報とから色領域を判定する色領
域判定手段64が設けられて、領域認識手段65が構成
されている。Further, an embodiment of the invention described in claim 9 will be described with reference to FIGS. 20 and 21. In the present embodiment, in the case of a composite table in which each table is color-coded, its structure can be recognized and divided into each table. For this reason, in the present embodiment, first, the image input means 63 is supposed to optically read a color original image to obtain a black and white digital image (black and white binary image) and a color digital image. The contour tracking means 9, the character / graphic determination means 10, the contour inclusion relation determination means 11 and the area extraction means 12 are supposed to perform processing based on a black and white digital image in the image information from the image input means 63. Further, a color area determination means 64 for determining a color area from the color digital image obtained from the image input means 63 and the area information obtained from the area extraction means 12 is provided, and the area recognition means 65 is configured.
【0053】このような構成において、いま、図21
(a)に示すような色分けされた表66a,66b(模式
上、網掛けの密度を異ならせて色分けを示す)からなる
複合表66を含むカラー原稿画像が読取り入力された場
合を考える。読取られた白黒デジタル画像情報とカラー
デジタル画像情報とは各々RAM3に格納される。この
内、白黒デジタル画像情報を用いて、輪郭追跡手段9、
文字/図形判定手段10、輪郭包含関係判定手段11及
び領域抽出手段12による処理を順次行なうことによ
り、前述した場合と同様に、枠線領域情報が抽出され
る。In such a structure, FIG.
Consider a case where a color original image including a composite table 66 made up of color-coded tables 66a and 66b (schematically shows different colors for different colors) is read and input. The read black and white digital image information and the read color digital image information are stored in the RAM 3, respectively. Of these, the contour tracking means 9, using the black and white digital image information,
By sequentially performing the processing by the character / graphic determination unit 10, the contour inclusion relation determination unit 11, and the region extraction unit 12, the frame line region information is extracted as in the case described above.
【0054】一方、色領域判定手段64では領域抽出手
段12により抽出された枠線領域情報を基に、RAM3
から読出したカラーデジタル画像を用いて、表領域内の
色分布を調べ、色の変化した部分を複合表66の分割部
分と判定する。よって、本実施例の表分割手段67は色
領域判定手段64から出力される分割領域情報を基に複
合表66を分割する。この結果、図21(b)に破線で示
すように各表66a,66bに分割される。後の処理
は、前記実施例と同様である。On the other hand, the color area determination means 64 uses the RAM 3 based on the frame area information extracted by the area extraction means 12.
The color distribution in the table area is checked by using the color digital image read from the table, and the portion where the color changes is determined to be the divided portion of the composite table 66. Therefore, the table dividing unit 67 of this embodiment divides the composite table 66 based on the divided region information output from the color region determining unit 64. As a result, the tables 66a and 66b are divided as shown by the broken lines in FIG. The subsequent processing is the same as that of the above-mentioned embodiment.
【0055】ところで、前述した実施例中における各処
理方式を図22ないし図30により説明する。まず、輪
郭追跡方法について説明する。この処理では、RAM3
中の入力画像をラスタ走査し、追跡を開始する黒画素を
探し出す。ついで、この追跡開始画素から外側輪郭線の
場合には反時計回り、内側輪郭線の場合には時計回りに
輪郭画素を追跡し、再び追跡開始画素に戻ったら、1つ
の黒画素集合の輪郭線追跡が終了したことになる。この
ような処理を、まだ追跡が終了していない輪郭画素が無
くなるまで繰返す。外側輪郭線か内側輪郭線かは、追跡
開始画素の左側(ラスタ走査の1つ前の画素)が白画素
であれば外側輪郭線、黒画素であれば内側輪郭線と判断
することにより区別できる。By the way, each processing method in the above-described embodiment will be described with reference to FIGS. First, the contour tracking method will be described. In this process, RAM3
Raster scan the input image inside to find the black pixel that starts tracking. Next, the contour pixels are traced counterclockwise from the tracking start pixel in the case of the outer contour line and clockwise in the case of the inner contour line, and when returning to the tracking start pixel again, the contour line of one black pixel set Tracking has ended. Such processing is repeated until there are no contour pixels for which tracking has not been completed. Whether the contour line is the outer contour line or the inner contour line can be discriminated by determining that the left side of the tracking start pixel (the pixel immediately before the raster scanning) is a white pixel, and the black contour is an inner contour line. .
【0056】図22を参照して輪郭追跡方法を具体的に
説明する。ここに、輪郭線の方向としては、図22(b)
に示すような縦横斜め8方向なる0〜7の方向とした。
まず、同図(a)に示すようにラスタ走査し、追跡開始画
素を探す。追跡開始画素としては、その画素の周辺8個
の画素(上記の0〜7の各方向)の内の少なくとも1画
素が白画素であり、かつ、まだ輪郭追跡されていない画
素が該当する。追跡開始画素が(i1,j1)の位置に見
つかり、ラスタ走査時の1つ前の画素が白画素であるの
で、外側輪郭線と判断し、この位置(i1,j1)より反
時計回りに追跡を開始する。ついで、左方向(方向4)
から反時計回りに近傍画素を調べ、最初に見つかった黒
画素の方向を輪郭線の方向とする。その次に、追跡中心
画素を見つかったこの黒画素に移動し、(前回の輪郭線
の方向−2)の方向から反時計回りに近傍画素を調べ、
これを追跡開始画素に辿り着くまで繰返す。この結果、
図22(a)の外側の矢印ループで示すような輪郭線の追
跡を行えたことになる。The contour tracking method will be described in detail with reference to FIG. Here, as the direction of the contour line, FIG.
As shown in (4), the direction was set to 0 to 7 in 8 directions.
First, as shown in FIG. 9A, raster scanning is performed to search for a tracking start pixel. As the tracking start pixel, at least one pixel out of the eight pixels around the pixel (in each of the above directions 0 to 7) is a white pixel, and a pixel which has not been subjected to contour tracking corresponds. The tracking start pixel is found at the position (i1, j1), and the previous pixel at the time of raster scanning is a white pixel, so it is determined to be the outer contour line, and tracking is performed counterclockwise from this position (i1, j1). To start. Then to the left (direction 4)
Then, the neighboring pixels are examined counterclockwise from, and the direction of the first black pixel found is set as the direction of the contour line. Next, move the tracking center pixel to this found black pixel, and check the neighboring pixels counterclockwise from the direction of (previous contour direction -2),
This is repeated until the tracking start pixel is reached. As a result,
This means that the contour line can be traced as indicated by the arrow loop on the outer side of FIG.
【0057】ついで、再び位置(i1,j1)からラスタ
走査し、次の追跡開始画素を探す。次の追跡開始画素が
(i2,j2)の位置に見つかり、ラスタ走査時の1つ前
の画素が黒画素であるので、内側輪郭線と判断し、この
位置(i2,j2)より時計回りに追跡を開始する。次
に、下方向(方向6)から時計回りに近傍画素を調べ、
最初に見つかった白画素の直前の黒画素の方向を輪郭線
の方向とする。その次に、追跡中心画素をこの黒画素に
移し、(前回の輪郭線の方向+2)の方向から時計回り
に近傍画素を調べ、これを追跡開始画素に辿り着くまで
繰返す。この結果、図22(a)の内側の矢印ループで示
すような輪郭線の追跡を行えたことになる。Next, raster scanning is again performed from the position (i1, j1) to search for the next tracking start pixel. The next tracking start pixel
Since it is found at the position (i2, j2) and the pixel immediately before the raster scanning is a black pixel, it is determined to be the inner contour line, and tracking is started clockwise from this position (i2, j2). Next, check the neighboring pixels clockwise from the lower direction (direction 6),
The direction of the black pixel immediately before the first white pixel found is the direction of the contour line. Then, the tracking center pixel is moved to this black pixel, the neighboring pixels are examined in the clockwise direction from the direction (previous contour direction + 2), and this is repeated until the tracking start pixel is reached. As a result, the contour line can be traced as shown by the inner arrow loop in FIG.
【0058】このような追跡結果を輪郭データとしてR
AM3に記憶する。輪郭データは図16に示すように輪
郭ループの開始位置と長さ、外側輪郭か内側輪郭かの識
別フラグで構成されてRAM3中に格納される。図23
のデータは図22(a)の場合の輪郭線追跡結果を示すも
のである。R is the tracing result as contour data.
Store in AM3. As shown in FIG. 16, the contour data is stored in the RAM 3 with the start position and length of the contour loop, and an identification flag for identifying the outer contour or the inner contour. FIG. 23
22 shows the contour tracing result in the case of FIG.
【0059】ついで、文字/図形判定について説明す
る。輪郭線追跡結果として得られた輪郭データの内、X
方向、Y方向の大きさにより、その輪郭線の内側の画像
がノイズなのか、文字なのか、或いは図形なのかを判定
する。ここに、ノイズ画像の大きさの上限、文字画像の
大きさの上限を予め決めておき、各々L1,L2とする
と、図24のフローチャートに示すように、長さX,Y
がともにL1より小さい場合をノイズ画像、長さX,Y
がともにL1より大きくL2より小さい場合を文字画
像、それ以外を図形画像と判定する。画像判定データ
は、この判定結果をコード化して、図25に示すように
図23の順番に登録する。Next, the character / graphic determination will be described. Among the contour data obtained as the contour tracing result, X
Based on the size in the direction and the Y direction, it is determined whether the image inside the contour line is noise, characters, or a figure. Here, if the upper limit of the size of the noise image and the upper limit of the size of the character image are determined in advance and are set to L1 and L2, respectively, as shown in the flowchart of FIG.
When both are smaller than L1, noise image, length X, Y
Is larger than L1 and smaller than L2, it is determined to be a character image, and the others are determined to be graphic images. As the image determination data, the determination result is coded and registered in the order of FIG. 23 as shown in FIG.
【0060】なお、設定値L1,L2は変倍率に応じて
変化させないと変倍読取り時の正確な画像判定ができな
いので、L1′=L1×R、L2′=L2×R(Rは変
倍率)という計算を行い、判定時にL1,L2に代え
て、L1′,L2′を用いる。It is to be noted that L1 ′ = L1 × R, L2 ′ = L2 × R (R is a scaling factor because accurate image determination cannot be performed during scaling reading unless the set values L1 and L2 are changed according to the scaling factor. ), And L1 ′ and L2 ′ are used instead of L1 and L2 at the time of determination.
【0061】また、輪郭包含関係の判定方法について説
明する。内側輪郭が外側輪郭に含まれるか否かの判定
は、例えば、図3のような場合であれば、図26に示す
ように、外側輪郭を含む最小の矩形領域の左上点P1S
と右下点P1E、内側輪郭の最小の矩形領域の左上点P
2Sと右下点P2E、同じく内側輪郭の最小の矩形領域
の左上点P3Sと右下点P3Eとの関係が、
P1S≦P2S かつ P1E≧P2E
の時には、内側輪郭1は外側輪郭に含まれ、
P1S≦P3S かつ P1E≧P3E
の時には、内側輪郭2は外側輪郭に含まれると判定す
る。この結果、図26の例であれば、外側輪郭内に内側
輪郭1で示す領域1と内側輪郭2で示す領域2とが含ま
れていると判定される。A method of determining the contour inclusion relationship will be described. For example, in the case of FIG. 3, it is determined whether the inner contour is included in the outer contour, as shown in FIG. 26, the upper left point P1S of the smallest rectangular area including the outer contour.
And the lower right point P1E, the upper left point P of the smallest rectangular area of the inner contour
2S and the lower right point P2E, similarly, when the relationship between the upper left point P3S and the lower right point P3E of the smallest rectangular area of the inner contour is P1S ≦ P2S and P1E ≧ P2E, the inner contour 1 is included in the outer contour, and P1S When ≦ P3S and P1E ≧ P3E, it is determined that the inner contour 2 is included in the outer contour. As a result, in the example of FIG. 26, it is determined that the outer contour includes the area 1 indicated by the inner contour 1 and the area 2 indicated by the inner contour 2.
【0062】ついで、輪郭ベクトル化方法について説明
する。輪郭のベクトル化は、輪郭線追跡処理で得られた
輪郭のチェーンコードデータ(図22(b)に示した0〜
7の方向コードで表されたデータ)の内値の連続する部
分を許容誤差の範囲を越えないように統合しながら、よ
り長いベクトルに置き換えていく処理である。図27に
例示するように、ある輪郭点を開始点とし、輪郭チェー
ンコード48を辿りながらベクトルの終点を移動した
時、その間にある輪郭点とベクトルとの距離誤差が許容
誤差d1 内であれば、そのベクトルに近似できることに
なる。この処理により、輪郭のデジタルノイズを吸収で
きるとともに、輪郭形状のデータ量を減らすことができ
る。Next, the contour vectorization method will be described. The vectorization of the contour is performed by the contour chain code data (0 to 0 shown in FIG. 22B) obtained by the contour tracing process.
This is a process of replacing a continuous portion of inner values of the data represented by the direction code 7) with a longer vector while integrating so as not to exceed the allowable error range. As illustrated in FIG. 27, when a certain contour point is set as a start point and the end point of the vector is moved while tracing the contour chain code 48, the distance error between the contour point and the vector between them is within the allowable error d 1 . Then, we can approximate the vector. By this processing, the digital noise of the contour can be absorbed and the data amount of the contour shape can be reduced.
【0063】次に、特徴点抽出方法について説明する。
特徴点とは、連続する輪郭ベクトル49の角度差が大き
く変化する点をいう。例えば、図28に示すようにある
輪郭ベクトル49aとこれに連続して接続されている輪
郭ベクトル49bとの角度差θ1 が予め設定されている
閾値を越えた場合、その接続点49abが特徴点として
抽出される。Next, the feature point extraction method will be described.
The characteristic point is a point at which the angle difference between the continuous contour vectors 49 changes greatly. For example, as shown in FIG. 28, when the angle difference θ 1 between a certain contour vector 49a and the contour vector 49b continuously connected thereto exceeds a preset threshold value, the connection point 49ab is the feature point. Is extracted as.
【0064】また、画像ベクトル化方法について説明す
る。2値の線図形画像のベクトル化方法としては、例え
ば電子通信学会論文誌1985年4月Vol.J68−D
No.4(p.845〜852)や、特開昭62−2
86177号公報等に示されているように、線図形画像
の輪郭を追跡しつつ、その中心線を求め、これを折線ベ
クトルとして近似表現する方法を利用すればよい。この
方法によれば、画像をベクトル化する段階で線幅データ
も同時に取得できる。The image vectorization method will be described. As a method of vectorizing a binary line figure image, for example, the Institute of Electronics and Communication Engineers, Journal of April 1985, Vol. J68-D
No. 4 (p.845-852) and JP-A-62-2.
As shown in Japanese Patent Publication No. 86177, etc., a method may be used in which the center line of the line graphic image is traced, the center line is obtained, and the center line is approximated as a polygonal line vector. According to this method, line width data can be acquired at the same time when the image is vectorized.
【0065】さらに、ベクトル修正方法について説明す
る。図29に示すように、あるベクトル48aの始点と
そのベクトルと連続しているn個先のベクトル48nの
終点とを結んだベクトル50と、その間にある各ベクト
ル48b,48c,〜の終点との距離が、予め設定され
ている許容誤差d2 以下であれば、そのベクトル50を
近似後の修正されたベクトルとするものである。Further, the vector correction method will be described. As shown in FIG. 29, a vector 50 that connects the start point of a certain vector 48a and the end point of a vector 48n that is n ahead of the vector and the end point of each of the vectors 48b, 48c, ... If the distance is equal to or less than the preset allowable error d 2 , the vector 50 is set as the modified vector after approximation.
【0066】また、本来、水平、垂直に書かれた線分
が、読取り時の原稿の置き方などで少し傾いた場合に
も、これを修正する。例えば、図30に示すように、修
正前のベクトル51が水平方向から少しずれていて、そ
のずれ角度θ2が許容範囲内であれば、そのベクトル5
1を水平方向に修正し、修正されたベクトル52とす
る。Also, when a line segment originally written horizontally or vertically is slightly inclined due to the way the document is placed at the time of reading, this is also corrected. For example, as shown in FIG. 30, if the vector 51 before correction is slightly deviated from the horizontal direction and the deviation angle θ 2 is within the allowable range, the vector 5 is
1 is corrected in the horizontal direction to obtain a corrected vector 52.
【0067】[0067]
【発明の効果】本発明は、上述したように、原稿画像中
に含まれ得る枠線や表枠がマーカペンによる領域指定に
代替し得る点に着目し、請求項1記載の発明では、輪郭
追跡手段と文字/図形判定手段と輪郭包含関係判定手段
と領域抽出手段とによる領域認識手段により、原稿画像
中から選択対象候補として枠線領域を自動的に抽出する
ようにしたので、後は、選択手段により対象領域を選択
指定すればよいものとなり、マーカペンによる領域指定
を要せず原稿を汚してしまうことがなくなる。As described above, the present invention focuses on the fact that a frame line or a table frame that can be included in an original image can be replaced with a region specification by a marker pen. In the invention according to claim 1, contour tracing is performed. The area recognizing means including the means, the character / graphic determining means, the contour inclusion relationship determining means, and the area extracting means automatically extracts the frame line area as a candidate for selection from the original image. It suffices to select and specify the target area by the means, and the original is not contaminated without the need to specify the area with the marker pen.
【0068】この際、、請求項2記載の発明によれば、
枠線領域のサイズを領域選択の選択項目とし、後で、領
域サイズ判定手段により選択された領域を特定するよう
にしたので、枠線領域が多い場合であっても、選択手段
による選択項目が減り、操作性をよくして対象領域を選
択できるものとなる。At this time, according to the invention of claim 2,
Since the size of the frame area is used as the selection item for area selection and the area selected by the area size determination unit is specified later, even if there are many frame areas, the selection item selected by the selection unit is Therefore, the target area can be selected with reduced operability.
【0069】また、請求項3記載の発明によれば、ベク
トル方式を利用した画像清書手段を設けたので、枠線画
像が手書きの場合であっても、最終的な出力としては必
要な画像処理の施された画像とともに枠線が清書された
状態の画像を得ることもできるものとなる。According to the third aspect of the present invention, since the image clearing means utilizing the vector system is provided, even if the frame line image is handwritten, the image processing required as the final output is performed. It is also possible to obtain an image in which the frame line is clearly written together with the image to which the mark is applied.
【0070】さらに、請求項4記載の発明によれば、領
域認識手段中に表認識手段を有して表構造を認識するよ
うにしたので、表中のタイトル領域の画像のみを残しそ
れ以外の領域の画像を削除する、といったような表構造
に適した画像処理への対応が容易なものとなる。特に、
請求項5記載の発明によれば、輪郭ベクトル化方式と特
徴点抽出方式とを用いて表構造を認識するので、タイト
ル部分が複数段構成のような複雑な表に対しても適用可
能となり、適用範囲が広がるものとなる。また、請求項
6記載の発明による場合も、表枠の枠線画像自体をベク
トル化した後、統合等の修正を施して、表構造を認識す
るようにしているので、複雑な表に対しても適用可能と
なると同時に、枠線画像自体のベクトルデータ化により
少ないデータ量で済み、処理速度も速くすることができ
る。加えて、修正されたベクトルデータをベクトル作画
手段により画像処理後の画像データ中に合成作画するよ
うにしたので、手書きの表枠の清書や表枠の線幅等の変
更なども可能となるものである。Further, according to the invention described in claim 4, since the table recognizing means is provided in the area recognizing means to recognize the table structure, only the image of the title area in the table is left and other than that. It becomes easy to cope with image processing suitable for a table structure such as deleting an image of a region. In particular,
According to the invention described in claim 5, since the table structure is recognized by using the contour vectorization method and the feature point extraction method, it is possible to apply to a complicated table such that the title part has a multi-stage structure. The range of application will be expanded. Further, also in the case of the invention according to claim 6, since the frame image of the table frame itself is vectorized, corrections such as integration are made to recognize the table structure. Also, at the same time, it is possible to reduce the amount of data and increase the processing speed by converting the frame line image itself into vector data. In addition, since the modified vector data is composed and drawn in the image data after image processing by the vector drawing means, it is possible to change the line width of the table frame and the line width of the table frame by handwriting. Is.
【0071】また、請求項7記載の発明によれば、領域
認識手段中に表を構成する項目領域の縦横の長さ、重心
の位置関係から複合表の構造を認識する表認識手段を有
し、認識された表構造に基づき表分割手段により各表に
分割するようにしたので、複合表中の任意の表に対して
容易かつ正確に任意の画像処理を施すことができる。According to the seventh aspect of the invention, the area recognition means has a table recognition means for recognizing the structure of the composite table based on the vertical and horizontal lengths of the item areas constituting the table and the positional relationship of the center of gravity. Since the table dividing means divides each table based on the recognized table structure, any image in the composite table can be easily and accurately subjected to any image processing.
【0072】また、複合表構造において各表構成の変化
が少なく、線幅で区別しているような場合、請求項8記
載の発明によれば、領域認識手段中に輪郭の特徴点を抽
出する特徴点抽出手段と、特徴点に基づき表を構成する
線分の線幅を認識する線幅認識手段とを有して、線幅の
太い部分を表枠=表の切れ目とみなして表分割手段によ
り分割するようにしたので、単純構造の複合表中の任意
の表に対して任意の画像処理を容易かつ正確に施すこと
ができる。Further, in the case where there is little change in each table structure in the composite table structure and distinction is made by the line width, according to the invention of claim 8, the feature for extracting the feature points of the contour in the area recognition means. It has a point extracting means and a line width recognizing means for recognizing the line width of the line segment that composes the table based on the feature points, and regards the thick portion of the line width as a table frame = a break of the table and by the table dividing means. Since the table is divided, it is possible to easily and accurately perform arbitrary image processing on an arbitrary table in the simple structure composite table.
【0073】さらに、複合表の各表が色分けされている
場合、請求項9記載の発明によれば、領域判定手段中に
領域抽出手段の抽出結果とカラーデジタル画像とを用い
て色分布により色領域を判定する色領域判定手段を有
し、色の変化する部分を表の切れ目として表文かつ手段
により分割するようにしたので、色分けによる複合表中
の任意の表に対して任意の画像処理を容易かつ正確に施
すことができる。Further, in the case where each table of the composite table is color-coded, according to the invention of claim 9, a color distribution is performed using the extraction result of the area extraction means and the color digital image in the area determination means. Since the color area determination means for determining the area is provided and the portion where the color changes is divided by the table sentence and means as the break of the table, any image processing can be performed on any table in the composite table by color classification. Can be applied easily and accurately.
【図1】請求項1記載の発明の一実施例を示すブロック
図である。FIG. 1 is a block diagram showing an embodiment of the invention described in claim 1.
【図2】全体構成を示すブロック図である。FIG. 2 is a block diagram showing an overall configuration.
【図3】領域認識・画像処理例を順に示す説明図であ
る。FIG. 3 is an explanatory diagram showing an example of area recognition / image processing in order.
【図4】請求項2記載の発明の一実施例を示すブロック
図である。FIG. 4 is a block diagram showing an embodiment of the invention described in claim 2.
【図5】領域認識・画像処理例を順に示す説明図であ
る。FIG. 5 is an explanatory diagram showing an example of region recognition / image processing in order.
【図6】請求項3記載の発明の一実施例を示すブロック
図である。FIG. 6 is a block diagram showing an embodiment of the invention according to claim 3;
【図7】領域認識・画像処理例を順に示す説明図であ
る。FIG. 7 is an explanatory diagram showing an example of region recognition / image processing in order.
【図8】請求項4記載の発明の一実施例を示すブロック
図である。FIG. 8 is a block diagram showing an embodiment of the invention described in claim 4.
【図9】領域認識・画像処理例を順に示す説明図であ
る。FIG. 9 is an explanatory diagram showing an example of region recognition / image processing in order.
【図10】請求項5記載の発明の一実施例を示すブロッ
ク図である。FIG. 10 is a block diagram showing an embodiment of the invention described in claim 5.
【図11】領域認識・画像処理例を順に示す説明図であ
る。FIG. 11 is an explanatory diagram showing an example of region recognition / image processing in order.
【図12】表構造認識処理を示す説明図である。FIG. 12 is an explanatory diagram showing a table structure recognition process.
【図13】請求項6記載の発明の一実施例を示すブロッ
ク図である。FIG. 13 is a block diagram showing an embodiment of the invention described in claim 6;
【図14】領域認識・画像処理例を順に示す説明図であ
る。FIG. 14 is an explanatory diagram sequentially showing an example of area recognition / image processing.
【図15】請求項7記載の発明の一実施例を示すブロッ
ク図である。FIG. 15 is a block diagram showing an embodiment of the invention described in claim 7;
【図16】領域認識・画像処理例を順に示す説明図であ
る。FIG. 16 is an explanatory diagram showing an example of region recognition / image processing in order.
【図17】請求項8記載の発明の一実施例を示すブロッ
ク図である。FIG. 17 is a block diagram showing an embodiment of the invention described in claim 8;
【図18】領域認識・画像処理例を順に示す説明図であ
る。FIG. 18 is an explanatory diagram sequentially showing an example of region recognition / image processing.
【図19】線幅情報の取得を示す説明図である。FIG. 19 is an explanatory diagram showing acquisition of line width information.
【図20】請求項9記載の発明の一実施例を示すブロッ
ク図である。FIG. 20 is a block diagram showing an embodiment of the invention according to claim 9;
【図21】領域認識・画像処理例を順に示す説明図であ
る。FIG. 21 is an explanatory diagram showing an example of region recognition / image processing in order.
【図22】輪郭線追跡処理を示す模式図である。FIG. 22 is a schematic diagram showing contour line tracking processing.
【図23】輪郭線追跡処理結果の格納状態を示すRAM
マップである。FIG. 23 is a RAM showing a storage state of contour line tracking processing results.
It is a map.
【図24】文字/図形判定処理を示すフローチャートで
ある。FIG. 24 is a flowchart showing a character / graphic determination process.
【図25】文字/図形判定結果の格納状態を示すRAM
マップである。FIG. 25 is a RAM showing a storage state of character / graphic determination results.
It is a map.
【図26】輪郭包含関係判定処理を示す模式図である。FIG. 26 is a schematic diagram showing contour inclusion relation determination processing.
【図27】輪郭ベクトル化処理を示す模式図である。FIG. 27 is a schematic diagram showing contour vectorization processing.
【図28】特徴点抽出処理を示す説明図である。FIG. 28 is an explanatory diagram showing a feature point extraction process.
【図29】ベクトル修正処理を示す模式図である。FIG. 29 is a schematic diagram showing a vector correction process.
【図30】ベクトル修正処理を示す模式図である。FIG. 30 is a schematic diagram showing a vector correction process.
1 画像入力手段 3 記憶手段 4 画像処理手段 5 画像出力手段 9 輪郭追跡手段 10 文字/図形判定手段 11 輪郭包含関係判定手段 12 領域抽出手段 13 領域認識手段 18 領域サイズ判定手段 20 ベクトル化手段 21 ベクトル修正手段 22 ベクトル作画手段 23 画像消去手段 24 画像合成手段 25 画像清書手段 31 表認識手段 35 輪郭ベクトル化手段 36 特徴点抽出手段 37 表認識手段 38 領域認識手段 42 画像ベクトル化手段 43 ベクトル修正手段 44 表認識手段 45 領域認識手段 53 表認識手段 54 領域認識手段 55 表分割手段 56 複合表 59 特徴点抽出手段 60 線幅認識手段 61 複合表 62 表分割手段 63 画像入力手段 64 色領域判定手段 65 領域認識手段 66 複合表 67 表分割手段 1 Image input means 3 storage means 4 Image processing means 5 Image output means 9 Contour tracking means 10 Character / figure determination means 11 Contour inclusion relation determining means 12 Area extraction means 13 Area recognition means 18 Area size determination means 20 Vectorization means 21 Vector correction means 22 Vector drawing means 23 Image erasing means 24 Image synthesizer 25 Image fair copy method 31 Table recognition means 35 Contour Vectorization Means 36 Feature Point Extraction Means 37 Table recognition means 38 Area recognition means 42 image vectorization means 43 Vector correction means 44 Table recognition means 45 Area recognition means 53 Table recognition means 54 Area recognition means 55 Table dividing means 56 composite table 59 Feature Point Extraction Means 60 Line width recognition means 61 Composite table 62 Table dividing means 63 Image input means 64 color region determination means 65 Area recognition means 66 composite table 67 Table dividing means
Claims (9)
読取って得られたデジタル画像を一旦記憶手段に記憶さ
せ、記憶された入力画像について画像処理手段によりデ
ジタル画像処理を施して画像出力手段に出力させるよう
にした画像処理装置において、前記入力画像の輪郭線を
追跡して画像輪郭情報を出力する輪郭追跡手段と、この
画像輪郭情報に基づく各画像の輪郭の大きさからその画
像が図形画像か否かを判定する文字/図形判定手段と、
判定された図形画像の外側輪郭と内側輪郭との包含関係
を求めて外側輪郭と内側輪郭とを対応付ける輪郭包含関
係判定手段と、求められた包含関係に基づき枠線領域を
抽出する領域抽出手段とを有する領域認識手段を設け、
抽出された枠線領域から画像処理対象領域と画像処理内
容とを選択指示する選択手段を設けたことを特徴とする
画像処理装置。1. A digital image obtained by optically reading a document image by image input means is temporarily stored in a storage means, and the stored input image is subjected to digital image processing by an image processing means to be output to an image output means. In the image processing apparatus adapted to output, the contour tracing means for tracing the contour line of the input image and outputting the image contour information, and the contour image of each image based on the image contour information, the image is a graphic image. Character / figure determining means for determining whether or not
A contour inclusion relation determining means for determining an inclusion relation between the outer contour and the inner contour of the determined graphic image and associating the outer contour and the inner contour with each other; and a region extracting means for extracting a frame line region based on the obtained inclusion relation. Area recognition means having
An image processing apparatus, comprising: a selection unit for selecting and instructing an image processing target area and image processing content from the extracted frame area.
読取って得られたデジタル画像を一旦記憶手段に記憶さ
せ、記憶された入力画像について画像処理手段によりデ
ジタル画像処理を施して画像出力手段に出力させるよう
にした画像処理装置において、前記入力画像の輪郭線を
追跡して画像輪郭情報を出力する輪郭追跡手段と、この
画像輪郭情報に基づく各画像の輪郭の大きさからその画
像が図形画像か否かを判定する文字/図形判定手段と、
判定された図形画像の外側輪郭と内側輪郭との包含関係
を求めて外側輪郭と内側輪郭とを対応付ける輪郭包含関
係判定手段と、求められた包含関係に基づき枠線領域を
抽出する領域抽出手段とを有する領域認識手段を設け、
抽出された枠線領域から画像処理対象領域のサイズと画
像処理内容とを選択指示する選択手段を設け、前記枠線
領域のサイズを求めてそのサイズから前記選択手段によ
り選択された画像処理対象領域を判定する領域サイズ判
定手段を設けたことを特徴とする画像処理装置。2. A digital image obtained by optically reading a document image by the image inputting means is temporarily stored in the storing means, and the stored input image is subjected to digital image processing by the image processing means to be output to the image outputting means. In the image processing apparatus adapted to output, the contour tracing means for tracing the contour line of the input image and outputting the image contour information, and the contour image of each image based on the image contour information, the image is a graphic image. Character / figure determining means for determining whether or not
A contour inclusion relation determining means for determining an inclusion relation between the outer contour and the inner contour of the determined graphic image and associating the outer contour and the inner contour with each other; and a region extracting means for extracting a frame line region based on the obtained inclusion relation. Area recognition means having
A selection unit for selecting and instructing the size of the image processing target region and the image processing content from the extracted frame line region is provided, the size of the frame line region is obtained, and the image processing target region selected by the selection unit from the size. An image processing apparatus, comprising: an area size determining unit for determining.
を形成する枠線画像をベクトル化するベクトル化手段
と、ベクトル化された枠線データを修正するベクトル修
正手段と、修正されたベクトルデータを画像出力手段に
対する出力メモリ中に展開するベクトル作画手段と、ベ
クトル化された元の枠線画像データを記憶手段から消去
する画像消去手段と、画像処理手段による画像処理後の
画像データと前記ベクトル作画手段により作成された枠
線ベクトル画像とを合成する画像合成手段とを有する画
像清書手段を、画像処理手段と画像出力手段との間に設
けたことを特徴とする請求項1又は2記載の画像処理装
置。3. Vectorizing means for vectorizing a frame image forming a frame area extracted by the area extracting means, vector modifying means for modifying the vectorized frame data, and modified vector data. Image drawing means for expanding the above into an output memory for the image output means, an image erasing means for erasing the original vectorized frame line image data from the storing means, image data after image processing by the image processing means and the vector. 3. The image clearing means having an image synthesizing means for synthesizing the frame line vector image created by the image drawing means is provided between the image processing means and the image output means. Image processing device.
読取って得られたデジタル画像を一旦記憶手段に記憶さ
せ、記憶された入力画像について画像処理手段によりデ
ジタル画像処理を施して画像出力手段に出力させるよう
にした画像処理装置において、前記入力画像の輪郭線を
追跡して画像輪郭情報を出力する輪郭追跡手段と、この
画像輪郭情報に基づく各画像の輪郭の大きさからその画
像が図形画像か否かを判定する文字/図形判定手段と、
判定された図形画像の外側輪郭と内側輪郭との包含関係
を求めて外側輪郭と内側輪郭とを対応付ける輪郭包含関
係判定手段と、求められた包含関係に基づき枠線領域を
抽出する領域抽出手段と、抽出された枠線領域相互の位
置関係に基づき表構造を認識する表認識手段とを有する
領域認識手段を設け、認識された表構造中から画像処理
対象領域と画像処理内容とを選択指示する選択手段を設
けたことを特徴とする画像処理装置。4. A digital image obtained by optically reading a manuscript image by the image inputting means is temporarily stored in the storing means, and the stored input image is subjected to digital image processing by the image processing means to be output to the image outputting means. In the image processing apparatus adapted to output, the contour tracing means for tracing the contour line of the input image and outputting the image contour information, and the contour image of each image based on the image contour information, the image is a graphic image. Character / figure determining means for determining whether or not
A contour inclusion relation determining means for determining an inclusion relation between the outer contour and the inner contour of the determined graphic image and associating the outer contour and the inner contour with each other; and a region extracting means for extracting a frame line region based on the obtained inclusion relation. Area recognition means having table recognition means for recognizing a table structure based on the positional relationship between the extracted frame line areas is provided, and an image processing target area and image processing contents are selected and instructed from the recognized table structure. An image processing apparatus comprising a selection unit.
読取って得られたデジタル画像を一旦記憶手段に記憶さ
せ、記憶された入力画像について画像処理手段によりデ
ジタル画像処理を施して画像出力手段に出力させるよう
にした画像処理装置において、前記入力画像の輪郭線を
追跡して画像輪郭情報を出力する輪郭追跡手段と、この
画像輪郭情報に基づく各画像の輪郭の大きさからその画
像が図形画像か否かを判定する文字/図形判定手段と、
判定された図形画像の輪郭データをベクトル化する輪郭
ベクトル化手段と、ベクトル化された輪郭ベクトルの連
続性が変化する点を輪郭の特徴点として抽出する特徴点
抽出手段と、前記輪郭ベクトルと抽出された特徴点とに
基づき表構造を認識する表認識手段とを有する領域認識
手段を設け、認識された表構造中から画像処理対象領域
と画像処理内容とを選択指示する選択手段を設けたこと
を特徴とする画像処理装置。5. A digital image obtained by optically reading an original image by the image inputting means is temporarily stored in the storing means, and the stored input image is subjected to digital image processing by the image processing means to be output to the image outputting means. In the image processing apparatus adapted to output, the contour tracing means for tracing the contour line of the input image and outputting the image contour information, and the contour image of each image based on the image contour information, the image is a graphic image. Character / figure determining means for determining whether or not
Contour vectorization means for vectorizing the contour data of the determined graphic image, feature point extraction means for extracting points where the continuity of the vectorized contour vector changes as feature points of the contour, and the contour vector and extraction Area recognition means having a table recognition means for recognizing a table structure based on the recognized feature points, and selection means for selecting and instructing an image processing target area and image processing contents from the recognized table structure are provided. An image processing device characterized by:
読取って得られたデジタル画像を一旦記憶手段に記憶さ
せ、記憶された入力画像について画像処理手段によりデ
ジタル画像処理を施して画像出力手段に出力させるよう
にした画像処理装置において、前記入力画像の輪郭線を
追跡して画像輪郭情報を出力する輪郭追跡手段と、この
画像輪郭情報に基づく各画像の輪郭の大きさからその画
像が図形画像か否かを判定する文字/図形判定手段と、
判定された図形画像をベクトル化する画像ベクトル化手
段と、ベクトル化されたベクトルデータを修正するベク
トル修正手段と、修正されたベクトルデータに基づき表
構造を認識する表認識手段とを有する領域認識手段を設
け、認識された表構造中から画像処理対象領域と画像処
理内容とを選択指示する選択手段を設け、画像処理手段
による画像処理後の画像データ中に前記ベクトル修正手
段により修正されたベクトルデータを合成作画するベク
トル作画手段を設けたことを特徴とする画像処理装置。6. A digital image obtained by optically reading an original image by the image inputting means is temporarily stored in the storing means, and the stored input image is subjected to digital image processing by the image processing means to be output to the image outputting means. In the image processing apparatus adapted to output, the contour tracing means for tracing the contour line of the input image and outputting the image contour information, and the contour image of each image based on the image contour information, the image is a graphic image. Character / figure determining means for determining whether or not
Area recognition means having image vectorization means for vectorizing the determined graphic image, vector modification means for modifying the vectorized vector data, and table recognition means for recognizing the table structure based on the modified vector data. And a selection means for selecting and instructing an image processing target area and image processing contents from the recognized table structure, and vector data corrected by the vector correction means in the image data after image processing by the image processing means. An image processing apparatus characterized by comprising vector drawing means for synthesizing and drawing.
読取って得られたデジタル画像を一旦記憶手段に記憶さ
せ、記憶された入力画像について画像処理手段によりデ
ジタル画像処理を施して画像出力手段に出力させるよう
にした画像処理装置において、前記入力画像の輪郭線を
追跡して画像輪郭情報を出力する輪郭追跡手段と、この
画像輪郭情報に基づく各画像の輪郭の大きさからその画
像が図形画像か否かを判定する文字/図形判定手段と、
判定された図形画像の外側輪郭と内側輪郭との包含関係
を求めて外側輪郭と内側輪郭とを対応付ける輪郭包含関
係判定手段と、求められた包含関係に基づき枠線領域を
抽出する領域抽出手段と、抽出された各枠線領域の内側
輪郭相互の位置関係に基づき複合表構造を認識する表認
識手段とを有する領域認識手段を設け、認識された複合
表を各々の表に分割する表分割手段を設け、複合表中か
ら分割された表の内から画像処理対象表と画像処理内容
とを選択指示する選択手段を設けたことを特徴とする画
像処理装置。7. A digital image obtained by optically reading a document image by the image inputting means is temporarily stored in the storing means, and the stored input image is subjected to digital image processing by the image processing means to be output to the image outputting means. In the image processing apparatus adapted to output, the contour tracing means for tracing the contour line of the input image and outputting the image contour information, and the contour image of each image based on the image contour information, the image is a graphic image. Character / figure determining means for determining whether or not
A contour inclusion relation determining means for determining an inclusion relation between the outer contour and the inner contour of the determined graphic image and associating the outer contour and the inner contour with each other; and a region extracting means for extracting a frame line region based on the obtained inclusion relation. Table dividing means for dividing the recognized composite table into respective tables by providing area recognition means having table recognition means for recognizing the composite table structure based on the positional relationship between the inner contours of the respective extracted frame areas. The image processing apparatus is provided with a selecting means for selecting and instructing an image processing target table and image processing contents from a table divided from the composite table.
読取って得られたデジタル画像を一旦記憶手段に記憶さ
せ、記憶された入力画像について画像処理手段によりデ
ジタル画像処理を施して画像出力手段に出力させるよう
にした画像処理装置において、前記入力画像の輪郭線を
追跡して画像輪郭情報を出力する輪郭追跡手段と、この
画像輪郭情報に基づく各画像の輪郭の大きさからその画
像が図形画像か否かを判定する文字/図形判定手段と、
判定された図形画像の外側輪郭と内側輪郭との包含関係
を求めて外側輪郭と内側輪郭とを対応付ける輪郭包含関
係判定手段と、求められた包含関係に基づき枠線領域を
抽出する領域抽出手段と、抽出された各枠線領域の内側
輪郭の輪郭方向が大きく変化する点を輪郭の特徴点とし
て抽出する特徴点抽出手段と、抽出された特徴点から最
短距離にある他の特徴点までの距離を線幅として認識す
る線幅認識手段とを有して認識された線幅が他の線幅に
比べて太い部分を表枠とみなして複合表構造を認識する
領域認識手段を設け、前記表枠に基づき複合表を各々の
表に分割する表分割手段を設け、複合表中から分割され
た表の内から画像処理対象表と画像処理内容とを選択指
示する選択手段を設けたことを特徴とする画像処理装
置。8. A digital image obtained by optically reading an original image by the image inputting means is temporarily stored in the storing means, and the stored input image is subjected to digital image processing by the image processing means to be output to the image outputting means. In the image processing apparatus adapted to output, the contour tracing means for tracing the contour line of the input image and outputting the image contour information, and the contour image of each image based on the image contour information, the image is a graphic image. Character / figure determining means for determining whether or not
A contour inclusion relation determining means for determining an inclusion relation between the outer contour and the inner contour of the determined graphic image and associating the outer contour and the inner contour with each other; and a region extracting means for extracting a frame line region based on the obtained inclusion relation. , A feature point extracting means for extracting a point whose contour direction of the inside contour of each extracted frame area largely changes, as a feature point of the contour, and a distance from the extracted feature point to another feature point at the shortest distance With a line width recognition means for recognizing as a line width, a region recognition means for recognizing a composite table structure by recognizing a portion where the recognized line width is thicker than other line widths as a table frame, Table division means for dividing the composite table into each table based on the frame is provided, and selection means for selecting and instructing the image processing target table and the image processing content from the table divided from the composite table is provided. Image processing device.
デジタル画像とカラーデジタル画像とを得る画像入力手
段を有し、これらの読取り画像を一旦記憶手段に記憶さ
せ、記憶された入力画像について画像処理手段によりデ
ジタル画像処理を施して画像出力手段に出力させるよう
にした画像処理装置において、前記白黒デジタル画像に
よる入力画像の輪郭線を追跡して画像輪郭情報を出力す
る輪郭追跡手段と、この画像輪郭情報に基づく各画像の
輪郭の大きさからその画像が図形画像か否かを判定する
文字/図形判定手段と、判定された図形画像の外側輪郭
と内側輪郭との包含関係を求めて外側輪郭と内側輪郭と
を対応付ける輪郭包含関係判定手段と、求められた包含
関係に基づき枠線領域を抽出する領域抽出手段と、この
領域抽出手段により抽出された各枠線領域の色分布を前
記カラーデジタル画像による入力画像に基づき調べて色
領域を判定する色領域判定手段とを有して前記領域抽出
手段により抽出された領域情報とこの色領域判定手段に
より判定された領域情報とにより複合表構造を認識する
領域認識手段を設け、認識された複合表を各々の表に分
割する表分割手段を設け、複合表中から分割された表の
内から画像処理対象表と画像処理内容とを選択指示する
選択手段を設けたことを特徴とする画像処理装置。9. An image input means for optically reading a color original image to obtain a black-and-white digital image and a color digital image. These read images are temporarily stored in the storage means, and the stored input image is imaged. In an image processing apparatus adapted to perform digital image processing by the processing means and output to the image output means, contour tracing means for tracing the contour line of the input image by the black-and-white digital image and outputting image contour information, and this image A character / graphic determining means for determining whether or not the image is a graphic image based on the size of the outline of each image based on the outline information, and an outer contour by determining an inclusion relation between the outer contour and the inner contour of the determined graphic image. The contour inclusion relationship determining means for associating the inner contour with the inner contour, the area extracting means for extracting the frame line area based on the obtained inclusion relationship, and the area extracting means. Area information extracted by the area extracting means and color area determining means for determining the color area by checking the color distribution of each extracted frame area based on the input image of the color digital image Area recognition means for recognizing the composite table structure based on the area information judged by the judgment means is provided, table division means for dividing the recognized composite table into respective tables is provided, and among the tables divided from the composite table An image processing apparatus comprising: a selection unit for instructing to select an image processing target table and image processing contents.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP28448591A JP3149221B2 (en) | 1991-03-27 | 1991-10-30 | Image processing device |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6233791 | 1991-03-27 | ||
JP3-62337 | 1991-03-27 | ||
JP28448591A JP3149221B2 (en) | 1991-03-27 | 1991-10-30 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0514703A true JPH0514703A (en) | 1993-01-22 |
JP3149221B2 JP3149221B2 (en) | 2001-03-26 |
Family
ID=26403396
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP28448591A Expired - Fee Related JP3149221B2 (en) | 1991-03-27 | 1991-10-30 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3149221B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09134406A (en) * | 1995-09-06 | 1997-05-20 | Fujitsu Ltd | Device and method for extracting title from document image |
JP2001357406A (en) * | 2000-06-14 | 2001-12-26 | Minolta Co Ltd | Picture processor |
US7269298B2 (en) | 2000-09-14 | 2007-09-11 | Sharp Kabushiki Kaisha | Image processing device, image processing method, and record medium on which the same is recorded |
JP2007272111A (en) * | 2006-03-31 | 2007-10-18 | Canon Inc | Image forming apparatus and its control method |
JP2009077146A (en) * | 2007-09-20 | 2009-04-09 | Canon Inc | Image processing device |
JP2010226620A (en) * | 2009-03-25 | 2010-10-07 | Seiko Epson Corp | Device and method for eliminating noise component |
JP2010263434A (en) * | 2009-05-07 | 2010-11-18 | Canon Inc | Image processing device, image processing method, program, and storage medium |
-
1991
- 1991-10-30 JP JP28448591A patent/JP3149221B2/en not_active Expired - Fee Related
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09134406A (en) * | 1995-09-06 | 1997-05-20 | Fujitsu Ltd | Device and method for extracting title from document image |
JP2001357406A (en) * | 2000-06-14 | 2001-12-26 | Minolta Co Ltd | Picture processor |
US7269298B2 (en) | 2000-09-14 | 2007-09-11 | Sharp Kabushiki Kaisha | Image processing device, image processing method, and record medium on which the same is recorded |
JP2007272111A (en) * | 2006-03-31 | 2007-10-18 | Canon Inc | Image forming apparatus and its control method |
JP2009077146A (en) * | 2007-09-20 | 2009-04-09 | Canon Inc | Image processing device |
US8175397B2 (en) | 2007-09-20 | 2012-05-08 | Canon Kabushiki Kaisha | Device adaptively switching image processes in accordance with characteristic of object included in image |
JP2010226620A (en) * | 2009-03-25 | 2010-10-07 | Seiko Epson Corp | Device and method for eliminating noise component |
JP2010263434A (en) * | 2009-05-07 | 2010-11-18 | Canon Inc | Image processing device, image processing method, program, and storage medium |
US8717635B2 (en) | 2009-05-07 | 2014-05-06 | Canon Kabushiki Kaisha | Image processing apparatus, method, program and storage medium for determining an image area read by a reading device corresponding to an original image area |
Also Published As
Publication number | Publication date |
---|---|
JP3149221B2 (en) | 2001-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2930612B2 (en) | Image forming device | |
US5448692A (en) | Digital image processing device involving processing of areas of image, based on respective contour line traces | |
US5907631A (en) | Document image processing method and system having function of determining body text region reading order | |
US6185341B1 (en) | Image processing using vector data to reduce noise | |
EP0843275B1 (en) | Pattern extraction apparatus and method for extracting patterns | |
US20070237394A1 (en) | Image processor for character recognition | |
US5129012A (en) | Detecting line segments and predetermined patterns in an optically scanned document | |
JPH08293001A (en) | Image processing unit and method and optical character recognition unit and method | |
US20120250048A1 (en) | Image processing apparatus and image processing method | |
US20100158375A1 (en) | Signal processing apparatus, signal processing method, computer-readable medium and computer data signal | |
EP1017011A2 (en) | Block selection of table features | |
US6947596B2 (en) | Character recognition method, program and recording medium | |
US5195147A (en) | Image forming apparatus | |
JP3149221B2 (en) | Image processing device | |
JPH0418351B2 (en) | ||
JP3186246B2 (en) | Document reading device | |
JPH0773271A (en) | Area dividing method | |
JP7301529B2 (en) | Image processing device, image processing method, and program | |
Ye et al. | Document image matching and annotation lifting | |
JP6922365B2 (en) | Document processing equipment and programs | |
JP2755299B2 (en) | Image processing method | |
JP2802132B2 (en) | Image forming device | |
JPH02138674A (en) | Method and device processing document | |
JP2006107290A (en) | Image processor and method thereof | |
JPH0728934A (en) | Document image processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |