JPH01276278A - Contour line persuit processing system for multilevel image - Google Patents

Contour line persuit processing system for multilevel image

Info

Publication number
JPH01276278A
JPH01276278A JP63102690A JP10269088A JPH01276278A JP H01276278 A JPH01276278 A JP H01276278A JP 63102690 A JP63102690 A JP 63102690A JP 10269088 A JP10269088 A JP 10269088A JP H01276278 A JPH01276278 A JP H01276278A
Authority
JP
Japan
Prior art keywords
contour
point
map
feature point
persuit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63102690A
Other languages
Japanese (ja)
Inventor
Osamu Ogawa
修 小川
Satoshi Ouchi
敏 大内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP63102690A priority Critical patent/JPH01276278A/en
Publication of JPH01276278A publication Critical patent/JPH01276278A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To efficiently execute a contour line persuit processing to a multilevel image in a short period at a high speed by investigating the position information of all feature points and contour points with one scanning to the multilevel image made into an object and executing the contour line persuit processing based on the position information. CONSTITUTION:Image data made into the object are scanned by using the mask of 2X2, the contour point and feature point are obtained, and 1 and 2 are written onto a map in case of the contour point and feature point, respectively. The scanning is executed from the head of the map, and when a feature point K is found, a contour persuit is started from the position of the image data corresponding to the feature point K. A contour point on the map, in which the persuit is completed, is deleted, the scanning is executed again on the map from the position of the feature point K, and the action is repeatedly executed until it is made impossible to find the new feature point. Thus, a scanning frequency to an object image is reduced, and a processing time is remarkably shortened.

Description

【発明の詳細な説明】 (技術分野] 本発明は、図形境界がつくる閉曲線のすべての成分を抽
出する輪郭線追跡処理に係り、特に多値画像に対する輪
郭線追跡処理を高速で行なうようにした多値画像の輪郭
線追跡処理方式に関する。
[Detailed Description of the Invention] (Technical Field) The present invention relates to contour tracing processing for extracting all the components of closed curves created by figure boundaries, and in particular, the present invention is concerned with contour tracing processing for extracting all components of closed curves created by figure boundaries, and in particular, the present invention is designed to perform contour tracing processing at high speed for multivalued images. This paper relates to a contour tracing processing method for multivalued images.

〔従来技術〕[Prior art]

従来より行われている2値画像に対する輪郭線追跡処理
方式の一例を、第10図に示す図形の場合で説明する。
An example of a conventional contour tracing processing method for binary images will be explained using the figure shown in FIG.

この処理においては、まず輪郭線追跡のための追跡開始
点を見つけることから始め、順に追跡を行なう過程で追
跡し終わった点に次々に追跡済みのマークを付けながら
追跡を進行していき、上記の追跡を一巡した時点で第1
0図に示すように1本の輪郭線を求める。そして、この
手順を繰返し行なうことにより対象とする画像中のすべ
ての輪郭線を抽出するものである。
In this process, we first start by finding the tracing start point for contour tracing, and in the process of tracing in sequence, we mark the traced points one after another as we proceed with the tracing. After completing one round of tracking, the first
Find one contour line as shown in Figure 0. By repeating this procedure, all contour lines in the target image are extracted.

以下に、8連結の場合の輪郭線を追跡するアルゴリズム
について、第11図を参照して順を追って説明する。
Below, the algorithm for tracing the contour line in the case of 8-connection will be explained step by step with reference to FIG.

■ まず、画面左上の画素を追跡開始点を探すためのラ
スク走査初期点とする。
■ First, the pixel at the top left of the screen is set as the initial point of rask scanning to search for the tracking start point.

■ マスク走査を継続していき、まだ追跡済みマークの
付いていない1一画素を求め、この1一画素(境界点)
に追跡済みのマークを付け、これを追跡開始点X0とす
る。
■ Continuing mask scanning, find 11 pixels that do not have a tracked mark yet, and select these 11 pixels (boundary points).
A tracked mark is attached to the tracked point, and this is set as the tracking start point X0.

なお、このとき上記の1=画素が画像中にない場合は、
アルゴリズムを終了する。
In addition, at this time, if the above 1 = pixel is not in the image,
Terminate the algorithm.

■ 上記の追跡開始点X。を中央に見る8近傍を第11
図(a)とするとき、番号1の要素から反時計回りに(
内側輪郭線追跡のときは番号4の要素から時計回りに)
調べていき、最初に出会った1一画素(図では番号1の
要素)をXlとし、これを次の境界点とする。
■ Tracking starting point X above. The 8th neighborhood seen in the center is the 11th
In figure (a), starting from the element with number 1 and moving counterclockwise (
When tracing the inner contour, move clockwise from element number 4)
The first 11 pixels encountered (the element numbered 1 in the figure) are set as Xl, and this is set as the next boundary point.

このとき、番号1〜8までで1つも1一画素に出合わな
ければ、この点は意味のない雑音要素(孤立点)と見な
して、再び■へ戻る。
At this time, if no pixel of 11 is encountered in numbers 1 to 8, this point is regarded as a meaningless noise element (isolated point) and the process returns to step (2) again.

■ 上記の境界点XIにマーク付けを行ない、この境界
点X1を中央に見る8近傍を第11図(b)に示すよう
に(内側輪郭線追跡のときは第11図(C)に示すよう
に)番号1〜7(このとき、前に求められた境界点は○
の位置にある)の順に調べていき、最初に出合った1一
画素をX2とし、これを次の境界点(図では・の位置)
とする。
■ Mark the above boundary point ) Numbers 1 to 7 (at this time, the previously determined boundary points are ○
The first 11 pixels encountered are set as X2, and this is the next boundary point (in the figure, the position is)
shall be.

■ 上記のX[からX2を求める手順■を繰返し行ない
、次々に隣接境界点を求めていく。
■ Repeat the procedure (■) for finding X2 from X[ above, and find adjacent boundary points one after another.

このとき、x、、、、=x、、x、1=x、となったな
らば、X、、X、・・・Xr+−1が求める1本の輪郭
線となる。
At this time, if x, , , = x, , x, 1 = x, then X, , X, . . .

■ 次に、別の輪郭線を求めるため、再び■へ戻る。■ Next, return to ■ to find another contour line.

なお、上記のようにして得られた輪郭線からもとの図形
を復元する場合は、基本的には外側輪郭線と内側輪郭線
との間の要素を1一画素に統合すればよい。また、上記
においては8連結輪郭線の場合を説明したが、4連結で
行なってもよい。
Note that when restoring the original figure from the contour line obtained as described above, basically the elements between the outer contour line and the inner contour line may be integrated into 11 pixels. Moreover, although the case of 8-connected contour lines has been described above, it may be performed using 4-connected contour lines.

しかし、上記の輪郭線追跡処理方式を多値画像に適用し
た場合は、特徴点からの追跡を開始しないために多くの
セグメントに分割され、また線分および閉曲線を追跡す
るごとに対象画像の先頭からスキャンして追跡の開始点
く特徴点)を見つけなければならないため、追跡回数が
増加して多くの処理時間を要するといった問題があった
However, when the above contour tracing processing method is applied to a multivalued image, it is divided into many segments because tracing does not start from a feature point, and each time a line segment or closed curve is traced, the beginning of the target image is The problem is that the number of tracking increases and a lot of processing time is required because the tracking has to be scanned to find the starting point (feature point).

〔目 的〕〔the purpose〕

本発明は、上記した従来における問題を解消するために
なされたもので、輪郭線追跡処理を短時間に高速で行な
うようにした多値画像の輪郭線追跡処理方式を提供する
ことを目的とする。
The present invention has been made in order to solve the above-mentioned conventional problems, and an object of the present invention is to provide a contour line tracing processing method for multivalued images, which performs contour line tracing processing in a short time and at high speed. .

〔構 成〕〔composition〕

本発明は上記の目的を達成させるために、対象とする多
値画像に対する一回のスキャンによりすべての特徴点(
交点および端点)と輪郭点の位置情報を調べ、該位置情
報に基づいて輪郭線追跡を行なうことにより、対象画像
に対するスキャン回数を低減させて処理時間を大幅に短
縮したことを特徴とするものである。
In order to achieve the above object, the present invention detects all feature points (
The system is characterized by examining the positional information of the intersection points (intersections and endpoints) and contour points, and tracing the contour line based on the positional information, thereby reducing the number of scans for the target image and significantly shortening the processing time. be.

以下、本発明の一実施例に基づいて具体的に説明する。Hereinafter, a detailed explanation will be given based on one embodiment of the present invention.

まず、本発明による多値画像に対する輪郭線追跡処理の
アルゴリズムについて順を追って説明する。
First, an algorithm for contour tracing processing for a multivalued image according to the present invention will be explained step by step.

■ 対象とする画像データから2×2のマスクを用いて
輪郭情報とすべての特徴点Ki  (i=1〜2)を求
め、該輪郭情報と特徴点のマツプ(MAP)を作成する
(2) Obtain contour information and all feature points Ki (i=1 to 2) from the target image data using a 2×2 mask, and create a map (MAP) of the contour information and feature points.

■ 特徴点がない場合は、■に移行する。■ If there are no feature points, move to ■.

■ マツプ上の交点および端点Kiに対応する画像デー
タ上の位置から、2×2のマスクを用いて画像データ上
で輪郭追跡を行ない、マツプ上の対応する輪郭情報を順
に消去していき、これを特徴点にたどり着くまで続けて
行なう。
■ Contour tracing is performed on the image data using a 2×2 mask from the position on the image data corresponding to the intersection point and end point Ki on the map, and the corresponding contour information on the map is sequentially erased. Continue until you reach the feature point.

■ マツプの特徴点Kiから始まる輪郭情報がなくなっ
た時点で、該特徴点Kiの位置からマツプをスキャンし
て次の特徴点Ki+1を探す。
(2) When there is no more contour information starting from the feature point Ki on the map, scan the map from the position of the feature point Ki to find the next feature point Ki+1.

■ ■に戻る。■ Return to ■.

■ マツプ上において、前の輪郭情報の位置からスキャ
ンを開始して新しい輪郭情報を探す。
■ Search for new contour information by starting scanning from the position of the previous contour information on the map.

ただし、初回のスキャンはマツプの先頭とする。そして
、輪郭情報がなければアルゴリズムを終了する。
However, the first scan should be at the beginning of the map. Then, if there is no contour information, the algorithm ends.

■ 見つかった輪郭情報に対応する画像データ上の位置
から、2×2のマスクを用いて画像データ上で輪郭追跡
を行ない、マツプ上の対応する輪郭情報を順に消去して
いく。
(2) Contour tracing is performed on the image data using a 2×2 mask from the position on the image data corresponding to the found contour information, and the corresponding contour information on the map is sequentially erased.

■ ■に戻る。■ Return to ■.

上記のアルゴリズムにおいて、■〜■は特徴点をもつ輪
郭情報に対しての追跡処理であり、■〜■は特徴点をも
たない輪郭情報(閉ループ情報)に対しての追跡処理で
ある。
In the above algorithm, (1) to (2) are tracking processes for contour information that has feature points, and (2) to (2) are tracking processes for contour information (closed loop information) that does not have any feature points.

次に、上記したアルゴリズム■における具体的な手法に
ついて説明する。
Next, a specific method of algorithm (2) described above will be explained.

第1図に示すように、画像の格子点に2×2のマスクM
の中心がくるようにして、対象となる画像データを同図
(a)→(b)→(C)の方向にスキャンする。
As shown in Figure 1, a 2x2 mask M is placed on the grid points of the image.
The target image data is scanned in the direction of (a) -> (b) -> (C) in the figure so that the center of the image is aligned with the center of the image.

また、この場合、上記画像の淵の部分は同図(d)〜(
g)に示すような形態で上記のマスクMをかけてスキャ
ンする。
In addition, in this case, the bottom part of the above image is shown in (d) to (
The above mask M is applied and scanned in the form shown in g).

そして、以下に説明する(1)〜(3)のいずれかの条
件を満足する部分を特徴点として抽出するとともに、(
4)の条件を満足する部分を輪郭点として抽出し、マツ
プ上に特徴点ならば2、また輪郭点ならばlが書き込ま
れる。
Then, parts that satisfy any of the conditions (1) to (3) described below are extracted as feature points, and (
A portion that satisfies the condition 4) is extracted as a contour point, and 2 is written on the map if it is a feature point, and 1 is written if it is a contour point.

上記の(1)〜(4)の条件を次に示す。The conditions (1) to (4) above are shown below.

条件(1):マスクM内の画素が3種類以上の異なった
値をもつ部分 この条件を満足するのは、例えば第2図(a) 、 (
b)に相当する場合である。
Condition (1): A part where the pixels in the mask M have three or more different values.
This is a case corresponding to b).

条件(2);マスクM内の画素が2種類の値をもちかつ
対角線上の2組の画素値が同じ部分この条件を満足する
のは、例えば第2図(C)に相当する場合である。
Condition (2): The part where the pixels in the mask M have two types of values and the two sets of diagonal pixel values are the same This condition is satisfied, for example, in the case shown in Figure 2 (C). .

条件(3)二画像の淵の部分すなわち第1図の(e)〜
(g)に示す形態でマスクM内の画素値が異なる部分こ
の条件を満足するのは、例えば第2図(d)に相当する
場合である。
Condition (3) The bottom part of the two images, that is, (e) ~ in Figure 1
In the form shown in FIG. 2(g), a portion of the mask M with different pixel values satisfies this condition, for example, in a case corresponding to FIG. 2(d).

条件(4):上記した条件(1)〜(3)以外でマスク
M内の画素値が2種類の部分 この条件を満足するのは、例えば第2図(e)、げ)に
相当する場合である。
Condition (4): Other than the above-mentioned conditions (1) to (3), parts of the mask M with two types of pixel values satisfy this condition, for example, in cases corresponding to (e) in Fig. 2). It is.

なお、マンプ内の情報は、第3図(b)に示すように同
図(a)に示す画像データの格子の点の情報に対応して
いる。
Note that the information in the map corresponds to the information on the grid points of the image data shown in FIG. 3(a), as shown in FIG. 3(b).

而して、上記した手法に基づいて、第6図(a)の画像
データから同図(b)に示すマツプが作成される。
Based on the method described above, the map shown in FIG. 6(b) is created from the image data of FIG. 6(a).

なお、同図(b)のマツプ上の■は特徴点、■は輪郭点
を示している。
In addition, ■ on the map in FIG. 2B indicates feature points, and ■ indicates contour points.

続いて、上記したアルゴリズム■における輪郭追跡の具
体的な手法について説明する。
Next, a specific method of contour tracking in the above-mentioned algorithm (2) will be explained.

この場合、第7図に示すように、同図(b)に示すマツ
プ上を先頭から順にスキャンして特徴点■を見つけ、該
特徴点■に対応する同図(a)に示す画像データ上にお
ける特徴点の位置から追跡を開始する。
In this case, as shown in FIG. 7, the map shown in FIG. 7(b) is scanned sequentially from the beginning to find the feature point ■, and the image data shown in FIG. Tracking starts from the position of the feature point in .

そして、第4図(a)に示すように、特徴点からの追跡
方向に時計回りに優先順位を付け、該優先順位の高い方
向から再び特徴点に出合うまで追跡を行っていく。従っ
て、第4図(b) 、 (C)の場合は、番号の小さい
方向から追跡を行っていく。なお、輪郭の追跡中は、第
5図(a)〜(C)に示すルールに従って方向転換を行
なう。
Then, as shown in FIG. 4(a), priorities are assigned clockwise in the tracking direction from the feature point, and tracking is performed from the direction with the higher priority until the feature point is encountered again. Therefore, in the cases of FIGS. 4(b) and 4(C), tracking is performed from the direction with the smallest number. Note that while tracking the contour, the direction is changed according to the rules shown in FIGS. 5(a) to 5(C).

第8図(a)は、上記したアルゴリズム■〜■における
特徴点をもつ輪郭情報に対してのすべての追跡処理を終
了した場合の、マツプ上の状態を示したものである。ま
た、上記したアルゴリズム■〜■における特徴点をもた
ない輪郭情報に対しての追跡処理は、第8図(a)に示
すマツプ上をスキャンして最初に見つかった値1に対応
する、同図(b)に示す画像データ上の位置から再びも
との位置に戻るまで追跡を行っていく。
FIG. 8(a) shows the state on the map when all the tracking processing for contour information having feature points in the algorithms ① to ① described above has been completed. In addition, the tracking process for contour information that does not have feature points in the above-mentioned algorithms Tracking is performed from the position on the image data shown in Figure (b) until it returns to the original position.

第9図は、上記した本発明によるアルゴリズムを実行す
るための処理フローである。
FIG. 9 is a processing flow for executing the above-described algorithm according to the present invention.

まず、ステップSlにおいて、対象とする画像データを
2×2のマスクを用いてスキャンして輪郭点と特徴点を
求め、ステップS2において輪郭点ならば1、特徴点な
らば2をマツプ上に書き込む。
First, in step Sl, target image data is scanned using a 2×2 mask to obtain contour points and feature points, and in step S2, 1 is written for contour points and 2 is written for feature points on the map. .

そして、ステップS3において対象とする画像データ上
をすべてスキャンしたかどうかを判断し、未終了であれ
ば上記したステップS、〜ステップS2の動作を繰返し
行ない、終了済みであればステップS4に移行する。
Then, in step S3, it is determined whether all of the target image data has been scanned, and if the scan has not been completed, the operations from step S to step S2 described above are repeated, and if the scan has been completed, the process moves to step S4. .

ステップS4においてマツプの先頭から該マツプ上をス
キャンしていき、このスキャン中にステップS、におい
て特徴点Kが見つかったかどうかを判断し、特徴点Kが
見つかった場合は、ステップS6において該特徴点Kに
対応する画像データの位置から輪郭追跡を開始する。そ
して、ステップS、において追跡し終わったマツプ上の
輪郭点を消去し、ステップSsにおいて上記した特徴点
にの位置から再びマツプ上をスキャンし、この動作を新
たな特徴点が見つからなくなるまで繰返し実行する。
In step S4, the map is scanned from the top of the map, and during this scanning, it is determined in step S whether or not the feature point K is found. If the feature point K is found, the feature point is determined in step S6. Contour tracking is started from the position of the image data corresponding to K. Then, in step S, the contour point on the map that has been tracked is erased, and in step Ss, the map is scanned again from the position of the above-mentioned feature point, and this operation is repeated until no new feature point is found. do.

また、上記したステップS、において、特徴点Kが見つ
からなかったと判断された場合は、ステップS、に移行
してここでマツプの先頭から該マツプ上をスキャンし、
ステップS、。において輪郭点があるかどうかが判断さ
れ、ここで輪郭点がないと判断された場合は処理を終了
する。
In addition, if it is determined that the feature point K is not found in the above step S, the process moves to step S, where the map is scanned from the beginning of the map,
Step S. It is determined whether or not there is a contour point, and if it is determined that there is no contour point, the process is terminated.

上記のステップS1゜において、輪郭点があると判断さ
れた場合は、ステップS、において見つかった輪郭点R
に対応する画像データの位置から輪郭追跡を開始する。
If it is determined in step S1° that there is a contour point, the contour point R found in step S
Start contour tracking from the position of the image data corresponding to .

そして、ステップS1□において追跡し終わったマツプ
上の輪郭点を消去し、ステップSI3において上記した
輪郭点Rの位置から再びマツプ上をスキャンし、この動
作を新たな輪郭点が見つからなくなるまで繰返し実行し
、輪郭点がなくなった時点で処理を終了する。
Then, in step S1□, the contour point on the map that has been tracked is erased, and in step SI3, the map is scanned again from the position of the contour point R described above, and this operation is repeated until no new contour point is found. The process ends when there are no more contour points.

〔効 果〕〔effect〕

以上説明した本発明によれば、対象とする多値画像に対
する一回のスキャンによりすべての特徴点と輪郭点の位
置情報を調べ、該位置情報に基づいて輪郭線追跡処理を
行なうようにしたので、特に多値画像に対する輪郭線追
跡処理を短時間に効率よく高速で行なうことができる。
According to the present invention described above, the positional information of all feature points and contour points is checked by one scan of the target multivalued image, and contour line tracing processing is performed based on the positional information. In particular, contour tracing processing for multivalued images can be performed efficiently and at high speed in a short time.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明における画像データの2×2のマスクを
用いてのスキャン手法を示す図、第2図は本発明におけ
るマスク内のスキャン態様を示す図、 第3図は本発明におけるマツプと画像データの対応関係
を示す図、 第4図は本発明における特徴点からの追跡方向を説明す
るための図、 第5′図は本発明における輪郭追跡中の方向転換ルール
を示す図、 第6図は本発明により作成されるマツプの態様を示す図
、 第7図は本発明におけるマツプと画像データ上のスキャ
ン手法を説明するための図、 第8図は本発明における特徴点をもつ輪郭情報に対する
追跡処理ならびに特徴点をもたない輪郭情報に対する追
跡処理を説明するための図、 第9図は本発明における輪郭線追跡処理方式の手順を示
すフローチャート、 第10図は従来における輪郭線追跡処理の一例を説明す
るための図、 第11図は従来における隣接境界点の求め方を説明する
ための図である。 特許出願人     株式会社 リ コ −(dl  
     (e)     (f)     ((1)
第1図 (a)     (b)     (c)マ ゛リフ。 (°’         (b) (a)        (b)        (C)
第4図 7・リフ0 (a)          (b) 第6図 J九 傳 チ°−77・ツ 7a (a)                  (bl第
7図 (a)                (b)(a)
        (bl          (C)■
1げ・ ■1隨克 ・起0.!、・叔やと=4や方月 第11図 第9図 =  ”&uKEI   O:!トイff’ltW?#
  ・ ’  内i1i’!¥’?’#第10図
FIG. 1 is a diagram showing a scanning method using a 2×2 mask of image data in the present invention, FIG. 2 is a diagram showing a scanning mode within the mask in the present invention, and FIG. 3 is a diagram showing a map in the present invention. FIG. 4 is a diagram showing the correspondence relationship of image data; FIG. 4 is a diagram for explaining the tracking direction from the feature point in the present invention; FIG. 5' is a diagram showing the direction change rule during contour tracking in the present invention; The figure shows an aspect of the map created according to the present invention. Figure 7 is a diagram for explaining the scanning method on the map and image data according to the present invention. Figure 8 is contour information with feature points according to the present invention. Figure 9 is a flowchart showing the procedure of the contour tracing method according to the present invention; Figure 10 is the conventional contour tracing process. FIG. 11 is a diagram for explaining a conventional method of finding adjacent boundary points. Patent applicant Ricoh Co., Ltd. (dl
(e) (f) ((1)
Figure 1 (a), (b), and (c). (°' (b) (a) (b) (C)
Fig. 4 7・Riff 0 (a) (b) Fig. 6
(bl (C)■
1 ge・■1隨勝・Ki0. ! ,・Shuyato = 4 Yahogetsu Figure 11 Figure 9 = ``&uKEI O:!Toyff'ltW?#
・'Inner i1i'! ¥'? '#Figure 10

Claims (1)

【特許請求の範囲】  多値画像に対する輪郭線追跡処理を高速で行なう方式
であって、 対象とする多値画像に対する一回のスキャンによりすべ
ての特徴点と輪郭点の位置情報を求め、該位置情報に基
づいて順に上記特徴点の位置から輪郭線追跡を行ない、
すべての上記特徴点の位置からの輪郭線追跡が終了した
後に、上記特徴点をもたない輪郭線に対する輪郭線追跡
を行なうようにしたことを特徴とする多値画像の輪郭線
追跡処理方式。
[Claims] A method for performing contour line tracing processing on a multivalued image at high speed, which calculates the position information of all feature points and contour points by one scan of the target multivalued image, and calculates the position of the target multivalued image. Contour tracing is performed sequentially from the positions of the above feature points based on the information,
A contour tracing processing method for a multivalued image, characterized in that after contour tracing from the positions of all of the characteristic points is completed, contour tracing is performed for contours having no characteristic points.
JP63102690A 1988-04-27 1988-04-27 Contour line persuit processing system for multilevel image Pending JPH01276278A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63102690A JPH01276278A (en) 1988-04-27 1988-04-27 Contour line persuit processing system for multilevel image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63102690A JPH01276278A (en) 1988-04-27 1988-04-27 Contour line persuit processing system for multilevel image

Publications (1)

Publication Number Publication Date
JPH01276278A true JPH01276278A (en) 1989-11-06

Family

ID=14334246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63102690A Pending JPH01276278A (en) 1988-04-27 1988-04-27 Contour line persuit processing system for multilevel image

Country Status (1)

Country Link
JP (1) JPH01276278A (en)

Similar Documents

Publication Publication Date Title
US6185341B1 (en) Image processing using vector data to reduce noise
JP3356612B2 (en) High-speed contour smoothing method and apparatus
US7925084B1 (en) Merge and removal in a planar map of an image
JP2608571B2 (en) Apparatus and method for vectorizing input scanned image data
US7929755B1 (en) Planar map to process a raster image
JPH02277185A (en) Extracting method for rectangle coordinates
JP3560749B2 (en) Image output device and signal processing method for image output
US5228097A (en) Method for registering image data
JPH01276278A (en) Contour line persuit processing system for multilevel image
Cuisenaire Region growing Euclidean distance transforms
JP2871601B2 (en) Character string detecting apparatus and method
JPH11134509A (en) Method for drawing recognizing process and method for construction drawing recognizing process
JP2002133424A (en) Detecting method of inclination angle and boundary of document
JPH1049688A (en) Method for partial erasing method and partial detection method for picture data
JP2001101399A (en) Method for detecting image inclination, method for detecting margin, method for correcting image inclination and document image processor
JPH04255080A (en) Image input device
JPH0535872A (en) Contour tracing system for binary image
JP3814547B2 (en) Image processing apparatus and method
EP0381794B1 (en) Method for registering image data
JPH0425980A (en) Noise removing method
JP2792102B2 (en) Character font drawing method
JPS59181871A (en) System for correcting magnified character
JP2838556B2 (en) Image processing device
Zhang et al. Design of parallel thinning algorithms
JP2907482B2 (en) Image processing method