JPS62208181A - Graphic extracting system - Google Patents
Graphic extracting systemInfo
- Publication number
- JPS62208181A JPS62208181A JP61050509A JP5050986A JPS62208181A JP S62208181 A JPS62208181 A JP S62208181A JP 61050509 A JP61050509 A JP 61050509A JP 5050986 A JP5050986 A JP 5050986A JP S62208181 A JPS62208181 A JP S62208181A
- Authority
- JP
- Japan
- Prior art keywords
- boundary
- image
- point
- extracted
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000013598 vector Substances 0.000 claims abstract description 13
- 238000000034 method Methods 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 6
- 238000003708 edge detection Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
Description
【発明の詳細な説明】
(発明の属する技術分野)
本発明は、地図や図面などの線画から閉領域をなす図形
を自動抽出する方式に関するものである。DETAILED DESCRIPTION OF THE INVENTION (Technical field to which the invention pertains) The present invention relates to a method for automatically extracting figures forming closed regions from line drawings such as maps and drawings.
(従来の技術)
従来、地図や図面を画像として計算機に入力し、その画
像から境界追跡によって閉領域をなす図形(例えば、地
図の建物など)を抽出する方式において、境界追跡の開
始点の条件として多くの境界点について成り立つような
条件を採用していたため、12010出や計算時間がか
かるという問題があった。(Prior art) Conventionally, in a method of inputting a map or drawing as an image into a computer and extracting a figure forming a closed area (for example, a building on the map) from the image by boundary tracing, conditions for the starting point of boundary tracing are used. Since a condition that holds true for many boundary points is adopted, there is a problem that 12,010 outputs are obtained and calculation time is required.
また1文字や記号などの他の図形や雑音によって切断さ
れ、不完全閉領域をなす図形になってしまったものを抽
出することはできなかった。Furthermore, it was not possible to extract figures that were cut off by other figures such as letters or symbols, or by noise, resulting in figures forming incompletely closed regions.
(発明の目的)
本発明は、これらの欠点を解決するため、境界追跡によ
り閉領域をなす図形の抽出を行う領域を限定することと
、不完全閉領域をなす図形を抽出することを目的とする
。(Object of the Invention) In order to solve these drawbacks, the present invention aims to limit the area from which figures forming a closed area are extracted by boundary tracking, and to extract figures forming an incompletely closed area. do.
このような目的を達成するために1本発明は、まず抽出
する図形の特徴的な角を抽出し、その角を追跡開始点と
して境界追跡により閉領域をなす図形を抽出するように
したものである。In order to achieve such an object, the present invention first extracts a characteristic corner of a figure to be extracted, and then extracts a figure forming a closed region by boundary tracking using the corner as a starting point for tracking. be.
また、抽出された図形の形状特徴が所望の図形の特徴に
一致しないならば、前記角から先ず線の端を検出すまで
境界追跡を行って部分境界を抽出し、次にその角から最
初の追跡とは反対回りに線の端を検出するまで境界追跡
を行って部分境界を抽出し、次に線の端が一つだけしか
検出されていない場合には、線の端が検出されていない
部分境界を再び追跡して、検出済みの線の端から一定距
離以内にある境界点を検出して線の端とし、両回りにつ
いて線の端が抽出されたとき、一方の線の端から前記角
を通ってもう一方の線の端に至る不完全閉領域の境界を
抽出するようにしたものである。In addition, if the shape features of the extracted figure do not match the features of the desired figure, boundary tracing is first performed from the corner until the end of the line is detected to extract a partial boundary, and then a partial boundary is extracted from the corner. Extract partial boundaries by performing boundary tracing in the opposite direction of tracing until the end of the line is detected, and then if only one end of the line is detected, the end of the line is not detected. The partial boundary is traced again, a boundary point within a certain distance from the edge of the detected line is detected and set as the edge of the line, and when the edges of the line are extracted for both circumferences, the This method extracts the boundary of an incompletely closed region that passes through a corner and reaches the end of the other line.
(発明の構成および作用の説明)
第1図は本発明の方式原理を説明する図であり、1は線
図形、2は背景である。(Description of structure and operation of the invention) FIG. 1 is a diagram for explaining the system principle of the present invention, where 1 is a line diagram and 2 is a background.
本発明における、1つの閉領域を構成する図形の抽出は
、第1図において以下の9つの手順を実行することによ
り実現される。In the present invention, extraction of figures constituting one closed region is realized by executing the following nine steps in FIG.
【手順11
線図形と背景の境界上にある、線図形上の境界点(ih
e jh)を抽出する。[Step 11 Boundary point on the line figure (ih
Extract e jh).
【手順21
境界点(ik、jk)から時計回りに5個の境界点を追
跡する。時計回りに最後に追跡された境界点をb++j
+)とする。[Step 21: Track five boundary points clockwise from the boundary point (ik, jk). The last tracked boundary point clockwise is b++j
+).
次に、反時計回りに(ihe j++)からs−1個の
境界点を追跡する。反時計回りに最後に追跡された境界
点を(inn Jn)とする。Next, trace s-1 boundary points from (ihe j++) counterclockwise. Let the boundary point last tracked counterclockwise be (inn Jn).
これらの境界追跡の方法は、既によく知られている(長
尾監訳、ディジタル画像処理、近代科学社、pp、 3
53−359)。These boundary tracking methods are already well known (translated by Nagao, Digital Image Processing, Kindai Kagakusha, pp. 3).
53-359).
時計回り境界追跡部と反時計回り境界追跡部の違いは、
第2図と第3図に示す追跡点の検出方法による。The difference between the clockwise boundary tracing section and the counterclockwise boundary tracing section is
The tracking point detection method shown in FIGS. 2 and 3 is used.
第2図は時計回り境界追跡を説明する図である。FIG. 2 is a diagram illustrating clockwise boundary tracking.
第2図に示すように1時計回り追跡では、注目境界点の
8近傍を一つ前に追跡された境界点の位置から時計回り
に走査して背景部分から図形部分に変化する画素を、次
の注目境界点とする。As shown in Figure 2, in one clockwise tracking, the 8 neighborhoods of the boundary point of interest are scanned clockwise from the position of the previously tracked boundary point, and the pixels that change from the background part to the figure part are scanned next. Let this be the boundary point of interest.
第3図は反時計回り境界追跡を説明する図である。FIG. 3 is a diagram illustrating counterclockwise boundary tracking.
一方、第3図に示すように、反時計回り追跡では、注目
境界点の8近傍を一つ前に追跡された境界点の位置から
反時計回りに走査して背景部分から図形部分に変化する
画素を1次の注目境界点とする。On the other hand, as shown in Fig. 3, in counterclockwise tracking, the 8 neighborhoods of the boundary point of interest are scanned counterclockwise from the position of the previously tracked boundary point, changing from the background part to the figure part. Let a pixel be a first-order boundary point of interest.
【手順31
手順2により得られた境界点の集合である部分境界B
= (11+ N +・・’r L−ty j++−+
L (tbr jh)、・・・p (”nt jn)
)が特徴的な角度をなすか調べる。[Step 31 Partial boundary B, which is a set of boundary points obtained in step 2
= (11+ N +...'r L-ty j++-+
L (tbr jh),...p (”nt jn)
) forms a characteristic angle.
すなわち、まず、2つの境界点(IIIJI)とDk−
11jk−t)の間にある境界が直線に近似できるか調
べる。That is, first, two boundary points (IIIJI) and Dk-
11jk-t) can be approximated to a straight line.
これは、2つの境界点(i++jt)と(!+a−+
+jh−+)の間にある境界点(lr+ Jjから2つ
の境界点b++j□)と(jb−+ t jk−+)を
通る直線への垂線の足の長さが与えられた閾値より小さ
いことを検査することによりわかる。This means that there are two boundary points (i++jt) and (!+a−+
The leg length of the perpendicular to the straight line passing through the boundary point (lr+ Jj to the two boundary points b++j□) between +jh-+) and (jb-+ t jk-+) is smaller than the given threshold. This can be determined by inspecting.
次に、2つの境界点(lh * jk)と(lny j
n)の間の境界が直線に近似できるか調べる。そして両
方とも直線に近似できるならば、境界点(L+ j+)
から境界点(lk−1+ jh−+)を結ぶベクトル1
と、境界点(ihe jk)から境界点(inn ja
)を結ぶバク1−ル2のなす角度を計算する。さもなけ
れば、処理を終了する。Then, the two boundary points (lh * jk) and (lny j
Check whether the boundary between n) can be approximated to a straight line. And if both can be approximated to a straight line, the boundary point (L+ j+)
Vector 1 connecting the boundary point (lk-1+ jh-+) from
and from the boundary point (ihe jk) to the boundary point (inn ja
) Calculate the angle formed by Buck 1 and Buck 2. Otherwise, the process ends.
角度は、式
でυを計算し、バク1−ル1の方向の左側に(1+++
、’l++)があるとき0に180°を加えるものを
0とする。For the angle, calculate υ using the formula, and add (1+++
, 'l++), then 0 is the sum of 180° added to 0.
但し、旧”In lh+ V1=、:+n 、:1
++ 12=1.−、 lI+V2=、:1+−+
l ++である。However, the old "In lh+ V1=, :+n, :1
++12=1. -, lI+V2=, :1+-+
l ++.
角度0が予め与えられた範囲になければ、処理を終了す
る。If the angle 0 is not within a predetermined range, the process ends.
【手順41
部分境界13を含む閉度界B1を抽出する。閉度界B1
は、第1図(d)−1のような場合と、第1図(d)−
2のような場合がある。[Step 41: Extract the closed field B1 including the partial boundary 13. Closedness field B1
In the case shown in Fig. 1(d)-1, and in the case shown in Fig. 1(d)-1,
There are cases like 2.
【手順51
境界点列から計算できる閉度界B1の特徴、例えば2面
積、境界艮、円形度などから、閉度界B1を構成する図
形が抽出すべき閉領域をなす図形かどうかを判定する。[Step 51: Based on the characteristics of the closedness field B1 that can be calculated from the boundary point sequence, such as 2-area, boundary angle, circularity, etc., determine whether the figures forming the closedness field B1 are figures forming a closed region to be extracted. .
その特徴が与えられた条件を満足するとき、その図形を
抽出すべき図形であるとして、処理を終了する。When the feature satisfies the given condition, the figure is determined to be a figure to be extracted, and the process is terminated.
[手順6]
第1図(d)−2のような不完全閉領域をなす部分境界
を抽出する。[Step 6] Extract partial boundaries forming an incompletely closed region as shown in FIG. 1(d)-2.
まず、境界点(1に+ jJからB1の点列を反時計回
りに追跡して、線の端を検出するか追跡した境界点の個
数が閾値をこえるとき追跡を終了する。First, the point sequence from boundary point (1 + jJ to B1) is traced counterclockwise, and tracing is terminated when the end of the line is detected or the number of traced boundary points exceeds a threshold value.
得られた部分境界を第1図(e)に示すように82とす
る。The obtained partial boundary is designated as 82 as shown in FIG. 1(e).
線の端の判定はいかなる方式でもかまわない。Any method may be used to determine the end of the line.
例えば、追跡された境界点列内において判定すべき境界
点(lr+ Jr)から前後を個目にある2つの境界点
(lr−tt、jr−+L (lr*+t Jr、+)
を求め、境界点(lr−++ jt−j)から境界点(
lr+ jr)へのベクトルの方向に対して境界点(l
r*++ jr−+)が左側(時計回りの追跡で得られ
た境界点列ならば右側)にあり、かつ2つの境界点(l
r−++ jr−+)と(lr*It jr−+)の距
離が閾値以下であるとき、前記判定すべき境界点(ir
+ Jr)を線の端点とすることにより行う。For example, two boundary points (lr-tt, jr-+L (lr*+t Jr, +) that are located before and after the boundary point (lr+ Jr) to be determined in the tracked boundary point sequence.
, and from the boundary point (lr-++ jt-j) to the boundary point (
The boundary point (l
r
When the distance between r−++ jr−+) and (lr*It jr−+) is less than or equal to the threshold, the boundary point to be determined (ir
+ Jr) as the end point of the line.
次に、境界点(lke ++a)からB1の点列を時計
回りに追跡して、線の端を検出するか追跡した境界点の
個数が閾値をこえるとき追跡を終了する。得られた部分
境界を第1図(e)に示すように83とする。Next, the point sequence of B1 is traced clockwise from the boundary point (lke ++a), and the tracing is terminated when the end of the line is detected or the number of traced boundary points exceeds a threshold value. The obtained partial boundary is designated as 83 as shown in FIG. 1(e).
[手順7]
手順6において、第1図(f)のように線の端が1つだ
け検出されたならば、線の端が検出されていない部分境
界の点列を追跡して、検出済みの端からの距離が閾値以
内である境界点を線の端とする。[Step 7] In step 6, if only one edge of the line is detected as shown in Figure 1(f), trace the sequence of points on the partial boundary where no edge of the line has been detected, and The boundary point whose distance from the edge of is within the threshold value is defined as the edge of the line.
【手順81
手順6,7により線の端が2つ検出されたならば、それ
らの間を直線で補間して第1図(g)−1と第1図(g
)−2に示すような閉度界B4を作る。[Step 81 If two ends of the line are detected in steps 6 and 7, interpolate between them with a straight line to
)-2, create a closedness field B4.
その他の場合、処理を終了する。In other cases, the process ends.
[手順9]
境界点列から計算できる閉度界B4の特徴がらB4が抽
出すべき閉領域をなす図形がどうかを判定する。[Step 9] Based on the characteristics of the closedness field B4 that can be calculated from the boundary point sequence, it is determined whether B4 is a figure forming a closed region to be extracted.
第4図は、本発明による一実施例の構成を示す図であり
、3は画像入力部、4は画像メモリ部、5は画像走査部
、6は時計回り部分境界追跡部、7は反時計回り部分境
界追跡部、8は角度計算部。FIG. 4 is a diagram showing the configuration of an embodiment according to the present invention, in which 3 is an image input section, 4 is an image memory section, 5 is an image scanning section, 6 is a clockwise partial boundary tracking section, and 7 is a counterclockwise section. 8 is an angle calculation unit.
9は反時計回り閉度界追跡部、10は特徴計算部、11
は端部検出部、12は狭部検出部、13は直線補間部、
14は点列メモリ部、15は画像出力部、16は制御部
である。9 is a counterclockwise closed field tracking unit, 10 is a feature calculation unit, 11
12 is a narrow part detection part, 13 is a linear interpolation part,
14 is a point sequence memory section, 15 is an image output section, and 16 is a control section.
画像入力部(3)は、画像をファクシミリ、ドラムスキ
ャナ、TVカメラなどで標本化、量子化して、ディジタ
ル画像に変換して入力する部分である。The image input section (3) is a section that samples and quantizes images using a facsimile, drum scanner, TV camera, etc., converts them into digital images, and inputs the images.
画像メモリ部(4)は、画像入力部(3)から与えられ
たディジタル画像を蓄積する部分であり、ランダムアク
セスメモリなどから構成される。The image memory section (4) is a section that stores digital images provided from the image input section (3), and is composed of a random access memory and the like.
画像走査部(5)は1画像メモリ部(4)に蓄積されて
いるディジタル画像をラスク走査して、手順1を実行し
て、その結果を制御部(16)に出力する。The image scanning section (5) scans the digital image stored in the one-image memory section (4), executes procedure 1, and outputs the result to the control section (16).
時計回り部分境界追跡部(6)と反時計回り部分境界追
跡部(7)は、画像メモリ部(4)にある画像の図形部
分と背景部分の境界を与えられた追跡開始点から追跡し
て点列に変換し、点列メモリ部(14)に格納する。The clockwise partial boundary tracing unit (6) and the counterclockwise partial boundary tracing unit (7) trace the boundary between the figure part and the background part of the image stored in the image memory unit (4) from a given tracing start point. It is converted into a point sequence and stored in the point sequence memory section (14).
追跡の終了は、追跡した境界点の個数が閾値共」二にな
ったときである。Tracking ends when the number of tracked boundary points reaches both thresholds.
角度計算部(8)は、反時計回りの追跡によって得られ
る4つの境界点から手順3で説明したように角度を計算
する。The angle calculation unit (8) calculates the angle as described in step 3 from the four boundary points obtained by counterclockwise tracking.
反時計回り閉境界追跡部(9)は1画像メモリ部(4)
にある画像の図形部分と背景部分の境界を与えられた追
跡開始点から追跡して点列に変換し、点列メモリ部(1
4)に格納する。Counterclockwise closed boundary tracking unit (9) is one image memory unit (4)
The boundary between the figure part and the background part of the image in
4).
追跡の終了は、閉境界が抽出されたときである。The tracking ends when a closed boundary is extracted.
特徴計算部(lO)は、閉境界の点列から面積、境界長
1円形度などの特徴を計算する。The feature calculation unit (lO) calculates features such as area, boundary length, circularity, etc. from the point sequence of the closed boundary.
端部検出部(11)は、点列メモリ部(14)から点列
を読出し、その点列を追跡して手順6に示した線の端を
検出する。The end detecting section (11) reads out the point sequence from the point sequence memory section (14), traces the point sequence, and detects the end of the line shown in step 6.
端部検出部(11)の出力は、B2において線の端が検
出されたか否か、B3において線の端が検出されたか否
か、B2の点列、B3の点列である。The outputs of the end detecting section (11) are whether or not the end of the line was detected in B2, whether the end of the line was detected in B3, the dot sequence of B2, and the dot sequence of B3.
狭部検出部(12)は、点列メモリ部(14)から点列
を読出し、その点列を追跡して端部検出部(11)にお
いて抽出済みの線の端との距離が閾値以下である境界点
を検出したとき追跡を終了する。The narrow portion detection section (12) reads out a point sequence from the point sequence memory section (14), tracks the point sequence, and detects that the distance from the edge of the already extracted line in the end detection section (11) is less than or equal to a threshold value. Tracking ends when a certain boundary point is detected.
直線補間部(13)は、点列メモリ部(14)からルー
プになっていない点列を読出し、その両端を直線で補間
してループにした点列を求め1点列メモリ部(14)に
格納する。The linear interpolation unit (13) reads out a point sequence that is not a loop from the point sequence memory unit (14), interpolates both ends of it with a straight line to obtain a looped point sequence, and stores it in the single point sequence memory unit (14). Store.
点列メモリ部(14)は、X座標とX座標の対で規定さ
れる境界点のアドレスの系列を蓄積する部分である。The point sequence memory section (14) is a section that stores a sequence of addresses of boundary points defined by pairs of X and X coordinates.
画像出力部(15)は、点列メモリ部(14)にある点
列を表示する部分であり、プリンタ、ディスプレイなど
である。The image output unit (15) is a part that displays the dot sequence stored in the dot sequence memory unit (14), and is a printer, a display, or the like.
制御部(16)は、画像メモリ部(4)に7i積されて
いる線図形データ全体から、ある特徴を有する閉領域を
なす図形の抽出が手順1から9に従い行われるように全
体を制御する部分である。制御部(16)は、以下のよ
うに各部分を制御して動作させる。The control unit (16) controls the entire system so that a figure forming a closed area having a certain characteristic is extracted from the entire line figure data stored in the image memory unit (4) according to steps 1 to 9. It is a part. The control unit (16) controls and operates each part as follows.
まず、線図形を画像入力部(3)により入力し、画像メ
モリ部(4)に格納する6次に、画像走査部(5)に、
画像メモリ(4)に蓄積されているディジタル画像をラ
スク走査させて手順1を実行させ、境界点(ik、jk
)が得られたときラスク走査を中断さ仕る。First, a line figure is input to the image input section (3) and stored in the image memory section (4).Next, the line figure is input to the image scanning section (5).
The digital image stored in the image memory (4) is scanned by rask and step 1 is executed, and the boundary point (ik, jk
) is obtained, the rask scan is interrupted.
次に、得られた境界点bht Jb)を時計回り部分H
1界追跡部(6)と反時計回り部分境界追跡部(7)に
与え手順2を実行させ、得られた点列を点列メモリ部(
14)に書き込む。Next, the obtained boundary point bht Jb) is converted into the clockwise portion H
It is given to the 1-field tracking unit (6) and the counterclockwise partial boundary tracking unit (7) to execute step 2, and the obtained point sequence is stored in the point sequence memory unit (
14).
次に、手順2により得られた点列を点列メモリ部(14
)から読出して角度計算部(8)に与え手順3の角度を
計算させる。その角度が予め与えられた範囲になければ
、境界点(ik、jk)に対する処理を終了して、新た
な境界点を得るため画像走査部(5)にディジタル画像
のラスク走査の再開を指示する。Next, the point sequence obtained in step 2 is stored in the point sequence memory section (14
) is read out and given to the angle calculation unit (8) to calculate the angle in step 3. If the angle is not within a predetermined range, the processing for the boundary point (ik, jk) is terminated, and the image scanning unit (5) is instructed to restart rask scanning of the digital image in order to obtain a new boundary point. .
その角度が予め与えられた範囲にあるならば、次の処理
に進む。If the angle is within a predetermined range, proceed to the next process.
手順2により得られた点列を点列メモリ部(]4)から
読出し、反時計回り閉境界追跡部(9)に与え手順4に
より閉境界抽出を行わせ、得られる閉境界点列B1を点
列メモリ部(14)に書き込む。The point sequence obtained in step 2 is read from the point sequence memory unit (]4) and given to the counterclockwise closed boundary tracking unit (9) to perform closed boundary extraction in step 4, and the resulting closed boundary point sequence B1 is Write to the point sequence memory section (14).
次に、その閉境界点列B1を点列メモリ部(14)から
読出し、特徴計算部(10)に与え1手順5として面積
、境界長、円形度などを計算させてその閉境界点列B1
の特徴を計算させる。Next, the closed boundary point sequence B1 is read out from the point sequence memory unit (14) and given to the feature calculation unit (10) to calculate the area, boundary length, circularity, etc. in step 1, and the closed boundary point sequence B1 is
calculate the characteristics of
次に、得られた特徴から、抽出すべき閉領域をなす図形
と判定できるならば、前記閉境界点列B1を抽出すべき
図形として点列メモリ部(14)に登録し、境界点(l
ht Jk)に対する処理を終了して、新たな境界点を
得るため画像走査部(5)にディジタル画像のラスク走
査の再開を指示する。Next, if it can be determined from the obtained features that the figure forms a closed region to be extracted, the closed boundary point sequence B1 is registered in the point sequence memory unit (14) as the figure to be extracted, and the boundary point (l
ht Jk) and instructs the image scanning unit (5) to resume rask scanning of the digital image in order to obtain a new boundary point.
その他の場合1次の処理に進む。In other cases, proceed to the first processing.
点列メモリ部(14)より閉境界B1を読出し、それと
座標(ik、jk)を端部検出部(11)に与え、手順
6により部分境界B2と83を抽出させて点列メモリ部
(14)に書き込む。Read the closed boundary B1 from the point sequence memory section (14), give it and the coordinates (ik, jk) to the edge detection section (11), extract the partial boundaries B2 and 83 according to step 6, and store it in the point sequence memory section (14). ).
次に、端部検出部(11)から出力される、B2におい
て線の端が検出されたか否か、B3において線の端が検
出されたか否かという情報により、線の端がB2又はB
3のどちらか一方だけにおいて検出されているならば、
狭部検出部(12)に点列B2、点列B3、B2におい
て線の端が検出されたか否か、+33において線の端が
検出されたか否かを与えて手順7を行わせ、変更された
点列メモリ部(14)に書き込む。Next, the end of the line is determined to be B2 or
If detected in only one of 3,
The narrow portion detection unit (12) is given information on whether or not the end of the line is detected in the point sequence B2, point sequence B3, and B2, and whether or not the end of the line is detected at +33, and is made to perform step 7. The data is written to the point sequence memory section (14).
次に、B2と83のいずれか一方において線の端が検出
されていないならば、境界点(life jk)に対す
る処理を終了して、新たなXt界点を得るため画像走査
部(5)にディジタル画像のラスク走査の再開を指示す
る。B2と83の両方において線の端が検出されたなら
ば、直線補間部(13)に点列B2と83を与え手順8
を実行させ、得られるループをなす点列B4を点列メモ
リ部(14)に書き込む。Next, if the end of the line is not detected in either B2 or 83, the process for the boundary point (life jk) is finished and the image scanning unit (5) is sent to obtain a new Xt boundary point. Instructs to resume rask scanning of digital images. If the end of the line is detected at both B2 and 83, give the line interpolator (13) the point sequence B2 and 83 and perform step 8.
is executed, and the resulting point sequence B4 forming a loop is written into the point sequence memory section (14).
次に、B4を点列メモリ部(14)から読、!1% l
、特徴計算部(10)に与え、面積、境界長1円形度な
どを計算させて点列B4の特徴を得る。Next, read B4 from the point sequence memory section (14), ! 1% l
, to the feature calculation unit (10) to calculate the area, boundary length, circularity, etc. to obtain the features of the point sequence B4.
次に、得られた特徴から点列B4が抽出すべき閉領域を
なす図形と判定できるならば、その点列を抽出すべき図
形として点列メモリ部(14)に登録し、境界点(”k
、Jk)に対する処理を終了して、新たなlrt界点を
得るため画像走査部(5)にディジタル画像のラスク走
査の再開を指示する。Next, if the point sequence B4 can be determined to be a figure forming a closed region to be extracted from the obtained features, that point sequence is registered in the point sequence memory unit (14) as a figure to be extracted, and the boundary point (" k
, Jk), and instructs the image scanning unit (5) to resume rask scanning of the digital image in order to obtain a new lrt boundary point.
ディジタル画像のラスク走査が一回終了したとき、抽出
すべき閉領域をなす図形として点列メモリ部(14)に
9.@されている点列上にある画素の値を111 II
、その他の画素の値を11011として画像出力部(1
5)に与え、画像として紙等に出力するように指示する
。When one rask scan of the digital image is completed, 9. The value of the pixel on the @ point sequence is 111 II
, the image output unit (1
5) and instruct it to be output as an image on paper, etc.
なお、線図形データをベクトル化したデータに対して、
上記の手順は、以下のように簡単化できる。In addition, for data obtained by vectorizing line figure data,
The above procedure can be simplified as follows.
手順1は、バク1−ルの節点(ik、jk)を抽出する
ことになる。Step 1 is to extract the nodes (ik, jk) of the back 1-le.
手順2は* (lk、Jk)に接続している1つのベク
トル(ベクトル1とする)と(lb+ jh)を中心と
してベクトル1から反時計回りにみたとき隣接するベク
トル(ベクトル1とする)を抽出することになる。Step 2 is to calculate one vector connected to *(lk, Jk) (referred to as vector 1) and the adjacent vector (referred to as vector 1) when viewed counterclockwise from vector 1 with (lb+jh) as the center. It will be extracted.
このベクトル対は、一般に複数あるのでそれらのすべて
に対して1手順3以降を実行する。Since there are generally multiple pairs of vectors, Step 3 and subsequent steps are executed for all of them.
手順3は、ベクトル1の(il、、 jh)でない節点
をb++j+)とし、ベクトル2の(Lk+ jk)で
ない節点を(ln+ Jn)とし、(Lk−++ jh
−+)は(jk、jk)と同じ点として適用すればよい
。In step 3, the nodes in vector 1 that are not (il,, jh) are set as b++j+), the nodes that are not as (Lk+ jk) in vector 2 are set as (ln+ Jn), and (Lk-++ jh
-+) may be applied as the same point as (jk, jk).
手順4から9はそのままでよい。但し、画像上での境界
点の追跡がベクトル上での境界節点追跡になる。また、
線の端の検出は、接続するベクトルが1つだけの節点の
抽出になる。Steps 4 to 9 can be left as they are. However, tracking of boundary points on an image becomes boundary node tracking on a vector. Also,
Detecting the end of a line involves extracting a node with only one connected vector.
(発明の効果)
以上述べたように1本発明によれば、まず抽出する閉領
域をなす図形の特徴的な角を検出し、そこから限定され
た範囲のみ処理されるので、線図形データ又はそれをベ
クトル化したデータの全閉領域の抽出を行うことなく、
ある特徴を有する閉領域をなす図形を抽出できる。また
、雑音等により不完全閉領域をなす図形になってしまっ
たものを抽出できる。(Effects of the Invention) As described above, according to the present invention, characteristic corners of a figure forming a closed region to be extracted are first detected, and only a limited range is processed from there. Without extracting the completely closed region of the vectorized data,
It is possible to extract figures that form closed regions that have certain characteristics. In addition, it is possible to extract figures that are incompletely closed regions due to noise or the like.
従って、特徴的な角を有する閉領域をなす図形を効率良
く、精度良く抽出できるという利点が得られる。Therefore, there is an advantage that a figure forming a closed region having characteristic corners can be efficiently and accurately extracted.
第1図は本発明の詳細な説明する図、第2図は時計回り
IIt界追線追跡明する図、第3図は反時計回り境界追
跡を説明する図、第4図は本発明による一実施例の構成
を示す図である。
1・・・線図形、 2・・・背景、
3・・・画像入力部、 4・・・画像メモリ部、5・・
・画像走査部、
6・・・時計回り部分境界追跡部、
7・・・反時計回り部分境界追跡部、
8・・・角度計算部、
9・・・反時計回り閉境界追跡部、
lO・・・特徴計算部、 11・・・端部検出部。
12・・・狭部検出部、 13・・・直線補間部。
14・・・点列メモリ部、 15・・・画像出方部、1
6・・・制御部。FIG. 1 is a diagram for explaining the present invention in detail, FIG. 2 is a diagram for explaining clockwise IIt boundary tracing, FIG. 3 is a diagram for explaining counterclockwise boundary tracing, and FIG. 4 is a diagram for explaining counterclockwise boundary tracing. FIG. 2 is a diagram showing the configuration of an example. 1... Line figure, 2... Background, 3... Image input section, 4... Image memory section, 5...
- Image scanning unit, 6... Clockwise partial boundary tracking unit, 7... Counterclockwise partial boundary tracking unit, 8... Angle calculation unit, 9... Counterclockwise closed boundary tracking unit, lO. . . . Feature calculation section; 11. . . Edge detection section. 12... Narrow portion detection section, 13... Linear interpolation section. 14... Point sequence memory section, 15... Image output section, 1
6...Control unit.
Claims (2)
タより、直線部分を有する閉領域を構成する図形を自動
抽出する方式において、 境界線においてその図形の特徴的な角を検出して、その
角を出発点としてそこから境界追跡を行い、閉境界を抽
出することを特徴とする図形抽出方式。(1) In a method that automatically extracts figures constituting a closed region with straight line parts from binary line figure data or vectorized data, the characteristic corners of the figure are detected at the boundary lines, and the A figure extraction method that uses a corner as a starting point, performs boundary tracking from there, and extracts closed boundaries.
タより、直線部分を有する閉領域を構成する図形の一部
分が雑音等により欠けている図形を自動抽出する方式に
おいて、 境界線においてその図形の特徴的な角を検出して、その
角から直線の端部分を検出するか、追跡された部分境界
の長さがある値を超えるまで境界追跡を行って部分境界
を抽出し、 次に前記角から最初の追跡とは反対回りに直線の端部分
を検出するか、追跡された部分境界の長さがある値を超
えるまで境界追跡を行って部分境界を抽出し、 次に端部分が一つだけしか検出されていない場合には、
端部分が検出されていない部分境界を再び追跡して検出
済みの端部分から一定距離以内にある境界点を検出して
、線の端部分としたときか、追跡された部分境界の長が
ある値を超えるときに追跡を終了し、以上の処理で2つ
の端部分が検出されたとき、2つの端部分を結び前記角
を通る部分境界を抽出することを特徴とする図形抽出方
式。(2) In a method that automatically extracts a figure in which a part of the figure constituting a closed region having a straight line part is missing due to noise etc. from binary line figure data or data obtained by converting it into a vector, Either detect a characteristic corner and detect the end of a straight line from the corner, or perform boundary tracking until the length of the tracked partial boundary exceeds a certain value to extract the partial boundary, and then extract the partial boundary from the corner. Detect the end of the straight line in the opposite direction from the first tracing, or perform boundary tracing until the length of the tracked partial boundary exceeds a certain value to extract the partial boundary, and then If only
When tracing a partial boundary whose end part has not been detected again and detecting a boundary point within a certain distance from the detected end part and using it as the end part of the line, or if there is a length of the traced partial boundary. A figure extraction method characterized in that tracking is terminated when a value exceeds a value, and when two end portions are detected in the above processing, a partial boundary that connects the two end portions and passes through the corner is extracted.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61050509A JP2587812B2 (en) | 1986-03-10 | 1986-03-10 | Figure extraction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61050509A JP2587812B2 (en) | 1986-03-10 | 1986-03-10 | Figure extraction method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS62208181A true JPS62208181A (en) | 1987-09-12 |
JP2587812B2 JP2587812B2 (en) | 1997-03-05 |
Family
ID=12860927
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP61050509A Expired - Fee Related JP2587812B2 (en) | 1986-03-10 | 1986-03-10 | Figure extraction method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2587812B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01126774A (en) * | 1987-11-12 | 1989-05-18 | Toshiba Corp | Graphic input device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS619776A (en) * | 1984-06-25 | 1986-01-17 | Matsushita Electric Works Ltd | Picture image processor |
JPS6140684A (en) * | 1984-07-31 | 1986-02-26 | Omron Tateisi Electronics Co | Contour tracking device |
-
1986
- 1986-03-10 JP JP61050509A patent/JP2587812B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS619776A (en) * | 1984-06-25 | 1986-01-17 | Matsushita Electric Works Ltd | Picture image processor |
JPS6140684A (en) * | 1984-07-31 | 1986-02-26 | Omron Tateisi Electronics Co | Contour tracking device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01126774A (en) * | 1987-11-12 | 1989-05-18 | Toshiba Corp | Graphic input device |
Also Published As
Publication number | Publication date |
---|---|
JP2587812B2 (en) | 1997-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2002305647A (en) | Device for combining image | |
JPH04198741A (en) | Shape defect detecting device | |
CN115797870A (en) | AI object detection system, method, electronic device and storage medium based on lightweight motion detection | |
JPS62208181A (en) | Graphic extracting system | |
JPH11134509A (en) | Method for drawing recognizing process and method for construction drawing recognizing process | |
JP2846486B2 (en) | Image input device | |
JP3698867B2 (en) | Circular pattern determination method, apparatus and recording medium | |
JP2002133424A (en) | Detecting method of inclination angle and boundary of document | |
JPH01161487A (en) | Object recognizing method | |
JP2000020693A (en) | Fingerprint image processor, fingerprint image processing method and recording medium therefor | |
JP2882314B2 (en) | Line figure recognition method | |
JPH10340337A (en) | Correction method for inclination, extension and contraction of image data of drawing with drawing frame line graphic | |
JP2954778B2 (en) | Method for connecting line figure branch point of image input device | |
JP2863530B2 (en) | Line image recognition device | |
JPH10312460A (en) | Image processing method and high precision image processor | |
JPS622382A (en) | Feature extracting devie for pattern | |
JPH02264373A (en) | Graphic recognizing device | |
JP2802132B2 (en) | Image forming device | |
JPH0420221B2 (en) | ||
JP2006268371A (en) | Image processor and image processing method | |
JPH03252696A (en) | Bold system for bit map font | |
JPH04579A (en) | Method for extracting feature point of graphic | |
JPH0420228B2 (en) | ||
JPH03150689A (en) | Numeral recognizing method | |
JPH06131499A (en) | Feature extracting method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |