JP2986185B2 - Line width classification method for line figures - Google Patents

Line width classification method for line figures

Info

Publication number
JP2986185B2
JP2986185B2 JP2212631A JP21263190A JP2986185B2 JP 2986185 B2 JP2986185 B2 JP 2986185B2 JP 2212631 A JP2212631 A JP 2212631A JP 21263190 A JP21263190 A JP 21263190A JP 2986185 B2 JP2986185 B2 JP 2986185B2
Authority
JP
Japan
Prior art keywords
image data
line
value
line width
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2212631A
Other languages
Japanese (ja)
Other versions
JPH0498470A (en
Inventor
卓 古川
秀昶 有田
有三 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Steel Corp
Original Assignee
Nippon Steel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Steel Corp filed Critical Nippon Steel Corp
Priority to JP2212631A priority Critical patent/JP2986185B2/en
Publication of JPH0498470A publication Critical patent/JPH0498470A/en
Application granted granted Critical
Publication of JP2986185B2 publication Critical patent/JP2986185B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、計算機に読み込まれた地図、機械図面等の
画像データ中に含まれる線図形の線幅分類方法に関す
る。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a line width classification method for line figures included in image data such as maps and mechanical drawings read into a computer.

〔従来の技術〕[Conventional technology]

地図や機械図面のような画像を計算機で認識・理解す
るためには、様々な種類の図形が含まれている画像か
ら、図形を線幅によって分類する処理が重要である。そ
して、線幅の分類は高い精度が要求され、また、扱うデ
ータ量の膨大さから、処理の高速化が要求されている。
In order for a computer to recognize and understand an image such as a map or a mechanical drawing, it is important to classify a graphic based on a line width from an image including various types of graphics. In addition, high accuracy is required for classification of line width, and high-speed processing is required due to the enormous amount of data to be handled.

従来、線図形の線幅を計測する方法として、図形を上
下、左右、斜めといった方向に見て、各方向に存在する
連続の画素数から得られる長さのうち、最小の長さをそ
の部分の線幅とするといった方法や、線図形を水平ある
いは垂直に走査し、図形の水平あるいは垂直方向の線
幅、さらにその中点を求めて、芯線ドット列と図形の傾
きを得、これらをもとに真の線幅を求めるといった方法
があった。
Conventionally, as a method of measuring the line width of a line figure, when the figure is viewed in directions such as up, down, left, right, and oblique, the minimum length among the lengths obtained from the number of continuous pixels existing in each direction is determined by the portion Or by scanning a line figure horizontally or vertically, obtaining the horizontal or vertical line width of the figure, and its midpoint to obtain the center line dot row and the inclination of the figure. There was a method of finding the true line width.

他にも、芯線ドットに円のテンプレートをあてはめ、
線図形のエッジと円周との交わる2点間の距離から線幅
を得るものや(線幅認識装置、特開昭60−229180号公
報)、芯線ドット列を抽出し、抽出すべき範囲の幅を持
つ線を構成する周辺の画素を、中心にある画素からの距
離または距離に相当する情報を用いて抽出するもの(線
幅計測方式、特開昭60−229180号公報)などがあった。
In addition, apply a circle template to the core line dots,
A line width is obtained from the distance between two points where the edge of the line figure intersects with the circumference (line width recognition device, Japanese Patent Laid-Open No. 229180/1985), and a center line dot row is extracted to determine the range to be extracted. There is a method of extracting peripheral pixels constituting a line having a width using a distance from a central pixel or information corresponding to the distance (line width measurement method, Japanese Patent Application Laid-Open No. Sho 60-229180). .

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

しかしながら、上記した何れの方法も線幅を実際に計
測するものであり、処理は難しく、高速処理には適して
いるとは言えなかった。そのため、地図や図面等の画像
を計算機で認識・理解するために様々な種類の図形を線
幅によって分類する処理も、高速化は困難であった。
However, any of the above methods actually measures the line width, is difficult to process, and cannot be said to be suitable for high-speed processing. For this reason, it has been difficult to speed up the process of classifying various types of figures by line width in order to recognize and understand images such as maps and drawings with a computer.

本発明では、基本的な処理を組み合わせて、様々な図
形を高精度に分類でき、ハードウェア化あるいは並列計
算によって高速処理が可能となる線幅分類方法を提供す
ることを目的とする。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a line width classification method capable of classifying various figures with high accuracy by combining basic processing and enabling high-speed processing by hardware or parallel calculation.

〔課題を解決するための手段〕[Means for solving the problem]

本発明は上記課題を解決するべく、コンピュータに読
み込まれた画像データに対し荷重マトリックスで畳み込
み積分を行う畳み込み積分部と、画像データに対し、決
められた閾値未満の画素値を0とする処理を行う閾値処
理部と、2つの画像データ間において対応する位置の画
素どうしで算術演算を行う画像間演算部とを持ち、これ
らの基本的な画像処理手法を組み合わせて画像中の線図
形を線幅によって分類する。畳み込み積分は、中心部が
正の値で周辺部が負の値からなる線幅収縮用荷重マトリ
ックスと、中心部が正の値で中心から離れるに従って値
が0に近づく線幅膨張用荷重マトリックスとを用意す
る。そして、これらの荷重マトリックスと画像データと
の積和演算によって畳み込み積分を行う。
In order to solve the above-described problems, the present invention provides a convolution integrator that performs convolution integration on a load matrix with respect to image data read by a computer, and performs a process of setting a pixel value less than a predetermined threshold to 0 with respect to the image data. A threshold processing unit for performing the arithmetic operation between the pixels at the corresponding positions between the two image data, and an inter-image operation unit for performing the arithmetic operation. Classified by The convolution integral has a line width contraction load matrix in which the central portion has a positive value and the peripheral portion has a negative value, and a line width expansion load matrix in which the central portion has a positive value and the value approaches 0 as the distance from the center increases. Prepare Then, convolution integration is performed by the product-sum operation of these load matrices and image data.

すなわち、読み込んだ画像データに対し、中心部が正
の値で周辺部が負の値からなる荷重マトリックスで積和
演算により畳み込み積分を行い、決められた閾値未満の
画素値を0とし、前記処理で得た画像データを原画像デ
ータから減算して決められた閾値未満の画素値を0と
し、前記処理で得られた画像データに対し、中心部が正
の値で中心から離れるに従って値が0に近づく荷重マト
リックスで積和演算により畳み込み積分を行い、これに
より得た画像データを原画像データから減算して決めら
れた閾値未満の画素値を0とする。
That is, for the read image data, convolution integration is performed by a sum-of-products operation using a load matrix having a positive value at the center and a negative value at the periphery, and sets a pixel value less than a determined threshold to 0, The pixel value less than the threshold value determined by subtracting the image data obtained in the above from the original image data is set to 0, and the value of the image data obtained in the above process becomes 0 as the central portion becomes positive and moves away from the center. Is convolved by a product-sum operation with a load matrix approaching, and the pixel value less than a threshold determined by subtracting the image data obtained by this from the original image data is set to 0.

〔作用〕[Action]

本発明の線幅分類方法は、画像データおよび荷重マト
リックスの畳み込み積分と、閾値処理と、画像データ間
の算術演算とによって図形を線幅で分類するものであ
る。
The line width classification method of the present invention classifies a figure by line width by convolution of image data and a load matrix, threshold processing, and arithmetic operation between image data.

すなわち、まず最初に、線幅収縮用荷重マトリックス
による畳み込み積分、閾値処理、画像間演算、閾値処理
を順次実行することによって、線図形の線幅を収縮させ
る。この段階で、線幅の細い線図形は消滅する。次に、
収縮した線図形を線幅膨張用荷重マトリックスによる畳
み込み積分によって膨張させる。このとき、既に消滅し
た線幅の細い線図形では何の変化も起こらない。このと
き得られた画像データを原画像データから画像間演算で
減算し、閾値処理を行うと、線幅の細い線図形のみが抽
出される。
That is, first, the line width of a line figure is contracted by sequentially executing convolution integration, threshold processing, inter-image calculation, and threshold processing using a line width contraction load matrix. At this stage, the line figure with a small line width disappears. next,
The contracted line figure is expanded by convolution integral with the line width expansion load matrix. At this time, no change occurs in the line graphic having a thin line width which has already disappeared. When the image data obtained at this time is subtracted from the original image data by an inter-image operation and threshold processing is performed, only a line figure with a small line width is extracted.

〔実施例〕〔Example〕

第1図は、本発明の一実施例を説明するための系統図
である。この第1図において、処理したい図面は、イメ
ージスキャナなどの画像読み取り部8により濃淡画像と
して読み取られ、メモリ9に格納される。そして、この
メモリ9に格納された画像データに対して、2つの線幅
抽出部10,11で線幅抽出処理を行うことにより、2つの
異なった線幅未満の線図形をそれぞれ抽出する。すなわ
ち、後述するようにこれらの線幅抽出部10,11では荷重
マトリックスを用いた畳み込み積分を行うが、線幅抽出
部10と線幅抽出部11とで互いに大きさの異なる荷重マト
リックスを使うことにより、どの線幅までの線図形を抽
出するのかのボーダーラインを異ならせている。これら
2つの線幅抽出部10,11で抽出された異なる線幅未満の
線図形は、それぞれメモリ12,13に格納される。
FIG. 1 is a system diagram for explaining an embodiment of the present invention. In FIG. 1, a drawing to be processed is read as a grayscale image by an image reading unit 8 such as an image scanner and stored in a memory 9. Then, the line data extraction processing is performed on the image data stored in the memory 9 by the two line width extraction units 10 and 11 to extract line figures having two different line widths. That is, as described later, these line width extraction units 10 and 11 perform convolution integration using a load matrix, but the line width extraction unit 10 and the line width extraction unit 11 use different weight matrices. , The border line for extracting the line figure up to which line width is different. The line figures smaller than the different line widths extracted by the two line width extraction units 10 and 11 are stored in the memories 12 and 13, respectively.

次に、画像間演算部14では、上記2つのメモリ12,13
に格納された異なる線幅未満の線図形からなるイメージ
データに対し、対応する位置の画素間どうしで減算をす
ることによって、特定線幅の線図形を抽出する。例え
ば、線幅抽出部10で使う荷重マトリックスの方が線幅抽
出部11で使う荷重マトリックスよりも大きく設定されて
いる場合は、線幅抽出部10の出力結果から線幅抽出部11
の出力結果を減算する。これにより、線幅抽出部10での
ボーダーライン以下で線幅抽出部11でのボーダーライン
以上の線幅の線図形のみが得られ、これが線幅分類結果
として出力される。
Next, in the inter-image calculation unit 14, the two memories 12, 13
Then, a line graphic having a specific line width is extracted by subtracting between the pixels at the corresponding positions from the image data composed of the line graphic smaller than the different line width stored in. For example, if the load matrix used by the line width extraction unit 10 is set to be larger than the load matrix used by the line width extraction unit 11, the output result of the line width extraction unit 10
The output result of is subtracted. As a result, only a line figure having a line width equal to or less than the border line in the line width extraction unit 10 and equal to or larger than the border line in the line width extraction unit 11 is obtained, and is output as a line width classification result.

第2図は、第1図の線幅抽出部10,11内で行われる線
幅による図形の抽出処理の手順を示したものであり、第
3図は、一例として線幅が異なる2つの図形について線
幅分類処理を行った結果を示したものである。以下に、
線幅分類の手順を第2図、第3図に従って説明する。な
お、第3図において、(a)は画面上に描かれている線
幅の異なる2つの線図形を示し、この原画像データのレ
ベル方向の断面は(0)のようになっているものとす
る。また、第3図(1)〜(9)も画像データのレベル
方向の断面を表すものであり、このうち(1)〜(7)
は、第2図の各ステップ1〜7で得られる画像データの
断面を示している。何れの断面も横軸は画面上の位置を
示し、縦軸は画像の濃度を示しており、この例では基準
値は0に設定されている。
FIG. 2 shows a procedure of a graphic extraction process based on a line width performed in the line width extracting units 10 and 11 shown in FIG. 1. FIG. 3 shows, as an example, two figures having different line widths. 3 shows the result of performing the line width classification process on. less than,
The procedure of line width classification will be described with reference to FIGS. In FIG. 3, (a) shows two line figures having different line widths drawn on the screen, and the cross section in the level direction of the original image data is (0). I do. FIGS. 3 (1) to 3 (9) also show cross sections in the level direction of image data, of which (1) to (7).
Indicates a cross section of the image data obtained in each of steps 1 to 7 in FIG. In each cross section, the horizontal axis indicates the position on the screen, and the vertical axis indicates the density of the image. In this example, the reference value is set to 0.

第2図において、まず、畳み込み積分1で原画像デー
タ(第3図(0))に対して2つのGauss関数の差(DOG
関数)で畳み込み積分を行う。DOG関数は、同心円状に
中心部が正の値で周辺部が負の値からなる荷重マトリッ
クスを形成するものであり、次の(式1)で表される。
In FIG. 2, first, the difference (DOG) between two Gaussian functions with respect to the original image data (FIG.
Function) to perform convolution integration. The DOG function concentrically forms a load matrix having a positive value at the center and a negative value at the periphery, and is expressed by the following (Equation 1).

DOG(r)=(1/2πσ1 2)・exp(−r2/2σ1 2) −(1/2πσ2 2)・exp(−r2/2σ2 2) …(式1) ここで、σ、σ2:Gauss関数の標準偏差(σ2
1.6)、r:同心円の中心からの距離とする。
DOG (r) = (1 / 2πσ 1 2) · exp (-r 2 / 2σ 1 2) - (1 / 2πσ 2 2) · exp (-r 2 / 2σ 2 2) ... ( 1) where, σ 1 , σ 2 : standard deviation of Gauss function (σ 2 / σ 1 =
1.6), r: distance from the center of the concentric circle.

すなわち、ここでの畳み込み積分は、上記(式1)で
画面よりも小さいサイズM×Mのマトリックスを作成し
(M/2=3σ)、このマトリックスと原画像データと
の間で積和をとるものとする。この畳み込み積分処理
を、マトリックスを画面上でスキャンさせながら順次行
うことにより、第3図(1)のような画像データが得ら
れる。
That is, in the convolution integral here, a matrix of size M × M smaller than the screen is created by the above (Equation 1) (M / 2 = 3σ 2 ), and the product sum is calculated between this matrix and the original image data. Shall be taken. By sequentially performing the convolution integration processing while scanning the matrix on the screen, image data as shown in FIG. 3A is obtained.

次に、閾値処理2では、畳み込み積分1で得られた結
果に対し、決められた閾値未満の値の画素値を0とす
る。ここでは、閾値を基準値と同じ値の0とするが、基
準値より大きな値としても良い。この結果、太い線の場
合は画素値0の部分が中心部にできるが、細い線では画
素値0の部分はできない(第3図(2))。
Next, in the threshold processing 2, the pixel value having a value less than the determined threshold is set to 0 with respect to the result obtained by the convolution integral 1. Here, the threshold value is set to 0, which is the same value as the reference value, but may be a value larger than the reference value. As a result, in the case of a thick line, a portion having a pixel value of 0 is formed at the center, but in a case of a thin line, a portion having a pixel value of 0 is not formed (FIG. 3 (2)).

画像間演算3では、原画像データから上記閾値処理2
で出来た画像データを減算する(ただし、画像間で減算
をする場合、減算する第3図(2)の画像データに対し
て十分値の大きな係数を掛ける)。ここでの減算は、対
応する位置の画素間で行う。これにより、第3図(3)
のような画像データが得られる。
In the inter-image operation 3, the threshold processing 2 is performed based on the original image data.
(However, when subtraction is performed between images, a sufficiently large coefficient is applied to the image data to be subtracted in FIG. 3 (2)). The subtraction is performed between the pixels at the corresponding positions. Thereby, FIG. 3 (3)
Is obtained.

そして、次の閾値処理4では、上記画像間演算3によ
り得られた結果に対して0で閾処理する。すなわち、0
未満の値の画素値を0とする。ここでの結果は、太い線
では線の両端がいくらか削られて原画像データに比べて
線幅が収縮されたものとなり、細い線では線全体が消滅
する(第3図(4))。
Then, in the next threshold processing 4, threshold processing is performed on the result obtained by the inter-image calculation 3 with 0. That is, 0
The pixel value of the value less than is set to 0. As a result, in the case of a thick line, both ends of the line are slightly reduced so that the line width is reduced as compared with the original image data, and in the case of a thin line, the entire line disappears (FIG. 3 (4)).

次に、畳み込み積分5において、上記閾値処理4で得
られた画像データに対して、次の(式2)に基づくGaus
s関数で畳み込み積分を行い、収縮された線図形を膨張
させる。このGauss関数は、中心部が正の値で中心から
離れるに従って値が0に近づく荷重マトリックスを形成
するものである。
Next, in the convolution integral 5, Gauss based on the following (Equation 2) is applied to the image data obtained by the threshold processing 4 above.
Performs convolution integration with the s function to expand the contracted line figure. The Gaussian function forms a load matrix in which the central portion is a positive value and the value approaches 0 as the distance from the center increases.

Gauss(r)=(1/2πσ)・exp−(r2/2σ) …(式2) ここで、Gauss関数の標準偏差σは上記(式1)のσ
と同じ値であり、マトリックスのサイズMも同じ値であ
る。ここでは、前までの処理によって線図形が消滅して
いる細い線では何の変化もないのに対して、消滅してい
ない太い線では、少なくとも原画像の線幅以上に線幅が
膨張される(第3図(5))。
Gauss (r) = (1 / 2πσ 2 ) · exp− (r 2 / 2σ 2 ) (Equation 2) Here, the standard deviation σ of the Gauss function is σ 2 of the above (Equation 1).
And the size M of the matrix is also the same value. Here, there is no change in the thin line in which the line graphic has disappeared by the previous processing, but in the case of the thick line which has not disappeared, the line width is expanded to at least the line width of the original image. (FIG. 3 (5)).

さらに、画像間演算6において、原画像データから上
記畳み込み積分5で得られた画像データを減算し(ここ
でも減算する画像データに対しては十分値の大きな係数
を掛ける)、これにより得られた結果(第3図(6))
に対して、閾値処理7により0で閾処理すると、太い線
は消滅し、細い線が復元する(第3図(7))。以上に
述べた手順により、線幅が異なる2つの図形のうち、線
幅が太い方の図形を消去し、線幅が細い方の図形だけを
抽出することができる。
Further, in the inter-image operation 6, the image data obtained by the convolution integral 5 is subtracted from the original image data (again, the image data to be subtracted is multiplied by a sufficiently large coefficient). Result (Fig. 3 (6))
On the other hand, when threshold processing is performed at 0 by the threshold processing 7, the thick line disappears and the thin line is restored (FIG. 3 (7)). According to the procedure described above, of the two figures having different line widths, the figure having the larger line width can be deleted, and only the figure having the smaller line width can be extracted.

なお、消去できる図形の線幅は、DOG関数の標準偏差
の大きさによって異なってくる。そこで、第1図の線幅
抽出部11によって細い線だけを抽出するとともに、より
大きな標準偏差値を設定した線幅抽出部10により太い線
と細い線との両方を抽出し(第3図(8))、第1図の
画像間演算部14において第3図(8)の画像データから
第3図(7)の画像データを減算することにより、太い
線だけを抽出することもできる(第3図(9))。
Note that the line width of a graphic that can be deleted depends on the standard deviation of the DOG function. Accordingly, only the thin line is extracted by the line width extraction unit 11 of FIG. 1, and both the thick line and the thin line are extracted by the line width extraction unit 10 which sets a larger standard deviation value (FIG. 3 ( 8)), by subtracting the image data of FIG. 3 (7) from the image data of FIG. 3 (8) in the inter-image calculation unit 14 of FIG. 1, only the thick line can be extracted (FIG. 3 (9).

第4図は、線幅が1画素から8画素の8種類の線図形
について線幅分類処理を行った結果を示したものであ
る。第4図において、まず最初に原画像データ(第4図
(a))に対して上記(式1)に基づくDOG関数で畳み
込み積分を行い、0で閾値処理をすると、第4図(b)
のような画像データが得られる。これは、先に述べたよ
うに、太い線の場合は画素値0の部分が中心部にでき、
細い線では画素値0の部分ができない様子を示してい
る。
FIG. 4 shows the result of performing line width classification processing on eight types of line figures having a line width of 1 to 8 pixels. In FIG. 4, first, convolution integration is performed on the original image data (FIG. 4 (a)) using the DOG function based on the above (Equation 1), and threshold processing is performed at 0, and FIG. 4 (b)
Is obtained. This is because, as described above, in the case of a thick line, a portion having a pixel value of 0 can be at the center,
A thin line indicates that a portion having a pixel value of 0 cannot be formed.

次に、画像間演算により原画像データから上記閾値処
理で出来た画像データを減算し、これにより得られた結
果に対して0で閾値処理すると、あるビット幅より太い
線では線の両端がいくらか削られて線幅が収縮され、あ
るビット幅より細い線では線全体が消滅した第4図
(c)のような画像データが得られる。
Next, the image data generated by the above threshold processing is subtracted from the original image data by an inter-image operation, and the obtained result is thresholded at 0. The image data as shown in FIG. 4 (c) is obtained in which the line width is shrunk and the line width is shrunk.

次に、この第4図(c)の画像データに対して上記
(式2)に基づくGauss関数で畳み込み積分を行うこと
により、収縮された線図形を膨張させる(第4図
(d))。さらに、画像間演算により原画像データから
上記(式2)に基づく畳み込み積分で得られた画像デー
タを減算し、これにより得られた結果に対して0で閾値
処理すると、あるビット幅より太い線は消滅し、あるビ
ット幅より細い線が復元した第4図(e)のような画像
データが得られる。以上に述べた手順により、特定の線
幅以上の図形を消去し、その特定の線幅より細い図形だ
けを抽出することができる。
Next, the contracted line figure is expanded by performing convolution integration on the image data of FIG. 4C using the Gauss function based on the above (Equation 2) (FIG. 4D). Further, the image data obtained by the convolution integration based on the above (Equation 2) is subtracted from the original image data by the inter-image operation, and the obtained result is subjected to a threshold processing with 0, whereby a line thicker than a certain bit width is obtained. Disappears, and image data as shown in FIG. 4 (e) in which a line thinner than a certain bit width is restored is obtained. According to the above-described procedure, a graphic having a specific line width or more can be erased, and only a graphic which is thinner than the specific line width can be extracted.

上述したように、消去できる図形の線幅はDOG関数の
標準偏差の大きさによって異なってくるので、第1図に
示した2つの線幅抽出部10,11で2つの異なった線幅以
下の図形について抽出を行い、画像間演算部14でそれぞ
れの結果画像間で減算を行うことにより、特定線幅範囲
の図形を抽出することもできる。
As described above, the line width of a graphic that can be erased depends on the magnitude of the standard deviation of the DOG function. Therefore, the two line width extraction units 10 and 11 shown in FIG. By extracting a graphic and performing a subtraction between the respective result images by the inter-image calculation unit 14, a graphic in a specific line width range can also be extracted.

上記した第4図(e)は、線幅が4ビット以下の線分
を抽出した結果を示したものであるが、第4図(f)
は、第4図(e)の場合よりも大きな標準偏差、すなわ
ち大きなサイズの荷重マトリックスで畳み込み積分を行
い、線幅が6ビット以下のものを抽出した結果を示して
いる。この場合、第4図(f)の画像データから第4図
(e)の画像データを減算することにより、線幅が5〜
6ビットの線分だけを抽出・分類することができる(第
4図(g))。
FIG. 4 (e) shows the result of extracting a line segment having a line width of 4 bits or less. FIG. 4 (f)
Shows the result of performing convolution integration with a larger standard deviation than the case of FIG. 4 (e), that is, a large size load matrix, and extracting a line width of 6 bits or less. In this case, by subtracting the image data of FIG. 4E from the image data of FIG.
Only 6-bit line segments can be extracted and classified (FIG. 4 (g)).

なお、以上の実施例では、畳み込み積分を行う際の荷
重マトリックスとして、同心円状に値が変化する関数を
用いているが、本発明はこれに限定されない。例えば、
中心部が正の値で周辺部が負の値からなる荷重マトリッ
クス、あるいは中心部が正の値で中心から離れるに従っ
て値が0に近づく荷重マトリックスであれば、方形ある
いはその他の形状に沿って値が変化する関数を用いても
良い。
In the above embodiment, a function whose value changes concentrically is used as a load matrix when performing convolution integration, but the present invention is not limited to this. For example,
If the load matrix has a positive value in the center and a negative value in the periphery, or a load matrix with a positive value in the center and the value approaches 0 as the distance from the center increases, the value follows a square or other shape May be used.

〔発明の効果〕〔The invention's effect〕

以上詳しく説明したように、本発明によれば、地図、
機械図面などの画像上の図形を線幅によって分類する
際、いかなる形状の図形についても、積和演算、閾値処
理、画像間演算といった基本的な画像処理の手法を組み
合わせて処理することができるので、専用ハードウェア
や並列処理によって高速に処理することが可能となる。
As described in detail above, according to the present invention, a map,
When classifying figures on an image such as a mechanical drawing by line width, figures of any shape can be processed using a combination of basic image processing methods such as product-sum operation, threshold processing, and inter-image operation. Thus, high-speed processing can be performed by dedicated hardware or parallel processing.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明の一実施例を説明した系統図、第2図は
線幅抽出処理の手順の説明図、第3図は2つの異なる線
幅の線図形に対して線幅分類処理を実施した結果の画素
のレベル方向の断面を示した図、第4図は8つの異なる
線幅の線図形が描かれた画像について線幅分類処理を実
施した結果を示した画像の図である。 なお、図面に用いた符号において、 1……畳み込み積分 2……閾値処理 3……画像間演算 4……閾値処理 5……畳み込み積分 6……画像間演算 7……閾値処理 8……画像読み取り部 9……メモリ 10……線幅抽出部 11……線幅抽出部 12……メモリ 13……メモリ 14……画像間演算部 である。
FIG. 1 is a system diagram illustrating an embodiment of the present invention, FIG. 2 is an explanatory diagram of a line width extracting process, and FIG. 3 is a diagram illustrating a line width classifying process for line figures having two different line widths. FIG. 4 is a diagram showing a cross section of the pixel in the level direction as a result of the execution, and FIG. 4 is an image showing a result of performing a line width classification process on an image in which line figures having eight different line widths are drawn. In the reference numerals used in the drawings, 1 ... convolution integral 2 ... threshold processing 3 ... calculation between images 4 ... threshold processing 5 ... convolution integral 6 ... calculation between images 7 ... threshold processing 8 ... image Reading unit 9 Memory 10 Line width extraction unit 11 Line width extraction unit 12 Memory 13 Memory 14 Image calculation unit.

フロントページの続き (56)参考文献 特開 昭53−118941(JP,A) 特開 昭50−135948(JP,A) 特開 昭60−229180(JP,A) 特開 昭62−192606(JP,A) (58)調査した分野(Int.Cl.6,DB名) G06T 7/00 JICSTContinuation of the front page (56) References JP-A-53-118941 (JP, A) JP-A-50-135948 (JP, A) JP-A-60-229180 (JP, A) JP-A-62-192606 (JP) , A) (58) Field surveyed (Int. Cl. 6 , DB name) G06T 7/00 JICST

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】読み込んだ画像データに対し、中心部が正
の値で周辺部が負の値からなる荷重マトリックスで積和
演算により畳み込み積分を行い、決められた閾値未満の
画素値を0とする第1ステップと、 前記第1ステップで得た画像データを原画像データから
減算し、決められた閾値未満の画素値を0とする第2ス
テップと、 前記第2ステップで得られた画像データに対し、中心部
が正の値で中心から離れるに従って値が0に近づく荷重
マトリックスで積和演算により畳み込み積分を行い、こ
れにより得た画像データを原画像データから減算し、決
められた閾値未満の画素値を0とする第3ステップとを
有することを特徴とする線図形の線幅分類方法。
1. A convolution integral is performed on a read image data by a product-sum operation using a load matrix having a positive value in a central portion and a negative value in a peripheral portion, and a pixel value less than a predetermined threshold value is set to 0. A second step of subtracting the image data obtained in the first step from the original image data to set a pixel value less than a predetermined threshold to 0, and an image data obtained in the second step In contrast, convolution integration is performed by a product-sum operation with a load matrix whose value approaches 0 as the center part is a positive value and moves away from the center, and the image data obtained thereby is subtracted from the original image data, and is less than a determined threshold. And a third step of setting the pixel value of 0 to 0.
【請求項2】読み込んだ画像データに対し、同心円状に
中心部が正の値で周辺部が負の値からなる荷重マトリッ
クスで積和演算により畳み込み積分を行い、決められた
閾値未満の画素値を0とする第1ステップと、 前記第1ステップで得た画像データを原画像データから
減算し、決められた閾値未満の画素値を0とする第2ス
テップと、 前記第2ステップで得られた画像データに対し、中心部
が正の値で中心から離れるに従って値が0に近づく荷重
マトリックスで積和演算により畳み込み積分を行い、こ
れにより得た画像データを原画像データから減算し、決
められた閾値未満の画素値を0とする第3ステップとを
有することを特徴とする線図形の線幅分類方法。
2. A convolution of the read image data by a sum-of-products operation using a load matrix consisting of a positive value at the center and a negative value at the periphery in a concentric manner, and pixel values less than a predetermined threshold value A second step of subtracting the image data obtained in the first step from the original image data and setting a pixel value smaller than a predetermined threshold to 0, and a second step of subtracting the image data obtained in the first step from the original image data. The image data obtained is subjected to convolution integration by a sum-of-products operation with a load matrix whose value approaches 0 as the center is positive and moves away from the center, and the obtained image data is subtracted from the original image data. And setting a pixel value smaller than the threshold value to 0.
【請求項3】請求項1または2に記載の方法に従い、そ
れぞれ大きさの異なる荷重マトリックスを用いた畳み込
み積分により二つの画像データを生成し、その生成した
二つの画像データの対応する画素間で減算を行うことを
特徴とする線図形の線幅分類方法。
3. A method according to claim 1, wherein two image data are generated by a convolution integral using weight matrices having different sizes, and a corresponding pixel of the generated two image data is generated. A line width classification method for a line figure, wherein subtraction is performed.
JP2212631A 1990-08-10 1990-08-10 Line width classification method for line figures Expired - Lifetime JP2986185B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2212631A JP2986185B2 (en) 1990-08-10 1990-08-10 Line width classification method for line figures

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2212631A JP2986185B2 (en) 1990-08-10 1990-08-10 Line width classification method for line figures

Publications (2)

Publication Number Publication Date
JPH0498470A JPH0498470A (en) 1992-03-31
JP2986185B2 true JP2986185B2 (en) 1999-12-06

Family

ID=16625864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2212631A Expired - Lifetime JP2986185B2 (en) 1990-08-10 1990-08-10 Line width classification method for line figures

Country Status (1)

Country Link
JP (1) JP2986185B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3264460B2 (en) * 1993-04-26 2002-03-11 富士写真フイルム株式会社 Image identification method
JPWO2004055697A1 (en) 2002-12-13 2006-04-20 富士通株式会社 Processing method, processing apparatus, and computer program

Also Published As

Publication number Publication date
JPH0498470A (en) 1992-03-31

Similar Documents

Publication Publication Date Title
JP3308032B2 (en) Skew correction method, skew angle detection method, skew correction device, and skew angle detection device
EP0431958B1 (en) Identification and segmentation of finely textured and solid regions of binary images
CN110415280B (en) Remote sensing image and building vector registration method and system under multitask CNN model
JPH02277185A (en) Extracting method for rectangle coordinates
CN111626145B (en) Simple and effective incomplete form identification and page-crossing splicing method
JP3062382B2 (en) Image processing apparatus and method
JPH0256707B2 (en)
JP2986185B2 (en) Line width classification method for line figures
CN115661851A (en) Sample data acquisition and component identification method and electronic equipment
US20040105583A1 (en) Segmenting a composite image via minimum areas
JP3904397B2 (en) Table recognition method
CN109977937B (en) Image processing method, device and equipment
JP2993007B2 (en) Image area identification device
JP2957729B2 (en) Line direction determination device
US6717697B1 (en) Image-component rendering method and recording medium in which image-component rendering program is recorded
JPH04255080A (en) Image input device
JP3080097B2 (en) Parallel line figure extraction method
JP2957739B2 (en) Line direction determination device
EP1439485B1 (en) Segmenting a composite image via basic rectangles
JP2963532B2 (en) Line direction determination device
JP2908495B2 (en) Character image extraction device
JP2613211B2 (en) Image input device
JP3344791B2 (en) Line segment extraction method
JP2882056B2 (en) How to identify specific patterns
JP3007549B2 (en) Character entry area extraction method