JPH06290268A - Edge extraction processing method for image - Google Patents

Edge extraction processing method for image

Info

Publication number
JPH06290268A
JPH06290268A JP5269542A JP26954293A JPH06290268A JP H06290268 A JPH06290268 A JP H06290268A JP 5269542 A JP5269542 A JP 5269542A JP 26954293 A JP26954293 A JP 26954293A JP H06290268 A JPH06290268 A JP H06290268A
Authority
JP
Japan
Prior art keywords
edge
image
edge extraction
scale
scales
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5269542A
Other languages
Japanese (ja)
Inventor
Kazue Fukushima
和恵 福島
Setsuyuki Hongo
節之 本郷
Akira Shimatani
明 島谷
Isamu Yoroisawa
勇 鎧沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP5269542A priority Critical patent/JPH06290268A/en
Publication of JPH06290268A publication Critical patent/JPH06290268A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To extract an edge image which is reduced in position error and has noises removed, from an input light and shade image. CONSTITUTION:An edge extraction part 1 filters the input light and shade image with scales sigmai (i=1...n) to extract (n) kind of edge images. A Gaussian filter ring part 2 filters the (n) kind of edge images with corresponding scales taui (i=1...n) to perform a defocusing process. A linear addition part 3 weights the (n) kind of defocused edge images as desired and linearly adds them. An edge determination part 4 performs a threshold processing for the output image of the linear addition part 3 to obtain an output edge image 20 as the final result. The respective edges obtained with plural scales are defocused by the Gaussian filter and the linear sum is utilized to enable edge extraction which is tolerant to noises and small in position error.

Description

【発明の詳細な説明】Detailed Description of the Invention 【産業上の利用分野】[Industrial applications]

【0001】本発明は、画像処理におけるエッジ抽出に
あたって、異なるスケール(解像度)のフィルタの情報
を統合してエッジを抽出する画像のエッジ抽出処理方法
に関するものである。
[0001] The present invention relates to an edge extraction processing method for an image in which information of filters of different scales (resolutions) is integrated to extract edges when extracting edges in image processing.

【0002】[0002]

【従来の技術】従来、画像処理において、フィルタをか
けてエッジ部分を抽出することは利用されている。これ
は、スケールサイズの変更が自由に行え、雑音にも比較
的安定していることなどを特徴としている。
2. Description of the Related Art Conventionally, in image processing, it has been used to apply a filter to extract an edge portion. This is characterized in that the scale size can be changed freely and is relatively stable against noise.

【0003】しかし、フィルタを掛けてエッジ抽出を行
う際、スケールサイズが大きい(解像度が低いフィル
タ)と、大まかな特徴を掴むことができる反面、得られ
るエッジに位置誤差が生じ(例えばLu,“Behavoir o
f Edges in ScaleSpace,”IEEE Trans PAM
I−11 pp337−356,1989など)、逆に、
小さい(解像度が高いフィルタ)と、局所的な情報から
エッジを計算するため、位置誤差が低減される反面、雑
音に敏感になるという問題がある。
However, when a filter is applied to perform edge extraction, if the scale size is large (filter with low resolution), a rough feature can be grasped, but a position error occurs in the obtained edge (for example, Lu, " Behavoir o
f Edges in Scale Space, "IEEE Trans PAM
I-11 pp337-356, 1989, etc.), conversely,
When it is small (filter with high resolution), the edge is calculated from local information, so that the position error is reduced, but there is a problem that it becomes sensitive to noise.

【0004】そのため、近年、複数のスケールサイズの
フィルタ出力から一つのエッジ表現を得る多重解像度エ
ッジ抽出法が研究されつつある(例えば“Edge Conto
ursUsing Multiple Scales,”Donna J.William
s,Mubarak Shah,Computer Vision,Graphics,a
nd Image Processing,51,1990,pp.256−
274など)。しかし、未だ明確で効率的な多重解像度
エッジ抽出法は確立されていない。
Therefore, in recent years, a multi-resolution edge extraction method for obtaining one edge expression from filter outputs of a plurality of scale sizes has been studied (for example, "Edge Conto").
ursUsing Multiple Scales, “Donna J. William
s, Mubarak Shah, Computer Vision, Graphics, a
nd Image Processing, 51, 1990, pp.256-
274). However, a clear and efficient multi-resolution edge extraction method has not been established yet.

【0005】[0005]

【発明が解決しようとする課題】従来技術において、明
確で効率的な多重解像度エッジ抽出法を困難にしている
原因のひとつとして、各解像度における位置誤差によ
り、同じエッジ部分から生じるエッジ間の整合がとりず
らいという問題があった。
In the prior art, one of the reasons that makes the clear and efficient method of multi-resolution edge extraction difficult is that the alignment error between edges caused by the same edge portion is caused by the position error at each resolution. There was a problem of difficulty.

【0006】本発明は、上記従来の問題点を解決するた
めに、複数スケールで得られたそれぞれのエッジについ
て、それらをガウスフィルタでぼかした線形和を利用す
ることで、位置誤差を低減し、雑音を排除したエッジを
効率的に抽出することを目的とする。
In order to solve the above-mentioned conventional problems, the present invention reduces the position error by using a linear sum obtained by blurring each edge obtained on a plurality of scales with a Gaussian filter, The purpose is to efficiently extract edges excluding noise.

【0007】さらに本発明は、ある解像度(スケール)
を強調するエッジ処理や、画像の局所的な形状に軟柔な
エッジ処理を可能にすることを目的とする。
The present invention further provides a certain resolution (scale).
The purpose of the present invention is to enable edge processing that emphasizes and soft edge processing for the local shape of an image.

【0008】[0008]

【課題を解決するための手段】本発明の画像のエッジ抽
出処理方法は、入力濃淡画像に対し、複数の異なるスケ
ールのフィルタを用いてそれぞれエッジの抽出を行う第
一の過程と、第一の過程で得られた各エッジ抽出結果
に、それぞれに対応するスケールを持つガウスフィルタ
をかける第二の過程と、第二の過程で得られた各処理結
果を線形に足し合わせる第三の過程と、第三の過程で得
られた処理結果からエッジ点を検出する第四の過程とを
有することを特徴とする。
An image edge extraction processing method according to the present invention comprises a first step of extracting edges from an input gray-scale image using a plurality of filters of different scales, and a first step. A second step of applying a Gaussian filter having a scale corresponding to each edge extraction result obtained in the step, and a third step of linearly adding the processing results obtained in the second step, And a fourth step of detecting an edge point from the processing result obtained in the third step.

【0009】また、本発明の画像のエッジ抽出処理方法
では、上記第三の過程において、第二の過程で得られた
各処理結果を線形に足し合せる際、特定のスケールのも
のとそのほかのスケールのものとで異なる重みを与えて
線形に足し合わせることを特徴とする。
Further, in the image edge extraction processing method of the present invention, when the processing results obtained in the second step are linearly added together in the third step, one of a specific scale and other scales are used. It is characterized in that different weights are given to and those of linearly added.

【0010】さらに、本発明の画像のエッジ抽出処理方
法は、上記第三の過程において、第二の過程で得られた
各処理結果を線形に足し合わせる際、画像上の局所領域
に応じて異なる重みを与えて線形に足し合わせることを
特徴とする。
Further, in the image edge extraction processing method of the present invention, when the processing results obtained in the second step are linearly added together in the third step, it differs depending on the local area on the image. It is characterized by giving weights and adding them linearly.

【0011】[0011]

【作用】本発明においては、複数スケールのフィルタで
エッジ抽出を行い、更にそれぞれに対応するスケールの
カウスフィルタをかけてぼかし、それらの出力を線形に
足すことにより、多種多様のスケールによって抽出され
る位置誤差を含む情報を統合し、一つのエッジを得るこ
とが可能である。また、ガウスフィルタでぼかして線形
に足し合わせることにより、各スケール間のエッジの整
合をとらずに統合を行うことが可能である。
According to the present invention, edges are extracted by a filter of a plurality of scales, a Cous filter of a scale corresponding to each of them is applied to blur, and the outputs thereof are linearly added to extract by various scales. It is possible to obtain one edge by integrating the information including the position error. Also, by blurring with a Gaussian filter and adding them linearly, it is possible to perform integration without matching the edges between the scales.

【0012】また、各スケールフィルタで得られたエッ
ジに、それぞれに対応するスケールのガウスフィルタを
かけて線形に足す際、所望の重みを与えることによっ
て、細かい情報を強調したり、大局的な情報を強調した
り、あるいは画像の局所的な形状を強調しながら、多重
解像度のエッジ抽出を行うことが可能である。
Further, when a Gaussian filter having a corresponding scale is applied to the edges obtained by each scale filter to add them linearly, a desired weight is given to emphasize the detailed information or the global information. It is possible to perform multi-resolution edge extraction while emphasizing the image or emphasizing the local shape of the image.

【0013】[0013]

【実施例】以下、本発明の実施例を図面により詳細に説
明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0014】図1は本発明の全体構成図を示す。図1に
おいて、1はエッジ抽出部、2はガウスフィルタリング
部、3は線形加算部、4はエッジ決定部であり、10は
入力濃淡画像、20は出力エッジ画像である。ここで、
エッジ抽出部1はスケールσ1,…,σnのフィルタによ
る複数のエッジ抽出ユニット1−1〜1−nからなり、
ガウスフィルタリング部2はスケールτ1,…,τnの複
数のガウスフィルタリング・ユニット2−1〜2−nか
らなる。
FIG. 1 shows the overall configuration of the present invention. In FIG. 1, 1 is an edge extraction unit, 2 is a Gaussian filtering unit, 3 is a linear addition unit, 4 is an edge determination unit, 10 is an input grayscale image, and 20 is an output edge image. here,
The edge extraction unit 1 is composed of a plurality of edge extraction units 1-1 to 1-n by filters of scale σ 1 , ..., σ n ,
The Gaussian filtering unit 2 is composed of a plurality of Gaussian filtering units 2-1 to 2-n having scales τ 1 , ..., τ n .

【0015】処理は、エッジ抽出部1、ガウスフィルタ
リング部2、線形加算部3、エッジ決定部4の順に行
う。以下に各部の処理を順に説明する。なお、入力画像
10はディジタル濃淡画像としている。
The processing is performed in the order of the edge extraction unit 1, the Gaussian filtering unit 2, the linear addition unit 3, and the edge determination unit 4. The processing of each unit will be described below in order. The input image 10 is a digital grayscale image.

【0016】(エッジ抽出部1)入力濃淡画像10に対
し、複数のスケールσ1,…,σnを決定する。決定する
方法としては、例えば本出願人が先に提案した特願平4
−50415号「フィルタスケール選択方法」を用いる
ことができる。
(Edge extraction unit 1) For the input grayscale image 10, a plurality of scales σ 1 , ..., σ n are determined. As a method of determining, for example, Japanese Patent Application No.
No. 50415, “Filter scale selection method” can be used.

【0017】エッジ抽出ユニット1−1〜1−nは、入
力濃淡画像10にスケールσi(i=1,…,n)のフ
ィルタをかけ、それぞれエッジ画像を抽出する(多重解
像度エッジ抽出)。フィルタとしては、例えば次式のラ
プラシアンガウシアンフィルタ
The edge extraction units 1-1 to 1-n apply a filter of the scale σ i (i = 1, ..., N) to the input grayscale image 10 to extract edge images (multiresolution edge extraction). As a filter, for example, the Laplacian Gaussian filter of the following formula

【数1】 などがある。スケールσを大きくすると解像度は低くな
り、スケールσを小さくすると解像度は高くなる。な
お、エッジ抽出部1で抽出する各エッジ画像は二値化さ
れていても、強度値として濃淡画像として得られていて
も差し支えない。
[Equation 1] and so on. The larger the scale σ, the lower the resolution, and the smaller the scale σ, the higher the resolution. Each edge image extracted by the edge extraction unit 1 may be binarized or may be obtained as a grayscale image as an intensity value.

【0018】(ガウスフィルタリング部2)ガウスフィ
ルタリング・ユニット2−1〜2−nは、エッジ抽出部
1で抽出されたn種類(n個の解像度)のエッジ画像
に、それぞれにスケールτ1,…,τnのガウスフィルタ
(Gaussian Filtering Unit 2) The Gaussian filtering units 2-1 to 2-n respectively scale n 1 (n resolutions) of edge images extracted by the edge extracting unit 1 into scales τ 1 , ... , Τ n Gaussian filter

【数2】 を掛けて、ぼかし処理を行う。ぼかしは、τが小さいと
小さく、τを大きくするにしたがって大きくなる。
[Equation 2] And the blurring process is performed. The blur is small when τ is small, and becomes large as τ is increased.

【0019】このガウスフィルタリング部2では、各τ
iを選定する際、エッジ抽出部1で得たエッジが位置ず
れを起こしている可能性のある範囲を考慮できる。例え
ば、図2(1)に示すように、位置誤差を起こしている
可能性のある範囲が大きい点aと小さい点bが、それぞ
れσaとσbのフィルタによる出力結果として、エッジ抽
出部1で得られたとする。この時、ガウスフィルタリン
グ部2において、各a,bに対して位置誤差の範囲を考
慮した大きいτaと小さいτbを与えることにより、次の
線形加算部3の出力においては、図2(2)に示すよう
に各エッジの位置誤差の範囲内にピークを得ることがで
きる。
In the Gaussian filtering unit 2, each τ
When selecting i , it is possible to consider the range in which the edges obtained by the edge extraction unit 1 may be displaced. For example, as shown in FIG. 2A, a point a and a point b in which the range in which the position error may occur are large and small as the output results of the filters of σ a and σ b , respectively. Suppose that it was obtained in. At this time, in the Gaussian filtering unit 2, by giving a large τ a and a small τ b in consideration of the range of the position error to each a and b, the output of the next linear addition unit 3 is ), A peak can be obtained within the positional error of each edge.

【0020】具体的なτの値としては、エッジ抽出を行
う際のσが大きい(解像度が低い)ほど位置誤差が大き
くなることから、τとして前出のσ1,…,σn、もしく
はその定数倍を用いることが考えられる。
As a concrete value of τ, the larger the σ at the time of edge extraction (the lower the resolution) is, the larger the position error becomes. Therefore, as τ, the above-mentioned σ 1 , ..., σ n , or its It is possible to use a constant multiple.

【0021】(線形加算部3)ガウスフィルタリング部
2で得られたn種類のぼかしエッジ画像を線形に加算す
る。即ち、線形加算部3では、各ぼかしエッジ画像GE
i(i=1,…,n)に対する重みaiを決め、
(Linear Adder 3) The n kinds of blurred edge images obtained by the Gaussian filtering unit 2 are linearly added. That is, in the linear addition unit 3, each blurred edge image GE
Determine weights a i for i (i = 1, ..., N),

【数3】 を計算する。[Equation 3] To calculate.

【0022】ここで、重みαiの値を変えることで、あ
る特定スケールのエッジを強調することが容易に可能で
あり、画像や目的に応じた柔軟なエッジ抽出を行うこと
ができる。以下に、そのいくつかの方法について説明す
る。
Here, by changing the value of the weight α i , it is possible to easily emphasize the edge of a certain specific scale, and it is possible to perform flexible edge extraction according to the image and the purpose. Hereinafter, some of the methods will be described.

【0023】 (1)全ての解像度に対して均一に与える方法 全ての解像度に対して均一の重みを与えた場合、最も小
さいτでぼかしたエッジ画像の付近にピークが現れる確
率が高くなる。一例を図3に示す。今、q1,q2,q3
を、それぞれエッジ抽出部1でスケールσiを用いて得
たエッジ点とする。但し、σ1<σ2<σ3とし、ガウス
フィルタリング部2におけるτ1も同様とする。図3の
(1)にガウスフィルタリング部2の出力例、同図
(2)に、この場合の線形加算部3の出力を正規化した
ものを示す。ピークは最も位置精度の高いq1の付近に
現われているのがわかる。従って、このピークを追跡す
ることによって最も位置誤差の小さいq1の近傍にエッ
ジを求めることができる。
(1) Method of giving uniform to all resolutions When uniform weighting is given to all resolutions, the probability that a peak appears near an edge image blurred with the smallest τ becomes high. An example is shown in FIG. Now q 1 , q 2 , q 3
Are edge points obtained by using the scale σ i in the edge extraction unit 1. However, σ 123 and τ 1 in the Gaussian filtering unit 2 is also the same. An output example of the Gaussian filtering unit 2 is shown in (1) of FIG. 3, and a normalized output of the linear addition unit 3 in this case is shown in (2) of FIG. It can be seen that the peak appears near q 1 , which has the highest positional accuracy. Therefore, by tracking this peak, an edge can be obtained in the vicinity of q 1 with the smallest position error.

【0024】 (2)生体の視覚感度曲線に倣って与える方法 一般に生体の資格感度曲線では、6つのチャネルの空間
周波数帯域のうち、中間の3つのチャネルの空間周波数
帯域が高感度となっている(例えば、田崎、大山、樋渡
編、“視覚情報処理”朝倉書店,1979)。これを参
考にして、中間チャネルを強く、低周波、及び高周波チ
ャネルを弱く与えることが考えられる。生体の視覚感度
に倣うと、高周波から順に、ほぼ以下のような比率にな
る。 α1:α2:α3:α4:α5:α6=1:2:4:4:4:
(2) Method of giving the image following the visual sensitivity curve of the living body Generally, in the qualification sensitivity curve of the living body, the spatial frequency bands of the middle three channels among the spatial frequency bands of the six channels have high sensitivity. (For example, Tasaki, Oyama, Hiwatari, "Visual Information Processing" Asakura Shoten, 1979). With reference to this, it is conceivable that the intermediate channel is given strong and the low frequency and high frequency channels are given weakly. According to the visual sensitivity of the living body, the ratios are approximately as follows in order from high frequency. α 1 : α 2 : α 3 : α 4 : α 5 : α 6 = 1: 2: 4: 4: 4:
Two

【0025】(3)ある解像度を強調する方法 更に、ある解像度を強調するように与えることが考えら
れる。例えば、図4(1)に示すように、σαとσβ
得られた二つのエッジ点α,βがあったとし、それに対
し均一なτでガウスフィルタをかけたとする。この時、
それぞれの重みaαとaβをaα<aβと与えることに
より、エッジ点βを強調することが可能になる。図4
(2)に、図4(1)に対しaα:aβ=2:3として
線形に加算し正規化した結果を示す。また、例えば、上
記(2)に示した例で、 α1:α2:α3:α4:α5:α6=0:0:0:1:2:
1 という与え方をすることにより、細かい特徴を排除し、
概形情報を中心にエッジを抽出することが可能になる。
(3) Method of emphasizing certain resolution Further, it is conceivable that certain resolution is emphasized. For example, as shown in FIG. 4A, it is assumed that there are two edge points α and β obtained by σ α and σ β , and a Gaussian filter is applied to them with a uniform τ. At this time,
By giving the respective weights a α and a β as a α <a β , the edge point β can be emphasized. Figure 4
(2) shows a result obtained by linearly adding and normalizing a α : a β = 2: 3 with respect to FIG. 4 (1). Further, for example, in the example shown in (2) above, α 1 : α 2 : α 3 : α 4 : α 5 : α 6 = 0: 0: 0: 1: 2:
By giving the method of 1, fine features are eliminated,
It becomes possible to extract edges centered on the outline information.

【0026】(4)局所的に変化させる方法 以上のように、統合の重みαiを画面全体で均一とする
以外に、この重みaiを位置座標(x,y)の関数a
i(x,y)として与えることにより、局所的な形状に
軟柔なエッジ処理も可能になる。例えば、σαとσβ
フィルタによってエッジ抽出部1で得られた出力に対
し、均一なτのガウスフィルタをかけた出力をGEα
GEβとする。この時、画像Iの部分領域I0に属する
点上で、GEαの重みaαを大きく、GEβの重みaβ
を小さくとることにより、部分領域I0のみでGEα
強調を行うことが可能である。 この場合、I0の境界
部分においてエッジが途切れる可能性があるが、I0
境界部分においてゆるやかにaα,aβを変化させるこ
とにより、滑らかな出力を得ることができる。これを図
5に示す。つまり、図5(1)に示すように、画像の中
心部からの距離rが、r<r0となる領域をI0、r0
r<r1となる領域をI1、r≧r1となる領域をI2とす
る。この3つの領域に対し、rの値によって変化するt
を用いて、aα:aβ=1−t:tと重みを与える。但
し、t=0(r<r0),t=(r−r0)/(r1
0),t=1(r≧r1)である。図5(2)にtの値
を示す。このように重みai(x,y)を与えることに
より、中心部分I0ではGEαが強調され、周辺部分I2
ではGEβが強調され、境界部分I1では、中心部分I0
と周辺部分I2の出力を滑らかにつなぐことが可能であ
る。
(4) Method of locally changing the weight As described above, in addition to making the integrated weight α i uniform over the entire screen, this weight a i is a function a of the position coordinates (x, y).
By giving i (x, y), it becomes possible to perform soft edge processing on the local shape. For example, an output obtained by applying a uniform τ Gaussian filter to the output obtained by the edge extraction unit 1 by the filters of σ α and σ β is GE α ,
Let GE β . At this time, on a point that belongs to the partial area I 0 of the image I, increasing the weight a alpha of GE alpha, the weight of GE beta a beta
It is possible to enhance GE α only in the partial region I 0 by making the value smaller. In this case, there is a possibility that the edge is interrupted at the boundary of I 0, by varying the slowly a alpha, a beta at the boundary of I 0, it is possible to obtain a smooth output. This is shown in FIG. That is, as shown in FIG. 5A, I 0 , r 0 ≤ a region where the distance r from the center of the image is r <r 0.
The r <r 1 and a region of the area to be I 1, r ≧ r 1 and I 2. For these three regions, t that changes depending on the value of r
Is used to weight a α : a β = 1−t: t. However, t = 0 (r <r 0 ), t = (r−r 0 ) / (r 1
r 0 ), t = 1 (r ≧ r 1 ). The value of t is shown in FIG. By giving the weight a i (x, y) in this way, GE α is emphasized in the central portion I 0 and the peripheral portion I 2
In GE, the GE β is emphasized, and in the boundary portion I 1 , the central portion I 0
And the output of the peripheral portion I 2 can be smoothly connected.

【0027】(エッジ決定部4)線形加算部3で得られ
た出力からエッジを決定し、最終的に出力エッジ画像2
0を得る。エッジ決定方法としては、 (1)出力の強度値に対して、ある一定の閾値以上をと
るものを求めてエッジとみなす方法 (2)出力の強度値がある一定の閾値th1以上の点の
近傍点で、閾値th2以上をとるものを追跡してエッジ
とみなす方法 (3)出力の強度値がある一定の閾値th1以上の点の
近傍点のうち、閾値th2以上で最大のものを追跡して
エッジとみなす方法 (4)出力の強度値を輪郭モデルのエネルギー関数に与
え、輪郭モデルを収束させる方法 などが考えられる。なお、(4)の方法における輪郭モ
デルとしては、Snakes(M.Kass,A.Witkin,
D.Terzopoulos,“Snakes:Active contourmodel
s”,Proc.ICCV−87,pp.259−268,1
987 参照)などが考えられる。
(Edge determination unit 4) An edge is determined from the output obtained by the linear addition unit 3, and finally the output edge image 2
Get 0. As an edge determination method, (1) a method in which an output intensity value having a certain threshold value or more is obtained and regarded as an edge (2) neighborhood of a point having an output intensity value having a certain threshold value th1 or more At a point, a method of tracking a thing having a threshold value th2 or more and regarding it as an edge is performed. Method of considering as edge (4) A method of giving the output intensity value to the energy function of the contour model and converging the contour model can be considered. As the contour model in the method (4), Snakes (M. Kass, A. Witkin,
D. Terzopoulos, “Snakes: Active contourmodel
s ", Proc. ICCV-87, pp.259-268, 1
987)).

【0028】図6乃至図23に処理の具体例を示す。図
6は入力濃淡画像の一例である。ここではディジタル濃
淡画像を示し、画素数は512×512である。
6 to 23 show specific examples of the processing. FIG. 6 is an example of an input grayscale image. Here, a digital grayscale image is shown, and the number of pixels is 512 × 512.

【0029】図7乃至図12は、図6の入力濃淡画像に
対し、異なるスケールσi(i=1,…,6)のフィル
タをかけて、6種類の解像度によるエッジ抽出を行った
例である。ここでは、フィルタにラプラシアンガウシア
ンフィルタを用い、ゼロクロス点を抽出する手法をとっ
た。フィルタスケールはそれぞれσ1=1.74,σ2
3.34,σ3=6.52,σ4=9.24,σ5=1
5.1,σ6=32.0である。図7乃至図12に示す
ように、スケールσが小さい(解像度が高い)と繁雑な
エッジが抽出され、逆にスケールが大きい(解像度が低
い)と大まかとなるが、位置ずれが起こる。
FIGS. 7 to 12 show an example in which the input grayscale image of FIG. 6 is filtered with different scales σ i (i = 1, ..., 6) to perform edge extraction with 6 types of resolutions. is there. Here, a Laplacian-Gaussian filter is used as a filter, and a method of extracting a zero-cross point is adopted. The filter scales are σ 1 = 1.74 and σ 2 =
3.34, σ 3 = 6.52, σ 4 = 9.24, σ 5 = 1
5.1 and σ 6 = 32.0. As shown in FIGS. 7 to 12, when the scale σ is small (high resolution), complicated edges are extracted, and conversely, when the scale σ is large (low resolution), it is rough, but a positional shift occurs.

【0030】図13乃至図18は、図7乃至図12の各
エッジ画像に、それぞれのスケールσ1〜σ6と同一のス
ケール(即ち、τ1=1.74,τ2=3.34,τ3
6.52,τ4=9.24,τ5=15.1,τ6=3
2.0)のガウスフィルタをかけて得られたぼかしエッ
ジ画像である。なお、ぼかしの様子が良く分かるよう
に、図13乃至図18のそれぞれの画像の一部を拡大し
たものを図19にまとめて示す。
FIGS. 13 to 18 show the same scales (ie, τ 1 = 1.74, τ 2 = 3.34, σ 1 to σ 6) for the edge images of FIGS. τ 3 =
6.52, τ 4 = 9.24, τ 5 = 15.1, τ 6 = 3
It is a blurred edge image obtained by applying the Gaussian filter of (2.0). It is to be noted that, in order to better understand the state of blurring, a partial enlargement of each of the images in FIGS. 13 to 18 is collectively shown in FIG.

【0031】図20は、図13乃至図18の6種類のぼ
かしエッジ画像を、重みai(i=1,…,6)を均一
として、線形加算した出力画像である。
FIG. 20 is an output image in which the six types of blurred edge images of FIGS. 13 to 18 are linearly added with the weights a i (i = 1, ..., 6) being uniform.

【0032】図21は、図20の出力画像について閾値
処理を施こしたもので、これが最終結果のエッジ抽出画
像である。ただし、ここでは、線形加算結果を最大値2
55に正規化し、閾値th1=100以上の点を始点と
して、近傍における最大値かつ閾値th2=60以上の
尾根点を追跡することで最終的なエッジを得た。図21
に示すように、本発明の手法によると、位置誤差を緩和
し、雑音を除去したエッジ画像を得ることができる。
In FIG. 21, the output image of FIG. 20 is subjected to threshold processing, and this is the edge extraction image of the final result. However, the maximum value of the linear addition result is 2 here.
A final edge was obtained by normalizing to 55 and starting a point having a threshold value th1 = 100 or more as a starting point and tracing a ridge point having a maximum value in the vicinity and a threshold value th2 = 60 or more. Figure 21
As shown in FIG. 7, according to the method of the present invention, it is possible to reduce the position error and obtain an edge image from which noise is removed.

【0033】図22は、図13乃至図18の6種類のぼ
かしエッジ画像について、重みai(i=1,…,6)
として α1:α2:α3:α4:α5:α6=0:0:0:1:2:
1 という与え方をして線形加算し、同様に閾値処理を施こ
して得たエッジ抽出画像である。この場合、細かい特徴
を排除し、概形情報を中心としたエッジ画像が得られ
る。
FIG. 22 shows weights a i (i = 1, ..., 6) for the six types of blurred edge images shown in FIGS.
As α 1 : α 2 : α 3 : α 4 : α 5 : α 6 = 0: 0: 0: 1: 2:
It is an edge extraction image obtained by linearly adding by giving 1 and similarly performing threshold processing. In this case, fine features are excluded and an edge image centered on the outline information is obtained.

【0034】また、図23は、図13乃至図18の6種
類のぼかしエッジ画像について、重みai(i=1,
…,6)を図5で説明したような位置座標(x,y)の
関数ai(x,y)として与えて線形加算し、同様に閾
値処理を施こして得たエッジ抽出画像である。ただし、
0として画像幅の1/6、r1として画像幅の1/12
を使用した。図23より、局所的に細かいエッジ抽出を
行われていることがわかる。
In addition, FIG. 23 shows that the weights a i (i = 1, 1) for the six types of blurred edge images shown in FIGS.
, 6) is given as the function a i (x, y) of the position coordinate (x, y) as described with reference to FIG. 5, linear addition is performed, and the edge extraction image is obtained by similarly performing threshold processing. . However,
r 0 is 1/6 of the image width and r 1 is 1/12 of the image width
It was used. From FIG. 23, it can be seen that fine edge extraction is locally performed.

【0035】[0035]

【発明の効果】本発明においては、複数のスケールのエ
ッジ抽出フィルタでエッジ抽出を行うことにより、局所
的な情報と大局的な情報を同時に考慮することができる
上、更に、それぞれにガウスフィルタをかけ、その出力
を線形に足すことにより、多種多様のスケールのエッジ
抽出フィルタによって得られる異なる出力を統合するこ
とが可能になるため、位置誤差は少ないが雑音に敏感な
小さいスケールと、雑音に強いが位置誤差の多い大きい
スケールの情報を用いて、雑音の強く位置誤差の少ない
エッジ抽出が実現できる。
According to the present invention, by performing edge extraction with an edge extraction filter of a plurality of scales, it is possible to consider local information and global information at the same time. By multiplying them and adding their outputs linearly, it is possible to combine the different outputs obtained by the edge extraction filters of various scales, so that the position error is small but the noise-sensitive small scale and the noise-resistant scale are strong. By using the information of a large scale with a large number of position errors, edge extraction with a strong noise and a small position error can be realized.

【0036】また、統合を行うにあたっては、第一に、
カウスフィルタでぼかす際、抽出したエッジの位置誤差
範囲を考慮してガウスフィルタのスケールを選定するこ
とにより、より正確に位置誤差を排除したエッジを抽出
することができる。第二に、各スケールのエッジ抽出フ
ィルタで得られたエッジに、それぞれ対応するスケール
のガウスフィルタをかけて線形に足す際、重みを変更す
ることによって、細かい情報を強調したり、大局的な情
報を強調したり、あるいは、画像の局所的な情報を強調
することが可能になるため、各画像に対し柔軟な多重解
像度エッジ抽出を行うことができる。
In the integration, firstly,
When blurring with the Kauss filter, by selecting the scale of the Gaussian filter in consideration of the position error range of the extracted edge, it is possible to more accurately extract the edge from which the position error is excluded. Secondly, by adding a Gaussian filter of the corresponding scale to the edges obtained by the edge extraction filter of each scale and adding them linearly, by changing the weight, detailed information can be emphasized or global information can be emphasized. Can be emphasized or local information of the image can be emphasized, so that flexible multi-resolution edge extraction can be performed for each image.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の全体構成図である。FIG. 1 is an overall configuration diagram of the present invention.

【図2】ガウスフィルタリングで用いるスケールの選択
を説明する図である。
FIG. 2 is a diagram illustrating selection of a scale used in Gaussian filtering.

【図3】線形加算で用いる重みを全ての解像度に対して
均一に与える場合の例を示す図である。
FIG. 3 is a diagram showing an example in which weights used in linear addition are uniformly applied to all resolutions.

【図4】線形加算で用いる重みを解像度間で変えて与え
る場合の例を示す図である。
FIG. 4 is a diagram showing an example in which weights used in linear addition are given while being changed between resolutions.

【図5】線形加算で用いる重みを局所的に変化させる場
合を説明する図である。
FIG. 5 is a diagram illustrating a case where a weight used in linear addition is locally changed.

【図6】入力濃淡画像の一例である。FIG. 6 is an example of an input grayscale image.

【図7】図6の入力濃淡画像に対するσ1=1.74の
場合のエッジ画像である。
7 is an edge image when σ 1 = 1.74 with respect to the input grayscale image of FIG.

【図8】図6の入力濃淡画像に対するσ2=3.34の
場合のエッジ画像である。
8 is an edge image in the case of σ 2 = 3.34 with respect to the input grayscale image of FIG. 6;

【図9】図6の入力濃淡画像に対するσ3=6.52の
場合のエッジ画像である。
9 is an edge image when σ 3 = 6.52 with respect to the input grayscale image of FIG.

【図10】図6の入力濃淡画像に対するσ4=9.54
の場合のエッジ画像である。
10 shows σ 4 = 9.54 for the input grayscale image of FIG.
It is an edge image in the case of.

【図11】図6の入力濃淡画像に対するσ5=15.1
の場合のエッジ画像である。
11] σ 5 = 15.1 for the input grayscale image of FIG.
It is an edge image in the case of.

【図12】図6の入力濃淡画像に対するσ6=32.0
の場合のエッジ画像である。
FIG. 12 shows σ 6 = 32.0 for the input grayscale image of FIG.
It is an edge image in the case of.

【図13】図7のエッジ画像に対するτ1=1.74の
場合のぼかしエッジ画像である。
13 is a blurred edge image when τ 1 = 1.74 with respect to the edge image of FIG. 7.

【図14】図8のエッジ画像に対するτ2=3.34の
場合のぼかしエッジ画像である。
14 is a blurred edge image when τ 2 = 3.34 with respect to the edge image of FIG.

【図15】図9のエッジ画像に対するτ3=6.52の
場合のぼかしエッジ画像である。
15 is a blurred edge image when τ 3 = 6.52 with respect to the edge image of FIG. 9;

【図16】図10のエッジ画像に対するτ4=9.54
の場合のぼかしエッジ画像である。
16 is τ 4 = 9.54 for the edge image of FIG.
It is a blurred edge image in the case of.

【図17】図11のエッジ画像に対するτ5=15.1
の場合のぼかしエッジ画像である。
FIG. 17 shows τ 5 = 15.1 for the edge image of FIG.
It is a blurred edge image in the case of.

【図18】図12のエッジ画像に対するτ6=32.0
の場合のぼかしエッジ画像である。
FIG. 18 shows τ 6 = 32.0 for the edge image of FIG.
It is a blurred edge image in the case of.

【図19】図13乃至図18の一部拡大図である。FIG. 19 is a partially enlarged view of FIGS. 13 to 18.

【図20】図13乃至図18のぼかしエッジ画像を重み
均一として線形加算した出力画像である。
FIG. 20 is an output image obtained by linearly adding the blurred edge images of FIGS. 13 to 18 with uniform weighting.

【図21】図20の出力画像を閾値処理した最終エッジ
抽出画像である。
FIG. 21 is a final edge extraction image obtained by thresholding the output image of FIG. 20.

【図22】図13乃至図18のぼかしエッジ画像につい
て、高い解像度に対応する重みを0とした場合の最終エ
ッジ抽出画像である。
22 is a final edge extracted image of the blurred edge images of FIGS. 13 to 18 when the weight corresponding to high resolution is set to 0. FIG.

【図23】図13乃至図18のぼかしエッジ画像につい
て、局所的に重みを変更した場合の最終エッジ抽出画像
である。
FIG. 23 is a final edge extraction image in the case where the weights are locally changed in the blurred edge images of FIGS. 13 to 18.

【符号の説明】[Explanation of symbols]

1 エッジ抽出部 2 ガウスフィルタリング部 3 線形加算部 4 エッジ決定部 10 入力濃淡画像 11 出力エッジ画像 1 edge extraction unit 2 Gaussian filtering unit 3 linear addition unit 4 edge determination unit 10 input gray image 11 output edge image

───────────────────────────────────────────────────── フロントページの続き (72)発明者 鎧沢 勇 東京都千代田区内幸町1丁目1番6号 日 本電信電話株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Isamu Isawa 1-1-6 Uchisaiwaicho, Chiyoda-ku, Tokyo Nihon Telegraph and Telephone Corporation

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 入力濃淡画像から特徴点の集合であるエ
ッジを抽出する処理方法において、 入力濃淡画像に対し、複数の異なるスケールのフィルタ
を用いてそれぞれエッジの抽出を行う第一の過程と、 第一の過程で得られた各エッジ抽出結果に、それぞれに
対応するスケールを持つガウスフィルタをかける第二の
過程と、 第二の過程で得られた各処理結果を線形に足し合わせる
第三の過程と、 第三の過程で得られた処理結果からエッジ点を検出する
第四の過程と、を有することを特徴とする画像のエッジ
抽出処理方法。
1. A processing method for extracting an edge, which is a set of feature points, from an input grayscale image, the first step of extracting each edge from the input grayscale image by using a plurality of filters of different scales, A second step of applying a Gaussian filter with a scale corresponding to each edge extraction result obtained in the first step, and a linear addition of each processing result obtained in the second step. An image edge extraction processing method comprising: a step; and a fourth step of detecting an edge point from the processing result obtained in the third step.
【請求項2】 請求項1記載の画像のエッジ抽出処理方
法において、第三の過程では、第二の過程で得られた各
処理結果を線形に足し合せる際、特定のスケールのもの
とそのほかのスケールのものとで異なる重みを与えて線
形に足し合わせることを特徴とする画像のエッジ抽出処
理方法。
2. The image edge extraction processing method according to claim 1, wherein in the third step, when the respective processing results obtained in the second step are linearly added, those of a specific scale and other An image edge extraction processing method characterized by adding different weights to those of a scale and adding them linearly.
【請求項3】 請求項1記載の画像のエッジ抽出処理方
法において、第三の過程では、第二の過程で得られた各
処理結果を線形に足し合わせる際、画像上の局所領域に
応じて異なる重みを与えて線形に足し合わせることを特
徴とする画像のエッジ抽出処理方法。
3. The image edge extraction processing method according to claim 1, wherein in the third step, when the processing results obtained in the second step are linearly added, the processing is performed according to a local region on the image. An image edge extraction processing method characterized by adding different weights and adding them linearly.
JP5269542A 1993-02-03 1993-10-01 Edge extraction processing method for image Pending JPH06290268A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5269542A JPH06290268A (en) 1993-02-03 1993-10-01 Edge extraction processing method for image

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP3734093 1993-02-03
JP5-37340 1993-02-03
JP5269542A JPH06290268A (en) 1993-02-03 1993-10-01 Edge extraction processing method for image

Publications (1)

Publication Number Publication Date
JPH06290268A true JPH06290268A (en) 1994-10-18

Family

ID=26376479

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5269542A Pending JPH06290268A (en) 1993-02-03 1993-10-01 Edge extraction processing method for image

Country Status (1)

Country Link
JP (1) JPH06290268A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995025149A1 (en) * 1994-03-16 1995-09-21 Sumitomo Electric Industries, Ltd. Organic electroluminescent element
US5821003A (en) * 1994-03-16 1998-10-13 Sumitomo Electric Industries, Ltd. Organic electroluminescent device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995025149A1 (en) * 1994-03-16 1995-09-21 Sumitomo Electric Industries, Ltd. Organic electroluminescent element
US5821003A (en) * 1994-03-16 1998-10-13 Sumitomo Electric Industries, Ltd. Organic electroluminescent device

Similar Documents

Publication Publication Date Title
US6631212B1 (en) Twostage scheme for texture segmentation based on clustering using a first set of features and refinement using a second set of features
EP1387315B1 (en) Preparation of a digital image with subsequent edge detection
US20040037460A1 (en) Method for detecting objects in digital images
CN111507965A (en) Novel coronavirus pneumonia focus detection method, system, device and storage medium
CN112614062A (en) Bacterial colony counting method and device and computer storage medium
CN112883824A (en) Finger vein feature recognition device for intelligent blood sampling and recognition method thereof
CN115546232A (en) Liver ultrasonic image working area extraction method and system and electronic equipment
Kim Multi-window binarization of camera image for document recognition
US6707932B1 (en) Method for identifying graphical objects in large engineering drawings
CN112258532A (en) Method for positioning and segmenting corpus callosum in ultrasonic image
Jang et al. Binarization of noisy gray-scale character images by thin line modeling
JPH06290268A (en) Edge extraction processing method for image
CN110264417B (en) Local motion fuzzy area automatic detection and extraction method based on hierarchical model
US7136515B2 (en) Method and apparatus for providing a binary fingerprint image
CN112435186A (en) Fingerprint image enhancement method based on double-rule matrix direction field
Mariani Subpixellic eyes detection
CN116630256B (en) Ultrasonic contrast image identification method, system, electronic equipment and storage medium
Egawa et al. Region extraction in SPOT data
CN112258535B (en) Integrated positioning and segmentation method for corpus callosum and lumbricus in ultrasonic image
Cloppet et al. Local blur correction for document images
Saini et al. Segmentation of mitral regurgitant jet using the combination of wavelet and watershed transformation
Mourya et al. Techniques for learning to see in the dark: a survey
Liu et al. A Modified Thinning Framework Against Noise
Tanaka et al. A Contrast Enhancement Method of Only the Region of Interest while Preserving Mean Brightness
Palenichka A visual attention operator based on morphological models of images and maximum likelihood decision