JPH0512440A - Edge detector - Google Patents

Edge detector

Info

Publication number
JPH0512440A
JPH0512440A JP3165566A JP16556691A JPH0512440A JP H0512440 A JPH0512440 A JP H0512440A JP 3165566 A JP3165566 A JP 3165566A JP 16556691 A JP16556691 A JP 16556691A JP H0512440 A JPH0512440 A JP H0512440A
Authority
JP
Japan
Prior art keywords
luminance
image
edge
brightness
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3165566A
Other languages
Japanese (ja)
Other versions
JP2961962B2 (en
Inventor
Yoshiki Kuno
良樹 久野
Shigeru Matsukawa
茂 松川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP3165566A priority Critical patent/JP2961962B2/en
Publication of JPH0512440A publication Critical patent/JPH0512440A/en
Application granted granted Critical
Publication of JP2961962B2 publication Critical patent/JP2961962B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To provide the device, which can surely detect only the edge part of an objective image from an image including background regardless lighting conditions, concerning the edge detector to detect the edge from the image. CONSTITUTION:An image memory 1 stores image data and stores image data prepared in advance. A space filter circuit 3 calculates luminance difference in a local according to image data, and a control circuit part 7 synchronously inputs the data at the same picture element position (address) to the input of a luminance ratio calculating means 5 according to the output of the space filter 3 and the data in the image memory 1. The luminance ratio calculating means 5 calculates a luminance ratio between the luminance difference in the local area and luminance of the image in the area and by comparing the luminance ratio with a threshold value, an edge judging means 6 judges whether the area is the edge or not.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は画像からエッジを検出す
るエッジ検出装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an edge detecting device for detecting edges from an image.

【0002】[0002]

【従来の技術】画像の特徴抽出等を行う画像処理におい
て、エッジ検出は最も基本的な処理の一つである。ここ
でいうエッジとは対象物体と背景との境界部分のことで
あり、一般に画像の輝度が大きく変化する部分のことを
意味している。
2. Description of the Related Art Edge detection is one of the most basic processes in image processing such as image feature extraction. The edge here is a boundary portion between the target object and the background, and generally means a portion where the brightness of the image largely changes.

【0003】従来のエッジ検出装置を図6に示す。図6
において、画像メモリ1で記憶されている画像データを
空間フィルタ2に通すことにより、画像の輝度が大きく
変化する場所の画素の輝度のみが強調される。この空間
フィルタには差分型オペレータが良く用いられている。
これは、局所領域内(m×n画素)における画像データ
I(1,1)〜I(m,n)と重み係数w(1,1)〜
w(m,n)との積和演算
FIG. 6 shows a conventional edge detecting device. Figure 6
In the above, by passing the image data stored in the image memory 1 through the spatial filter 2, only the luminance of the pixel at the location where the luminance of the image largely changes is emphasized. A difference type operator is often used for this spatial filter.
This is because the image data I (1,1) to I (m, n) and the weighting coefficient w (1,1) to within the local region (m × n pixels).
Sum of products operation with w (m, n)

【0004】[0004]

【数1】 [Equation 1]

【0005】によって局所領域内の輝度差を求める方法
である。この重み係数の行列のことをオペレーションマ
スクという。例えば、局所領域内の画像データが図7
(a)のような場合、図7(b)に示すような3×3の
オペレーションマスクを用いて重みづけを行うと、局所
領域内の画素I(2,2)における輝度差ΔIは、
Is a method for obtaining the brightness difference in the local area. This matrix of weighting factors is called an operation mask. For example, the image data in the local area is shown in FIG.
In the case of (a), when weighting is performed using a 3 × 3 operation mask as shown in FIG. 7 (b), the luminance difference ΔI in the pixel I (2,2) in the local region is

【0006】[0006]

【数2】 [Equation 2]

【0007】となる。このようなオペレーションマスク
を用いた空間フィルタをラプラシアンフィルタという。
また、図8に示すような水平方向と垂直方向に別々のオ
ペレーションマスクを用いた場合、水平方向および垂直
方向の輝度差は、
[0007] A spatial filter using such an operation mask is called a Laplacian filter.
Further, when different operation masks are used in the horizontal direction and the vertical direction as shown in FIG. 8, the brightness difference in the horizontal direction and the vertical direction is

【0008】[0008]

【数3】 [Equation 3]

【0009】となる。そして局所領域内の画素I(2,
2)における輝度差ΔIは、次式で得られる。
[0009] Then, the pixel I (2,2
The luminance difference ΔI in 2) is obtained by the following equation.

【0010】[0010]

【数4】 [Equation 4]

【0011】このようなマスクを用いた空間フィルタを
ソーベルフィルタという。これらの差分型オペレータに
よる空間フィルタリング処理については、例えば画像処
理ハンドブック初版3刷発行(平成1年3月)の第28
0頁から第283頁に記載されている。
A spatial filter using such a mask is called a Sobel filter. The spatial filtering processing by these difference type operators is described in, for example, 28th edition of Image Processing Handbook First Edition, 3rd edition (March, 1991).
It is described on pages 0 to 283.

【0012】こうして得た画素の輝度差を図6の比較器
3でしきい値(固定値4)と比較し、しきい値より大き
ければ比較器3が「1」を出力し、小さければ比較器3
が「0」を出力することによって、注目している画素が
エッジであるかどうかを判定し、図9に示されるように
画像のエッジ部分のみが出力され、検出している。
The brightness difference of the pixels thus obtained is compared with a threshold value (fixed value 4) by the comparator 3 in FIG. 6, and if it is larger than the threshold value, the comparator 3 outputs "1", and if it is smaller, the comparison is made. Bowl 3
Outputs "0" to determine whether or not the pixel of interest is an edge, and as shown in FIG. 9, only the edge portion of the image is output and detected.

【0013】ここで、上記輝度差を用いることにより画
像中からエッジが検出される原理について説明する。対
象物体と背景との違いは、一般にその表面反射率の差に
現れる。いま、入射光をi、対象物体の反射光をI、背
景の反射光をI’、対象物体の表面反射率をr、背景の
表面反射率をr’とすると、
Now, the principle of detecting an edge in an image by using the brightness difference will be described. The difference between the target object and the background generally appears in the difference in surface reflectance. Now, when the incident light is i, the reflected light of the target object is I, the reflected light of the background is I ′, the surface reflectance of the target object is r, and the surface reflectance of the background is r ′,

【0014】[0014]

【数5】 [Equation 5]

【0015】であり、対象物体と背景との反射光の差Δ
Iは、
And the difference Δ in the reflected light between the target object and the background.
I is

【0016】[0016]

【数6】 [Equation 6]

【0017】となり、表面反射率の差は反射光の差とな
って現れてくる。この反射光とは、すなわち画像データ
の輝度であり、反射光の差ΔIは対象物体と背景との輝
度差である。対象物体と背景の反射率の差が大きけれ
ば、輝度差ΔIは大きくなりエッジを検出することがで
きる。
Therefore, the difference in surface reflectance appears as a difference in reflected light. The reflected light is the brightness of the image data, and the difference ΔI in the reflected light is the brightness difference between the target object and the background. If the difference in reflectance between the target object and the background is large, the brightness difference ΔI becomes large, and the edge can be detected.

【0018】[0018]

【発明が解決しようとする課題】しかしながら、上述の
ような従来装置では、(数6)から明らかなように、上
記輝度差ΔIは入射光iに依存し、画像入力時の照明条
件に左右されることがわかる。すなわち、暗い照明下で
入力した画像の場合は、対象物体と背景との反射率の差
が大きくても、入射光iが小さいと輝度差ΔIは小さく
なり、エッジとして検出することが困難になる。また逆
に画像入力時の照明が非常に明るい場合は、対象物体以
外の部分と背景との反射率の差が小さくても、入射光i
が非常に大きいので輝度差ΔIが大きくなり、誤ってエ
ッジとして検出してしまう恐れがある。
However, in the above-mentioned conventional apparatus, as is clear from (Equation 6), the brightness difference ΔI depends on the incident light i, and depends on the illumination condition at the time of image input. I understand that That is, in the case of an image input under dark illumination, even if the difference in reflectance between the target object and the background is large, the brightness difference ΔI becomes small when the incident light i is small, and it becomes difficult to detect it as an edge. . On the contrary, when the illumination at the time of image input is very bright, even if the difference in reflectance between the portion other than the target object and the background is small, the incident light i
Is very large, the luminance difference ΔI becomes large, and there is a risk of false detection as an edge.

【0019】このように上記従来技術では、画像入力時
の照明条件によって検出すべき対象部分のエッジが検出
できなかったり、対象外の部分をエッジとして検出して
しまうという課題があった。
As described above, the above-mentioned conventional techniques have a problem that the edge of the target portion to be detected cannot be detected or the non-target portion is detected as an edge depending on the illumination condition at the time of image input.

【0020】従って、本発明は上記課題を解決するため
になされたもので、照明条件に依存されることなく背景
を含む画像中から対象とする画像のエッジ部分のみを確
実に検出することができる装置を得ることを目的とす
る。
Therefore, the present invention has been made to solve the above problems, and can reliably detect only the edge portion of the target image from the image including the background without depending on the illumination condition. The purpose is to obtain the device.

【0021】[0021]

【課題を解決するための手段】本発明は上記目的を達成
するために、画像データから局所領域内での輝度差を求
める空間フィルタ手段と、上記空間フィルタ手段より求
めた輝度差と上記局所領域内の画像の輝度との輝度比を
算出する輝度比算出手段と、上記輝度比算出手段の出力
をしきい値と比較することにより上記画像データがエッ
ジであるかどうかを判定するエッジ判定手段を備えたこ
とを特徴とするものである。
In order to achieve the above object, the present invention provides a spatial filter means for obtaining a luminance difference in a local area from image data, a luminance difference obtained by the spatial filter means and the local area. Brightness ratio calculating means for calculating the brightness ratio with the brightness of the image in the inside, and edge determining means for determining whether or not the image data is an edge by comparing the output of the brightness ratio calculating means with a threshold value. It is characterized by having.

【0022】[0022]

【作用】本発明は上記のような構成により次のような作
用を有する。画像データを空間フィルタ手段に通すこと
により、局所領域内での輝度差ΔIを求める。つぎに上
記輝度差ΔIと上記局所領域内の画像データの輝度Iと
の輝度比ΔI/Iを輝度比算出手段によって求める。上
記輝度比ΔI/Iは照明条件に依存されない性質がある
ので、エッジ判定手段が、上記輝度比ΔI/Iとしきい
値とを比較することによりエッジであるかどうかを判定
すれば、照明条件に依存されることなく背景を含む画像
中から対象とする画像のエッジ部分のみを確実に検出す
ることができる。
The present invention has the following actions due to the above-mentioned configuration. By passing the image data through the spatial filter means, the brightness difference ΔI in the local area is obtained. Then, the brightness ratio ΔI / I between the brightness difference ΔI and the brightness I of the image data in the local area is calculated by the brightness ratio calculating means. Since the brightness ratio ΔI / I has a property that it does not depend on the illumination condition, if the edge determining means determines whether it is an edge by comparing the brightness ratio ΔI / I with a threshold value, the illumination condition is determined. It is possible to reliably detect only the edge portion of the target image from the image including the background without depending.

【0023】[0023]

【実施例】次に本発明の第1の実施例を図1により説明
する。図1において、画像メモリ1は画像データを記憶
するメモリであり、あらかじめ用意した画像データが記
憶されている。遅延回路2は画像メモリ1から送られた
画像データから3つの水平ラインデータに分けて空間フ
ィルタ3に送る回路である。空間フィルタ3は局所領域
内での輝度差を求める空間フィルタ回路で、図7(b)
の3×3のラプラシアンマスクを用いている。制御部7
は、バッファ4により記憶されている空間フィルタ3の
出力と画像メモリ1を制御して、輝度比算出手段5の入
力に同じ画素位置(アドレス)のデータを同期して入力
させる回路である。輝度比算出手段5は局所領域内にお
ける輝度差とその領域内の画像データとの輝度比をもと
める回路で、エッジ判定手段6は上記輝度比としきい値
を比較してエッジであるかどうかを判定する回路であ
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, a first embodiment of the present invention will be described with reference to FIG. In FIG. 1, an image memory 1 is a memory for storing image data, and image data prepared in advance is stored therein. The delay circuit 2 is a circuit that divides the image data sent from the image memory 1 into three horizontal line data and sends them to the spatial filter 3. The spatial filter 3 is a spatial filter circuit that obtains the brightness difference in the local area, and is shown in FIG.
3 × 3 Laplacian mask is used. Control unit 7
Is a circuit for controlling the output of the spatial filter 3 stored in the buffer 4 and the image memory 1 so that the data of the same pixel position (address) is synchronously input to the input of the luminance ratio calculating means 5. The brightness ratio calculating means 5 is a circuit for obtaining the brightness ratio between the brightness difference in the local area and the image data in the area, and the edge determining means 6 compares the brightness ratio with a threshold value to determine whether it is an edge. It is a circuit to do.

【0024】まず、制御部7が画像メモリ1の出力を制
御して、画像メモリ1で記憶されている画像データの水
平ラインのうち上下に連続した3ライン分のデータだけ
を遅延回路2を通して空間フィルタ3に送る。空間フィ
ルタ3では、送られてきた3ライン分のデータから順次
水平方向にオペレーションマスクを1画素ずつずらしな
がら1ライン分の局所領域内(マスク内)でのマスク中
心における輝度差を求めバッファ4に送る。ここで、こ
の空間フィルタ3の作用は図6に示した従来装置とおな
じであるので、詳細な説明を省略する。得られた1ライ
ン分の輝度差はバッファ4に蓄えられる。つぎに、制御
部7によって、まずバッファ4から1画素分のデータを
輝度比算出手段5に送り、その後すぐに制御部7が画像
メモリ1を制御して、バッファ4から出力されたデータ
と同じアドレスの画像データを輝度比算出手段5に送
る。これを全ラインにわたって1ラインずつずらしなが
ら繰り返し行う。その結果、局所領域内の輝度差とその
局所領域中心画素の輝度が同期してつぎつぎと輝度比算
出手段5に送られることになる。こうして輝度比算出手
段5に送られた2つのデータから局所領域内の輝度差と
その局所領域中心画素の輝度との輝度比が求まる。求め
た輝度比としきい値とをエッジ判定手段6で比較し、し
きい値より大きければエッジ判定手段6が「1」を出力
し、小さければ「0」を出力することによって、上記局
所領域中心の画素がエッジであるかどうかを判定し、検
出している。
First, the control unit 7 controls the output of the image memory 1 so that only the data of three consecutive vertical lines of the horizontal lines of the image data stored in the image memory 1 is transmitted through the delay circuit 2 to the space. Send to filter 3. In the spatial filter 3, the operation mask is sequentially shifted horizontally by one pixel from the sent data for three lines, and the brightness difference at the mask center in the local area for one line (within the mask) is obtained and stored in the buffer 4. send. Here, since the operation of the spatial filter 3 is the same as that of the conventional device shown in FIG. 6, detailed description thereof will be omitted. The obtained brightness difference for one line is stored in the buffer 4. Next, the control unit 7 first sends the data for one pixel from the buffer 4 to the luminance ratio calculation means 5, and immediately thereafter, the control unit 7 controls the image memory 1 to obtain the same data as the data output from the buffer 4. The image data of the address is sent to the brightness ratio calculating means 5. This is repeated while shifting the entire line one line at a time. As a result, the brightness difference in the local area and the brightness of the local area center pixel are sent to the brightness ratio calculating means 5 one after another in synchronization. In this way, the brightness ratio between the brightness difference in the local area and the brightness of the central pixel of the local area is obtained from the two data sent to the brightness ratio calculating means 5. The obtained brightness ratio and the threshold value are compared by the edge determining means 6, and if the threshold value is larger than the threshold value, the edge determining means 6 outputs "1", and if smaller, outputs "0". The pixel is determined to be an edge and detected.

【0025】ここで上記輝度比の性質について説明す
る。いま、局所領域内の注目画素の輝度を対象物体の輝
度Iとして、また局所領域内の平均輝度を背景の輝度
I’としてそれぞれ置き換えれば、画像データを空間フ
ィルタを通すことにより得た局所領域内での輝度差は、
近似的に対象物体と背景との輝度差ΔIに等しくなるの
で、上記輝度比は(数5)(数6)より、
The characteristics of the brightness ratio will be described below. Now, if the luminance of the pixel of interest in the local region is replaced with the luminance I of the target object, and the average luminance within the local region is replaced with the background luminance I ′, then the local data obtained by passing the image data through the spatial filter The brightness difference at
Since it is approximately equal to the brightness difference ΔI between the target object and the background, the brightness ratio is calculated from (Equation 5) and (Equation 6).

【0026】[0026]

【数7】 [Equation 7]

【0027】となる。すなわち、輝度比ΔI/Iは反射
率r及びr’の値のみにより決定され、入射光iに依存
されないことがわかる。したがって、図5の(a)のよ
うに照明が暗くて、検出すべき対象の輝度レベルと背景
の輝度レベルとの差(ΔI)が小さくても、対象物体の
反射率rと背景の反射率r’との間に大きな差があれ
ば、輝度比ΔI/Iは相対的に大きくなりエッジとして
検出することがでる。また図5の(b)のように照明が
明るくて、対象外の輝度と背景との輝度差(ΔI)が大
きくても、対象外の部分の反射率rと背景の反射率r’
との間に大きな差異がなければ、輝度比ΔI/Iは相対
的に小さくなり、誤ってエッジとして検出されることは
ない。
[0027] That is, it is understood that the brightness ratio ΔI / I is determined only by the values of the reflectances r and r ′ and is not dependent on the incident light i. Therefore, even if the illumination is dark and the difference (ΔI) between the luminance level of the target to be detected and the luminance level of the background is small as shown in FIG. 5A, the reflectance r of the target object and the reflectance of the background are small. If there is a large difference with r ′, the brightness ratio ΔI / I becomes relatively large and can be detected as an edge. Even if the illumination is bright and the luminance difference (ΔI) between the non-target luminance and the background is large as shown in FIG. 5B, the reflectance r of the non-target portion and the reflectance r ′ of the background are
If there is not a large difference between and, the luminance ratio ΔI / I becomes relatively small and is not erroneously detected as an edge.

【0028】一般に、人間の視覚系においては、背景輝
度から対象輝度を知覚するのに必要な最小の輝度差は、
その背景輝度にほぼ比例するということが知られてい
る。そこで、対象物体と背景との輝度差ΔIと背景の輝
度I’との輝度比ΔI/I’を(数5)(数6)より求
めれば、
Generally, in the human visual system, the minimum luminance difference required for perceiving the target luminance from the background luminance is
It is known that it is almost proportional to the background brightness. Therefore, if the luminance ratio ΔI / I ′ between the luminance difference ΔI between the target object and the background and the luminance I ′ of the background is calculated from (Equation 5) and (Equation 6),

【0029】[0029]

【数8】 [Equation 8]

【0030】となり、(数7)と同様に入射光iに依存
されないことがわかる。これを利用して図3のような構
成にしても本発明は実施可能である。以下、本発明の第
2の実施例について図3により説明する。
It can be seen that, as in the case of (Equation 7), it is not dependent on the incident light i. By utilizing this, the present invention can be implemented even with the configuration shown in FIG. The second embodiment of the present invention will be described below with reference to FIG.

【0031】図3の構成において、画像メモリ1、遅延
回路2、空間フィルタ3、バッファ4、輝度比算出手段
5、エッジ判定手段6は図1の構成と同様のものであ
る。制御部7は、バッファ4に記憶されている空間フィ
ルタ3の出力と、バッファ9に記憶されている平滑フィ
ルタ8の出力を制御して、輝度比算出手段5の入力に同
じ画素位置(アドレス)のデータを同期して入力させる
回路である。また、この制御部7は画像メモリ1を制御
して遅延回路2へ画像データを送る働きも兼ねて備えて
いる。平滑フィルタ8は、図4に示されるような3×3
のオペレーションマスクを用いてマスク内の画像データ
とマスクの重み係数との積和演算により、局所領域内で
の平均輝度を求める平滑フィルタ回路である。バッファ
9はバッファ4と同じ構成を成しており、平滑フィルタ
8の出力を蓄えるためのものである。
In the configuration of FIG. 3, the image memory 1, the delay circuit 2, the spatial filter 3, the buffer 4, the brightness ratio calculating means 5, and the edge determining means 6 are the same as those of the configuration of FIG. The control unit 7 controls the output of the spatial filter 3 stored in the buffer 4 and the output of the smoothing filter 8 stored in the buffer 9 so that the same pixel position (address) is input to the luminance ratio calculation unit 5. It is a circuit for inputting the data of the above. The control section 7 also has a function of controlling the image memory 1 and sending image data to the delay circuit 2. The smoothing filter 8 is 3 × 3 as shown in FIG.
This is a smoothing filter circuit that obtains the average luminance in the local region by performing a product-sum operation of the image data in the mask and the weighting factor of the mask using the operation mask of. The buffer 9 has the same configuration as the buffer 4, and is for storing the output of the smoothing filter 8.

【0032】まず、制御部7が第1の実施例と同様に動
作して、画像メモリ1に記憶されている画像データを遅
延回路2に送る。遅延回路2に送られてきたデータは、
各フィルタに通され、空間フィルタ3の出力はバッファ
4に、平滑フィルタ8の出力はバッファ9に送られる。
つぎに、制御部7によって、バッファ4から1画素分の
データを輝度比算出手段5に送り、同時にバッファ9か
ら、バッファ4の出力と同じアドレスの画像データを輝
度比算出手段5に送る。これを全ラインにわたって1ラ
インずつずらしながら繰り返し行う。その結果、局所領
域内の輝度差とその局所領域内の平均輝度が同期してつ
ぎつぎと輝度比算出手段5に送られることになる。そし
て、輝度比算出手段5およびエッジ判定手段6が、第1
の実施例と同様に動作することにより画像データからエ
ッジを検出することができる。
First, the control unit 7 operates in the same manner as in the first embodiment to send the image data stored in the image memory 1 to the delay circuit 2. The data sent to the delay circuit 2 is
The output of the spatial filter 3 is sent to the buffer 4, and the output of the smoothing filter 8 is sent to the buffer 9.
Next, the control unit 7 sends the data for one pixel from the buffer 4 to the brightness ratio calculating unit 5, and at the same time, sends the image data of the same address as the output of the buffer 4 from the buffer 9 to the brightness ratio calculating unit 5. This is repeated while shifting the entire line one line at a time. As a result, the brightness difference in the local area and the average brightness in the local area are sent to the brightness ratio calculating means 5 one after another in synchronization. Then, the brightness ratio calculation means 5 and the edge determination means 6 are
The edge can be detected from the image data by operating in the same manner as in the above embodiment.

【0033】このように局所領域内の輝度差ΔIと局所
領域内の平均輝度I’との輝度比ΔI/I’を用いてエ
ッジ検出を行えば、人間の視覚系により近づいた処理効
果を期待することができ、実用上極めて有利である。
In this way, if edge detection is performed using the luminance ratio ΔI / I 'between the luminance difference ΔI in the local area and the average luminance I'in the local area, a processing effect closer to that of the human visual system is expected. It is possible and practically extremely advantageous.

【0034】ところで第1の実施例における輝度比ΔI
/Iに、対数変換を施した輝度比対数値log(ΔI/
I)は、
By the way, the luminance ratio ΔI in the first embodiment
Luminance ratio logarithmic value log (ΔI /
I) is

【0035】[0035]

【数9】 [Equation 9]

【0036】となるので、ΔIおよびIに対数変換を施
した後の差分値をもちいて、図1における輝度比算出手
段5を図2のような構成にしても本発明は実施可能であ
る。図2において、対数変換を行うために、対数変換手
段51および対数変換手段52を用意し、対数変換後の
差分値を求めるため差分値算出手段53を用いた。この
ようにすると図1のバッファ4の出力(局所領域内の輝
度差ΔI)と画像メモリ1の出力(上記局所領域中心の
輝度I)は、それぞれ、図2の対数変換手段51および
対数変換手段52により対数変換され、log(Δ
I)、log(I)が得られる。つぎに差分値算出手段
53により輝度比対数値=log(ΔI)−log
(I)が求められ、上記輝度比算出手段が実現できる。
このようにすれば、構造が複雑になる除算器を用いなく
て済むという利点がある。なお、この輝度比算出手段5
の構成は第2の実施例においても有効であることは言う
までもない。
Therefore, the present invention can be practiced even if the brightness ratio calculating means 5 in FIG. 1 is configured as shown in FIG. 2 by using the difference value after logarithmic conversion of ΔI and I. In FIG. 2, logarithmic conversion means 51 and logarithmic conversion means 52 are prepared to perform logarithmic conversion, and difference value calculation means 53 is used to obtain the difference value after logarithmic conversion. In this way, the output of the buffer 4 (luminance difference ΔI in the local region) and the output of the image memory 1 (luminance I at the center of the local region) in FIG. 1 are logarithmic conversion means 51 and logarithmic conversion means in FIG. 2, respectively. Logarithmically converted by 52, log (Δ
I) and log (I) are obtained. Next, the difference value calculation means 53 calculates the luminance ratio logarithmic value = log (ΔI) −log.
(I) is obtained, and the brightness ratio calculating means can be realized.
This has the advantage that it is not necessary to use a divider having a complicated structure. The brightness ratio calculating means 5
It goes without saying that the above-mentioned configuration is also effective in the second embodiment.

【0037】以上説明した第1及び第2の実施例によれ
ば、画像データを空間フィルタを通すことにより得た局
所領域内での輝度差と、その局所領域内の画像の輝度と
の輝度比を用いてエッジを検出しているので、照明条件
によって検出すべき対象の輝度レベルと背景の輝度レベ
ルとの輝度差が小さい場合や、対象外の輝度と背景の輝
度との輝度差が大きい場合でも、背景を含む画像中から
対象とする画像のエッジ部分のみを確実に検出すること
ができる。
According to the first and second embodiments described above, the luminance ratio between the luminance difference in the local area obtained by passing the image data through the spatial filter and the luminance of the image in the local area. Since the edge is detected by using, when the brightness difference between the target brightness level to be detected and the background brightness level is small depending on the lighting conditions, or when the brightness difference between the non-target brightness and the background brightness is large. However, it is possible to reliably detect only the edge portion of the target image from the image including the background.

【0038】なお、上記第1および第2の実施例におい
て、空間フィルタ3にラプラシアンマスクを用いたが、
差分型のオペレーションマスクであれば、どのようなマ
スクでもよい。また、上記第2の実施例において、平滑
フィルタ8のオペレーションマスクは、局所領域内を平
滑化する作用のあるマスクであればよく、図4のマスク
に限定されるものではない。これらのオペレーションマ
スクは3×3のものに限らず、4×4、5×5、あるい
はそれ以外のサイズであってもよい。
In the first and second embodiments, the Laplacian mask is used as the spatial filter 3, but
Any mask may be used as long as it is a difference type operation mask. Further, in the second embodiment, the operation mask of the smoothing filter 8 may be any mask as long as it has a function of smoothing the inside of the local area, and is not limited to the mask of FIG. These operation masks are not limited to 3 × 3, but may be 4 × 4, 5 × 5, or other sizes.

【0039】また、上記第1および第2の実施例におけ
る輝度比は、その逆数を用いてもよい。この場合、エッ
ジ判定手段は、上記輝度比の逆数が、しきい値より小さ
ければ「1」を出力し、大きければ「0」を出力するよ
うな手段にすることにより実現できる。
The reciprocal of the luminance ratio in the first and second embodiments may be used. In this case, the edge determining means can be realized by outputting "1" when the reciprocal of the luminance ratio is smaller than the threshold value and outputting "0" when it is larger.

【0040】[0040]

【発明の効果】以上説明したように、本発明によれば、
局所領域内での輝度比を用いているので、照明条件によ
って検出すべき対象の輝度レベルと背景の輝度レベルと
の輝度差が小さい場合や、対象外の輝度と背景の輝度と
の輝度差が大きい場合でも、背景を含む画像中から対象
とする画像のエッジ部分のみを確実に検出することがで
きる。
As described above, according to the present invention,
Since the brightness ratio in the local area is used, when the brightness difference between the brightness level of the target to be detected and the brightness level of the background to be detected is small, or the brightness difference between the brightness outside the target and the brightness of the background is small. Even if it is large, only the edge portion of the target image can be reliably detected from the image including the background.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例におけるエッジ検出装置
の概略ブロック図
FIG. 1 is a schematic block diagram of an edge detection device according to a first embodiment of the present invention.

【図2】本発明の第1および第2の実施例における輝度
比算出手段の概略ブロック図
FIG. 2 is a schematic block diagram of brightness ratio calculating means in the first and second embodiments of the present invention.

【図3】本発明の第2の実施例におけるエッジ検出装置
の概略ブロック図
FIG. 3 is a schematic block diagram of an edge detection device according to a second embodiment of the present invention.

【図4】本発明の第2の実施例における平滑フィルタの
オペレーションマスク構成図
FIG. 4 is an operation mask configuration diagram of a smoothing filter according to a second embodiment of the present invention.

【図5】(a)は本発明の第1の実施例における暗い照
明下での動作特性説明図 (b)は本発明の第1の実施例における明るい照明下で
の動作特性説明図
5A is an explanatory view of operating characteristics under dark illumination according to the first embodiment of the present invention, and FIG. 5B is an explanatory view of operating characteristics under bright illumination according to the first embodiment of the present invention.

【図6】従来例におけるエッジ検出装置の概略ブロック
FIG. 6 is a schematic block diagram of an edge detection device in a conventional example.

【図7】(a)は従来例における空間フィルタの説明に
用いた局所領域内の画像データの配置図 (b)は本発明の第1および第2の実施例と従来例にお
ける空間フィルタのオペレーションマスク構成図
FIG. 7A is a layout diagram of image data in a local area used for explaining the spatial filter in the conventional example, and FIG. 7B is an operation of the spatial filter in the first and second embodiments of the present invention and the conventional example. Mask configuration diagram

【図8】(a)は従来例の説明に用いたソーベルフィル
タの水平方向のオペレーションマスク構成図 (b)は従来例の説明に用いたソーベルフィルタの垂直
方向のオペレーションマスク構成図
FIG. 8A is a horizontal operation mask configuration diagram of a Sobel filter used to describe a conventional example, and FIG. 8B is a vertical operation mask configuration diagram of a Sobel filter used to describe a conventional example.

【図9】従来例における動作特性説明図FIG. 9 is an explanatory diagram of operating characteristics in a conventional example.

【符合の説明】[Explanation of sign]

1 画像メモリ 2 遅延回路 3 空間フィルタ 4 バッファ 5 輝度比算出手段 6 エッジ判定手段 7 制御部 51 対数変換手段 52 対数変換手段 53 差分値算出手段 1 image memory 2 delay circuit 3 spatial filters 4 buffers 5 Luminance ratio calculation means 6 Edge determination means 7 control unit 51 Logarithmic conversion means 52 Logarithmic conversion means 53 Difference value calculating means

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 画像データから局所領域内での輝度差を
求める空間フィルタ手段と、上記空間フィルタ手段より
求めた輝度差と上記局所領域内の画像の輝度との輝度比
を算出する輝度比算出手段と、上記輝度比算出手段の出
力を所定のしきい値と比較することにより上記画像デー
タのエッジ判定をするエッジ判定手段を備えたことを特
徴とするエッジ検出装置。
1. A spatial filter means for obtaining a luminance difference in a local area from image data, and a luminance ratio calculation for calculating a luminance ratio between the luminance difference obtained by the spatial filter means and the luminance of an image in the local area. An edge detecting device comprising: a means for determining the edge of the image data by comparing the output of the brightness ratio calculating means with a predetermined threshold value.
【請求項2】 輝度比算出手段は、空間フィルタ手段よ
り求めた局所領域内の輝度差及び上記局所領域内の画像
の輝度を対数変換する手段と、上記対数変換後の出力の
差分値を求める差分値算出手段から構成されることを特
徴とする請求項1記載のエッジ検出装置。
2. The brightness ratio calculating means calculates logarithmically the brightness difference in the local area and the brightness of the image in the local area calculated by the spatial filter means, and calculates the difference value of the output after the logarithmic conversion. The edge detection device according to claim 1, wherein the edge detection device comprises a difference value calculation means.
JP3165566A 1991-07-05 1991-07-05 Edge detection device Expired - Fee Related JP2961962B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3165566A JP2961962B2 (en) 1991-07-05 1991-07-05 Edge detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3165566A JP2961962B2 (en) 1991-07-05 1991-07-05 Edge detection device

Publications (2)

Publication Number Publication Date
JPH0512440A true JPH0512440A (en) 1993-01-22
JP2961962B2 JP2961962B2 (en) 1999-10-12

Family

ID=15814800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3165566A Expired - Fee Related JP2961962B2 (en) 1991-07-05 1991-07-05 Edge detection device

Country Status (1)

Country Link
JP (1) JP2961962B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6472064B1 (en) 1999-03-31 2002-10-29 Tokyo Kikai Seisakusho, Ltd. Tab for fixing paper web end portion of paper roll
WO2004032055A1 (en) * 2002-09-30 2004-04-15 Sony Corporation Image processing device, image processing method, recording medium, and program
US7916964B2 (en) 2006-05-22 2011-03-29 Fujitsu Semiconductor Limited Image processing apparatus and image processing method
CN110717549A (en) * 2019-10-17 2020-01-21 上海眼控科技股份有限公司 Target detection method, device, equipment and storage medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6472064B1 (en) 1999-03-31 2002-10-29 Tokyo Kikai Seisakusho, Ltd. Tab for fixing paper web end portion of paper roll
WO2004032055A1 (en) * 2002-09-30 2004-04-15 Sony Corporation Image processing device, image processing method, recording medium, and program
US7916964B2 (en) 2006-05-22 2011-03-29 Fujitsu Semiconductor Limited Image processing apparatus and image processing method
CN110717549A (en) * 2019-10-17 2020-01-21 上海眼控科技股份有限公司 Target detection method, device, equipment and storage medium

Also Published As

Publication number Publication date
JP2961962B2 (en) 1999-10-12

Similar Documents

Publication Publication Date Title
JP4451307B2 (en) How to classify objects in a scene
JP3083918B2 (en) Image processing device
JP4160258B2 (en) A new perceptual threshold determination for gradient-based local contour detection
US20060221181A1 (en) Video ghost detection by outline
JP4313758B2 (en) How to chain edges in stereo images together
KR101550070B1 (en) Method for detecting edge of input picture easily image processing unit and the apparatus therefor
JP3377659B2 (en) Object detection device and object detection method
JP2002304677A (en) Method and device for detecting intruder
JP2005165387A (en) Method and device for detecting stripe defective of picture and display device
JP2961962B2 (en) Edge detection device
JP2003167529A (en) Method and device for picture defect detection, and program for picture defect detection
JP2005283197A (en) Detecting method and system for streak defect of screen
JP3682631B2 (en) Fire detection equipment
JPH03123292A (en) Picture quality inspection device
JP2006292500A (en) Surface inspection method and surface inspection device
JPH05165965A (en) Edge detection device
JPH03160309A (en) Image quality testing apparatus
JPH09325011A (en) Edge detection method
JP2001175845A (en) Vehicle end detecting device
JPH10188168A (en) Fire detector
JP3716057B2 (en) Image processing method for human detection
JPS63219081A (en) Image binarizing system
JPH11250247A (en) Isolated area judging device
JP3149839B2 (en) Object extraction device
JPH06333050A (en) Method for detecting change of monitoring image

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees