JP4993128B2 - Image processing method and image processing apparatus using the method - Google Patents
Image processing method and image processing apparatus using the method Download PDFInfo
- Publication number
- JP4993128B2 JP4993128B2 JP2008044041A JP2008044041A JP4993128B2 JP 4993128 B2 JP4993128 B2 JP 4993128B2 JP 2008044041 A JP2008044041 A JP 2008044041A JP 2008044041 A JP2008044041 A JP 2008044041A JP 4993128 B2 JP4993128 B2 JP 4993128B2
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- image
- value
- processing method
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Description
本発明は、デジタル画像データとして取得されたグレー階調画像に基づいて、輪郭線を抽出する画像処理方法に関するものであり、特に、SEM画像の画像処理に用いるのに好適な画像処理方法及びその方法を用いた画像処理装置に関する。 The present invention relates to an image processing method for extracting a contour line based on a gray gradation image acquired as digital image data, and in particular, an image processing method suitable for use in image processing of an SEM image and the method thereof The present invention relates to an image processing apparatus using the method.
従来、取得されたグレー階調画像における輪郭線(エッジ)を抽出するための画像処理が行われており、このような輪郭線抽出のための画像処理の方法としては、ガウシアン・ラプラシアンのゼロ交差による方法が知られている。 Conventionally, image processing for extracting an outline (edge) in an acquired gray-scale image has been performed. As an image processing method for extracting such an outline, a zero crossing between Gaussian and Laplacian is performed. The method by is known.
例えば、特許文献1(特公平5−44062号公報)には、画像処理におけるガウシアン・ラプラシアンのゼロ交差による方法の出典と問題点が記載されている。特許文献1には、 “マサチユセツツ・インステイテユート・オブ・テクノロジー、アーテイフイシヤル・インテリジエンスラボラトリー・メモランダム、518”(“M.I.T.A.I.Lab.Memo518,1979”)に記載のデヴイツド・マー(D.Marr)らによる文献“セオリー・オブ・エツジデテクシヨン”(“Theory of Edge Detection”)には、二次元のガウス関数にラプラシアンを施した関数をマスク関数として、それと入力画像とでコンボリユーシヨンを施して、このコンボリユーシヨンの出力のゼロ点を検出することによりエツジ検出を行なう方法が述べられており、この方法ではマスク関数の中を充分に広げればノイズの影響を小さくすることができるが、そうするとコーナーr部分の変形が激しくなったり、分解能が落ちたりする等の問題があった旨記載されている。 For example, Patent Document 1 (Japanese Patent Publication No. 5-44062) describes a source and problems of a method using a Gaussian-Laplacian zero crossing in image processing. In Patent Document 1, “Machiyu Setsutetsu Institute of Technology, Artificial Intelligence Laboratory Memorandum, 518” (“MIT A. I. Lab Lab. Memo 518, 1979”) In the document “Theory of Edge Detection” by D. Marr et al., A function obtained by applying a Laplacian to a two-dimensional Gaussian function as a mask function, It describes a method of performing edge detection by applying a convolution to the input image and detecting the zero point of the output of this convolution, and in this method, noise is increased if the mask function is sufficiently expanded. The effect of the corner can be reduced, but then the corner r It is described that there were problems such as severe deformation of the minute and reduced resolution.
また、特許文献2(特開2007−116402号公報)には、2次元エリア内にある注目点におけるエッジを検出するために 注目点を囲む複数の離散点に係る画像データを保持するデータ保持回路と、複数の前記離散点に係る画像データを所定の経路に従って配列して出力するデータ並べ替え回路と、前記データ並び替え回路からの出力の内、前記所定の経路上で隣接する離散点間における前記画像データを比較し、その比較結果に基づいて前記注目点におけるエッジの有無に係る信号を出力するエッジ判定回路とによりエッジを検出する技術が記載されている。 Patent Document 2 (Japanese Patent Application Laid-Open No. 2007-116402) discloses a data holding circuit that holds image data relating to a plurality of discrete points surrounding a point of interest in order to detect an edge at the point of interest within a two-dimensional area. And a data rearrangement circuit that arranges and outputs image data related to the plurality of discrete points according to a predetermined path, and among the outputs from the data rearrangement circuit, between the discrete points adjacent on the predetermined path A technique is described in which an edge is detected by an edge determination circuit that compares the image data and outputs a signal related to the presence or absence of an edge at the target point based on the comparison result.
また、特許文献3(特開平5−167927号公報)には、グラジエントに沿った断面プロファイル上で微分値のピークを検出する方法が記載されている。
上記特許文献1、特許文献2に記載されている、広く用いられているエッジ検出手法、すなわち、画像にラプラシアン作用素を施した値がゼロ交差する点の集まりを抽出する方法は、厳密には理論的に正しいものではなく、実際にも、エッジの先鋭度が低く、かつ、エッジが曲がっているときに、画素値の変化の最も急峻な位置が正しく検出されず、曲がりの外寄りにずれるという問題点があった。 Strictly speaking, the widely used edge detection method described in Patent Document 1 and Patent Document 2, that is, a method for extracting a set of points at which a value obtained by applying a Laplacian operator to an image crosses zero is theoretically theorized. In fact, when the edge sharpness is low and the edge is bent, the steepest position of the change of the pixel value is not correctly detected, and it shifts to the outside of the bend. There was a problem.
ここで言う「正しいエッジ位置」とは、輪郭線の走る方向に垂直な断面プロファイルにおいて、二次微分の値がゼロ交差する点の位置とする。画像にラプラシアン作用素を施して得られる 2 変数関数の値がゼロ交差する点の集まりは、上記の「正しい」エッジ位置とは必ずしも一致しない。これは、画像が離散的であることによる丸め誤差やノイズによる影響の問題ではなく、厳密な理論上の、本質的な問題である。これは、次の例で示すことができる。 The “correct edge position” referred to here is the position of the point where the value of the second derivative zero crosses in the cross-sectional profile perpendicular to the running direction of the contour line. The collection of points at which the value of the bivariate function obtained by applying the Laplacian operator to the image zero-crosses does not necessarily match the “correct” edge position. This is not a problem of rounding error and noise caused by the image being discrete, but a strict theoretical and essential problem. This can be shown in the following example.
連続化された画像z=f(x,y)の例として、次のようなものを取り上げる。r0,w0を、0<w0/2<r0 を満たす定数とし、f(x,y)を As an example of a continuous image z = f (x, y), the following is taken up. Let r 0 , w 0 be a constant satisfying 0 <w 0/2 <r 0 , and let f (x, y) be
図1は式(1)によって定義される画像(上段)、そのX軸断面プロファイル(中段)、その2次導関数のグラフ(下段)を示す図である。また、図2は、前記2次導関数のグラフ(下段点線)、上記画像にラプラシアンを施した画像のX軸断面(下段一点鎖線)、上記2つのグラフのゼロ交差する位置を原画像に重ね表示したグラフ(上段)を示す図である。 FIG. 1 is a diagram showing an image (upper stage) defined by the equation (1), its X-axis cross-sectional profile (middle stage), and a graph of its second derivative (lower stage). FIG. 2 also shows the graph of the second derivative (lower dotted line), the X-axis cross section (lower dotted line) of the image obtained by applying Laplacian to the image, and the zero crossing position of the two graphs superimposed on the original image. It is a figure which shows the displayed graph (upper stage).
この関数は、原点のまわりに回転対称である。したがって、原点を通る任意の直線上での断面プロファイルの形状はすべて一致する。以降、断面プロファイルは、X軸上のものをもって代表させる。図1中段は断面プロファイルを示す。式(1)は、zの値が断面に沿って正弦曲線の1周期分を描くように作ってある。したがって、変曲点の位置は明らかに This function is rotationally symmetric around the origin. Therefore, the cross-sectional profile shapes on an arbitrary straight line passing through the origin all match. Hereinafter, the cross-sectional profile is represented by the one on the X axis. The middle part of FIG. 1 shows a cross-sectional profile. Expression (1) is made so that the value of z draws one cycle of a sinusoidal curve along the cross section. Therefore, the position of the inflection point is clearly
一方、式 (1) にラプラシアン作用素を施すと On the other hand, when Laplacian operator is applied to Equation (1)
ここから、ラプラシアンのゼロ交差する点は、本来のエッジ位置よりも、曲がりの外寄りに検出されることが読み取れる。 From this, it can be read that the zero crossing point of the Laplacian is detected outside the bend rather than the original edge position.
上記の問題点に加え、ラプラシアン作用素によるゼロ交差を検出する手法の問題点は、次のような例からも明らかである。すなわち、z=f(x,y)が調和関数であるとき、ラプラシアン作用素を施すと、至るところゼロになってしまう、という問題がある。 In addition to the above problem, the problem of the method of detecting zero crossing by the Laplacian operator is apparent from the following example. In other words, when z = f (x, y) is a harmonic function, there is a problem that if a Laplacian operator is applied, it becomes zero everywhere.
調和関数の例は次のようにして作ることができる。w=φ(z)を任意の正則な複素関数とするとき、 An example of a harmonic function can be made as follows. When w = φ (z) is an arbitrary regular complex function,
また、特許文献3には、グラジエントに沿った断面プロファイル上で微分値のピークを検出する方法が記載されているが、この方法においては、画像上の1点からグラジエント方向に引いた直線上の各点では、その点におけるグラジエントの向きと、直線の向きとが一致するとは限らないので、厳密な意味でグラジエント方向のゼロ交差を求めたことになっていないという問題点があった。また、実際に画像の斜め方向のプロファイルを作成する計算が必要であり、あまり効率的ではない、という問題点もあった。 Further, Patent Document 3 describes a method for detecting a peak of a differential value on a cross-sectional profile along a gradient. In this method, on a straight line drawn in the gradient direction from one point on an image. At each point, since the direction of the gradient at that point does not always match the direction of the straight line, there has been a problem that a zero crossing in the gradient direction has not been obtained in a strict sense. In addition, there is a problem that calculation for actually creating a profile in an oblique direction of an image is necessary, which is not very efficient.
本発明は以上のような課題を解決するためのもので、請求項1に係る発明は、X−Y平面における位置(x,y)でのグレー階調値zがz=f(x,y)によって与えられる画像データから輪郭線を検出する画像処理方法において、
z=f(x,y)のグラジエント方向の二次微分の値がゼロ交差する点の集合を抽出し、当該集合を画像の輪郭線として検出し、
z=f(x,y)のグラジエント方向の二次微分は、
The present invention is to solve the above-described problems, and the invention according to claim 1 is such that the gray gradation value z at the position (x, y) in the XY plane is z = f (x, y). In the image processing method for detecting the contour line from the image data given by
a set of points at which the value of the second derivative in the gradient direction of z = f (x, y) crosses zero, and the set is detected as an outline of the image ;
The second derivative in the gradient direction of z = f (x, y) is
また、請求項2に係る発明は、請求項1に記載の画像処理方法において、前記演算子ΔK におけるzx, zy, zxx, zxy, zyy のそれぞれの値は、離散的にz=f(x,y)が定義される画像データに対して、定数を要素とする行列で表されるフィルタとの畳み込み計算を行うことによって得ることを特徴とする。
The invention according to claim 2 is the image processing method according to claim 1 , wherein each value of z x , z y , z xx , z xy , z yy in the operator Δ K is discretely calculated. The image data defined by z = f (x, y) is obtained by performing a convolution calculation with a filter represented by a matrix having constants as elements.
また、請求項3に係る発明は、請求項1に記載の画像処理方法において、前記演算子ΔK におけるzx, zy, zxx, zxy, zyy のそれぞれの値は、画像上の位置 (x, y) の周辺の一定範囲内において画像を多項式で最小二乗近似し、得られた多項式をx 方向に 1 回偏微分、y 方向に 1 回偏微分、x 方向に 2 回偏微分、x および y 方向に 1 回ずつ偏微分、y 方向に 2 回偏微分、して得られる多項式にそれぞれ (x, y) の値を代入することによって得ることを特徴とする。
The invention according to claim 3 is the image processing method according to claim 1 , wherein each value of z x , z y , z xx , z xy , z yy in the operator Δ K is an The image is approximated by least squares with a polynomial within a certain range around the position (x, y), and the resulting polynomial is partially differentiated once in the x direction, partially differentiated once in the y direction, and partially differentiated twice in the x direction. It is obtained by substituting the values of (x, y) into polynomials obtained by partial differentiation once in the x and y directions, and partial differentiation twice in the y direction.
また、請求項4に係る発明は、請求項1に記載の画像処理方法において、離散的にz=f(x,y)が定義される画像データを構成する各画素について輪郭線を検出する際には、その画素位置(x,y)におけるzx, zy,の値を算出し、これに基づいてzx 2+zy 2の値を算出し、これが一定値以下であるときには、その画素は領域Aに属すると判定し、そうでないときには、さらにzxx, zxy, zyyの値を算出し、zxxzx 2+2zxyzxzy+zyyzy 2の値を算出し、この符号が正であるときには、その画素は領域Bに属すると判定し、そうでないときには領域Cに属すると判定し、領域Bに属する画素と領域Cに属する画素との境界線を画像の輪郭線として検出することを特徴とする。
The invention according to claim 4 is the image processing method according to claim 1 , wherein the contour line is detected for each pixel constituting the image data in which z = f (x, y) is discretely defined. to calculates the z x, z y, the value of at the pixel position (x, y), which calculates the value of z x 2 + z y 2 based on, when it is below a predetermined value, the pixel is determined to belong to the area a, when not, further z xx, z xy, calculates the value of z yy, calculates the value of z xx z x 2 + 2z xy z x z y + z yy z y 2, When this sign is positive, it is determined that the pixel belongs to the region B. Otherwise, it is determined that the pixel belongs to the region C, and the boundary line between the pixel belonging to the region B and the pixel belonging to the region C is defined as the contour line of the image. It detects as.
また、請求項5に係る発明は、請求項1乃至請求項4のいずれかに記載された画像処理方法を用いたことを特徴とする画像処理装置である。
The invention according to claim 5 is an image processing apparatus using the image processing method according to any one of claims 1 to 4 .
請求項1に係る発明によれば、画像のグラジエント方向の二次微分の値がゼロ交差する点の集まりを抽出する方法を用いることにより、画像にラプラシアン作用素を施した値がゼロ交差する点の集まりを抽出する方法の理論的な問題点を解決することができ、エッジの先鋭度が低く、かつ、エッジが曲がっているときにも、検出されたエッジが曲がりの外寄りにずれることがなく、エッジの正しい位置が検出されるという効果がある。
また、調和関数による画像においても、ラプラシアンが至るところでゼロになるという問題を回避でき、エッジが検出されるという効果がある。
According to the first aspect of the present invention, by using a method of extracting a set of points at which the value of the second derivative in the gradient direction of the image crosses zero, a value obtained by applying a Laplacian operator to the image at the point at which zero crossing occurs. It can solve the theoretical problem of the method of extracting the gathering, the edge sharpness is low, and even when the edge is bent, the detected edge does not shift to the outside of the bend There is an effect that the correct position of the edge is detected.
In addition, even in the image based on the harmonic function, the problem that the Laplacian becomes zero everywhere can be avoided, and the edge is detected.
また、請求項1に係る発明によれば、式(11)で定義される作用素ΔKを用い、これを画像に施した値がゼロ交差する点の集まりを抽出することにより、実際に画像の断面プロファイルを求める処理を必要とせず、比較的簡単な計算により、画像のグラジエント方向の二次微分の値を算出することができる。
Further, the invention according to claim 1, by extracting a collection of points with operator delta K defined by formula (11), a value obtained by subjecting this to the image crosses zero, actually image The value of the second derivative in the gradient direction of the image can be calculated by a relatively simple calculation without requiring processing for obtaining a cross-sectional profile.
また、請求項2,3に係る発明によれば、離散的な画像が与えられているとき、式(11)の近似値を求める計算は、従来用いられている画像の微分値や二次微分値を求める手法が好適に使用できる。
According to the second and third aspects of the invention, when a discrete image is given, the calculation for obtaining the approximate value of Equation (11) can be performed by using a differential value or a secondary differential value of an image that has been conventionally used. A technique for obtaining a value can be suitably used.
また、請求項4に係る発明によれば、式(11)の計算でゼロ除算を避けることができ、かつ、弱いエッジを除外することができるという効果がある。
Further, according to the invention of claim 4 , there is an effect that division by zero can be avoided in the calculation of Expression (11) and weak edges can be excluded.
また、請求項5に係る発明によれば、上記のような効果を有する画像処理装置を提供することができる。
Moreover, according to the invention which concerns on Claim 5 , the image processing apparatus which has the above effects can be provided.
以下、本発明の実施の形態を図面を参照しつつ説明する。図3はX−Y平面における連続関数z=f(x,y)の一例を示す図である。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 3 is a diagram illustrating an example of the continuous function z = f (x, y) in the XY plane.
最初に、グレー階調画像の定義をしておく。X−Y平面上に格子状に配列された m×n個の離散的な点について、各点に一定範囲内の離散的な値(たとえば0以上255以下の範囲の整数値)をとる画素値が割り当てられているデジタルデータをここでは「グレー階調画像」と呼ぶことにする。画素値の意味は、輝度情報、黒の濃度情報、RGB、CMYK、Lab、Luvなどの複数のプレーンからなるカラー画像のうちの1プレーン分の情報、等、いかなる意味づけをも包含するものとする。X−Y平面上の位置(i,j)(i =0,1,2,...,m−1;j=0,1,2,...,n−1) における画素値をz(i,j)と表記する。 First, a gray gradation image is defined. For m × n discrete points arranged in a grid on the XY plane, each pixel value takes a discrete value within a certain range (for example, an integer value in the range of 0 to 255). Here, the digital data to which is assigned is referred to as a “gray gradation image”. The meaning of the pixel value includes any meaning such as luminance information, black density information, information of one plane of a color image composed of a plurality of planes such as RGB, CMYK, Lab, and Luv. To do. The pixel value at the position (i, j) (i = 0, 1, 2,..., M−1; j = 0, 1, 2,..., N−1) on the XY plane is z Indicated as (i, j).
また、連続化された画像の定義をしておく。画像は位置座標値も画素値も離散値をとるが、これは、もともとは連続だったものをサンプリングした結果だとみなすことにする。この連続関数をz=f(x,y)と表記する。すなわち、X−Y平面の(x,y)のグレー階調値zがz=f(x,y)によって与えられるものとする。なお、f(x,y)は十分に滑らかで、何回でも微分可能と仮定しておく。 In addition, a continuous image is defined. An image takes discrete values for both position coordinate values and pixel values, and this is regarded as a result of sampling what was originally continuous. This continuous function is expressed as z = f (x, y). That is, the gray gradation value z of (x, y) on the XY plane is given by z = f (x, y). It is assumed that f (x, y) is sufficiently smooth and can be differentiated any number of times.
本発明では、以上のように定義されるX−Y平面における位置(x,y)でのグレー階調値zがz=f(x,y)によって与えられる画像データから輪郭線を検出するために、z=f(x,y)のグラジエント方向の二次微分の値がゼロ交差する点の集合を抽出し、当該集合を画像の輪郭線として検出する。 In the present invention, the contour line is detected from the image data in which the gray gradation value z at the position (x, y) in the XY plane defined as described above is given by z = f (x, y). Then, a set of points at which the value of the second derivative in the gradient direction of z = f (x, y) crosses zero is extracted, and the set is detected as an image outline.
すなわち、従来のように画像データz=f(x,y)にラプラシアン作用素を施した値がゼロ交差する点の集まりをエッジとして検出する手法に代えて、本発明では、画像のグラジエント方向の二次微分の値がゼロ交差する点の集まりを抽出する方法を用いることにより、正しいエッジ位置を検出する。 That is, in the present invention, instead of the conventional method of detecting, as an edge, a set of points at which a value obtained by applying a Laplacian operator to image data z = f (x, y) is zero-crossed, two gradients in the gradient direction of the image are used. A correct edge position is detected by using a method of extracting a set of points at which the value of the second derivative crosses zero.
このような本発明によれば、画像のグラジエント方向の二次微分の値がゼロ交差する点の集まりを抽出する方法を用いることにより、画像にラプラシアン作用素を施した値がゼロ交差する点の集まりを抽出する方法の理論的な問題点を解決することができ、エッジの先鋭度が低く、かつ、エッジが曲がっているときにも、検出されたエッジが曲がりの外寄りにずれることがなく、エッジの正しい位置が検出されるという効果がある。 According to the present invention as described above, by using a method of extracting a set of points where the values of the second derivative in the gradient direction of the image cross zero, a set of points where the value obtained by applying a Laplacian operator to the image crosses zero. Can solve the theoretical problem of the method of extracting the edge, the edge sharpness is low, and even when the edge is bent, the detected edge does not shift to the outside of the curve, There is an effect that the correct position of the edge is detected.
以上のことを数式的に説明する。本発明においては、 The above will be described mathematically. In the present invention,
なお、式(11)が、グラジエント方向の二次微分値を表していることは、下記のようにして確認することができる。 In addition, it can confirm as follows that Formula (11) represents the secondary differential value of a gradient direction.
連続化された画像をz=f(x,y)と表す。X−Y平面上で、任意の点(x0,y0)を通り、方向ベクトルが(cos(θ0),sin(θ0))であるような直線lを考える。図4はX−Y平面状で点(x0,y0)を通りθ0方向に延びる直線lを示す図である。 The continuous image is represented as z = f (x, y). Consider a straight line l passing through an arbitrary point (x 0 , y 0 ) on the XY plane and having a direction vector of (cos (θ 0 ), sin (θ 0 )). FIG. 4 is a diagram showing a straight line l extending in the θ 0 direction through the point (x 0 , y 0 ) in the XY plane.
直線lは、実数値をとる媒介変数tを用いて、 The straight line l uses a parameter t that takes a real value,
ここから、g(t)をtで 2 回微分すると、 From here, g (t) is differentiated twice by t.
これにt=0を代入することにより、点(x0,y0)における、直線lに沿った断面プロファイルの二次微分値g′′(0)は、 By substituting t = 0 to, at the point (x 0, y 0), the secondary differential value g of the cross-section profile along the straight line l '' (0) is,
ここまでは、直線lの方向を任意の角度θ0方向としてきたが、ここで、その方向を、点(x0,y0)におけるグラジエント方向と定める。すなわち、 Up to this point, the direction of the straight line 1 has been set to an arbitrary angle θ 0 direction. Here, the direction is defined as the gradient direction at the point (x 0 , y 0 ). That is,
ところで、この方向ベクトルは、分母が0のとき、定義されない。分母が0になるのは、グラジエントベクトルがゼロベクトルになるときであるが、このとき、その点では傾きがゼロなので、エッジではありえない。したがって、このときは点(x0,y0)をエッジ候補から除外する。
以降の議論は、分母がゼロでない場合に限定して進める。式(17)を式(16)に代入することにより、点(x0,y0)におけるグラジエント方向の二次微分値g′′(0) は、
By the way, this direction vector is not defined when the denominator is zero. The denominator becomes 0 when the gradient vector becomes a zero vector, but at this time, since the gradient is zero at that point, it cannot be an edge. Therefore, at this time, the point (x 0 , y 0 ) is excluded from the edge candidates.
The following discussion will proceed only when the denominator is not zero. By substituting equation (17) into equation (16), the point (x 0, y 0) second derivative g '' (0) in the gradient direction in the
ここで、(x0,y0)を任意の (x, y) で置き換え、表記を Where (x 0 , y 0 ) is replaced with any (x, y)
以上のようにして、式(11)が、グラジエント方向の断面プロファイル上での二次微分値を表すことが確認された。ここで、式(11)で表されるオペレータ(作用素)ΔKを「ケバヤシアン」と称することとする。 As described above, it was confirmed that Expression (11) represents the second derivative value on the cross-sectional profile in the gradient direction. Here, the operator (operator) delta K of the formula (11) will be referred to as "Kebayashian".
本発明では、式(11)で定義される作用素ケバヤシアンΔKを用い、これを画像に施した値がゼロ交差する点の集まりを抽出することにより、実際に画像の断面プロファイルを求める処理を必要とせず、比較的簡単な計算により、画像のグラジエント方向の二次微分の値を算出することができる。 In the present invention, using the operator Kebayashian delta K defined by formula (11), by a value subjected to this image to extract a set of points of intersection zero, necessary processing for actually determining the image section profile of Instead, the value of the second derivative in the gradient direction of the image can be calculated by a relatively simple calculation.
次に、本発明の画像処理方法を計算機で実行させる画像処理装置に好適な実施形態について説明する。図4は本発明の実施の形態に係る画像処理装置の概略構成を示す図である。図4において、9はSEM装置、10は画像処理装置、11は画像読み込み部、12は画像処理部、13は画像表示部をそれぞれ示している。 Next, an embodiment suitable for an image processing apparatus that causes a computer to execute the image processing method of the present invention will be described. FIG. 4 is a diagram showing a schematic configuration of the image processing apparatus according to the embodiment of the present invention. In FIG. 4, 9 denotes an SEM device, 10 denotes an image processing device, 11 denotes an image reading unit, 12 denotes an image processing unit, and 13 denotes an image display unit.
本実施形態では、SEM(Scanning Electron Microscope)装置9によって取得された画像を画像処理装置10が解析して、輪郭線(エッジ)の検出を行うものついて示しているが、本発明の装置はそのようなものに限定されるものではない。画像処理装置10は、SEM装置9によって取得された画像を読み込む画像読み込み部11と、画像読み込み部11で読み込まれた画像を解析して輪郭線(エッジ)の検出を行う画像処理部12と、画像処理部12によって検出された輪郭線(エッジ)の表示を行う画像表示部13とからなる。このような画像処理装置10は汎用の情報処理装置によって構成することができる。 In the present embodiment, the image processing apparatus 10 analyzes an image acquired by an SEM (Scanning Electron Microscope) apparatus 9 and detects an outline (edge). It is not limited to such a thing. The image processing apparatus 10 includes an image reading unit 11 that reads an image acquired by the SEM device 9, an image processing unit 12 that analyzes an image read by the image reading unit 11 and detects an outline (edge), The image display unit 13 displays an outline (edge) detected by the image processing unit 12. Such an image processing apparatus 10 can be configured by a general-purpose information processing apparatus.
以上のように構成される画像処理装置10における画像処理の流れについて説明する。図6は本発明の実施の形態に係る画像処理装置の処理フローチャートを示す図である。 A flow of image processing in the image processing apparatus 10 configured as described above will be described. FIG. 6 is a diagram showing a processing flowchart of the image processing apparatus according to the embodiment of the present invention.
図6において、ステップS100で画像処理装置10における画像処理が開始されると、次にステップS101に進み、画像読み込み部11でSEM装置9によって取得された画像の読み込みが実行される。 In FIG. 6, when image processing in the image processing apparatus 10 is started in step S <b> 100, the process proceeds to step S <b> 101, and the image reading unit 11 reads the image acquired by the SEM apparatus 9.
ステップS102では、取り込まれた画像データにおける各画素についてのループが開始される。このループは画像データの全ての画素について実行される。 In step S102, a loop for each pixel in the captured image data is started. This loop is executed for all pixels of the image data.
ステップS103では、ΔKZの分母aが計算される。すなわち、a←zx 2+zy 2の計算が実行される。zxやzyの算出方法については後述する。 In step S103, the denominator a in delta K Z is calculated. That is, the calculation of a ← z x 2 + z y 2 is executed. method will be described later calculation of z x and z y.
ステップS104では、求められたaがa≦aoを満たすかどうかが判定される。aoは0にきわめて近い値であり、ステップS104における判定は、ΔKZの分子が0によって除されることを防ぐため、および、ノイズなどの要因によって生じた不要な弱いエッジが検出されることを防ぐために設けられたステップである。 In step S104, it is determined whether or not the obtained a satisfies a ≦ a o . a o is a value very close to 0, and the determination in step S104 is to prevent the numerator of Δ K Z from being divided by 0 and to detect unnecessary weak edges caused by factors such as noise. This is a step provided to prevent this.
ステップS104における判定の結果がYESであるときには、ステップS105に進み、ステップS104における判定の結果がNOであるときには、ステップS106に進む。 When the result of determination in step S104 is YES, the process proceeds to step S105, and when the result of determination in step S104 is NO, the process proceeds to step S106.
ステップS105では、当該画素に[領域A]とラベル付けを行う。 In step S105, the pixel is labeled [region A].
また、ステップS106では、ΔKZの分子bが計算される。すなわち、b←zxxzx 2+2zxyzxzy+zyyzy 2の計算が実行される。zxx、zx、zxy、zy、zyyの算出方法については後述する。 In step S106, the numerator b of Δ K Z is calculated. That is, the calculation of b ← z xx z x 2 + 2z xy z x z y + z yy z y 2 is executed. z xx, z x, z xy , z y, will be described later method of calculating the z yy.
ステップS107では、b>0であるか否かが判定される。すまわち、ケバヤシアンΔKZが正負の値のいずれをとるかが判定される。 In step S107, it is determined whether b> 0. In other words, it is determined which of the positive and negative values the Kebayayan Δ K Z takes.
ステップS107の判定結果がYESであるときにはステップS108に進み、その画素に[領域B]とラベル付けを行う。 If the decision result in the step S107 is YES, the process proceeds to a step S108 so as to label the pixel as [Area B].
また、ステップS107の判定結果がNOであるときにはステップS109に進み、その画素に[領域C]とラベル付けを行う。 If the determination result in step S107 is NO, the process proceeds to step S109, and the pixel is labeled [region C].
ステップS110では、全画素についてループが終了したか否かを判定し、終了していないときにはステップS102に戻り、終了しているときにはステップS111に進む。 In step S110, it is determined whether or not the loop has been completed for all pixels. If not, the process returns to step S102, and if completed, the process proceeds to step S111.
ステップS111では、[領域B]と[領域C]との境界を輪郭線(エッジ)として抽出する。 In step S111, the boundary between [area B] and [area C] is extracted as an outline (edge).
ステップS112では、画像表示部13で、抽出された輪郭線(エッジ)の結果表示を行う。 In step S112, the image display unit 13 displays the result of the extracted contour line (edge).
ステップS113で画像処理装置10における画像処理を終了する。 In step S113, the image processing in the image processing apparatus 10 ends.
以上に示す画像処理装置10における画像処理によれば、式(11)の計算において、ゼロ除算を避けることができ、かつ、弱いエッジを除外することができるという効果がある。 According to the image processing in the image processing apparatus 10 described above, there is an effect that division by zero can be avoided and weak edges can be excluded in the calculation of Expression (11).
図6に示すフローチャートにおいては、aおよびbの値を算出するために、各着目画素における、画像の1次および2次の偏微分の値zx, zy, zxx, zxy, zyyを算出する必要がある。 In the flowchart shown in FIG. 6, in order to calculate the values of a and b, first and second order partial differential values z x , z y , z xx , z xy , z yy of the image at each pixel of interest. Need to be calculated.
これを求めるための第1の方法は、画像に線形フィルタ(重み係数行列)を施すものである。離散的にz=f(x,y)が定義される画像データに対し、特定の行列との畳み込み計算を行うことにより、各方向の偏微分に相当する値(実際には微分の代わりに差分をとっている)を求めることができる。すなわち、fが元の画像データ、gが畳み込み変換後の画像データ、hは重み係数行列(畳み込みカーネル)とすると、 The first method for obtaining this is to apply a linear filter (weight coefficient matrix) to the image. By performing a convolution calculation with a specific matrix on image data in which z = f (x, y) is discretely defined, a value corresponding to the partial differentiation in each direction (actually a difference instead of a differentiation) ). That is, if f is the original image data, g is the image data after convolution conversion, and h is a weighting coefficient matrix (convolution kernel),
なお、画像に線形フィルタ(重み係数行列)を施すようにして得られた偏微分値は画像のノイズの影響を受けやすいため、あらかじめ画像に、例えばガウシアンフィルタのような、平滑化フィルタを施しておくのが一般的である。また、ガウシアンフィルタとラプラシアンフィルタとを一体化して計算量を減らすよう工夫した、DOG法も一般的である。 Since the partial differential value obtained by applying a linear filter (weighting coefficient matrix) to an image is easily affected by the noise of the image, a smoothing filter such as a Gaussian filter is applied to the image in advance. It is common to leave. Also, a DOG method is generally used in which a Gaussian filter and a Laplacian filter are integrated to reduce the amount of calculation.
着目画素における1次および2次の偏微分の値zx, zy, zxx, zxy, zyyを算出する第2の方法は、画像を局所的に多項式近似することにより、連続化しておき、その多項式に関する偏微分値を求めるものである。 The second method for calculating the first and second partial differential values z x , z y , z xx , z xy , and z yy at the pixel of interest is a continuous method by locally approximating the image with a polynomial. The partial differential value for the polynomial is obtained.
各着目画素のまわりに一定範囲の近傍領域を設け、その近傍範囲内で、画像をx,yの2変数の多項式で最小二乗近似する。例えば、4次の多項式は A neighborhood region of a certain range is provided around each pixel of interest, and within the neighborhood range, the image is approximated by least squares using a two-variable polynomial of x and y. For example, the fourth order polynomial is
多項式近似する際に、座標原点を着目画素の位置に取り直した局所座標系を用いれば、その着目画素における、各方向の1次および2次微分の値は、f(x,y)を偏微分して(0,0)を代入した値として得られる。つまり、 When using a local coordinate system in which the coordinate origin is restored to the position of the pixel of interest when performing polynomial approximation, the value of the first and second derivatives in each direction at the pixel of interest is f (x, y) as a partial derivative. Thus, the value obtained by substituting (0, 0) is obtained. That means
多項式近似することにより、連続化という効果に加え、ノイズ除去の効果もある。
By polynomial approximation, in addition to the effect of continuation, there is also an effect of noise removal.
以上のように、離散的な画像が与えられているとき、着目画素における1次および2次の偏微分の値を求めるために、従来周知の上記第1の方法、上記第2の方法を好適に用いることができ、1次および2次の偏微分値を簡便に求めることができる。 As described above, when a discrete image is given, the conventionally known first method and second method are suitable for obtaining the values of the first and second partial differentials in the pixel of interest. The first-order and second-order partial differential values can be easily obtained.
図10は本発明の実施の形態に係る画像処理方法と従来の画像処理方法を比較する図である。
図10(a)はSEM装置によって撮影された原画像データを示す図である。図10(b)、(c)は原画像に式(11)のケバヤシアンΔKを用いてゼロ交差を抽出したものであり、図10(d)、(e)は原画像に式(10)のラプラシアンを施してゼロ交差を抽出したものである。
FIG. 10 is a diagram comparing an image processing method according to an embodiment of the present invention and a conventional image processing method.
FIG. 10A shows original image data photographed by the SEM apparatus. Figure 10 (b), (c) is obtained by extracting the zero crossing using Kebayashian delta K of the formula (11) in the original image, FIG. 10 (d), (e) in the original image (10) The zero crossing is extracted by applying Laplacian.
図10(b)は本発明の実施の形態に係る画像処理装置の処理フローによって領域A乃至Cのラベル付けをした図であり、図10(c)は本発明の実施の形態に係る画像処理装置の処理フローによって領域Bと領域Cとの境界を輪郭線(エッジ)としての抽出した図である。また、図10(d)は従来の画像処理装置によって領域A乃至Cのラベル付けをした図であり、図10(e)は従来の画像処理装置によって領域Bと領域Cとの境界を輪郭線(エッジ)としての抽出した図である。なお、図10(b)、(c)、(d)、(e)を求める計算において、1次および2次の偏微分の値zx, zy, zxx, zxy, zyyを算出するために多項式近似法を用いた。 FIG. 10B is a diagram in which areas A to C are labeled according to the processing flow of the image processing apparatus according to the embodiment of the present invention, and FIG. 10C is the image processing according to the embodiment of the present invention. It is the figure which extracted the boundary of the area | region B and the area | region C as an outline (edge) by the processing flow of an apparatus. FIG. 10D is a diagram in which areas A to C are labeled by a conventional image processing apparatus, and FIG. 10E is a contour line that defines the boundary between areas B and C by a conventional image processing apparatus. It is the figure extracted as (edge). In addition, in the calculation for obtaining FIGS. 10B, 10C, 10D , and 10E , primary and secondary partial differential values z x , z y , z xx , z xy , z yy are calculated. A polynomial approximation method was used to do this.
図10に示されるように、エッジのコーナー部分で、従来のラプラシアンのゼロ交差を抽出する方法では、抽出された輪郭線が外寄りに飛び出すのが、本発明のケバヤシアンΔKによる作用素のゼロ交差を抽出する方法では解消され、全体的にスムーズであることが見てとれる。 As shown in FIG. 10, the corner portion of the edge, in the method of extracting the zero crossing of the conventional Laplacian, is extracted contour line that jumping out toward the zero crossing of the operator by Kebayashian delta K of the present invention It can be seen that it is solved by the method of extracting and is smooth overall.
以上、本発明の実施の形態に係る画像処理方法及びその方法を用いた画像処理装置によれば、画像のエッジを検出する方法として厳密に正しい方法に基づいているため、エッジ(輪郭線)が曲がっているときにおいても、画素値の変化の最も急峻なエッジ位置を検出することが可能となる。 As described above, according to the image processing method and the image processing apparatus using the method according to the embodiment of the present invention, since an edge (contour line) is based on a strictly correct method as a method for detecting an edge of an image. Even when it is bent, it is possible to detect the edge position where the pixel value changes most steeply.
9・・・SEM装置、10・・・画像処理装置、11・・・画像読み込み部、12・・・画像処理部、13・・・画像表示部 DESCRIPTION OF SYMBOLS 9 ... SEM apparatus, 10 ... Image processing apparatus, 11 ... Image reading part, 12 ... Image processing part, 13 ... Image display part
Claims (5)
z=f(x,y)のグラジエント方向の二次微分の値がゼロ交差する点の集合を抽出し、当該集合を画像の輪郭線として検出し、
z=f(x,y)のグラジエント方向の二次微分は、
a set of points at which the value of the second derivative in the gradient direction of z = f (x, y) crosses zero, and the set is detected as an outline of the image ;
The second derivative in the gradient direction of z = f (x, y) is
画像上の位置 (x, y) の周辺の一定範囲内において画像を多項式で最小二乗近似し、得られた多項式を
x 方向に 1 回偏微分、
y 方向に 1 回偏微分、
x 方向に 2 回偏微分、
x および y 方向に 1 回ずつ偏微分、
y 方向に 2 回偏微分、
して得られる多項式にそれぞれ (x, y) の値を代入することによって得ることを特徴とする請求項1に記載の画像処理方法。 Each value of z x , z y , z xx , z xy , z yy in the operator Δ K is
The image is approximated with a least squares polynomial within a certain range around the position (x, y) on the image, and the resulting polynomial is
partial differential once in the x direction,
partial differential once in the y direction,
partial differentiation twice in the x direction,
partial differentiation once in the x and y directions,
partial differential twice in the y direction,
The image processing method according to claim 1 , wherein the image processing method is obtained by substituting a value of (x, y) for each of the polynomials obtained as described above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008044041A JP4993128B2 (en) | 2008-02-26 | 2008-02-26 | Image processing method and image processing apparatus using the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008044041A JP4993128B2 (en) | 2008-02-26 | 2008-02-26 | Image processing method and image processing apparatus using the method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009205224A JP2009205224A (en) | 2009-09-10 |
JP4993128B2 true JP4993128B2 (en) | 2012-08-08 |
Family
ID=41147453
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008044041A Active JP4993128B2 (en) | 2008-02-26 | 2008-02-26 | Image processing method and image processing apparatus using the method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4993128B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015114729A (en) | 2013-12-09 | 2015-06-22 | 三星ディスプレイ株式會社Samsung Display Co.,Ltd. | Image processing device, display device, image processing method and program |
JP6305806B2 (en) * | 2014-03-28 | 2018-04-04 | 日本コントロールシステム株式会社 | Information processing apparatus, information processing method, and program |
CN104156961A (en) * | 2014-08-12 | 2014-11-19 | 东北林业大学 | Gray scale defect image extraction method |
CN116542976B (en) * | 2023-07-06 | 2023-09-08 | 深圳市佳合丰科技有限公司 | Visual detection system for die-cutting piece defects |
-
2008
- 2008-02-26 JP JP2008044041A patent/JP4993128B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2009205224A (en) | 2009-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | Automatic crack detection and measurement of concrete structure using convolutional encoder-decoder network | |
US7903880B2 (en) | Image processing apparatus and method for detecting a feature point in an image | |
CN103185730B (en) | Method for building rule of thumb of defect classification, and methods for classifying defect and judging killer defect | |
US9196034B2 (en) | Method of fast analysis of the relief elements featuring on the internal surface of a tyre | |
JP4966893B2 (en) | Matching degree calculation device and method, program | |
US20070253040A1 (en) | Color scanning to enhance bitonal image | |
JP6448065B2 (en) | Image processing system, image processing method, and image processing program | |
EP1956551B1 (en) | Pattern recognition apparatus, pattern recognition method, and pattern recognition program | |
CN107085850B (en) | The method and book scanning method that masking acquires the marked body of foreign matter in image, identifies foreign matter marked body in image | |
CN102682428B (en) | Fingerprint image computer automatic mending method based on direction fields | |
US6507675B1 (en) | Structure-guided automatic learning for image feature enhancement | |
CN101681432A (en) | Photo-document segmentation method and system | |
CN113706464B (en) | Printed matter appearance quality detection method and system | |
CN101246593B (en) | Color image edge detection method and apparatus | |
JP4993128B2 (en) | Image processing method and image processing apparatus using the method | |
US20030031385A1 (en) | Method and apparatus for sub-pixel edge detection | |
CN115147448A (en) | Image enhancement and feature extraction method for automatic welding | |
CN115311289A (en) | Method for detecting oil stain defects of plain-color cloth | |
CN107895371B (en) | Textile flaw detection method based on peak coverage value and Gabor characteristics | |
CN104700388A (en) | Method and device for extracting distorted lines from images | |
CN102509265B (en) | Digital image denoising method based on gray value difference and local energy | |
US20030026473A1 (en) | Structure-guided automatic alignment for image processing | |
CN106446920A (en) | Stroke width transformation method based on gradient amplitude constraint | |
CN113516608B (en) | Method and device for detecting defects of tire and tire detecting equipment | |
JP5067677B2 (en) | Defect detection method, defect detection apparatus, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120208 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120411 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120424 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150518 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4993128 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |