JP4993128B2 - Image processing method and image processing apparatus using the method - Google Patents

Image processing method and image processing apparatus using the method Download PDF

Info

Publication number
JP4993128B2
JP4993128B2 JP2008044041A JP2008044041A JP4993128B2 JP 4993128 B2 JP4993128 B2 JP 4993128B2 JP 2008044041 A JP2008044041 A JP 2008044041A JP 2008044041 A JP2008044041 A JP 2008044041A JP 4993128 B2 JP4993128 B2 JP 4993128B2
Authority
JP
Japan
Prior art keywords
image processing
image
value
processing method
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008044041A
Other languages
Japanese (ja)
Other versions
JP2009205224A (en
Inventor
小林  秀章
富裕 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2008044041A priority Critical patent/JP4993128B2/en
Publication of JP2009205224A publication Critical patent/JP2009205224A/en
Application granted granted Critical
Publication of JP4993128B2 publication Critical patent/JP4993128B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、デジタル画像データとして取得されたグレー階調画像に基づいて、輪郭線を抽出する画像処理方法に関するものであり、特に、SEM画像の画像処理に用いるのに好適な画像処理方法及びその方法を用いた画像処理装置に関する。   The present invention relates to an image processing method for extracting a contour line based on a gray gradation image acquired as digital image data, and in particular, an image processing method suitable for use in image processing of an SEM image and the method thereof The present invention relates to an image processing apparatus using the method.

従来、取得されたグレー階調画像における輪郭線(エッジ)を抽出するための画像処理が行われており、このような輪郭線抽出のための画像処理の方法としては、ガウシアン・ラプラシアンのゼロ交差による方法が知られている。   Conventionally, image processing for extracting an outline (edge) in an acquired gray-scale image has been performed. As an image processing method for extracting such an outline, a zero crossing between Gaussian and Laplacian is performed. The method by is known.

例えば、特許文献1(特公平5−44062号公報)には、画像処理におけるガウシアン・ラプラシアンのゼロ交差による方法の出典と問題点が記載されている。特許文献1には、 “マサチユセツツ・インステイテユート・オブ・テクノロジー、アーテイフイシヤル・インテリジエンスラボラトリー・メモランダム、518”(“M.I.T.A.I.Lab.Memo518,1979”)に記載のデヴイツド・マー(D.Marr)らによる文献“セオリー・オブ・エツジデテクシヨン”(“Theory of Edge Detection”)には、二次元のガウス関数にラプラシアンを施した関数をマスク関数として、それと入力画像とでコンボリユーシヨンを施して、このコンボリユーシヨンの出力のゼロ点を検出することによりエツジ検出を行なう方法が述べられており、この方法ではマスク関数の中を充分に広げればノイズの影響を小さくすることができるが、そうするとコーナーr部分の変形が激しくなったり、分解能が落ちたりする等の問題があった旨記載されている。   For example, Patent Document 1 (Japanese Patent Publication No. 5-44062) describes a source and problems of a method using a Gaussian-Laplacian zero crossing in image processing. In Patent Document 1, “Machiyu Setsutetsu Institute of Technology, Artificial Intelligence Laboratory Memorandum, 518” (“MIT A. I. Lab Lab. Memo 518, 1979”) In the document “Theory of Edge Detection” by D. Marr et al., A function obtained by applying a Laplacian to a two-dimensional Gaussian function as a mask function, It describes a method of performing edge detection by applying a convolution to the input image and detecting the zero point of the output of this convolution, and in this method, noise is increased if the mask function is sufficiently expanded. The effect of the corner can be reduced, but then the corner r It is described that there were problems such as severe deformation of the minute and reduced resolution.

また、特許文献2(特開2007−116402号公報)には、2次元エリア内にある注目点におけるエッジを検出するために 注目点を囲む複数の離散点に係る画像データを保持するデータ保持回路と、複数の前記離散点に係る画像データを所定の経路に従って配列して出力するデータ並べ替え回路と、前記データ並び替え回路からの出力の内、前記所定の経路上で隣接する離散点間における前記画像データを比較し、その比較結果に基づいて前記注目点におけるエッジの有無に係る信号を出力するエッジ判定回路とによりエッジを検出する技術が記載されている。   Patent Document 2 (Japanese Patent Application Laid-Open No. 2007-116402) discloses a data holding circuit that holds image data relating to a plurality of discrete points surrounding a point of interest in order to detect an edge at the point of interest within a two-dimensional area. And a data rearrangement circuit that arranges and outputs image data related to the plurality of discrete points according to a predetermined path, and among the outputs from the data rearrangement circuit, between the discrete points adjacent on the predetermined path A technique is described in which an edge is detected by an edge determination circuit that compares the image data and outputs a signal related to the presence or absence of an edge at the target point based on the comparison result.

また、特許文献3(特開平5−167927号公報)には、グラジエントに沿った断面プロファイル上で微分値のピークを検出する方法が記載されている。
特公平5−44062号公報 特開2007−116402号公報 特開平5−167927号公報
Patent Document 3 (Japanese Patent Laid-Open No. 5-167927) describes a method of detecting a peak of a differential value on a cross-sectional profile along a gradient.
Japanese Patent Publication No. 5-44062 JP 2007-116402 A JP-A-5-167927

上記特許文献1、特許文献2に記載されている、広く用いられているエッジ検出手法、すなわち、画像にラプラシアン作用素を施した値がゼロ交差する点の集まりを抽出する方法は、厳密には理論的に正しいものではなく、実際にも、エッジの先鋭度が低く、かつ、エッジが曲がっているときに、画素値の変化の最も急峻な位置が正しく検出されず、曲がりの外寄りにずれるという問題点があった。   Strictly speaking, the widely used edge detection method described in Patent Document 1 and Patent Document 2, that is, a method for extracting a set of points at which a value obtained by applying a Laplacian operator to an image crosses zero is theoretically theorized. In fact, when the edge sharpness is low and the edge is bent, the steepest position of the change of the pixel value is not correctly detected, and it shifts to the outside of the bend. There was a problem.

ここで言う「正しいエッジ位置」とは、輪郭線の走る方向に垂直な断面プロファイルにおいて、二次微分の値がゼロ交差する点の位置とする。画像にラプラシアン作用素を施して得られる 2 変数関数の値がゼロ交差する点の集まりは、上記の「正しい」エッジ位置とは必ずしも一致しない。これは、画像が離散的であることによる丸め誤差やノイズによる影響の問題ではなく、厳密な理論上の、本質的な問題である。これは、次の例で示すことができる。   The “correct edge position” referred to here is the position of the point where the value of the second derivative zero crosses in the cross-sectional profile perpendicular to the running direction of the contour line. The collection of points at which the value of the bivariate function obtained by applying the Laplacian operator to the image zero-crosses does not necessarily match the “correct” edge position. This is not a problem of rounding error and noise caused by the image being discrete, but a strict theoretical and essential problem. This can be shown in the following example.

連続化された画像z=f(x,y)の例として、次のようなものを取り上げる。r0,w0を、0<w0/2<r0 を満たす定数とし、f(x,y)を As an example of a continuous image z = f (x, y), the following is taken up. Let r 0 , w 0 be a constant satisfying 0 <w 0/2 <r 0 , and let f (x, y) be

で定義する。この画像は、図1上段で示されるように、原点を中心として半径r0の円周上で明るさのピークをなし、その円周を中心線として幅w0の帯状領域で両サイドに向かって明るさが 0へ落ちていくような画像である。 Define in. As shown in the upper part of FIG. 1, this image has a brightness peak on the circumference of the radius r 0 centered on the origin, and is directed to both sides in a belt-like region of width w 0 centered on the circumference. And the brightness will drop to zero.

図1は式(1)によって定義される画像(上段)、そのX軸断面プロファイル(中段)、その2次導関数のグラフ(下段)を示す図である。また、図2は、前記2次導関数のグラフ(下段点線)、上記画像にラプラシアンを施した画像のX軸断面(下段一点鎖線)、上記2つのグラフのゼロ交差する位置を原画像に重ね表示したグラフ(上段)を示す図である。   FIG. 1 is a diagram showing an image (upper stage) defined by the equation (1), its X-axis cross-sectional profile (middle stage), and a graph of its second derivative (lower stage). FIG. 2 also shows the graph of the second derivative (lower dotted line), the X-axis cross section (lower dotted line) of the image obtained by applying Laplacian to the image, and the zero crossing position of the two graphs superimposed on the original image. It is a figure which shows the displayed graph (upper stage).

この関数は、原点のまわりに回転対称である。したがって、原点を通る任意の直線上での断面プロファイルの形状はすべて一致する。以降、断面プロファイルは、X軸上のものをもって代表させる。図1中段は断面プロファイルを示す。式(1)は、zの値が断面に沿って正弦曲線の1周期分を描くように作ってある。したがって、変曲点の位置は明らかに   This function is rotationally symmetric around the origin. Therefore, the cross-sectional profile shapes on an arbitrary straight line passing through the origin all match. Hereinafter, the cross-sectional profile is represented by the one on the X axis. The middle part of FIG. 1 shows a cross-sectional profile. Expression (1) is made so that the value of z draws one cycle of a sinusoidal curve along the cross section. Therefore, the position of the inflection point is clearly

である。これは、数式的にも、次のようにして示すことができる。式 (1) の X 軸上のプロファイルは、f(x, y) の y に 0 を代入して、 It is. This can be expressed mathematically as follows. The profile on the X-axis of Equation (1) substitutes 0 for y in f (x, y),

として得られる。ただし、画素値 z が正の値をもつ帯状領域内のみを対象とする。これを x について 2 回微分すると、 As obtained. However, only within a belt-like region having a positive pixel value z is considered. Differentiating this twice with respect to x,

が得られる。ここから、式(2)で示す x の値で式(4)が値 0 をとることが明らかである。図 1 下は、式 (4)のグラフを示している。 Is obtained. From this it is clear that equation (4) takes the value 0 for the value of x shown in equation (2). The lower part of Fig. 1 shows the graph of equation (4).

一方、式 (1) にラプラシアン作用素を施すと   On the other hand, when Laplacian operator is applied to Equation (1)

が得られる。これの X 軸による断面プロファイルは、式 (4)の y に0 を代入して、 Is obtained. This cross-sectional profile along the X axis is obtained by substituting 0 for y in Equation (4).

として得られる。式(4)と式(6)を比較すると、両者は一致しておらず、式(6)の第2項を除去したものが式(4)になっていることが分かる。図2下段は、図1下段に、さらに式(6)のグラフを重ね表示したものである。また、図2上段は、断面プロファイルのゼロ交差点および、ラプラシアンのゼロ交差点をプロットしたものである。 As obtained. Comparing equation (4) and equation (6), it can be seen that the two do not match and equation (4) is obtained by removing the second term of equation (6). The lower part of FIG. 2 is a graph in which the graph of Expression (6) is further superimposed on the lower part of FIG. The upper part of FIG. 2 is a plot of the zero crossing points of the cross-sectional profile and the zero crossing points of the Laplacian.

ここから、ラプラシアンのゼロ交差する点は、本来のエッジ位置よりも、曲がりの外寄りに検出されることが読み取れる。   From this, it can be read that the zero crossing point of the Laplacian is detected outside the bend rather than the original edge position.

上記の問題点に加え、ラプラシアン作用素によるゼロ交差を検出する手法の問題点は、次のような例からも明らかである。すなわち、z=f(x,y)が調和関数であるとき、ラプラシアン作用素を施すと、至るところゼロになってしまう、という問題がある。   In addition to the above problem, the problem of the method of detecting zero crossing by the Laplacian operator is apparent from the following example. In other words, when z = f (x, y) is a harmonic function, there is a problem that if a Laplacian operator is applied, it becomes zero everywhere.

調和関数の例は次のようにして作ることができる。w=φ(z)を任意の正則な複素関数とするとき、   An example of a harmonic function can be made as follows. When w = φ (z) is an arbitrary regular complex function,

によって作り出された関数 f(x,y)は調和関数である。ただし、Re(a)は複素数aの実部を表す。例えば、 The function f (x, y) created by is a harmonic function. However, Re (a) represents the real part of the complex number a. For example,

のとき、 When,

である。これにラプラシアン作用素を施すと、実際にすべての(x,y)について、ゼロになることが確認できる。 It is. When a Laplacian operator is applied to this, it can be confirmed that all (x, y) are actually zero.

また、特許文献3には、グラジエントに沿った断面プロファイル上で微分値のピークを検出する方法が記載されているが、この方法においては、画像上の1点からグラジエント方向に引いた直線上の各点では、その点におけるグラジエントの向きと、直線の向きとが一致するとは限らないので、厳密な意味でグラジエント方向のゼロ交差を求めたことになっていないという問題点があった。また、実際に画像の斜め方向のプロファイルを作成する計算が必要であり、あまり効率的ではない、という問題点もあった。   Further, Patent Document 3 describes a method for detecting a peak of a differential value on a cross-sectional profile along a gradient. In this method, on a straight line drawn in the gradient direction from one point on an image. At each point, since the direction of the gradient at that point does not always match the direction of the straight line, there has been a problem that a zero crossing in the gradient direction has not been obtained in a strict sense. In addition, there is a problem that calculation for actually creating a profile in an oblique direction of an image is necessary, which is not very efficient.

本発明は以上のような課題を解決するためのもので、請求項1に係る発明は、X−Y平面における位置(x,y)でのグレー階調値zがz=f(x,y)によって与えられる画像データから輪郭線を検出する画像処理方法において、
z=f(x,y)のグラジエント方向の二次微分の値がゼロ交差する点の集合を抽出し、当該集合を画像の輪郭線として検出し、
z=f(x,y)のグラジエント方向の二次微分は、
によって定義される演算子Δ K によって求めることを特徴とする。
The present invention is to solve the above-described problems, and the invention according to claim 1 is such that the gray gradation value z at the position (x, y) in the XY plane is z = f (x, y). In the image processing method for detecting the contour line from the image data given by
a set of points at which the value of the second derivative in the gradient direction of z = f (x, y) crosses zero, and the set is detected as an outline of the image ;
The second derivative in the gradient direction of z = f (x, y) is
And obtaining the operator delta K defined by.

によって定義される演算子ΔKによって求めることを特徴とする。 And obtaining the operator delta K defined by.

また、請求項2に係る発明は、請求項1に記載の画像処理方法において、前記演算子ΔK におけるzx, zy, zxx, zxy, zyy のそれぞれの値は、離散的にz=f(x,y)が定義される画像データに対して、定数を要素とする行列で表されるフィルタとの畳み込み計算を行うことによって得ることを特徴とする。
The invention according to claim 2 is the image processing method according to claim 1 , wherein each value of z x , z y , z xx , z xy , z yy in the operator Δ K is discretely calculated. The image data defined by z = f (x, y) is obtained by performing a convolution calculation with a filter represented by a matrix having constants as elements.

また、請求項3に係る発明は、請求項1に記載の画像処理方法において、前記演算子ΔK におけるzx, zy, zxx, zxy, zyy のそれぞれの値は、画像上の位置 (x, y) の周辺の一定範囲内において画像を多項式で最小二乗近似し、得られた多項式をx 方向に 1 回偏微分、y 方向に 1 回偏微分、x 方向に 2 回偏微分、x および y 方向に 1 回ずつ偏微分、y 方向に 2 回偏微分、して得られる多項式にそれぞれ (x, y) の値を代入することによって得ることを特徴とする。
The invention according to claim 3 is the image processing method according to claim 1 , wherein each value of z x , z y , z xx , z xy , z yy in the operator Δ K is an The image is approximated by least squares with a polynomial within a certain range around the position (x, y), and the resulting polynomial is partially differentiated once in the x direction, partially differentiated once in the y direction, and partially differentiated twice in the x direction. It is obtained by substituting the values of (x, y) into polynomials obtained by partial differentiation once in the x and y directions, and partial differentiation twice in the y direction.

また、請求項4に係る発明は、請求項1に記載の画像処理方法において、離散的にz=f(x,y)が定義される画像データを構成する各画素について輪郭線を検出する際には、その画素位置(x,y)におけるzx, zy,の値を算出し、これに基づいてzx 2+zy 2の値を算出し、これが一定値以下であるときには、その画素は領域Aに属すると判定し、そうでないときには、さらにzxx, zxy, zyyの値を算出し、zxxx 2+2zxyxy+zyyy 2の値を算出し、この符号が正であるときには、その画素は領域Bに属すると判定し、そうでないときには領域Cに属すると判定し、領域Bに属する画素と領域Cに属する画素との境界線を画像の輪郭線として検出することを特徴とする。
The invention according to claim 4 is the image processing method according to claim 1 , wherein the contour line is detected for each pixel constituting the image data in which z = f (x, y) is discretely defined. to calculates the z x, z y, the value of at the pixel position (x, y), which calculates the value of z x 2 + z y 2 based on, when it is below a predetermined value, the pixel is determined to belong to the area a, when not, further z xx, z xy, calculates the value of z yy, calculates the value of z xx z x 2 + 2z xy z x z y + z yy z y 2, When this sign is positive, it is determined that the pixel belongs to the region B. Otherwise, it is determined that the pixel belongs to the region C, and the boundary line between the pixel belonging to the region B and the pixel belonging to the region C is defined as the contour line of the image. It detects as.

また、請求項5に係る発明は、請求項1乃至請求項4のいずれかに記載された画像処理方法を用いたことを特徴とする画像処理装置である。
The invention according to claim 5 is an image processing apparatus using the image processing method according to any one of claims 1 to 4 .

請求項1に係る発明によれば、画像のグラジエント方向の二次微分の値がゼロ交差する点の集まりを抽出する方法を用いることにより、画像にラプラシアン作用素を施した値がゼロ交差する点の集まりを抽出する方法の理論的な問題点を解決することができ、エッジの先鋭度が低く、かつ、エッジが曲がっているときにも、検出されたエッジが曲がりの外寄りにずれることがなく、エッジの正しい位置が検出されるという効果がある。
また、調和関数による画像においても、ラプラシアンが至るところでゼロになるという問題を回避でき、エッジが検出されるという効果がある。
According to the first aspect of the present invention, by using a method of extracting a set of points at which the value of the second derivative in the gradient direction of the image crosses zero, a value obtained by applying a Laplacian operator to the image at the point at which zero crossing occurs. It can solve the theoretical problem of the method of extracting the gathering, the edge sharpness is low, and even when the edge is bent, the detected edge does not shift to the outside of the bend There is an effect that the correct position of the edge is detected.
In addition, even in the image based on the harmonic function, the problem that the Laplacian becomes zero everywhere can be avoided, and the edge is detected.

また、請求項1に係る発明によれば、式(11)で定義される作用素ΔKを用い、これを画像に施した値がゼロ交差する点の集まりを抽出することにより、実際に画像の断面プロファイルを求める処理を必要とせず、比較的簡単な計算により、画像のグラジエント方向の二次微分の値を算出することができる。
Further, the invention according to claim 1, by extracting a collection of points with operator delta K defined by formula (11), a value obtained by subjecting this to the image crosses zero, actually image The value of the second derivative in the gradient direction of the image can be calculated by a relatively simple calculation without requiring processing for obtaining a cross-sectional profile.

また、請求項2,3に係る発明によれば、離散的な画像が与えられているとき、式(11)の近似値を求める計算は、従来用いられている画像の微分値や二次微分値を求める手法が好適に使用できる。
According to the second and third aspects of the invention, when a discrete image is given, the calculation for obtaining the approximate value of Equation (11) can be performed by using a differential value or a secondary differential value of an image that has been conventionally used. A technique for obtaining a value can be suitably used.

また、請求項4に係る発明によれば、式(11)の計算でゼロ除算を避けることができ、かつ、弱いエッジを除外することができるという効果がある。
Further, according to the invention of claim 4 , there is an effect that division by zero can be avoided in the calculation of Expression (11) and weak edges can be excluded.

また、請求項5に係る発明によれば、上記のような効果を有する画像処理装置を提供することができる。
Moreover, according to the invention which concerns on Claim 5 , the image processing apparatus which has the above effects can be provided.

以下、本発明の実施の形態を図面を参照しつつ説明する。図3はX−Y平面における連続関数z=f(x,y)の一例を示す図である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 3 is a diagram illustrating an example of the continuous function z = f (x, y) in the XY plane.

最初に、グレー階調画像の定義をしておく。X−Y平面上に格子状に配列された m×n個の離散的な点について、各点に一定範囲内の離散的な値(たとえば0以上255以下の範囲の整数値)をとる画素値が割り当てられているデジタルデータをここでは「グレー階調画像」と呼ぶことにする。画素値の意味は、輝度情報、黒の濃度情報、RGB、CMYK、Lab、Luvなどの複数のプレーンからなるカラー画像のうちの1プレーン分の情報、等、いかなる意味づけをも包含するものとする。X−Y平面上の位置(i,j)(i =0,1,2,...,m−1;j=0,1,2,...,n−1) における画素値をz(i,j)と表記する。   First, a gray gradation image is defined. For m × n discrete points arranged in a grid on the XY plane, each pixel value takes a discrete value within a certain range (for example, an integer value in the range of 0 to 255). Here, the digital data to which is assigned is referred to as a “gray gradation image”. The meaning of the pixel value includes any meaning such as luminance information, black density information, information of one plane of a color image composed of a plurality of planes such as RGB, CMYK, Lab, and Luv. To do. The pixel value at the position (i, j) (i = 0, 1, 2,..., M−1; j = 0, 1, 2,..., N−1) on the XY plane is z Indicated as (i, j).

また、連続化された画像の定義をしておく。画像は位置座標値も画素値も離散値をとるが、これは、もともとは連続だったものをサンプリングした結果だとみなすことにする。この連続関数をz=f(x,y)と表記する。すなわち、X−Y平面の(x,y)のグレー階調値zがz=f(x,y)によって与えられるものとする。なお、f(x,y)は十分に滑らかで、何回でも微分可能と仮定しておく。   In addition, a continuous image is defined. An image takes discrete values for both position coordinate values and pixel values, and this is regarded as a result of sampling what was originally continuous. This continuous function is expressed as z = f (x, y). That is, the gray gradation value z of (x, y) on the XY plane is given by z = f (x, y). It is assumed that f (x, y) is sufficiently smooth and can be differentiated any number of times.

本発明では、以上のように定義されるX−Y平面における位置(x,y)でのグレー階調値zがz=f(x,y)によって与えられる画像データから輪郭線を検出するために、z=f(x,y)のグラジエント方向の二次微分の値がゼロ交差する点の集合を抽出し、当該集合を画像の輪郭線として検出する。   In the present invention, the contour line is detected from the image data in which the gray gradation value z at the position (x, y) in the XY plane defined as described above is given by z = f (x, y). Then, a set of points at which the value of the second derivative in the gradient direction of z = f (x, y) crosses zero is extracted, and the set is detected as an image outline.

すなわち、従来のように画像データz=f(x,y)にラプラシアン作用素を施した値がゼロ交差する点の集まりをエッジとして検出する手法に代えて、本発明では、画像のグラジエント方向の二次微分の値がゼロ交差する点の集まりを抽出する方法を用いることにより、正しいエッジ位置を検出する。   That is, in the present invention, instead of the conventional method of detecting, as an edge, a set of points at which a value obtained by applying a Laplacian operator to image data z = f (x, y) is zero-crossed, two gradients in the gradient direction of the image are used. A correct edge position is detected by using a method of extracting a set of points at which the value of the second derivative crosses zero.

このような本発明によれば、画像のグラジエント方向の二次微分の値がゼロ交差する点の集まりを抽出する方法を用いることにより、画像にラプラシアン作用素を施した値がゼロ交差する点の集まりを抽出する方法の理論的な問題点を解決することができ、エッジの先鋭度が低く、かつ、エッジが曲がっているときにも、検出されたエッジが曲がりの外寄りにずれることがなく、エッジの正しい位置が検出されるという効果がある。   According to the present invention as described above, by using a method of extracting a set of points where the values of the second derivative in the gradient direction of the image cross zero, a set of points where the value obtained by applying a Laplacian operator to the image crosses zero. Can solve the theoretical problem of the method of extracting the edge, the edge sharpness is low, and even when the edge is bent, the detected edge does not shift to the outside of the curve, There is an effect that the correct position of the edge is detected.

以上のことを数式的に説明する。本発明においては、   The above will be described mathematically. In the present invention,

で定義されるラプラシアン作用素 Δ に代えて、式(11) (11) instead of the Laplacian operator Δ defined by

で定義される作用素 ΔK を用い、これを画像に施した値がゼロ交差する点の集まりを抽出することにより、正しいエッジ位置を検出する。 The correct edge position is detected by extracting a set of points at which the values obtained by applying the operator Δ K defined in (1) to zero crossing.

なお、式(11)が、グラジエント方向の二次微分値を表していることは、下記のようにして確認することができる。   In addition, it can confirm as follows that Formula (11) represents the secondary differential value of a gradient direction.

連続化された画像をz=f(x,y)と表す。X−Y平面上で、任意の点(x0,y0)を通り、方向ベクトルが(cos(θ0),sin(θ0))であるような直線lを考える。図4はX−Y平面状で点(x0,y0)を通りθ0方向に延びる直線lを示す図である。 The continuous image is represented as z = f (x, y). Consider a straight line l passing through an arbitrary point (x 0 , y 0 ) on the XY plane and having a direction vector of (cos (θ 0 ), sin (θ 0 )). FIG. 4 is a diagram showing a straight line l extending in the θ 0 direction through the point (x 0 , y 0 ) in the XY plane.

直線lは、実数値をとる媒介変数tを用いて、   The straight line l uses a parameter t that takes a real value,

と表すことができる。いま、与えられた画像z=f(x,y)に対して、直線lに沿った断面プロファイルを考える。これは、tの関数とみることができる。それを、 It can be expressed as. Consider a cross-sectional profile along a straight line l for a given image z = f (x, y). This can be viewed as a function of t. It

と表記する。g(t)は、具体的には、z=f(x,y)のxおよびyに式(12)を代入して、 Is written. Specifically, g (t) is obtained by substituting Equation (12) into x and y of z = f (x, y),

である。 It is.

ここから、g(t)をtで 2 回微分すると、   From here, g (t) is differentiated twice by t.

が得られる。 Is obtained.

これにt=0を代入することにより、点(x0,y0)における、直線lに沿った断面プロファイルの二次微分値g′′(0)は、 By substituting t = 0 to, at the point (x 0, y 0), the secondary differential value g of the cross-section profile along the straight line l '' (0) is,

と求まる。 It is obtained.

ここまでは、直線lの方向を任意の角度θ0方向としてきたが、ここで、その方向を、点(x0,y0)におけるグラジエント方向と定める。すなわち、 Up to this point, the direction of the straight line 1 has been set to an arbitrary angle θ 0 direction. Here, the direction is defined as the gradient direction at the point (x 0 , y 0 ). That is,

とする。 And

ところで、この方向ベクトルは、分母が0のとき、定義されない。分母が0になるのは、グラジエントベクトルがゼロベクトルになるときであるが、このとき、その点では傾きがゼロなので、エッジではありえない。したがって、このときは点(x0,y0)をエッジ候補から除外する。
以降の議論は、分母がゼロでない場合に限定して進める。式(17)を式(16)に代入することにより、点(x0,y0)におけるグラジエント方向の二次微分値g′′(0) は、
By the way, this direction vector is not defined when the denominator is zero. The denominator becomes 0 when the gradient vector becomes a zero vector, but at this time, since the gradient is zero at that point, it cannot be an edge. Therefore, at this time, the point (x 0 , y 0 ) is excluded from the edge candidates.
The following discussion will proceed only when the denominator is not zero. By substituting equation (17) into equation (16), the point (x 0, y 0) second derivative g '' (0) in the gradient direction in the

である。 It is.

ここで、(x0,y0)を任意の (x, y) で置き換え、表記を Where (x 0 , y 0 ) is replaced with any (x, y)

のように置き換えると式(11)を得る。 If it replaces like, Formula (11) will be obtained.

以上のようにして、式(11)が、グラジエント方向の断面プロファイル上での二次微分値を表すことが確認された。ここで、式(11)で表されるオペレータ(作用素)ΔKを「ケバヤシアン」と称することとする。 As described above, it was confirmed that Expression (11) represents the second derivative value on the cross-sectional profile in the gradient direction. Here, the operator (operator) delta K of the formula (11) will be referred to as "Kebayashian".

本発明では、式(11)で定義される作用素ケバヤシアンΔKを用い、これを画像に施した値がゼロ交差する点の集まりを抽出することにより、実際に画像の断面プロファイルを求める処理を必要とせず、比較的簡単な計算により、画像のグラジエント方向の二次微分の値を算出することができる。 In the present invention, using the operator Kebayashian delta K defined by formula (11), by a value subjected to this image to extract a set of points of intersection zero, necessary processing for actually determining the image section profile of Instead, the value of the second derivative in the gradient direction of the image can be calculated by a relatively simple calculation.

次に、本発明の画像処理方法を計算機で実行させる画像処理装置に好適な実施形態について説明する。図4は本発明の実施の形態に係る画像処理装置の概略構成を示す図である。図4において、9はSEM装置、10は画像処理装置、11は画像読み込み部、12は画像処理部、13は画像表示部をそれぞれ示している。   Next, an embodiment suitable for an image processing apparatus that causes a computer to execute the image processing method of the present invention will be described. FIG. 4 is a diagram showing a schematic configuration of the image processing apparatus according to the embodiment of the present invention. In FIG. 4, 9 denotes an SEM device, 10 denotes an image processing device, 11 denotes an image reading unit, 12 denotes an image processing unit, and 13 denotes an image display unit.

本実施形態では、SEM(Scanning Electron Microscope)装置9によって取得された画像を画像処理装置10が解析して、輪郭線(エッジ)の検出を行うものついて示しているが、本発明の装置はそのようなものに限定されるものではない。画像処理装置10は、SEM装置9によって取得された画像を読み込む画像読み込み部11と、画像読み込み部11で読み込まれた画像を解析して輪郭線(エッジ)の検出を行う画像処理部12と、画像処理部12によって検出された輪郭線(エッジ)の表示を行う画像表示部13とからなる。このような画像処理装置10は汎用の情報処理装置によって構成することができる。   In the present embodiment, the image processing apparatus 10 analyzes an image acquired by an SEM (Scanning Electron Microscope) apparatus 9 and detects an outline (edge). It is not limited to such a thing. The image processing apparatus 10 includes an image reading unit 11 that reads an image acquired by the SEM device 9, an image processing unit 12 that analyzes an image read by the image reading unit 11 and detects an outline (edge), The image display unit 13 displays an outline (edge) detected by the image processing unit 12. Such an image processing apparatus 10 can be configured by a general-purpose information processing apparatus.

以上のように構成される画像処理装置10における画像処理の流れについて説明する。図6は本発明の実施の形態に係る画像処理装置の処理フローチャートを示す図である。   A flow of image processing in the image processing apparatus 10 configured as described above will be described. FIG. 6 is a diagram showing a processing flowchart of the image processing apparatus according to the embodiment of the present invention.

図6において、ステップS100で画像処理装置10における画像処理が開始されると、次にステップS101に進み、画像読み込み部11でSEM装置9によって取得された画像の読み込みが実行される。   In FIG. 6, when image processing in the image processing apparatus 10 is started in step S <b> 100, the process proceeds to step S <b> 101, and the image reading unit 11 reads the image acquired by the SEM apparatus 9.

ステップS102では、取り込まれた画像データにおける各画素についてのループが開始される。このループは画像データの全ての画素について実行される。   In step S102, a loop for each pixel in the captured image data is started. This loop is executed for all pixels of the image data.

ステップS103では、ΔKZの分母aが計算される。すなわち、a←zx 2+zy 2の計算が実行される。zxやzyの算出方法については後述する。 In step S103, the denominator a in delta K Z is calculated. That is, the calculation of a ← z x 2 + z y 2 is executed. method will be described later calculation of z x and z y.

ステップS104では、求められたaがa≦aoを満たすかどうかが判定される。aoは0にきわめて近い値であり、ステップS104における判定は、ΔKZの分子が0によって除されることを防ぐため、および、ノイズなどの要因によって生じた不要な弱いエッジが検出されることを防ぐために設けられたステップである。 In step S104, it is determined whether or not the obtained a satisfies a ≦ a o . a o is a value very close to 0, and the determination in step S104 is to prevent the numerator of Δ K Z from being divided by 0 and to detect unnecessary weak edges caused by factors such as noise. This is a step provided to prevent this.

ステップS104における判定の結果がYESであるときには、ステップS105に進み、ステップS104における判定の結果がNOであるときには、ステップS106に進む。   When the result of determination in step S104 is YES, the process proceeds to step S105, and when the result of determination in step S104 is NO, the process proceeds to step S106.

ステップS105では、当該画素に[領域A]とラベル付けを行う。   In step S105, the pixel is labeled [region A].

また、ステップS106では、ΔKZの分子bが計算される。すなわち、b←zxxx 2+2zxyxy+zyyy 2の計算が実行される。zxx、zx、zxy、zy、zyyの算出方法については後述する。 In step S106, the numerator b of Δ K Z is calculated. That is, the calculation of b ← z xx z x 2 + 2z xy z x z y + z yy z y 2 is executed. z xx, z x, z xy , z y, will be described later method of calculating the z yy.

ステップS107では、b>0であるか否かが判定される。すまわち、ケバヤシアンΔKZが正負の値のいずれをとるかが判定される。 In step S107, it is determined whether b> 0. In other words, it is determined which of the positive and negative values the Kebayayan Δ K Z takes.

ステップS107の判定結果がYESであるときにはステップS108に進み、その画素に[領域B]とラベル付けを行う。   If the decision result in the step S107 is YES, the process proceeds to a step S108 so as to label the pixel as [Area B].

また、ステップS107の判定結果がNOであるときにはステップS109に進み、その画素に[領域C]とラベル付けを行う。   If the determination result in step S107 is NO, the process proceeds to step S109, and the pixel is labeled [region C].

ステップS110では、全画素についてループが終了したか否かを判定し、終了していないときにはステップS102に戻り、終了しているときにはステップS111に進む。   In step S110, it is determined whether or not the loop has been completed for all pixels. If not, the process returns to step S102, and if completed, the process proceeds to step S111.

ステップS111では、[領域B]と[領域C]との境界を輪郭線(エッジ)として抽出する。   In step S111, the boundary between [area B] and [area C] is extracted as an outline (edge).

ステップS112では、画像表示部13で、抽出された輪郭線(エッジ)の結果表示を行う。   In step S112, the image display unit 13 displays the result of the extracted contour line (edge).

ステップS113で画像処理装置10における画像処理を終了する。   In step S113, the image processing in the image processing apparatus 10 ends.

以上に示す画像処理装置10における画像処理によれば、式(11)の計算において、ゼロ除算を避けることができ、かつ、弱いエッジを除外することができるという効果がある。   According to the image processing in the image processing apparatus 10 described above, there is an effect that division by zero can be avoided and weak edges can be excluded in the calculation of Expression (11).

図6に示すフローチャートにおいては、aおよびbの値を算出するために、各着目画素における、画像の1次および2次の偏微分の値zx, zy, zxx, zxy, zyyを算出する必要がある。 In the flowchart shown in FIG. 6, in order to calculate the values of a and b, first and second order partial differential values z x , z y , z xx , z xy , z yy of the image at each pixel of interest. Need to be calculated.

これを求めるための第1の方法は、画像に線形フィルタ(重み係数行列)を施すものである。離散的にz=f(x,y)が定義される画像データに対し、特定の行列との畳み込み計算を行うことにより、各方向の偏微分に相当する値(実際には微分の代わりに差分をとっている)を求めることができる。すなわち、fが元の画像データ、gが畳み込み変換後の画像データ、hは重み係数行列(畳み込みカーネル)とすると、   The first method for obtaining this is to apply a linear filter (weight coefficient matrix) to the image. By performing a convolution calculation with a specific matrix on image data in which z = f (x, y) is discretely defined, a value corresponding to the partial differentiation in each direction (actually a difference instead of a differentiation) ). That is, if f is the original image data, g is the image data after convolution conversion, and h is a weighting coefficient matrix (convolution kernel),

によって、着目画素における1次および2次の偏微分の値zx, zy, zxx, zxy, zyyを算出することができる。図7は着目画素における畳み込み演算の概要を示す図である。また、図8および図9は、線形フィルタ(重み係数行列、畳み込みカーネル)の例を示す図である。 Thus, the first and second order partial differential values z x , z y , z xx , z xy , z yy at the target pixel can be calculated. FIG. 7 is a diagram showing an outline of the convolution calculation in the pixel of interest. 8 and 9 are diagrams showing examples of linear filters (weight coefficient matrix, convolution kernel).

なお、画像に線形フィルタ(重み係数行列)を施すようにして得られた偏微分値は画像のノイズの影響を受けやすいため、あらかじめ画像に、例えばガウシアンフィルタのような、平滑化フィルタを施しておくのが一般的である。また、ガウシアンフィルタとラプラシアンフィルタとを一体化して計算量を減らすよう工夫した、DOG法も一般的である。   Since the partial differential value obtained by applying a linear filter (weighting coefficient matrix) to an image is easily affected by the noise of the image, a smoothing filter such as a Gaussian filter is applied to the image in advance. It is common to leave. Also, a DOG method is generally used in which a Gaussian filter and a Laplacian filter are integrated to reduce the amount of calculation.

着目画素における1次および2次の偏微分の値zx, zy, zxx, zxy, zyyを算出する第2の方法は、画像を局所的に多項式近似することにより、連続化しておき、その多項式に関する偏微分値を求めるものである。 The second method for calculating the first and second partial differential values z x , z y , z xx , z xy , and z yy at the pixel of interest is a continuous method by locally approximating the image with a polynomial. The partial differential value for the polynomial is obtained.

各着目画素のまわりに一定範囲の近傍領域を設け、その近傍範囲内で、画像をx,yの2変数の多項式で最小二乗近似する。例えば、4次の多項式は   A neighborhood region of a certain range is provided around each pixel of interest, and within the neighborhood range, the image is approximated by least squares using a two-variable polynomial of x and y. For example, the fourth order polynomial is

と表される。 It is expressed.

多項式近似する際に、座標原点を着目画素の位置に取り直した局所座標系を用いれば、その着目画素における、各方向の1次および2次微分の値は、f(x,y)を偏微分して(0,0)を代入した値として得られる。つまり、   When using a local coordinate system in which the coordinate origin is restored to the position of the pixel of interest when performing polynomial approximation, the value of the first and second derivatives in each direction at the pixel of interest is f (x, y) as a partial derivative. Thus, the value obtained by substituting (0, 0) is obtained. That means

である。
多項式近似することにより、連続化という効果に加え、ノイズ除去の効果もある。
It is.
By polynomial approximation, in addition to the effect of continuation, there is also an effect of noise removal.

以上のように、離散的な画像が与えられているとき、着目画素における1次および2次の偏微分の値を求めるために、従来周知の上記第1の方法、上記第2の方法を好適に用いることができ、1次および2次の偏微分値を簡便に求めることができる。   As described above, when a discrete image is given, the conventionally known first method and second method are suitable for obtaining the values of the first and second partial differentials in the pixel of interest. The first-order and second-order partial differential values can be easily obtained.

図10は本発明の実施の形態に係る画像処理方法と従来の画像処理方法を比較する図である。
図10(a)はSEM装置によって撮影された原画像データを示す図である。図10(b)、(c)は原画像に式(11)のケバヤシアンΔKを用いてゼロ交差を抽出したものであり、図10(d)、(e)は原画像に式(10)のラプラシアンを施してゼロ交差を抽出したものである。
FIG. 10 is a diagram comparing an image processing method according to an embodiment of the present invention and a conventional image processing method.
FIG. 10A shows original image data photographed by the SEM apparatus. Figure 10 (b), (c) is obtained by extracting the zero crossing using Kebayashian delta K of the formula (11) in the original image, FIG. 10 (d), (e) in the original image (10) The zero crossing is extracted by applying Laplacian.

図10(b)は本発明の実施の形態に係る画像処理装置の処理フローによって領域A乃至Cのラベル付けをした図であり、図10(c)は本発明の実施の形態に係る画像処理装置の処理フローによって領域Bと領域Cとの境界を輪郭線(エッジ)としての抽出した図である。また、図10(d)は従来の画像処理装置によって領域A乃至Cのラベル付けをした図であり、図10(e)は従来の画像処理装置によって領域Bと領域Cとの境界を輪郭線(エッジ)としての抽出した図である。なお、図10(b)、(c)、(d)、(e)を求める計算において、1次および2次の偏微分の値zx, zy, zxx, zxy, zyyを算出するために多項式近似法を用いた。 FIG. 10B is a diagram in which areas A to C are labeled according to the processing flow of the image processing apparatus according to the embodiment of the present invention, and FIG. 10C is the image processing according to the embodiment of the present invention. It is the figure which extracted the boundary of the area | region B and the area | region C as an outline (edge) by the processing flow of an apparatus. FIG. 10D is a diagram in which areas A to C are labeled by a conventional image processing apparatus, and FIG. 10E is a contour line that defines the boundary between areas B and C by a conventional image processing apparatus. It is the figure extracted as (edge). In addition, in the calculation for obtaining FIGS. 10B, 10C, 10D , and 10E , primary and secondary partial differential values z x , z y , z xx , z xy , z yy are calculated. A polynomial approximation method was used to do this.

図10に示されるように、エッジのコーナー部分で、従来のラプラシアンのゼロ交差を抽出する方法では、抽出された輪郭線が外寄りに飛び出すのが、本発明のケバヤシアンΔKによる作用素のゼロ交差を抽出する方法では解消され、全体的にスムーズであることが見てとれる。 As shown in FIG. 10, the corner portion of the edge, in the method of extracting the zero crossing of the conventional Laplacian, is extracted contour line that jumping out toward the zero crossing of the operator by Kebayashian delta K of the present invention It can be seen that it is solved by the method of extracting and is smooth overall.

以上、本発明の実施の形態に係る画像処理方法及びその方法を用いた画像処理装置によれば、画像のエッジを検出する方法として厳密に正しい方法に基づいているため、エッジ(輪郭線)が曲がっているときにおいても、画素値の変化の最も急峻なエッジ位置を検出することが可能となる。   As described above, according to the image processing method and the image processing apparatus using the method according to the embodiment of the present invention, since an edge (contour line) is based on a strictly correct method as a method for detecting an edge of an image. Even when it is bent, it is possible to detect the edge position where the pixel value changes most steeply.

式(1)に示されるz=f(x,y)とそれに関連するグラフである。It is a graph relevant to z = f (x, y) shown by Formula (1), and it. 式(1)に示されるz=f(x,y)とそれに関連するグラフである。It is a graph relevant to z = f (x, y) shown by Formula (1), and it. X−Y平面における連続関数z=f(x,y)の一例を示す図である。It is a figure which shows an example of the continuous function z = f (x, y) in an XY plane. X−Y平面状で点(x0,y0)を通りθ0方向に延びる直線lを示す図である。The X-Y plane shape at a point (x 0, y 0) is a diagram showing a straight line l extending the street theta 0 direction. 本発明の実施の形態に係る画像処理装置の概略構成を示す図である。1 is a diagram illustrating a schematic configuration of an image processing apparatus according to an embodiment of the present invention. 本発明の実施の形態に係る画像処理装置の処理フローチャートを示す図である。It is a figure which shows the process flowchart of the image processing apparatus which concerns on embodiment of this invention. 着目画素における畳み込み演算の概要を示す図である。It is a figure which shows the outline | summary of the convolution calculation in a focused pixel. 各方向の1次および2次偏微分の値を得るための線形フィルタ(重み係数行列、畳み込みカーネル)の例を示す図である。It is a figure which shows the example of the linear filter (a weighting coefficient matrix, a convolution kernel) for obtaining the value of the primary and secondary partial differentiation of each direction. 各方向の1次および2次偏微分の値を得るための線形フィルタ(重み係数行列、畳み込みカーネル)の例を示す図である。It is a figure which shows the example of the linear filter (a weighting coefficient matrix, a convolution kernel) for obtaining the value of the primary and secondary partial differentiation of each direction. 本発明の実施の形態に係る画像処理方法と従来の画像処理方法を比較する図である。It is a figure which compares the image processing method which concerns on embodiment of this invention, and the conventional image processing method.

符号の説明Explanation of symbols

9・・・SEM装置、10・・・画像処理装置、11・・・画像読み込み部、12・・・画像処理部、13・・・画像表示部 DESCRIPTION OF SYMBOLS 9 ... SEM apparatus, 10 ... Image processing apparatus, 11 ... Image reading part, 12 ... Image processing part, 13 ... Image display part

Claims (5)

X−Y平面における位置(x,y)でのグレー階調値zがz=f(x,y)によって与えられる画像データから輪郭線を検出する画像処理方法において、
z=f(x,y)のグラジエント方向の二次微分の値がゼロ交差する点の集合を抽出し、当該集合を画像の輪郭線として検出し、
z=f(x,y)のグラジエント方向の二次微分は、
によって定義される演算子Δ K によって求めることを特徴とする画像処理方法。
In an image processing method for detecting a contour line from image data in which a gray gradation value z at a position (x, y) in an XY plane is given by z = f (x, y),
a set of points at which the value of the second derivative in the gradient direction of z = f (x, y) crosses zero, and the set is detected as an outline of the image ;
The second derivative in the gradient direction of z = f (x, y) is
Image processing method characterized by determining by the operator delta K defined by.
前記演算子ΔK におけるzx, zy, zxx, zxy, zyy のそれぞれの値は、離散的にz=f(x,y)が定義される画像データに対して、定数を要素とする行列で表されるフィルタとの畳み込み計算を行うことによって得ることを特徴とする請求項1に記載の画像処理方法。 Each value of z x , z y , z xx , z xy , and z yy in the operator Δ K is a constant element for image data in which z = f (x, y) is discretely defined. The image processing method according to claim 1 , wherein the image processing method is obtained by performing a convolution calculation with a filter represented by a matrix. 前記演算子ΔK におけるzx, zy, zxx, zxy, zyy のそれぞれの値は、
画像上の位置 (x, y) の周辺の一定範囲内において画像を多項式で最小二乗近似し、得られた多項式を
x 方向に 1 回偏微分、
y 方向に 1 回偏微分、
x 方向に 2 回偏微分、
x および y 方向に 1 回ずつ偏微分、
y 方向に 2 回偏微分、
して得られる多項式にそれぞれ (x, y) の値を代入することによって得ることを特徴とする請求項1に記載の画像処理方法。
Each value of z x , z y , z xx , z xy , z yy in the operator Δ K is
The image is approximated with a least squares polynomial within a certain range around the position (x, y) on the image, and the resulting polynomial is
partial differential once in the x direction,
partial differential once in the y direction,
partial differentiation twice in the x direction,
partial differentiation once in the x and y directions,
partial differential twice in the y direction,
The image processing method according to claim 1 , wherein the image processing method is obtained by substituting a value of (x, y) for each of the polynomials obtained as described above.
離散的にz=f(x,y)が定義される画像データを構成する各画素について輪郭線を検出する際には、その画素位置(x,y)におけるzx, zy,の値を算出し、これに基づいてzx 2+zy 2の値を算出し、これが一定値以下であるときには、その画素は領域Aに属すると判定し、そうでないときには、さらにzxx, zxy, zyyの値を算出し、zxxx 2+2zxyxy+zyyy 2の値を算出し、この符号が正であるときには、その画素は領域Bに属すると判定し、そうでないときには領域Cに属すると判定し、領域Bに属する画素と領域Cに属する画素との境界線を画像の輪郭線として検出することを特徴とする請求項1に記載の画像処理方法。 When detecting a contour line for each pixel constituting image data in which z = f (x, y) is defined discretely, the values of z x , z y , at the pixel position (x, y) are determined. And the value of z x 2 + z y 2 is calculated based on this, and when it is less than or equal to a certain value, it is determined that the pixel belongs to the region A. Otherwise, z xx , z xy , z calculates the value of yy, calculates the value of z xx z x 2 + 2z xy z x z y + z yy z y 2, when the sign is positive, it is determined that the pixel belongs to the area B, otherwise 2. The image processing method according to claim 1 , wherein the image processing method is characterized in that it is sometimes determined that the pixel belongs to the region C and a boundary line between a pixel belonging to the region B and a pixel belonging to the region C is detected as an image outline. 請求項1乃至請求項4のいずれかに記載された画像処理方法を用いたことを特徴とする画像処理装置。 An image processing apparatus using the image processing method according to claim 1 .
JP2008044041A 2008-02-26 2008-02-26 Image processing method and image processing apparatus using the method Active JP4993128B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008044041A JP4993128B2 (en) 2008-02-26 2008-02-26 Image processing method and image processing apparatus using the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008044041A JP4993128B2 (en) 2008-02-26 2008-02-26 Image processing method and image processing apparatus using the method

Publications (2)

Publication Number Publication Date
JP2009205224A JP2009205224A (en) 2009-09-10
JP4993128B2 true JP4993128B2 (en) 2012-08-08

Family

ID=41147453

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008044041A Active JP4993128B2 (en) 2008-02-26 2008-02-26 Image processing method and image processing apparatus using the method

Country Status (1)

Country Link
JP (1) JP4993128B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015114729A (en) 2013-12-09 2015-06-22 三星ディスプレイ株式會社Samsung Display Co.,Ltd. Image processing device, display device, image processing method and program
JP6305806B2 (en) * 2014-03-28 2018-04-04 日本コントロールシステム株式会社 Information processing apparatus, information processing method, and program
CN104156961A (en) * 2014-08-12 2014-11-19 东北林业大学 Gray scale defect image extraction method
CN116542976B (en) * 2023-07-06 2023-09-08 深圳市佳合丰科技有限公司 Visual detection system for die-cutting piece defects

Also Published As

Publication number Publication date
JP2009205224A (en) 2009-09-10

Similar Documents

Publication Publication Date Title
Li et al. Automatic crack detection and measurement of concrete structure using convolutional encoder-decoder network
US7903880B2 (en) Image processing apparatus and method for detecting a feature point in an image
CN103185730B (en) Method for building rule of thumb of defect classification, and methods for classifying defect and judging killer defect
US9196034B2 (en) Method of fast analysis of the relief elements featuring on the internal surface of a tyre
JP4966893B2 (en) Matching degree calculation device and method, program
US20070253040A1 (en) Color scanning to enhance bitonal image
JP6448065B2 (en) Image processing system, image processing method, and image processing program
EP1956551B1 (en) Pattern recognition apparatus, pattern recognition method, and pattern recognition program
CN107085850B (en) The method and book scanning method that masking acquires the marked body of foreign matter in image, identifies foreign matter marked body in image
CN102682428B (en) Fingerprint image computer automatic mending method based on direction fields
US6507675B1 (en) Structure-guided automatic learning for image feature enhancement
CN101681432A (en) Photo-document segmentation method and system
CN113706464B (en) Printed matter appearance quality detection method and system
CN101246593B (en) Color image edge detection method and apparatus
JP4993128B2 (en) Image processing method and image processing apparatus using the method
US20030031385A1 (en) Method and apparatus for sub-pixel edge detection
CN115147448A (en) Image enhancement and feature extraction method for automatic welding
CN115311289A (en) Method for detecting oil stain defects of plain-color cloth
CN107895371B (en) Textile flaw detection method based on peak coverage value and Gabor characteristics
CN104700388A (en) Method and device for extracting distorted lines from images
CN102509265B (en) Digital image denoising method based on gray value difference and local energy
US20030026473A1 (en) Structure-guided automatic alignment for image processing
CN106446920A (en) Stroke width transformation method based on gradient amplitude constraint
CN113516608B (en) Method and device for detecting defects of tire and tire detecting equipment
JP5067677B2 (en) Defect detection method, defect detection apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120411

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120424

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4993128

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150