JPH04340246A - Method of extracting pattern feature - Google Patents

Method of extracting pattern feature

Info

Publication number
JPH04340246A
JPH04340246A JP3065019A JP6501991A JPH04340246A JP H04340246 A JPH04340246 A JP H04340246A JP 3065019 A JP3065019 A JP 3065019A JP 6501991 A JP6501991 A JP 6501991A JP H04340246 A JPH04340246 A JP H04340246A
Authority
JP
Japan
Prior art keywords
pattern
pixel
image data
local area
picture elements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3065019A
Other languages
Japanese (ja)
Inventor
Hiroshi Inoue
広 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP3065019A priority Critical patent/JPH04340246A/en
Publication of JPH04340246A publication Critical patent/JPH04340246A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To extract the feature of a pattern as a whole easily and in a short time by a method wherein small regions are formed of the unit number of picture elements attaching importance to individual picture elements constituting a two-dimensional image data and a position belonging to the pattern in each small region is judged on the basis of the differentiated value of the image data by the individual picture elements in the small region. CONSTITUTION:A two-dimensional image data 1 is formed by arranging many picture elements 2 in a matrix shape. The individual picture elements 2 display the shade, e.g., in 11 scales which are indicated by integers from 0 to 10. Small regions 4 are constituted of nine picture elements 2, 3 (row) X 3 (column). Respective four differentiated values are computed individually for every picture element 2 constituting each small region 4 by using individual parameters in a total of four directions in the longitudinal direction, the +45 deg. direction, the transverse direction and the -45 deg. direction. When the magnitude relationship of the four differentiated values is invenstigated, it is possible to judge in which direction the region is tilted. The position of the small region 4 with reference to patterns 3 can be judged from the tilted direction of the image data of all the picture elements 2 constituting the small region 4.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明はパターン特徴抽出方法に
係わり、特に二次元画像データにおけるパターンを局小
域毎に画像データの傾斜方向を求めて、これらの各局小
域の画像データ傾斜方向から全体のパターンを抽出する
ようにしたパターン特徴抽出方法に関する。
[Field of Industrial Application] The present invention relates to a pattern feature extraction method, and in particular, the present invention relates to a method for extracting pattern features, and in particular, calculates a pattern in two-dimensional image data by determining the tilt direction of the image data for each local area, and extracting the pattern from the image data tilt direction of each local area. This invention relates to a pattern feature extraction method that extracts the entire pattern.

【0002】0002

【従来の技術】例えば、半導体製造工場内の半導体マス
クやプリント基板の検査工程において、製造された半導
体マスクやプリント基板の形状が設計パターンと一致し
ているか否かを検査する必要がある。この検査工程を自
動的に行うには、まず、測定対象となる半導体マスクや
プリント基板を撮像器で読取って、二次元画像データを
得る。そして、その二次元画像データから測定対象のパ
ターンを抽出して、記憶部に予め設定されている基準パ
ターンと比較対照する。
2. Description of the Related Art For example, in a semiconductor mask or printed circuit board inspection process in a semiconductor manufacturing factory, it is necessary to inspect whether the shape of the manufactured semiconductor mask or printed circuit board matches a design pattern. To perform this inspection process automatically, first, the semiconductor mask or printed circuit board to be measured is read with an imager to obtain two-dimensional image data. Then, a pattern to be measured is extracted from the two-dimensional image data and compared and contrasted with a reference pattern preset in the storage unit.

【0003】従来のパターン特徴抽出方法においては、
パターンマッチング法で行っていた。すなわち、図6に
示すように、パターンにおける予め予想される(a)エ
ッジ部,(b)コーナ部,(c)均一部.(d)その他
の各部位において、多数の基準単位パターンを予め記憶
部に記憶しておく。そして、読取られた二次元画像デー
タを例えば同一形状を有した正方形の単位画像データに
分割して、分割された各単位画像データのパータンと、
前記各基準単位パターンとを順番に比較対照しいてって
、正方形の各単位画像データがどの基準単位パターンに
一致するかを調べる。
In the conventional pattern feature extraction method,
This was done using a pattern matching method. That is, as shown in FIG. 6, the pre-expected (a) edge portions, (b) corner portions, (c) uniform portions, etc. of the pattern are shown in FIG. (d) In each of the other parts, a large number of reference unit patterns are stored in advance in the storage section. Then, the read two-dimensional image data is divided into, for example, square unit image data having the same shape, and the pattern of each divided unit image data is determined.
The respective reference unit patterns are compared and contrasted in order to find out which reference unit pattern each square unit image data corresponds to.

【0004】そして、全部の単位画像データを基準単位
パターンに置換えると読取られた二次元画像データから
全体のパターンが得られる。そして、得られた全体のパ
ターンが記憶されている基準パターンに一致するか否か
を調べればよい。
[0004] Then, by replacing all the unit image data with the reference unit pattern, the entire pattern can be obtained from the read two-dimensional image data. Then, it is only necessary to check whether the obtained overall pattern matches the stored reference pattern.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上述し
たパターン特徴抽出方法においてもまだ次のような問題
があった。
[Problems to be Solved by the Invention] However, the above-described pattern feature extraction method still has the following problems.

【0006】すなわち、図6に示すように、基準単位パ
ータンの種類が膨大な数になる。例えば、縦横の画素数
,白黒の反転,相対位置のずれにより、それぞれ個別の
基準単位パータンを準備する必要がある。また、図7に
示すように、同じパターンであっても複数種類の基準単
位パータンを準備する必要がある。このように、比較対
照すべき基準単位パターン数が増加すると、測定された
各単位画像データの比較回数が膨大な数になり、処理能
率が大幅に低下する。
That is, as shown in FIG. 6, there are a huge number of types of reference unit patterns. For example, it is necessary to prepare separate reference unit patterns depending on the number of pixels in the vertical and horizontal directions, inversion of black and white, and deviation in relative position. Further, as shown in FIG. 7, it is necessary to prepare multiple types of reference unit patterns even if the pattern is the same. As described above, when the number of reference unit patterns to be compared increases, the number of times each measured unit image data must be compared becomes enormous, resulting in a significant decrease in processing efficiency.

【0007】さらに、読取られた二次元画像データを2
値化データとして情報処理する場合は、図6に示す各基
準単位パータンでもって簡単に比較できるが、例えば、
二次元画像データを構成する各画素の画像データを2値
化データではなくて、濃淡の階調を示す多値化データで
構成する場合もある。このような場合においては、簡単
に比較対照できない問題がある。
Furthermore, the read two-dimensional image data is
When processing information as digitized data, it can be easily compared using each standard unit pattern shown in Fig. 6, but for example,
The image data of each pixel constituting the two-dimensional image data may be composed not of binary data but of multi-valued data indicating gradations of light and shade. In such cases, there are problems that cannot be easily compared and contrasted.

【0008】本発明はこのような事情に鑑みてなされた
ものであり、局小域の各画素の画素データの微分値に基
づいて各局小域のパターンに対する所属位置を判定する
ことにより、たとえ各画素の画素データが濃淡を表す多
値化データであったとしても、全体のパターンの特徴を
容易にかつ短時間で抽出できるパターン特徴抽出方法を
提供することを目的とする。
The present invention has been made in view of the above circumstances, and by determining the position to which each local area belongs to the pattern based on the differential value of pixel data of each pixel in the local area, even if each local area is It is an object of the present invention to provide a pattern feature extraction method that can easily extract the features of an entire pattern in a short time even if pixel data of a pixel is multivalued data representing shading.

【0009】[0009]

【課題を解決するための手段】上記課題を解消するため
に本発明のパターン特徴抽出方法においては、単位個数
の画素からなる局小域を構成する各画素毎に隣接する周
囲の画素の画素データのレベル差から各方向の微分値を
微分パラメータを用いて算出し、算出された各方向の微
分値に基づいて各画素毎に画素データの傾斜方向を判定
し、各局小域を構成する全部の画素の画素データ傾斜方
向から該当局小域のパターンに対する所属位置を判定し
、各局小域の所属位置からパターンの特徴を抽出するよ
うにしている。
[Means for Solving the Problems] In order to solve the above problems, in the pattern feature extraction method of the present invention, pixel data of adjacent surrounding pixels for each pixel constituting a local area consisting of a unit number of pixels. The differential value in each direction is calculated using a differential parameter from the level difference of The position to which the corresponding local area belongs to the pattern is determined from the pixel data inclination direction of the pixel, and the characteristics of the pattern are extracted from the position to which each local area belongs.

【0010】0010

【作用】このように構成されたパターン特徴抽出方法に
よれば、単位個数の画素からなる局小域を構成する各画
素毎の各方向の微分値が求まる。そして各方向の微分値
から一つの画素の画素データの傾斜方向が定まる。すな
わち、この画素データ傾斜方向は該当画素の画素データ
が周囲の画素データとの関係でどちらの方向に傾斜して
いるかを示す値である。さらに、各画素の傾斜方向の組
合せ等から局小域がパータンのどの位置に所属している
かが定まる。
[Operation] According to the pattern feature extraction method configured as described above, the differential value in each direction for each pixel constituting a local area consisting of a unit number of pixels is determined. Then, the slope direction of the pixel data of one pixel is determined from the differential values in each direction. That is, this pixel data tilt direction is a value indicating in which direction the pixel data of the relevant pixel is tilted in relation to surrounding pixel data. Furthermore, it is determined to which position in the pattern the local area belongs based on the combination of the tilt directions of each pixel.

【0011】したがって、例えばパターンの縦方向のエ
ッジ部にこの局小域が所属していると、この縦方向のエ
ッジ部の局小域が連続する方向がパターンの境目方向と
なる。しかして、全部の局小域を二次元的に組合せると
パータンの二次元特徴が抽出される。
[0011] Therefore, for example, if this local area belongs to a vertical edge portion of a pattern, the direction in which the local areas of this vertical edge portion are continuous becomes the pattern boundary direction. Thus, by two-dimensionally combining all the local regions, two-dimensional features of the pattern can be extracted.

【0012】0012

【実施例】以下本発明の一実施例に係わるパターン特徴
抽出方法を図面を用いて説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS A pattern feature extraction method according to an embodiment of the present invention will be described below with reference to the drawings.

【0013】図1は実施例のパターン特徴抽出方法が適
用される二次元画像データのフォーマツト図である。こ
の二次元画像データ1は多数の画素2をマトリックス状
に配列したものであり、各画素2は例えば0〜10の整
数で示される11段階の濃淡を表示することが可能であ
る。したがって、この二次元画像データ1内のパターン
3は各画素2によって11段階の階調で示される。
FIG. 1 is a diagram showing the format of two-dimensional image data to which the pattern feature extraction method of the embodiment is applied. This two-dimensional image data 1 is obtained by arranging a large number of pixels 2 in a matrix, and each pixel 2 is capable of displaying 11 levels of shading represented by integers from 0 to 10, for example. Therefore, the pattern 3 in this two-dimensional image data 1 is represented by each pixel 2 in 11 levels of gradation.

【0014】そして、図示するように縦3個×横3個の
合計9個の画素2で局小域4を構成する。図1において
は、この局小域4がパターン3の、エッジ部近傍(位置
A),コーナ部近傍(位置B),斜めエッジ近傍(位置
C)に位置した状態と、パターン3の内部または外部の
均一部(位置D)に位置した状態を示す。次に、各画素
データの微分値の算出方法を図2を用いて説明する。
As shown in the figure, a local area 4 is composed of a total of nine pixels 2, three in the vertical direction and three in the horizontal direction. In FIG. 1, this local area 4 is located near the edge of pattern 3 (position A), near the corner (position B), near the diagonal edge (position C), and inside or outside of pattern 3. This shows the state where the image is located in the uniform part (position D). Next, a method for calculating the differential value of each pixel data will be explained using FIG. 2.

【0015】図2(a)は図1の位置Aで示すエッジ部
近傍の局小域4に所属する9個の各画素2およびこの局
小域4の周囲を囲む各画素2における0〜10のレベル
で示される画素データを示す図である。例えば最下段の
5個の画素2は完全にパターン3内に位置しているので
、画素データは0である。逆に、最上段の5個の画素2
は完全にパータン3を外れているので、画素データは1
0である。中央の横3列はパターン3の境目に位置し、
下から上へ3,5,7と画素データのレベルが上昇する
FIG. 2(a) shows nine pixels 2 belonging to a local area 4 near the edge shown at position A in FIG. FIG. 3 is a diagram showing pixel data shown in levels. For example, the five pixels 2 at the bottom are completely located within the pattern 3, so the pixel data is 0. Conversely, the top five pixels 2
is completely outside pattern 3, so the pixel data is 1
It is 0. The three horizontal rows in the center are located at the border of pattern 3,
The level of pixel data increases from bottom to top from 3 to 5 to 7.

【0016】また、図2(b)は縦方向の微分オペレー
タ5aを示す。そして、図2(f)はこの微分オペレー
タ5aを用いて各画素2の画素データを縦方向に空間微
分した微分値aを示す図である。例えば図2(f)の中
央の[4]を示す微分値aは、図2(a)の中央の[5
]の画素データと上側の[7]の画素データとの差[2
]に、中央の[5]の画素データと下側の[3]の画素
データとの差[2]を加算した値である。
Further, FIG. 2(b) shows a vertical differential operator 5a. FIG. 2(f) is a diagram showing a differential value a obtained by spatially differentiating the pixel data of each pixel 2 in the vertical direction using the differential operator 5a. For example, the differential value a indicating [4] in the center of FIG. 2(f) is
] The difference [2] between the pixel data of [7] and the pixel data of upper [7]
] is the value obtained by adding the difference [2] between the pixel data of the center [5] and the pixel data of the bottom [3].

【0017】このように、縦方向微分においては、微分
対象の画素データの上下に隣接する各画素2の画素デー
タとの差を加算することによって、各画素2の微分値a
を順番に算出していく。このように、局小域4を構成す
る9個の画素2の各微分値aの算出処理を行う。
In this way, in the vertical differentiation, the differential value a of each pixel 2 is calculated by adding the difference between the pixel data of the pixel data to be differentiated and the pixel data of each pixel 2 adjacent above and below.
are calculated in order. In this way, the calculation process of each differential value a of the nine pixels 2 constituting the local area 4 is performed.

【0018】同様に、図2(d)は横方向の微分オペレ
ータ5cを示す。そして、図2(h)はこの微分オペレ
ータ5bを用いて各画素2の画素データを横方向に空間
微分した微分値cを示す図である。すなわち、この横縦
方向微分においては、微分対象の画素データの左右に隣
接する各画素2の画素データとの差を加算することによ
って、各画素2の微分値cを順番に算出していく。なお
、この例では、図2(a)に示すように、横方向に画素
データは全く変化しないので、各微分値cは全部[0]
である。
Similarly, FIG. 2(d) shows a lateral differential operator 5c. FIG. 2(h) is a diagram showing the differential value c obtained by spatially differentiating the pixel data of each pixel 2 in the horizontal direction using the differential operator 5b. That is, in this horizontal and vertical direction differentiation, the differential value c of each pixel 2 is calculated in order by adding the difference between the pixel data of the pixel data to be differentiated and the pixel data of each pixel 2 adjacent to the left and right. In this example, as shown in FIG. 2(a), the pixel data does not change at all in the horizontal direction, so each differential value c is all [0]
It is.

【0019】また、図2(c)は+45°方向の微分オ
ペレータ5bを示す。そして、図2(g)はこの微分オ
ペレータ5bを用いて各画素2の画素データを+45°
の斜め方向に空間微分した微分値bを示す図である。す
なわち、この+45°の斜め方向微分においては、微分
対象の画素データの+45°の斜め方向に隣接する各画
素2の画素データとの差を加算することによって、各画
素2の微分bを順番に算出していく。
Further, FIG. 2(c) shows the differential operator 5b in the +45° direction. FIG. 2(g) uses this differential operator 5b to convert the pixel data of each pixel 2 by +45°.
It is a figure which shows the differential value b spatially differentiated in the oblique direction. That is, in this +45° diagonal differentiation, the differential b of each pixel 2 is sequentially calculated by adding the difference between the pixel data to be differentiated and the pixel data of each pixel 2 adjacent in the +45° diagonal direction. I will calculate it.

【0020】さらに、図2(e)は−45°方向の微分
オペレータ5dを示す。そして、図2(i)はこの微分
オペレータ5dを用いて各画素2の画素データを−45
°の斜め方向に空間微分した微分値dを示す図である。 すなわち、この−45°の斜め方向微分においては、微
分対象の画素データの−45°の斜め方向に隣接する各
画素2の画素データとの差を加算することによって、各
画素2の微分dを順番に算出していく。
Furthermore, FIG. 2(e) shows a differential operator 5d in the -45° direction. FIG. 2(i) uses this differential operator 5d to calculate the pixel data of each pixel 2 by −45
It is a figure which shows the differential value d spatially differentiated in the oblique direction of degree. That is, in this -45° diagonal differentiation, the differential d of each pixel 2 is obtained by adding the difference between the pixel data to be differentiated and the pixel data of each pixel 2 adjacent in the -45° diagonal direction. Calculate in order.

【0021】このように、縦方向,+45°方向,横方
向,−45°方向の合計4方向の各微分パラメータ5a
〜5dを用いて、各局小域4を構成する9個の画素2毎
にそれぞれ4個の微分値a,b,c,dが算出された。
In this way, each differential parameter 5a in a total of four directions: vertical direction, +45° direction, horizontal direction, -45° direction
~5d, four differential values a, b, c, and d were calculated for each of the nine pixels 2 constituting each local area 4.

【0022】各局小域4における各画素2の各方向の微
分値a,b,c,dの算出処理が終了すると、図3に示
すアルゴリズムに従って、各画素2毎に画素データの傾
斜方向を判定する。
When the calculation process of the differential values a, b, c, d in each direction of each pixel 2 in each local area 4 is completed, the slope direction of the pixel data is determined for each pixel 2 according to the algorithm shown in FIG. do.

【0023】流れ図が開始されると、先ず前述したよう
に該当画素2の各方向の微分値a,b,c,dを算出す
る。次にP(プログラムステップ)1において、4個の
微分値a〜dの各絶対値の最大値が1個であるか否かを
を調べる。最大値が1個であれば、P2にて該当微分値
に対応する方向がこの画素2の画素データの傾斜方向と
する。そして、P3へ進み、該当微分値が(−)値であ
れば、P2で定めた傾斜方向を180°反転する。
When the flowchart is started, first, the differential values a, b, c, and d of the corresponding pixel 2 in each direction are calculated as described above. Next, in P (program step) 1, it is checked whether the maximum value of the absolute values of the four differential values a to d is one. If the maximum value is one, the direction corresponding to the corresponding differential value is set as the tilt direction of the pixel data of this pixel 2 at P2. Then, the process proceeds to P3, and if the corresponding differential value is a (-) value, the inclination direction determined in P2 is reversed by 180 degrees.

【0024】P1にて、4個の微分値a〜dの各絶対値
の最大値が2個以上存在する場合は、逆に、各絶対値の
最小値が1個であるか否かを調べる。最小値が1個であ
れば、P5に、該当微分値に対応する方向の90°方向
がこの画素2の画素データの傾斜方向とする。そして、
P3へ進み、該当微分値が(−)値であれば、P5で定
めた傾斜方向を180°反転する。
In P1, if there are two or more maximum values of the absolute values of the four differential values a to d, conversely, check whether the minimum value of each absolute value is one. . If the minimum value is one, the 90° direction corresponding to the corresponding differential value is set as the tilt direction of the pixel data of this pixel 2 in P5. and,
Proceeding to P3, if the corresponding differential value is a (-) value, the inclination direction determined in P5 is reversed by 180°.

【0025】さらに、P4にて、4個の微分値a〜dの
各絶対値の最小値が2個以上存在する場合は、P6にて
全部の絶対値が0であるか否かを調べる。0であれば、
この画素2はパターン3の境目から遠く離れた内部また
は外部の均一部に存在すると見なして、P7にて傾斜方
向不定(均一部)と判定する。また、P6にて0以外の
絶対値が存在すれば、±45°以外の傾斜方向を有して
いると判断する。
Further, in P4, if there are two or more minimum values of the absolute values of the four differential values a to d, it is checked in P6 whether all the absolute values are 0 or not. If it is 0,
This pixel 2 is assumed to exist in an internal or external uniform area far away from the boundary of the pattern 3, and is determined to be in an indeterminate tilt direction (uniform area) at P7. Further, if an absolute value other than 0 exists in P6, it is determined that the tilt direction is other than ±45°.

【0026】このように、4個の微分値a,b,c,d
の大小関係を調べることによって、各画素2の画素デー
タが、この画素2に隣接する各画素との比較において、
どちらの方向に傾斜しているかが一義的に定まる。
In this way, the four differential values a, b, c, d
By examining the magnitude relationship of the pixel data of each pixel 2, in comparison with each pixel adjacent to this pixel 2,
The direction in which it is inclined is uniquely determined.

【0027】例えば、図2(a)の中央の画素データ[
5]の画素2の各微分値a,b,b,dは図示するよう
に4,4,0,−4となる。このままでは、この画素2
の画素データの傾斜方向は確定しなしが、図3のアルゴ
リズムに従うと、P5において、横方向の90°方向、
すなわち縦方向が傾斜方向となり、図1の二次元画像デ
ータ1の位置Aと一致する。
For example, the center pixel data [
5], the differential values a, b, b, and d of pixel 2 are 4, 4, 0, and -4 as shown in the figure. As it is, this pixel 2
The direction of inclination of the pixel data is not determined, but according to the algorithm shown in FIG.
That is, the vertical direction is the tilt direction, which coincides with position A of the two-dimensional image data 1 in FIG.

【0028】図4は、図3のアルゴリズムによって求め
られた、図1のA〜Dの各位置における各局小域4に属
する各画素2および周囲の各画素2の画素データと、各
局小域4内の9個の画素2の矢印で示す傾斜方向Dとの
関係を示す図である。
FIG. 4 shows the pixel data of each pixel 2 belonging to each local area 4 at each position A to D in FIG. 9 is a diagram illustrating the relationship between nine pixels 2 in the inclination direction D indicated by an arrow. FIG.

【0029】図4(a)で示すエッジ近傍(位置A)の
画素データに対しては、図4(b)で示すように、各画
素2の画素データの傾斜方向は全てパターン3のエッジ
が存在する下向き(縦)方向である。また、図4(c)
で示すコーナ近傍(位置B)の画素データに対しては、
図4(d)で示すように、各画素2の画素データの傾斜
方向は全体としてパターン3のコーナが存在する左下方
向に向いている。
As for the pixel data near the edge (position A) shown in FIG. 4(a), as shown in FIG. It is the downward (vertical) direction that exists. Also, Figure 4(c)
For pixel data near the corner (position B) shown in
As shown in FIG. 4D, the inclination direction of the pixel data of each pixel 2 is directed toward the lower left where the corner of the pattern 3 exists as a whole.

【0030】図4(d)で示す均一部(位置D)の画素
データに対しては、図4(e)で示すように、各画素2
の画素データの傾斜方向は全て定まらず方向不定である
。さらに、図4(f)で示す斜めのエッジ近傍(位置C
)の画素データに対しては、図4(g)で示すように、
各画素2の画素データの傾斜方向は全てパターン3のエ
ッジが存在する右下方向に向いている。
For the pixel data of the uniform portion (position D) shown in FIG. 4(d), as shown in FIG. 4(e), each pixel 2
The inclination directions of the pixel data are all undefined and directions are undefined. Furthermore, near the oblique edge shown in FIG. 4(f) (position C
), as shown in Figure 4(g),
The inclination direction of the pixel data of each pixel 2 is all directed toward the lower right direction where the edge of the pattern 3 exists.

【0031】各局小域4における各画素2の画素データ
の各傾斜方向Dの判定処理が終了すると、図5に示すア
ルゴリズムに従って、各局小域4のパータン3に対する
所属位置を判定する。
When the process of determining each inclination direction D of the pixel data of each pixel 2 in each local area 4 is completed, the position to which each local area 4 belongs to the pattern 3 is determined according to the algorithm shown in FIG.

【0032】流れ図が開始されると、Q1にて、前述し
たように局小域4を構成するN個全部の画素2のデータ
傾斜方向Dを求める。Q2にて、N個全てが図4(e)
に示すように方向不定であれば、Q3にて、該当局小域
4は均一部に位置すると判断する。
When the flow chart starts, in Q1, the data gradient direction D of all N pixels 2 constituting the local area 4 is determined as described above. In Q2, all N pieces are shown in Fig. 4(e).
If the direction is undefined as shown in , it is determined in Q3 that the corresponding local area 4 is located in the uniform part.

【0033】また、Q4にて全部の画素2の画素データ
の傾斜方向Dが同一方向を向いていれば、Q5へ進む。 Q5にて、その方向が例え図4(b)に示す縦方向であ
れば縦エッジ位置と判定する。さらに、Q6にて横方向
であれば横エッジ位置と判定する。さらに、縦でも横で
もなければ、図4(g)に示すように斜め方向であると
判断して、斜めエッジ位置とする。
Further, if the inclination direction D of the pixel data of all pixels 2 is in the same direction in Q4, the process proceeds to Q5. In Q5, if the direction is the vertical direction shown in FIG. 4(b), it is determined to be the vertical edge position. Furthermore, if it is in the horizontal direction in Q6, it is determined to be a horizontal edge position. Further, if the direction is neither vertical nor horizontal, it is determined that the direction is diagonal as shown in FIG. 4(g), and the position is set as the diagonal edge position.

【0034】さらに、Q7にてN個の画素2の傾斜方向
Dが2種類で構成されていれば、Q8へ進む。そして、
Q8にて一方の傾斜方向Dが不定であれば、エッジ部の
端部に位置していると判断する。Q9において、2種類
の傾斜方向Dが、4方向において離接する場合は、45
°以外の斜め方向であると判断する。
Further, if it is determined in Q7 that there are two types of inclination directions D of the N pixels 2, the process proceeds to Q8. and,
If one of the inclination directions D is indeterminate in Q8, it is determined that the inclination direction D is located at the end of the edge portion. In Q9, if the two types of inclination directions D come into contact with and separate from each other in four directions, 45
It is determined that the direction is diagonal other than °.

【0035】また、Q7にて、3種類以上の傾斜方向D
が存在する場合,およびQ9にて2種類の傾斜方向Dが
離接しない場合は、この局小域4はコーナ部等,その他
の部分に所属すると判断する。
[0035] Also, in Q7, three or more types of inclination directions D
exists, and if the two types of inclination directions D do not separate from each other in Q9, it is determined that this local area 4 belongs to another part such as a corner part.

【0036】このように、局小域4を構成する全部の画
素2の画素データの傾斜方向Dからこの局小域4がパー
タン3に対してどの位置に所属しているかを各局小域4
毎に判定できる。
In this way, the position of this local area 4 with respect to the pattern 3 can be determined from the slope direction D of the pixel data of all the pixels 2 constituting the local area 4.
It can be determined each time.

【0037】図1に示す二次画像データ1を構成する全
ての画素2を中心に形成される画素数分の全部の局小域
4におけるパターン3に対する所属位置が把握されると
、同一種類の所属位置の局小域4を接続することによっ
て、パターン3の特徴を抽出することかできる。
[0037] Once the positions to which the pattern 3 belongs in all the local areas 4 of the number of pixels formed around all the pixels 2 constituting the secondary image data 1 shown in FIG. By connecting the local subregions 4 of the affiliated positions, the characteristics of the pattern 3 can be extracted.

【0038】このように構成されたパターン特徴抽出方
法によれば、二次元画像データ1を構成する各画素2毎
の画素データの傾斜方向Dが図4に示す所定のアルコリ
ズムに従って判定される。さらに、各画素2を中心とす
る局小域4が、この局小域4を構成する単位個数の画素
2の各傾斜方向Dを用いて図5に示す所定のアルゴリズ
ムに従って、該当局小域4がパータン3に対してどの位
置に所属しているかが自動的に判定される。そして、各
局小域4の所属位置によってパータン3の特徴が抽出さ
れる。
According to the pattern feature extraction method configured as described above, the inclination direction D of pixel data for each pixel 2 constituting the two-dimensional image data 1 is determined according to a predetermined algorithm shown in FIG. Furthermore, the local sub-area 4 centered on each pixel 2 is formed using the respective tilt directions D of the unit number of pixels 2 constituting the local sub-area 4 according to a predetermined algorithm shown in FIG. It is automatically determined to which position the pattern 3 belongs. Then, the characteristics of the pattern 3 are extracted based on the position to which each local sub-region 4 belongs.

【0039】このように、一定のアルゴリズムに従って
、二次元画像データ1に含まれるパータン3の特徴を自
動的に抽出しているので、図6および図7に示すように
、多数の基準単位パータンを記憶部内に準備して、取出
した単位画像データがどの基準単位パータンに一致する
かを試行錯誤的に調べる従来手法に比較して、処理能率
を大幅に向上できる。さらに、多数の基準単位パータン
を記憶部に準備する場合に比較して、必要とする記憶容
量を大幅に低減できる。
In this way, since the features of pattern 3 included in two-dimensional image data 1 are automatically extracted according to a certain algorithm, a large number of reference unit patterns are extracted as shown in FIGS. 6 and 7. Compared to the conventional method of preparing unit image data in the storage unit and checking by trial and error which reference unit pattern the retrieved unit image data matches, processing efficiency can be significantly improved. Furthermore, the required storage capacity can be significantly reduced compared to the case where a large number of reference unit patterns are prepared in the storage section.

【0040】また、各画素2の画素データを微分パラメ
ータ5a〜5dを用いて微分して、各微分値a〜dによ
って、該当画素2の傾斜方向Dを算出している。このよ
うな手法で傾斜方向Dを算出すれば、たとえ各画素2の
画素データが白黒のみの2値化データでなくて、濃淡を
示す多値の階調データであったとしても、同一処理手順
で実行でき、容易にパータン3の特徴を抽出できる。
Furthermore, the pixel data of each pixel 2 is differentiated using differential parameters 5a to 5d, and the tilt direction D of the corresponding pixel 2 is calculated from each differential value a to d. If the slope direction D is calculated using this method, even if the pixel data of each pixel 2 is not binary data of only black and white, but multivalued gradation data indicating light and shade, the same processing procedure can be used. It can be executed with , and the features of pattern 3 can be easily extracted.

【0041】なお、本発明は上述した実施例に限定され
るものではない。実施例方法においては、局小域4を3
×3の合計9個の画素2で形成したが、例えば4×4の
合計16個の画素2で形成しても、さらに5×5の合計
25個の画素2で形成してもよいことは勿論である。
Note that the present invention is not limited to the embodiments described above. In the method of the embodiment, local area 4 is
Although it is formed with a total of 9 pixels 2 of ×3, it may be formed with a total of 16 pixels 2 of 4 × 4, or furthermore, it may be formed with a total of 25 pixels 2 of 5 × 5. Of course.

【0042】さらに、実施例方法においては、図2(b
)〜(e)に示す微分パラメータ5a〜5dを用いたが
、例えばソーベル等の他の微分オペレータを用いてもよ
い。また、実施方法では、空間微分の方向を4種類に限
定したが、例えば8方向に空間微分を行うようにしても
よい。このように、空間微分方向の条件を増やすことに
よって、より細部に亘ってパータン3の特徴を抽出でき
る。
Furthermore, in the method of the embodiment, FIG.
Although the differential parameters 5a to 5d shown in ) to (e) are used, other differential operators such as Sobel may also be used. Further, in the implementation method, the directions of spatial differentiation are limited to four types, but spatial differentiation may be performed in eight directions, for example. In this way, by increasing the conditions in the spatial differential direction, the features of pattern 3 can be extracted in more detail.

【0043】[0043]

【発明の効果】以上説明したように本発明のパータン特
徴抽出方法によれば、二次元画像データを構成する各画
素を中心とする単位個数の画素で局小域を形成し、この
局小域の各画素の画素データの微分値に基づいて各局小
域のパターンに対する所属位置を判定している。したが
って、たとえ各画素の画素データが濃淡を表す多値化デ
ータであったとしても、全体のパターンの特徴を容易に
かつ短時間で抽出できる。
Effects of the Invention As explained above, according to the pattern feature extraction method of the present invention, a local sub-region is formed by a unit number of pixels centered on each pixel constituting two-dimensional image data, and this local sub-region is The position to which each local region belongs to the pattern is determined based on the differential value of the pixel data of each pixel. Therefore, even if the pixel data of each pixel is multivalued data representing shading, the characteristics of the entire pattern can be extracted easily and in a short time.

【図面の簡単な説明】[Brief explanation of drawings]

【図1】  本発明の一実施例に係わるパターン特徴抽
出方法が適用される二次元画像データを示す図、
FIG. 1 is a diagram showing two-dimensional image data to which a pattern feature extraction method according to an embodiment of the present invention is applied;

【図2
】  同実施例方法で用いる微分パラメータと各微分値
との関係を示す図、
[Figure 2
] A diagram showing the relationship between the differential parameters and each differential value used in the method of the example,

【図3】  同実施例方法で用いる各画素の画素データ
の傾斜方向を求めるための流れ図、
[Fig. 3] Flowchart for determining the slope direction of pixel data of each pixel used in the method of the embodiment,

【図4】  図3の流れ図に従って求められた局小域を
構成する各画素の傾斜方向を示す図、
FIG. 4 is a diagram showing the inclination direction of each pixel forming the local area determined according to the flowchart in FIG. 3;

【図5】  同実施例方法で用いる各局小域のパータン
に対する所属位置を求めるための流れ図、
[Figure 5] Flowchart for determining the belonging position for each local area pattern used in the method of the embodiment,

【図6】  
従来方法で採用された各基準単位パターンを示す図、
[Figure 6]
A diagram showing each standard unit pattern adopted in the conventional method,

【図7】  同従来方法で採用された各基準単位パター
ンの詳細を示す図。
FIG. 7 is a diagram showing details of each reference unit pattern adopted in the conventional method.

【符号の説明】[Explanation of symbols]

1…二次元画像データ、2…画素、3…パターン、4…
局小域、5a〜5e…微分パラメータ、a〜d…微分値
、D…傾斜方向。
1... Two-dimensional image data, 2... Pixel, 3... Pattern, 4...
Local area, 5a to 5e... Differential parameter, a to d... Differential value, D... Inclination direction.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】  複数の画素からなる二次元画像データ
におけるパターンの特徴を抽出するパターン特徴抽出方
法において、単位個数の画素からなる局小域を構成する
各画素毎に隣接する周囲の画素の画素データのレベル差
から各方向の微分値を微分パラメータを用いて算出し、
算出された各方向の微分値に基づいて各画素毎に画素デ
ータの傾斜方向を判定し、各局小域を構成する全部の画
素の画素データ傾斜方向から該当局小域の前記パターン
に対する所属位置を判定し、各局小域の所属位置から前
記パターンの特徴を抽出することを特徴とするパターン
特徴抽出方法。
Claim 1. In a pattern feature extraction method for extracting pattern features in two-dimensional image data consisting of a plurality of pixels, for each pixel constituting a local area consisting of a unit number of pixels, pixels of adjacent surrounding pixels are extracted. Calculate the differential value in each direction from the data level difference using the differential parameter,
The slope direction of pixel data is determined for each pixel based on the calculated differential value in each direction, and the position of the corresponding local area with respect to the pattern is determined from the pixel data slope direction of all pixels constituting each local area. A pattern feature extraction method characterized in that the features of the pattern are extracted from the belonging position of each local area.
JP3065019A 1991-03-28 1991-03-28 Method of extracting pattern feature Pending JPH04340246A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3065019A JPH04340246A (en) 1991-03-28 1991-03-28 Method of extracting pattern feature

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3065019A JPH04340246A (en) 1991-03-28 1991-03-28 Method of extracting pattern feature

Publications (1)

Publication Number Publication Date
JPH04340246A true JPH04340246A (en) 1992-11-26

Family

ID=13274847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3065019A Pending JPH04340246A (en) 1991-03-28 1991-03-28 Method of extracting pattern feature

Country Status (1)

Country Link
JP (1) JPH04340246A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH087097A (en) * 1994-06-21 1996-01-12 Nec Corp Extracting device for direction of protrusion line
JP2002081914A (en) * 2000-06-21 2002-03-22 Toshiba Corp Method and device for inspecting dimension and method of manufacturing mask
JP2010522316A (en) * 2007-03-08 2010-07-01 ケーエルエー−テンカー・コーポレーション Method for recognizing array region in die formed on wafer, and setting method for such method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH087097A (en) * 1994-06-21 1996-01-12 Nec Corp Extracting device for direction of protrusion line
JP2002081914A (en) * 2000-06-21 2002-03-22 Toshiba Corp Method and device for inspecting dimension and method of manufacturing mask
JP2010522316A (en) * 2007-03-08 2010-07-01 ケーエルエー−テンカー・コーポレーション Method for recognizing array region in die formed on wafer, and setting method for such method

Similar Documents

Publication Publication Date Title
US6803920B2 (en) Method and apparatus for digital image segmentation using an iterative method
US8311336B2 (en) Compositional analysis method, image apparatus having compositional analysis function, compositional analysis program, and computer-readable recording medium
US6760465B2 (en) Mechanism for tracking colored objects in a video sequence
JPH08189898A (en) Defect inspecting device
CN110047109A (en) A kind of camera calibration plate and its recognition detection method based on self-identifying label
JPH05236260A (en) Picture processor
CN115170669B (en) Identification and positioning method and system based on edge feature point set registration and storage medium
CN109902527B (en) Automatic QR code recognizing and reading method and device
CN109194954B (en) Method, device and equipment for testing performance parameters of fisheye camera and storable medium
JP2009211626A (en) Image processing device and method
CN110415304A (en) A kind of vision calibration method and system
CN112037284B (en) Method for detecting center point of checkerboard lattice, method and system for calibrating distortion of camera
CN109754436B (en) Camera calibration method based on lens partition area distortion function model
CN112184825B (en) Calibration plate and calibration method
JP5600524B2 (en) Image processing apparatus, image processing method, program, and storage medium
US5255357A (en) Method for editing character bit maps at small sizes using connected runs
JPH04340246A (en) Method of extracting pattern feature
CN110543798B (en) Two-dimensional code identification method and device
EP3748578A1 (en) Automatic visual detection of defects in images of via holes
EP0612182A2 (en) Pixel and data format conversion processor for gravure
JP3754401B2 (en) Image distortion correction method, image distortion correction apparatus and image distortion correction program based on representative point measurement
CN107767428B (en) Drawing method and device of DICOM (digital imaging and communications in medicine) image in communication system
Palum Image sampling with the Bayer color filter array
JP3555407B2 (en) Edge detection method and apparatus therefor
CN115578607B (en) Method for rapidly extracting coverage range of effective pixels of remote sensing image