JPH04194702A - Pattern recognizing method - Google Patents
Pattern recognizing methodInfo
- Publication number
- JPH04194702A JPH04194702A JP2322995A JP32299590A JPH04194702A JP H04194702 A JPH04194702 A JP H04194702A JP 2322995 A JP2322995 A JP 2322995A JP 32299590 A JP32299590 A JP 32299590A JP H04194702 A JPH04194702 A JP H04194702A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- pattern
- image
- alignment
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 12
- 230000007547 defect Effects 0.000 claims abstract description 34
- 238000001514 detection method Methods 0.000 claims description 26
- 238000012567 pattern recognition method Methods 0.000 claims description 15
- 238000005070 sampling Methods 0.000 abstract description 18
- 230000003287 optical effect Effects 0.000 abstract description 8
- 238000005286 illumination Methods 0.000 abstract description 6
- 230000000694 effects Effects 0.000 abstract description 5
- 239000000284 extract Substances 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 22
- 230000004048 modification Effects 0.000 description 21
- 238000012986 modification Methods 0.000 description 21
- 235000012431 wafers Nutrition 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 4
- 238000003909 pattern recognition Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000002950 deficient Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000007689 inspection Methods 0.000 description 2
- 239000000919 ceramic Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003706 image smoothing Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Abstract
Description
【発明の詳細な説明】
[産業上の利用分野1
本発明は、例凡ば、LSIウェーハやTPTなとのパタ
ーンを比較して欠陥を認識する方法に係り、高精度な位
置合わせ、およびアライメントマーク等の高精度な位置
検出をするパターン認識方法に関する。[Detailed Description of the Invention] [Industrial Application Field 1] The present invention generally relates to a method for recognizing defects by comparing patterns on LSI wafers and TPT, and is used for highly accurate positioning and alignment. This invention relates to a pattern recognition method for highly accurate position detection of marks, etc.
[従来の技術]
従来のパターン認識方法は、特開昭57−196377
号公報に記載のように、対象のパターンを検出し、検出
したパターンを記憶しておき、一つ前に記憶しておいた
パターンと検出したパターンとを画素単位に位置合わせ
し、位置合わせした二つのパターンの誤差を抽出・比較
することにより、パターンの欠陥を認識するようになっ
ていた。[Prior art] A conventional pattern recognition method is disclosed in Japanese Patent Application Laid-Open No. 57-196377.
As described in the publication, the target pattern was detected, the detected pattern was memorized, and the previously stored pattern and the detected pattern were aligned pixel by pixel. Defects in patterns can be recognized by extracting and comparing errors between two patterns.
この認識対象は、第2図(a)、 (b)、 (c)に
例示するような、メモリ用LSIなとの半導体ウェハの
パターン、 T F T (Thin Film Tr
ansisLer)のパターン、プリント配線板のパタ
ーン、セラミック基板のパターンまたは、それらを製造
する工程で用いるマスクやレチクルなどのパターンなど
である。ここでは−例として半導体ウェハのパターンに
ついて説明するが、他のパターンに対しても同じ事が成
り立つ。半導体ウェハのパターンは最終的に切り離され
て個別製品となるチップが数十個−枚のウェハに載って
おり、それらは互いに同じパターンを持っている。この
ようなパターンの欠陥を認識する原理を第2図(a)〜
(C)を用いて説明4、する。This recognition target is a pattern of a semiconductor wafer such as a memory LSI, as illustrated in FIGS. 2(a), 2(b), and 2(c).
AnsisLer) patterns, printed wiring board patterns, ceramic substrate patterns, and patterns of masks, reticles, etc. used in the process of manufacturing them. Here, a semiconductor wafer pattern will be described as an example, but the same holds true for other patterns. The pattern of a semiconductor wafer is that dozens of chips are mounted on each wafer, and each chip has the same pattern. The principle of recognizing such pattern defects is shown in Figure 2(a)~
Explain 4 using (C).
第2図(a)〜(C)は従来の一般的なパターン比較方
法の原理説明図で、第2図(a)は記憶パターン、第2
図(b)は検出パターン、第2図(C)はパターン差で
ある。各チップが全く同一のパターンを持っていること
に着目し、第2図(a)のパターンを検出して記憶して
おき、第2図(b)のそれと同一であるはずの別のパタ
ーンを次に検出して、二つのパターンを画素単位に位置
合わせし、第2図(c)の位置合わせした二つのパター
ンの誤差を抽出して比較する。いずれのパターンにも欠
陥が存在しない場合にはパターンの差はほとんどないが
、いずれかのパターン、例えば、第2図(b)の検出パ
ターンに欠陥が存在する場合には、第2図(C)のよう
に欠陥部分でパターンに差があるため、パターンの比較
により誤差を生じる場所を検出することでパターン欠陥
を認識することができる。なお、ここで比較して差があ
ればいずれかのパターンに欠陥があると言えるが、いず
れのパターンに欠陥があるかを判別することはできない
。2(a) to 2(C) are explanatory diagrams of the principle of the conventional general pattern comparison method. FIG. 2(a) shows the memory pattern,
Figure (b) shows the detection pattern, and Figure 2 (C) shows the pattern difference. Focusing on the fact that each chip has exactly the same pattern, detect and memorize the pattern in Figure 2(a), and then create another pattern that should be the same as that in Figure 2(b). Next, the two patterns are detected and aligned pixel by pixel, and the error between the two aligned patterns shown in FIG. 2(c) is extracted and compared. If there is no defect in any of the patterns, there is almost no difference between the patterns, but if there is a defect in any of the patterns, for example, the detection pattern in FIG. ), there are differences in the pattern at the defective part, so pattern defects can be recognized by comparing the patterns and detecting the location where the error occurs. Note that if there is a difference in this comparison, it can be said that one of the patterns has a defect, but it is not possible to determine which pattern has a defect.
上記従来技術では画像をデジタル化して入力するためサ
ンプリング点の情報しか得られずサンプリング誤差の発
生は避けられないが、このサンプリング誤差の影響で小
さい欠陥の認識が困難となる問題がある。このことを第
3図(a)〜(C)により説明する。In the above-mentioned conventional technology, since the image is digitized and input, only information on sampling points can be obtained, and the occurrence of sampling errors is unavoidable, but there is a problem in that it is difficult to recognize small defects due to the influence of these sampling errors. This will be explained with reference to FIGS. 3(a) to (C).
第3図(a)〜(c)は第2図(a) 〜(c)のx−
x’縁線上パターンの波形図で、第3図(a)は第2図
(a)の記憶パターンの検出信号波形図、第3図(b)
は第2図(b)の検出パターンの検出信号波形図、第3
図(C)は第2図(b)の検出パターンのサンプリング
誤差の無い場合の検出信号波形図、第3図(d)は第3
図(a)と第3図(b)のサンプリング誤差有りとの差
信号波形図、第3図(e)は第3図(a)と第3図(C
)のサンプリング誤差無しとの差信号波形図であり、図
中の・はサンプリング点での検出信号を示している。第
3図(b)、 (c)のように本来は全く同一のパター
ンに対して同一点に設定することができないためサンプ
リング点での検出波形が異なった物となり、検出波形や
検出パターンに誤差を生じ、この誤差をサンプリング誤
差と呼ぶ。比較する検出パターンにサンプリング誤差が
無い場合は第3図(e)のように欠陥部差信号は正常部
差信号より十分大きく欠陥の認識は容易であるが、検出
パターンにサンプリング誤差がある場合は第3図(d)
のように欠陥部差信号は正常部差信号と同程度となり欠
陥の認識は困難となる。検出時の画素サイズに対して認
識する欠陥サイズが十分大きい場合は差の大きい場所の
面積の違いを利用してサンプリング誤差と欠陥を識別で
きるが、小さい場合は欠陥により生じる差の大きい場所
の面積はサンプリング誤差によるそれと同程度となり欠
陥の識別は困難となる。Figures 3(a) to (c) are x- in Figures 2(a) to (c).
FIG. 3(a) is a waveform diagram of the pattern on the x' edge line, and FIG. 3(a) is a detection signal waveform diagram of the memory pattern of FIG. 2(a), and FIG. 3(b)
is the detection signal waveform diagram of the detection pattern in Fig. 2(b),
Figure (C) is a detection signal waveform diagram when there is no sampling error in the detection pattern of Figure 2 (b), and Figure 3 (d) is a diagram of the detection signal waveform when there is no sampling error in the detection pattern of Figure 2 (b).
Difference signal waveform diagrams between Fig. 3(a) and Fig. 3(b) with sampling error, Fig. 3(e) are diagrams of Fig. 3(a) and Fig. 3(C).
) is a difference signal waveform diagram with no sampling error. In the figure, . indicates a detection signal at a sampling point. As shown in Figure 3 (b) and (c), it is not possible to set the same point at the same point for the exact same pattern, so the detected waveform at the sampling point will be different, resulting in errors in the detected waveform and pattern. This error is called sampling error. If there is no sampling error in the detection pattern to be compared, the defective part difference signal is sufficiently larger than the normal part difference signal as shown in Fig. 3(e), and the defect can be easily recognized. However, if the detection pattern has a sampling error, Figure 3(d)
As shown in the figure, the defective part difference signal is of the same level as the normal part difference signal, making it difficult to recognize the defect. If the defect size to be recognized is sufficiently large compared to the pixel size at the time of detection, sampling errors and defects can be identified by using the difference in the area of the place where the difference is large, but if it is small, the area of the place where the difference is large caused by the defect. The error is about the same as that due to sampling error, making it difficult to identify defects.
本発明の目的はパターンの位置合わせの精度を検出画素
サイズ以下としてサンプリング誤差の影響を軽減できる
パターン認識方法を提供することにある。SUMMARY OF THE INVENTION An object of the present invention is to provide a pattern recognition method that can reduce the influence of sampling errors by making the accuracy of pattern alignment less than or equal to the detection pixel size.
〔課題を解決するための手段]
上記目的を達成するために、本発明のパターン認識方法
はパターンを画素単位で位置合わせした後、画素単位以
下の精度で位置合わせをするようにしたものである。す
なわち、対象のパターンを検出し、検出したパターンを
記憶しておき、一つ前に記憶しておいたパターンと検出
したパターンを画素単位に位置合わせし、あらかじめ画
素単位に位置合わせしたパターンに対して画素以下の精
度で位置合わせし、画素以下の精度で位置合わせした二
つのパターンの誤差を抽出・比較して、パターンの欠陥
を認識するものである。[Means for Solving the Problems] In order to achieve the above object, the pattern recognition method of the present invention aligns patterns in pixel units, and then performs alignment with an accuracy less than that in pixel units. . In other words, a target pattern is detected, the detected pattern is memorized, the previously stored pattern and the detected pattern are aligned pixel by pixel, and the pattern that was previously aligned pixel by pixel is This method identifies defects in the patterns by extracting and comparing the errors between the two patterns that have been aligned with sub-pixel accuracy.
この画素単位以下の精度で位置合わせするには、例えば
、次に示す最小二乗法を用いる。二枚のパターンをf(
xty)、 g(x、y)とするとき、あらかじめ(1
)式の52(dx、dy)を最小とする位置(dxo、
dyo)に画素単位で位置合わせして、x、y座標とも
値がOと1の間に検出画像と記憶画像のパターンの差を
最小とする位置(δxO,JyO)があるようにする。In order to perform positioning with precision less than this pixel unit, for example, the following least squares method is used. The two patterns are f(
xty), g(x, y), (1
) The position (dxo,
dyo) in pixel units so that there is a position (δxO, JyO) where the difference between the patterns of the detected image and the stored image is minimized between values O and 1 for both x and y coordinates.
E 2(dx、dy)=ε(dx、dy)+ε(dx+
I、dy)+E (dx、dy+1)+ε(dx+l、
dy+I) HHHH(1)ε(dx、dy)・ΣΣI
f(x、y)−g(x+dx、y+ay)1− 、 、
、 、 、 (2)ここで、X、yは画素単位のパタ
ーンの座標、dx。E 2 (dx, dy) = ε (dx, dy) + ε (dx+
I, dy)+E (dx, dy+1)+ε(dx+l,
dy+I) HHHH(1)ε(dx,dy)・ΣΣI
f(x,y)-g(x+dx,y+ay)1- , ,
, , , (2) Here, X, y are the coordinates of the pattern in pixel units, dx.
dyは二枚のパターンの画素単位の位置合わせ量、cl
xo 、 dyoはC2を最小とする画素以下の位置合
わせ量dx、dy、Jx、δyは画素以下の位置合わせ
量、δxO2δyOはパターン差を最小とする画素以下
の位置合わせ量δX、δy、ΣΣは位置合わせする範囲
のx、y座標に関する和を各々示す。dy is the alignment amount of the two patterns in pixel units, cl
xo, dyo are the alignment amounts below the pixel that minimize C2 dx, dy, Jx, δy are the alignment amounts below the pixel, δxO2δyO are the alignment amounts below the pixel that minimize the pattern difference δX, δy, ΣΣ Each shows the sum of the x and y coordinates of the range to be aligned.
画素単位の位置合わせをするには、次の(3)式で示す
gをシフトしたglを用いる。To perform alignment in pixel units, gl, which is obtained by shifting g shown in the following equation (3), is used.
gl (x、y)□g(x+ムty+dy)・・・・・
・・・・・・・・(3)画素と画素の中間の値を(4)
、 (5)式で定義する。gl (x, y)□g(x+muty+dy)・・・・・・
・・・・・・・・・(3) The intermediate value between pixels (4)
, defined by equation (5).
fd(XIδx+y、dy)=f(x、い+δx本(f
(x+l、y)−f(x、y))+Jy本げ(’+y”
1)−f (x、い)(4)gld(x、δX+ yy
δy)=gl (x、い+δχ本(gl(x−Ly)−
gl(xty))+δy本(gl(x、y−])−gl
(x、y)) (5)二乗誤差は
(6)式で定義できる。fd(XIδx+y,dy)=f(x,i+δx books(f
(x+l,y)-f(x,y))+Jyhonge('+y"
1)-f (x, i) (4) gld(x, δX+ yy
δy)=gl (x, i+δχ book(gl(x-Ly)-
gl (xty)) + δy books (gl (x, y-]) - gl
(x, y)) (5) The squared error can be defined by equation (6).
εd(Jx、δい=ΣΣ(fd(x、δx、y、δy)
−gld(x、δX、yTδい)本12
(6)(6)0式をδX、 ’
Vで偏微分してこれを0と置いたものを整理して(7)
、 (8)式を得る。εd(Jx, δ=ΣΣ(fd(x, δx, y, δy)
-gld(x, δX, yTδ) Book 12
(6) (6) Expression 0 as δX, '
Partially differentiate with respect to V and set this as 0 to organize (7)
, we obtain equation (8).
(ΣΣCO本Cj)本(ΣΣC1零Cj)−(ΣΣCO
本Ci)宰(ΣΣCj寡Cj)δxO= −−−−−−
−−−−−−−−一−−−−−−−(7)(ΣΣCO京
Cj)富(ΣΣCi本Cj)−(ΣΣCO本Ci)本(
ΣΣCj末Cj)(ΣΣCO本Ci)本(ΣΣCi本C
j)−(ΣΣCO*Cj)零(ΣΣCj零Cj)δxO
= −−−−−−−−−−−−−−−−−−−−−−(
8)(OCO寧Cj)宰(EXCCCj)−(OCO*
Ci)本(OCj<j)ここで、
C0=f(x、y)−gl (x、y)Ci=げ(x+
l、y)−f(x、y))−(gl(x−1,y)−g
l(x、y)) (9)Cj=げ(X、y+1)
−f(X、y))−(gl(X、y−1)−gl(X、
y))画素以下の位置合わせ量δxo、JyOより位置
合わせ後のパターンf2. g2を次の(10)、 (
II)式で計算する。(ΣΣCO book Cj) book (ΣΣC1 zero Cj) - (ΣΣCO
Book Ci) (ΣΣCj 小Cj) δxO= −−−−−−
−−−−−−−−1−−−−−−−(7) (ΣΣCO 京Cj) Wealth (ΣΣCi book Cj) - (ΣΣCO book Ci) book (
ΣΣCj end Cj) (ΣΣCO book Ci) book (ΣΣCi book C
j) - (ΣΣCO*Cj) zero (ΣΣCj zero Cj) δxO
= −−−−−−−−−−−−−−−−−−−−−−(
8) (OCO Ning Cj)
Ci) Book (OCj<j) Here, C0=f(x,y)-gl(x,y)Ci=ge(x+
l,y)-f(x,y))-(gl(x-1,y)-g
l(x,y)) (9)Cj=ge(X,y+1)
-f(X,y))-(gl(X,y-1)-gl(X,
y)) Pattern f2 after alignment based on the alignment amount δxo and JyO below the pixel. g2 as the following (10), (
II) Calculate using the formula.
f2(xty)=fd(x、δxo、y、8yo)
(10)g2(x、y)=gld(
x、δxo、yJyo) (II)
[作用]
このパターン認識方法の作用を第4図(a)〜(d’1
および第5図により説明する。f2(xty)=fd(x, δxo, y, 8yo)
(10) g2(x,y)=gld(
x, δxo, yJyo) (II)
[Operation] The operation of this pattern recognition method is shown in Fig. 4 (a) to (d'1).
This will be explained with reference to FIG.
第4図(a)〜(d)は本発明による第2図のパターン
の画素以下のピッチで位置合わせするサブピクセル位置
合わせの動作例の波形図で、第4図(a)は記憶波形、
第4図(b)は欠陥の無い検出波形、第4図(C)は画
素単位の位置合わせのみをした単純差波形、第4図(d
)はサブピクセル位置合わせ後差波形である。第5図は
第4図(a)〜(d)の数値表図で、サンプリング位置
0〜15の記憶波形、検出波形、単純差波形、サブピク
セル位置合わせ後のf2. g2. lf2−g21の
数値を各々示す。記憶波形と検出波形が、例えば、第4
図(a)、 (b)及び第5図のようであったとし、こ
こで第4図(b)の検品波形は第4図(a)の記憶波形
の前後二画素の平均をとった波形でほぼ0.5画素のシ
フトをさせた波形と同等である。4(a) to 4(d) are waveform diagrams of an operation example of sub-pixel alignment in which alignment is performed at a pitch less than the pixel of the pattern of FIG. 2 according to the present invention; FIG. 4(a) is a stored waveform;
Figure 4(b) is a detected waveform with no defects, Figure 4(C) is a simple difference waveform with only pixel-by-pixel alignment, and Figure 4(d) is a detected waveform with no defects.
) is the difference waveform after subpixel alignment. FIG. 5 is a numerical table diagram of FIGS. 4(a) to 4(d), including the stored waveforms, detected waveforms, simple difference waveforms, and f2. g2. The numerical values of lf2-g21 are shown respectively. For example, if the stored waveform and the detected waveform are
Assume that the inspection waveform in Figure 4 (b) is as shown in Figures (a), (b), and Figure 5, and the inspection waveform in Figure 4 (b) is the average of the two pixels before and after the memory waveform in Figure 4 (a). This is equivalent to a waveform shifted by approximately 0.5 pixel.
これらの波形に最小二乗法を適用してδXOを求め、実
際に計算するとδxO=0.2となり、この値より(t
o)、 (11)式を用いて位置合わせ後のパターンf
2. g2を求める。このときサブピクセル位置合わせ
をした場合としない場合の差信号波形は第4図(C)、
(d)および第5図のようになり、残差は半減してい
る。これにより、サンプリング誤差によるパターン差の
値は欠陥の値より十分に小さくなるので、欠陥を容易に
識別できる。Applying the least squares method to these waveforms to find δXO and actually calculating it, δxO=0.2, and from this value (t
o), pattern f after alignment using equation (11)
2. Find g2. At this time, the difference signal waveforms with and without subpixel alignment are shown in Figure 4 (C).
(d) and FIG. 5, and the residual error has been reduced by half. As a result, the value of the pattern difference due to the sampling error becomes sufficiently smaller than the value of the defect, so that the defect can be easily identified.
[実施例]
以下、本発明の第一の実施例を第1図、第6図により説
明する。第1図はLSIウェーハのパターン認識装置の
構成図である。本パターン認識装置はウェーハ1を走査
するXYステージ2とウェーハを照明する光源3と照明
光学系4と照明されたウェーハの光学像を検出する対物
レンズ5と一次元イメージセンサ6よりなる検出部と、
−次元イメージセンサ6の信号をデジタル化して記憶す
るだめのA/D変換器7と画像メモリ部8よりなる画像
入力部9と、画像入力部9に入力された検出画像IOと
比較画像11を画像メモリ部8より取り出す画像取り出
し部12、検出画像10と比較画像11より(2)式で
あられされる画像の差を計算して比較画像を(3)式の
ように移動させて位置合わせをする画素単位マツチング
部13と画素単位マツチング部13よりの画素単位位置
補正の終わった画像14と検出画像lOから(7)、
(8)式で表される画素以下の位置合わせ量δxO1δ
yOを計算するサブビクセルマツチング部15とサブピ
クセルマツチング部よりの位置合わせ量を基に(10)
、 (11)式で表される位置補正を行う位置合わせ部
16と位置合わせの終わった画像17の差画像17.差
画像17を二値化して差の存在する場所の各種特徴量を
抽出して欠陥の判定を行う欠陥判定部19よりなる画像
処理部2oと、XYステージ2の制御と画像処理部20
より出力される欠陥情報の記憶や表示と全体シーケンス
の管理を行う計算機で構成された全体制御部21から構
成される。[Example] Hereinafter, a first example of the present invention will be described with reference to FIGS. 1 and 6. FIG. 1 is a block diagram of an LSI wafer pattern recognition device. This pattern recognition apparatus includes an XY stage 2 that scans a wafer 1, a light source 3 that illuminates the wafer, an illumination optical system 4, an objective lens 5 that detects an optical image of the illuminated wafer, and a detection section that includes a one-dimensional image sensor 6. ,
- An image input section 9 consisting of an A/D converter 7 for digitizing and storing the signal of the dimensional image sensor 6 and an image memory section 8; The image extraction unit 12 retrieves the image from the image memory unit 8, calculates the difference between the detected image 10 and the comparison image 11 using equation (2), and moves the comparison image as shown in equation (3) for alignment. From the pixel unit matching unit 13 and the image 14 after the pixel unit position correction from the pixel unit matching unit 13 and the detected image lO, (7)
Alignment amount δxO1δ below the pixel expressed by equation (8)
Based on the alignment amount from the sub-vixel matching unit 15 and sub-pixel matching unit that calculates yO (10)
, a difference image 17. between the alignment unit 16 that performs position correction expressed by equation (11) and the aligned image 17. An image processing unit 2o that includes a defect determination unit 19 that binarizes the difference image 17 and extracts various feature amounts of the location where the difference exists to determine defects; and an image processing unit 20 that controls the XY stage 2.
The control unit 21 is comprised of a computer that stores and displays defect information output from the controller and manages the overall sequence.
この構成によりパターン欠陥を検出する動作を次に説明
する。まず、全体制御部21よりの指令で各部のイニシ
ャライズ後に、xYステージ2の走査に同期して、光源
3と照明光学系4で照明されたウェーハ1のパターンを
対物レンズ5を介して−次元イメージセンサ6で光電変
換することにより二次元のパターンを検出し、A/D変
換器7でデジタル化した二次元の検出画像1oとして、
得られた検出画像は画像メモリ部8に記憶する。The operation of detecting pattern defects using this configuration will be described next. First, after initializing each part according to a command from the overall control unit 21, in synchronization with the scanning of the xY stage 2, the pattern of the wafer 1 illuminated by the light source 3 and the illumination optical system 4 is imaged as a -dimensional image via the objective lens 5. A two-dimensional pattern is detected by photoelectric conversion with the sensor 6, and digitized with the A/D converter 7 as a two-dimensional detected image 1o.
The obtained detected image is stored in the image memory section 8.
画像取り出し部12は画像メモリ部8の一定のアドレス
を参照することにより比較画像11を取り出す。ここで
、画素単位マツチング部13の動作を第6図により説明
する。第6図は第1図のマツチング部13の動作原理説
明図である。検出画像loと比較画像11より、比較画
像を△X、△Y方向に位置ずれ許容量の±δ画素(本実
施例ではδ=1で説明するが、検出対象の寸法精度と欠
陥検出装置の位置決め精度で決まる値であり必要な値を
適当に設定するものとする)だけずらしたときの検出画
像lOと比較画像11の画像の差を式(2)で計算し、
(1)式のε2(第6図のSl)を最小とするdxo。The image retrieval unit 12 retrieves the comparison image 11 by referring to a fixed address in the image memory unit 8. Here, the operation of the pixel unit matching section 13 will be explained with reference to FIG. FIG. 6 is an explanatory diagram of the operating principle of the matching section 13 shown in FIG. 1. From the detected image lo and the comparison image 11, the comparison image is determined by ±δ pixels of the positional deviation tolerance in the △X and △Y directions (in this example, δ = 1, but depending on the dimensional accuracy of the detection target and the defect detection device) Calculate the difference between the detected image lO and the comparison image 11 when the image is shifted by a value determined by positioning accuracy, and the necessary value shall be set appropriately) using equation (2),
dxo that minimizes ε2 in equation (1) (Sl in FIG. 6).
ayo (第6図の△X=−1、△y=o)を計算し、
比較画像11を(3)式を用いて位置補正を行い、画素
単位位置補正の終わった画像14を出力する。Calculate ayo (△X=-1, △y=o in Figure 6),
The position of the comparison image 11 is corrected using equation (3), and the image 14 after the pixel-by-pixel position correction is output.
サブビクセルマツチング部15は画素単位マツチング部
13よりの画素単位位置補正の終わった画像14と検出
画像lOから(7)、(8)式で表される画素以下の位
置合わせ量δxO1δyOを計算する。位置合わせ部1
6はサブピクセルマツチング部I5よりの位置合わせ量
を基に(to)、(11)式で表される位置補正を行う
。差画像抽出部I8は位置補正の終わった画像より次の
(12)式で差画像17を抽出する。The sub-pixel matching unit 15 calculates the sub-pixel alignment amount δxO1δyO expressed by equations (7) and (8) from the image 14 after the pixel unit position correction from the pixel unit matching unit 13 and the detected image lO. . Positioning section 1
6 performs position correction expressed by equation (11) based on the alignment amount from the sub-pixel matching unit I5 (to). The difference image extracting unit I8 extracts a difference image 17 from the image whose position has been corrected using the following equation (12).
S (i、j)・1f2(i、j)−g2(i、j)
l (12)欠陥判定部19は差画像
17を欠陥判定の閾値Vthで二値化して、差の存在す
る場所の面積1幅、投影長などの各種特徴量を抽出して
欠陥の判定を行う。S (i, j)・1f2(i, j)−g2(i, j)
(12) The defect determination unit 19 binarizes the difference image 17 using the defect determination threshold Vth, extracts various feature quantities such as area 1 width and projected length of the location where the difference exists, and determines a defect. .
本実施例によれば、検出画像と記憶画像の二枚のパター
ンの両方を同じだけ反対方向に移動させて画素以下の位
置合わせ画像を作っているため、画像の平滑化効果(例
えば、δxo=0.5.Δyo=oの場合にf2(x、
y)□(f(x+1.y)+f(x、y))/2で平均
値フィルタをかけたのと等価)が二枚のパターンで同じ
になり、これにより生じる差画像の誤差を最低限にでき
る効果がある。According to this embodiment, since the two patterns of the detected image and the stored image are both moved in opposite directions by the same amount to create a sub-pixel aligned image, the image smoothing effect (for example, δxo= 0.5. f2(x,
y) □ (equivalent to applying an average value filter by f(x+1.y)+f(x,y))/2) is the same for the two patterns, and the error in the difference image caused by this is minimized. It has the effect of
本実施例の第1の変形は、(to)、(11)式を(1
3)。The first modification of this example is (to), replacing equation (11) with (1
3).
(14)式を用いる。Formula (14) is used.
f2(x、y)・f(x、y)
(13)g2(x、y):
f(x、y)+δχ本げ(x−1,y)−f(X+い)
+2本δF(f(xpy−1)−f(xpy))if
O,0≦Ax<0.25,0.0≦δy<o、2sf
(x+1.y)+(1−δ)0寡(f (xty)イ
(x−1,y))+2本δytげ(x−1,y−1)−
f(x−1,y))if 0.25≦δx<0.5,0
.0≦δy〈0.25f(X、y+1)+δX零げ(x
−1,y−1)−f(x、y−1))”(1−2宰δy
戸(f(x、y)−f(x、y−1))if O,0
≦δx<0.25,0.25≦δy<o、5f(x+l
、y+1)+(1−Jx)本げ(x p y−1) −
f (x−1r y−1) )+(1−21δy)宰げ
(x−1,y)−f(x−1,y−1))if 0.2
5≦δx<0.5.0.25≦δy<o、5本変形によ
れば、Ax、δyが0.5近くの値をとるときにf2.
g2の値をより連続にできる。つまり、第7図に示し
たgのデータ例に対してdx・0.δX・0.49の場
合とdx=1.δx=0.O1の場合の本変形をした場
合としない場合のg2の値を第7図に示す。本変形をし
ない場合は値が大きく異なるのに対し、本変形をすると
ほぼ同じ値になる。f2(x,y)・f(x,y)
(13) g2 (x, y): f (x, y) + δχ Honge (x-1, y) - f (X + i)
+2 δF(f(xpy-1)-f(xpy))if
O, 0≦Ax<0.25, 0.0≦δy<o, 2sf
(x+1.y) + (1-δ) 0 (f (xty) i (x-1, y)) + 2 δyt (x-1, y-1) -
f(x-1,y))if 0.25≦δx<0.5,0
.. 0≦δy〈0.25f(X, y+1)+δX spill(x
−1,y−1)−f(x,y−1))”(1−2dδy
door(f(x,y)-f(x,y-1))if O,0
≦δx<0.25, 0.25≦δy<o, 5f(x+l
, y+1) + (1-Jx) Honge (x p y-1) −
f (x-1r y-1) ) + (1-21δy) (x-1, y) - f (x-1, y-1)) if 0.2
According to the five-line modification, f2.
The value of g2 can be made more continuous. That is, for the data example of g shown in FIG. 7, dx·0. In the case of δX・0.49 and dx=1. δx=0. FIG. 7 shows the values of g2 with and without this modification in the case of O1. If this transformation is not carried out, the values will be significantly different, but if this transformation is carried out, the values will be almost the same.
また、本実施例の第二の変形は、XYステージIOの走
査に同期して一次元イメージセンサ14で光電変換する
ことにより二次元のパターンを検出する代わりに、XY
ステージlOをステップ移動させてTVカメラで光電変
換することにより二次元のパターンを検出する。または
、−次元イメージセンサ14の代わりにフォトマルなど
のポイント型センサと走査機構を用いるなどいろんな形
のセンサを用いることができる。また、画像処理部は全
てハードウェアでなくても、ハードウェア+ソフトウェ
アで構成することもできる。In addition, in a second modification of this embodiment, instead of detecting a two-dimensional pattern by photoelectric conversion using the one-dimensional image sensor 14 in synchronization with the scanning of the XY stage IO,
A two-dimensional pattern is detected by moving the stage IO in steps and photoelectrically converting it with a TV camera. Alternatively, instead of the -dimensional image sensor 14, various types of sensors can be used, such as using a point type sensor such as a photomultiplier and a scanning mechanism. Furthermore, the image processing section does not have to be entirely hardware, but can also be composed of hardware and software.
また、本実施例の第三の変形は検出画像と記憶画像の差
を(2)式で計算し、各ずらし量に対応した画像の差を
マツチング値として出力する代りに、検出画像と比較画
像にそれぞれフィルタをかけることによりエツジなどを
抽出し、そのフィルタ画像にたいして画像の差を(2)
式で計算し、f2. g2はフィルタをかける前の画像
に対して計算する。In addition, the third modification of this embodiment calculates the difference between the detected image and the stored image using equation (2), and instead of outputting the difference between the images corresponding to each shift amount as a matching value, the difference between the detected image and the comparison image is calculated. Extract edges etc. by applying a filter to each, and calculate the image difference between the filtered images (2)
Calculate using the formula, f2. g2 is calculated for the image before applying the filter.
またc裏検出画像と比較画像に各々フィルタをかけて二
値化し、そのフィルタニ値画像にたいして画像の差を(
2)式で計算し、f2. g2はフィルタをかける前の
画像に対して計算する。本変形によれば、フィルタを用
いているため検出画像と比較画像の不要な情報の違いに
よる影響を受けにくくする効果がある。In addition, the c back detection image and the comparison image are each filtered and binarized, and the difference between the images is calculated (
2) Calculate by formula, f2. g2 is calculated for the image before applying the filter. According to this modification, since a filter is used, there is an effect of making the detection image less susceptible to the difference in unnecessary information between the detected image and the comparison image.
また、本実施例の第四の変形は(1)、 (4)、 (
5)。Moreover, the fourth modification of this example is (1), (4), (
5).
(9)式を(15−1)、 (15−4)、 (15−
5)、 (15−9)と置き換える。(15-1), (15-4), (15-
5), replace with (15-9).
ε2(dx、dy)=ΣΣE (dx+nx、dy+n
y) (15−1)fd(x、Jx、y、
δy)=f(x、y)+δ)Fげ<x+ntV)−f(
x、y))+δy本(f(x、y+n)−f(x、y)
) (15−4)gld(x、δ
X1yt ’y) =gt (xty)+δx本(gl
(x−n、y)−gl (xty)+δy本(gl(
x、y−n)−gl(x、y)) (1
5−5)Co=f(x、y)−gl(x、y)
Ci=(f(x+n、y)−f(x、y))−(gl(
x−n、y)−gl(x、y)) (15−9)Cj
−(f(x、y+n)−f(x、い)−(gl (x、
y−n)−gl (x、y))ここで、nは画素と画素
の中間の値の演算のピッチで、n−1,2,3,・・・
(1)式のΣΣはnx、 nyの0〜nまでの和を意味
する。ε2 (dx, dy) = ΣΣE (dx+nx, dy+n
y) (15-1) fd(x, Jx, y,
δy)=f(x,y)+δ)F<x+ntV)-f(
x, y)) + δy books (f(x, y+n) - f(x, y)
) (15-4) gld(x, δ
X1yt 'y) = gt (xty) + δx books (gl
(x-n, y)-gl (xty) + δy books (gl(
x, y-n)-gl(x, y)) (1
5-5) Co=f(x,y)-gl(x,y) Ci=(f(x+n,y)-f(x,y))-(gl(
x-n,y)-gl(x,y)) (15-9)Cj
−(f(x,y+n)−f(x,i)−(gl(x,
y-n)-gl (x, y)) Here, n is the pitch of calculation of intermediate values between pixels, n-1, 2, 3,... ΣΣ in equation (1) is nx, It means the sum of ny from 0 to n.
(6)、 (7)式のΣΣは位置合わせする範囲のL’
l座標に関する全ての和、またはn毎の和を示す。ΣΣ in equations (6) and (7) is L' of the alignment range
Indicates all sums for l coordinates or sums for every n.
(1)式のt 2(dx、dy)を最小とする(dx、
dy)に画素単位で位置合わせして、x、y座標とも
0とnの間に二枚のパターンの差を最小とする位置((
δX、δy)があるようにすればよい。Minimize t 2 (dx, dy) in equation (1) (dx,
dy) pixel by pixel, and find the position ((
δX, δy).
本変形によれば、あらかじめ画素単位マツチング部で位
置合わせして置く範囲がラフでよい特徴がある。This modification has the feature that the range that is aligned in advance by the pixel unit matching section can be rough.
また、本実施例の第五の変形は画素単位マツチング部1
3を用いない。対象の条件によっては画素単位マツチン
グをしなくても(1)式のε2(dx、dy)を最小と
する位置(δX、δy)がx、y座標とも0と1の間に
ある。この場合、画素単位の位置合わせは不要である。Furthermore, the fifth modification of this embodiment is the pixel unit matching unit 1.
3 is not used. Depending on the conditions of the object, the position (δX, δy) that minimizes ε2(dx, dy) in equation (1) is between 0 and 1 in both x and y coordinates even without performing pixel-by-pixel matching. In this case, pixel-by-pixel alignment is not necessary.
特に、本実施例の第四の変形をした場合には不要となる
可能性は高い。本変形によれば、構成が簡単である特徴
がある。In particular, if the fourth modification of this embodiment is adopted, there is a high possibility that this will become unnecessary. This modification is characterized by a simple configuration.
また、本実施例の第六の変形は画素単位のマツチング部
13にサブビクセルマツチング部15と同じ方式を用い
る。このとき、一般には画素単位のマツチング部13に
は第三の変形と第四の変形を付加する。つまり、記憶画
像gを(16)式でn画素シフトさせた後f、goに対
して、(17)式の平均値フィルタを作用させた、画素
演算のピッチnで演算を行う。また、式(20)、 (
11)は式(18)、 (19)を用いる。Further, in the sixth modification of this embodiment, the same method as the sub-vixel matching section 15 is used for the pixel-by-pixel matching section 13. At this time, the third transformation and the fourth transformation are generally added to the pixel-by-pixel matching section 13. That is, after shifting the stored image g by n pixels using equation (16), calculations are performed on f and go at the pitch n of pixel calculation by applying the average value filter of equation (17). Also, equation (20), (
11) uses equations (18) and (19).
本変形によれば、サブビクセルマツチング二段のみなの
で、ハードウェア化する時には同一構成の回路が二式と
なるので効率がよい特徴がある。According to this modification, since there are only two stages of sub-vixel matching, there are two sets of circuits with the same configuration when implemented in hardware, so it is characterized by good efficiency.
gS(Xt’/)”g(x+Q、y”n)
(1
6)fo(X、y)=ΣΣf(x+i、y+j)go(
x、y)邦Σgs(x+i、y+j)
(17)ΣΣはi、j=−m−mの和を示す。gS(Xt'/)"g(x+Q,y"n)
(1
6) fo (X, y) = ΣΣf (x+i, y+j) go (
x, y) Σgs(x+i, y+j)
(17) ΣΣ represents the sum of i, j=-m−m.
f2(x、y)・f(x、δXO+y+δyO)
、 (18)g2(x+y)=gs
(x++、 JxO,y+1.δyO)
(+9)また、本実施例の第七の変形は(4)、
(5)式を一次式ではなく任意の式を用いて(7)、
(8)式を解析的、または数値解析的に求めることが
できればこれらの式を用いることができる。本変形によ
れば、任意の式を用いることができるので、汎用性が高
い特徴がある。f2(x,y)・f(x,δXO+y+δyO)
, (18) g2(x+y)=gs
(x++, JxO, y+1.δyO)
(+9) Also, the seventh modification of this example is (4),
Using an arbitrary formula instead of a linear formula for formula (5), (7),
If equation (8) can be obtained analytically or numerically, these equations can be used. According to this modification, any formula can be used, so it is characterized by high versatility.
次に、本発明の第二の実施例を第8図により説明する。Next, a second embodiment of the present invention will be explained with reference to FIG.
第8図はパターンの位置誤差を検出するパターン認識装
置の構成図である。本パターン認識装置はウェハ1を位
置決めするXYステージ2とウェハを照明する光源3と
照明光学系4と照明されたウェハの光学像を検出する対
物レンズ5とTVカメラ22よりなる検出部と、TVカ
メラ22の信号をデジタル化して記憶するためのA/D
変換器7と画像メモリ部8よりなる画像入力部9と、画
像入力部に入力された検出画像IOと画像メモリ中の記
憶画像11より(7)、 (8)式で表される画素以下
の位置合わせ量δxO9δyaを計算するサブビクセル
マツチング部15よりなる画像処理部20と、XYステ
ージ2の制御と画像処理部20より出力される情報の記
憶や表示と全体シーケンスの管理を行う計算機で構成さ
れた全体制御部21から構成される。FIG. 8 is a block diagram of a pattern recognition device that detects pattern position errors. This pattern recognition apparatus includes an XY stage 2 for positioning a wafer 1, a light source 3 for illuminating the wafer, an illumination optical system 4, an objective lens 5 for detecting an optical image of the illuminated wafer, a detection section consisting of a TV camera 22, and a TV camera 22. A/D for digitizing and storing the signal from the camera 22
An image input unit 9 consisting of a converter 7 and an image memory unit 8, a detected image IO input to the image input unit, and a stored image 11 in the image memory, calculate the following pixels expressed by equations (7) and (8). It consists of an image processing unit 20 consisting of a sub-vixel matching unit 15 that calculates the alignment amount δxO9δya, and a computer that controls the XY stage 2, stores and displays information output from the image processing unit 20, and manages the entire sequence. It is composed of an overall control section 21.
この構成によりパターン誤差を検出する動作を次に説明
する。まず、全体制御部21よりの指令で各部のイニシ
ャライズ後に、XYステージ2を駆動して位置決めし、
光源3と照明光学系4で照明されたウェハ1のパターン
を対物レンズ5を介してTVカメラ22で光i!f換す
ることにより二次元のパターンを検出し、A/D変換器
7でデジタル化した二次元の検出画像10とし、得られ
た検出画像は画像メモリ部8に記憶する。一つ前に検出
して記憶しておいた画像メモリ8中の記憶画像11を(
20)式で一画素シフトさせた後(7)、 (8)式で
位置の誤差δXO9δyoを計算する。位置の誤差を全
体制御部に渡す。The operation of detecting pattern errors using this configuration will be described next. First, after initializing each part according to a command from the overall control unit 21, the XY stage 2 is driven and positioned.
The pattern of the wafer 1 illuminated by the light source 3 and the illumination optical system 4 is captured by the TV camera 22 through the objective lens 5. A two-dimensional pattern is detected by performing f conversion, and a two-dimensional detected image 10 is digitized by the A/D converter 7, and the obtained detected image is stored in the image memory section 8. The stored image 11 in the image memory 8 that was detected and stored the previous time is (
After shifting by one pixel using equation (20), the position error δXO9δyo is calculated using equations (7) and (8). Pass the position error to the overall control section.
gl(x、y)=g(x+l、y+l)
(20)本発明によれば、パターンの位置合
わせ情報をそのまま用いてパターンの位置誤差として出
力しており、高精度な位置誤差検出ができる特徴がある
。gl(x,y)=g(x+l,y+l)
(20) According to the present invention, pattern positioning information is used as it is and outputted as a pattern position error, and is characterized in that highly accurate position error detection is possible.
本発明の第一の変形は検出画像10と記憶画像)1より
(7)、 (8)式でδxO9δyOを計算する時に、
画像にマスキングをする方式がある。本変形によれば、
はしい情報のみより位置の誤差δXO9δyoを計算で
き、高精度である特徴かある。The first modification of the present invention is that when calculating δxO9δyO from the detected image 10 and the stored image) 1 using equations (7) and (8),
There is a method for masking images. According to this modification,
It is possible to calculate the positional error δXO9δyo only from accurate information, which is a feature of high accuracy.
本発明の第二の変形はアライメントマークの検出に用い
て、位置の誤差情報をフィードバッグすることにより、
アライメントを行う。本変形によれば高精度なアライメ
ントができる特徴がある。The second modification of the present invention is used to detect alignment marks, and by feeding back position error information,
Perform alignment. This modification has the feature that highly accurate alignment can be achieved.
本発明の第三の変形は角度検出に用いる。二点以上の位
置の誤差情報を基に角度の計算を行う。A third variant of the invention is used for angle detection. The angle is calculated based on the error information of the positions of two or more points.
本変形によれば高精度な角度検出ができる特徴がある。This modification has the feature of being able to detect angles with high accuracy.
[発明の効果]
本発明によれば、パターンの位置合わせ精度を検出画素
サイズ以下としてサンプリング誤差の影響を軽減でき、
画素サイズと同程度の大きさの欠陥の検出を容易にする
ことができる。[Effects of the Invention] According to the present invention, the influence of sampling errors can be reduced by setting the pattern alignment accuracy to be less than or equal to the detection pixel size,
Defects with a size comparable to the pixel size can be easily detected.
第1図は本発明の一実施例のブロック図、第2図(a)
〜(C)は従来−船釣なパターン比較方式によるパター
ン欠陥検出方法の原理説明図、第3図(a)〜(e)は
第2図(a)〜(c)のパターン波形図、第4図(a)
〜(cl)は本発明による第2図のパターンのサブビク
セルマツチング動作例の波形図、第5図は第4図(a)
〜(d)の数値の説明図、第6図は第1図の画素単位マ
ツチング部の動作説明図、第7図は第一の実施例の変形
の説明図、第8図は本発明の第二の実施例を示す装置の
ブロック図である。
■・・・ウェハ、2・・・XYステージ、3・・・光源
、4・・・照明光学系、5・・・対物レンズ、6・・・
−次元イメージセンサ、7・・・A/D変換器、8・・
・画像メモリ部、9・・・画像入力部、10・・・検出
画像、11・・・比較画像、12・・・画像取り出し部
、13・・・マツチング部、14・・・画素単位位置補
正の終わった画像、15・・・サブビクセルマツチング
部、16・・・位置合わせ部、17・・・差画像、18
・・・差画像抽出部、19・・・欠陥判定部、20・・
・画像処理部、21・・・全体制御部、22・・・サブ
ビクセル演算部、23・・・TVカメラ。
第 1 閉
第2 図
第 3 図
第4(2)
第 S 口
′!!−)6図
yb7 図
第8区Fig. 1 is a block diagram of an embodiment of the present invention, Fig. 2(a)
~(C) is a diagram explaining the principle of a pattern defect detection method using a conventional pattern comparison method; Figures 3(a) to (e) are pattern waveform diagrams of Figures 2(a) to (c); Figure 4 (a)
~(cl) is a waveform diagram of an example of the sub-vixel matching operation of the pattern of FIG. 2 according to the present invention, and FIG. 5 is a waveform diagram of FIG. 4(a).
6 is an explanatory diagram of the operation of the pixel unit matching section of FIG. 1, FIG. 7 is an explanatory diagram of a modification of the first embodiment, and FIG. FIG. 2 is a block diagram of a device showing a second embodiment. ■...Wafer, 2...XY stage, 3...Light source, 4...Illumination optical system, 5...Objective lens, 6...
- Dimensional image sensor, 7... A/D converter, 8...
- Image memory unit, 9... Image input unit, 10... Detected image, 11... Comparison image, 12... Image extraction unit, 13... Matching unit, 14... Pixel unit position correction 15... Sub-vixel matching section, 16... Registration section, 17... Difference image, 18
... difference image extraction section, 19 ... defect determination section, 20 ...
- Image processing unit, 21... Overall control unit, 22... Sub-vixel calculation unit, 23... TV camera. 1st closed 2nd figure 3 4th (2) S mouth'! ! -) Figure 6 yb7 Figure 8th section
Claims (1)
め記憶しておいたパターンまたは別途検出したパターン
とを画素単位に位置合わせし前記画素単位に位置合わせ
したパターンに対して画素以下の精度で位置合わせし、
前記画素以下の精度で位置合わせした二つのパターンの
誤差を抽出・比較して、パターンの欠陥を認識すること
を特徴とするパターン認識方法。 2、対象のパターンを検出し、検出した前記パターンと
あらかじめ記憶しておいたパターンまたは別途検出した
パターンとを画素単位に位置合わせし前記画素単位に位
置合わせしたパターンに対して画素以下の精度で位置合
わせし、位置合わせ量に基づいてパターンの位置誤差を
認識することを特徴とするパターン認識方法。 3、請求項1または2において、前記画素単位の位置合
わせは行わないパターン認識方法。 4、請求項1または2において、前記画素単位の位置合
わせは複数画素を一画素と考えた画素以下の位置合わせ
で行うパターン認識方法。 5、請求項1または2において、前記画素以下の位置合
わせは複数画素を一画素と考えた画素以下の位置合わせ
で行うパターン認識方法。 6、請求項1または2において、前記画素以下の位置合
わせはマスクした画像に対して位置合わせを行うパター
ン認識方法。 7、請求項1または2において、前記画素以下の精度の
位置合わせは最小二乗法を用いるパターン認識方法。 8、請求項7において、前記最小二乗法はx、y方向の
位置をパラメータに含むパターン認識方法。 9、請求項2において、アライメントマークを検出した
位置誤差をもとに位置補正することによりアライメント
をするパターン認識方法。 10、請求項2において、二点以上の位置誤差情報をも
とに角度検出を行うパターン認識方法。[Claims] 1. Detect a target pattern, align the pattern with a pre-stored pattern or a separately detected pattern pixel by pixel, and compare the pixel with respect to the pattern aligned pixel by pixel. Align with the following accuracy,
A pattern recognition method characterized in that defects in the patterns are recognized by extracting and comparing errors between two patterns aligned with an accuracy below the pixel. 2. Detect the target pattern, align the detected pattern with a pre-stored pattern or a separately detected pattern pixel by pixel, and compare the pattern aligned in pixel units with sub-pixel accuracy. A pattern recognition method characterized by aligning and recognizing a pattern position error based on the amount of alignment. 3. The pattern recognition method according to claim 1 or 2, wherein the pixel-by-pixel alignment is not performed. 4. The pattern recognition method according to claim 1 or 2, wherein the pixel-by-pixel alignment is performed by pixel or smaller alignment, considering a plurality of pixels as one pixel. 5. The pattern recognition method according to claim 1 or 2, wherein the sub-pixel alignment is performed by considering a plurality of pixels as one pixel. 6. The pattern recognition method according to claim 1 or 2, wherein the alignment below the pixel is performed on a masked image. 7. The pattern recognition method according to claim 1 or 2, in which the least squares method is used for alignment with an accuracy of less than the pixel. 8. The pattern recognition method according to claim 7, wherein the least squares method includes positions in the x and y directions as parameters. 9. The pattern recognition method according to claim 2, wherein the alignment is performed by correcting the position based on the position error of the detected alignment mark. 10. The pattern recognition method according to claim 2, wherein angle detection is performed based on position error information of two or more points.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2322995A JP2796430B2 (en) | 1990-11-28 | 1990-11-28 | Pattern defect detection method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2322995A JP2796430B2 (en) | 1990-11-28 | 1990-11-28 | Pattern defect detection method and apparatus |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP9208813A Division JPH1096613A (en) | 1997-08-04 | 1997-08-04 | Defect detection method and device thereof |
JP20881297A Division JP3262030B2 (en) | 1997-08-04 | 1997-08-04 | Defect detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH04194702A true JPH04194702A (en) | 1992-07-14 |
JP2796430B2 JP2796430B2 (en) | 1998-09-10 |
Family
ID=18149969
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2322995A Expired - Lifetime JP2796430B2 (en) | 1990-11-28 | 1990-11-28 | Pattern defect detection method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2796430B2 (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0743309A (en) * | 1993-08-02 | 1995-02-14 | Nec Corp | Pattern inspection method |
JPH10318950A (en) * | 1997-05-21 | 1998-12-04 | Hitachi Ltd | Method and apparatus for inspection of pattern |
JPH11160247A (en) * | 1997-11-28 | 1999-06-18 | Hitachi Ltd | Method and apparatus for visual inspection |
JPH11194154A (en) * | 1998-01-06 | 1999-07-21 | Hitachi Ltd | Pattern inspection method and its device and pattern inspection method and device based on electron ray image |
US6868175B1 (en) | 1999-08-26 | 2005-03-15 | Nanogeometry Research | Pattern inspection apparatus, pattern inspection method, and recording medium |
JP2007241356A (en) * | 2006-03-06 | 2007-09-20 | Fuji Xerox Co Ltd | Image processor and image processing program |
US7274813B2 (en) | 1998-04-21 | 2007-09-25 | Hitachi, Ltd. | Defect inspection method and apparatus |
JP2008140360A (en) * | 2006-11-02 | 2008-06-19 | Konica Minolta Holdings Inc | Image collation device |
US7796801B2 (en) | 1999-08-26 | 2010-09-14 | Nanogeometry Research Inc. | Pattern inspection apparatus and method |
US7817844B2 (en) | 1999-08-26 | 2010-10-19 | Nanogeometry Research Inc. | Pattern inspection apparatus and method |
US7983471B2 (en) | 2006-12-05 | 2011-07-19 | Ngr Inc. | Pattern inspection apparatus and method |
JP2011196952A (en) * | 2010-03-23 | 2011-10-06 | Nuflare Technology Inc | Inspection device and method |
US8150140B2 (en) | 2008-12-22 | 2012-04-03 | Ngr Inc. | System and method for a semiconductor lithographic process control using statistical information in defect identification |
US8422761B2 (en) | 2008-12-22 | 2013-04-16 | Ngr Inc. | Defect and critical dimension analysis systems and methods for a semiconductor lithographic process |
-
1990
- 1990-11-28 JP JP2322995A patent/JP2796430B2/en not_active Expired - Lifetime
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0743309A (en) * | 1993-08-02 | 1995-02-14 | Nec Corp | Pattern inspection method |
JPH10318950A (en) * | 1997-05-21 | 1998-12-04 | Hitachi Ltd | Method and apparatus for inspection of pattern |
JPH11160247A (en) * | 1997-11-28 | 1999-06-18 | Hitachi Ltd | Method and apparatus for visual inspection |
JPH11194154A (en) * | 1998-01-06 | 1999-07-21 | Hitachi Ltd | Pattern inspection method and its device and pattern inspection method and device based on electron ray image |
US7512259B2 (en) | 1998-04-21 | 2009-03-31 | Hitachi, Ltd. | Defect inspection method and apparatus |
US8107717B2 (en) | 1998-04-21 | 2012-01-31 | Hitachi, Ltd. | Defect inspection method and apparatus |
US7274813B2 (en) | 1998-04-21 | 2007-09-25 | Hitachi, Ltd. | Defect inspection method and apparatus |
US7916929B2 (en) | 1998-04-21 | 2011-03-29 | Hitachi, Ltd. | Defect inspection method and apparatus |
US8045785B2 (en) | 1999-08-26 | 2011-10-25 | Ngr Inc. | Pattern inspection apparatus and method |
US7660455B2 (en) | 1999-08-26 | 2010-02-09 | Nanogeometry Research Inc. | Pattern inspection apparatus, pattern inspection method, and recording medium |
US7796801B2 (en) | 1999-08-26 | 2010-09-14 | Nanogeometry Research Inc. | Pattern inspection apparatus and method |
US7817844B2 (en) | 1999-08-26 | 2010-10-19 | Nanogeometry Research Inc. | Pattern inspection apparatus and method |
US6868175B1 (en) | 1999-08-26 | 2005-03-15 | Nanogeometry Research | Pattern inspection apparatus, pattern inspection method, and recording medium |
JP2007241356A (en) * | 2006-03-06 | 2007-09-20 | Fuji Xerox Co Ltd | Image processor and image processing program |
JP2008140360A (en) * | 2006-11-02 | 2008-06-19 | Konica Minolta Holdings Inc | Image collation device |
US7983471B2 (en) | 2006-12-05 | 2011-07-19 | Ngr Inc. | Pattern inspection apparatus and method |
US8285031B2 (en) | 2006-12-05 | 2012-10-09 | Ngr Inc. | Pattern inspection apparatus and method |
US9189843B2 (en) | 2006-12-05 | 2015-11-17 | Ngr Inc. | Pattern inspection apparatus and method |
US8150140B2 (en) | 2008-12-22 | 2012-04-03 | Ngr Inc. | System and method for a semiconductor lithographic process control using statistical information in defect identification |
US8422761B2 (en) | 2008-12-22 | 2013-04-16 | Ngr Inc. | Defect and critical dimension analysis systems and methods for a semiconductor lithographic process |
JP2011196952A (en) * | 2010-03-23 | 2011-10-06 | Nuflare Technology Inc | Inspection device and method |
Also Published As
Publication number | Publication date |
---|---|
JP2796430B2 (en) | 1998-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH04194702A (en) | Pattern recognizing method | |
JP4073265B2 (en) | Inspection apparatus and inspection method | |
US6925203B1 (en) | Position detection apparatus and exposure apparatus | |
JPH1096613A (en) | Defect detection method and device thereof | |
JPH0789063A (en) | Printed matter inspecting system | |
JPH1197512A (en) | Positioning apparatus and method and storage medium capable of computer-reading of positioning programs | |
JP2675167B2 (en) | Pattern recognition method | |
JPS62261005A (en) | Printed-circuit board processing apparatus | |
JP2633147B2 (en) | Component mounting method | |
JP2002005850A (en) | Defect inspection method and apparatus therefor, and production method of mask | |
JP3262030B2 (en) | Defect detection device | |
JPH04295748A (en) | Pattern inspecting apparatus | |
CN105469085B (en) | Board image acquiring method and system | |
US6327379B2 (en) | Pattern inspection method and apparatus | |
JPH09147107A (en) | Method and device for evaluating image position | |
JPH03201454A (en) | Aligning method for semiconductor device | |
JP3182517B2 (en) | Defect detection apparatus and method | |
JPS62267649A (en) | Pattern defect detecting device | |
JP2926118B2 (en) | Defect detection method | |
JP2000099742A (en) | Fault detection method and device therefor | |
JP2001195583A (en) | Position detector and exposure device using the same | |
JP4235756B2 (en) | Misalignment detection method, misalignment detection apparatus, image processing method, image processing apparatus, and inspection apparatus using the same | |
JP2001165636A (en) | Method and device for detecting pattern defect of printed board wiring pattern | |
JPS61151410A (en) | Pattern defect detection and its apparatus | |
WO2004019389A1 (en) | Mark position detection device, mark position detection method, superimposing measurement device, and superimposing measurement method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080626 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080626 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090626 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100626 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100626 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110626 Year of fee payment: 13 |
|
EXPY | Cancellation because of completion of term | ||
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110626 Year of fee payment: 13 |