JPH04194702A - Pattern recognizing method - Google Patents

Pattern recognizing method

Info

Publication number
JPH04194702A
JPH04194702A JP2322995A JP32299590A JPH04194702A JP H04194702 A JPH04194702 A JP H04194702A JP 2322995 A JP2322995 A JP 2322995A JP 32299590 A JP32299590 A JP 32299590A JP H04194702 A JPH04194702 A JP H04194702A
Authority
JP
Japan
Prior art keywords
pixel
pattern
image
alignment
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2322995A
Other languages
Japanese (ja)
Other versions
JP2796430B2 (en
Inventor
Takashi Hiroi
高志 広井
Hitoshi Kubota
仁志 窪田
Shunji Maeda
俊二 前田
Hiroshi Makihira
牧平 坦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2322995A priority Critical patent/JP2796430B2/en
Publication of JPH04194702A publication Critical patent/JPH04194702A/en
Application granted granted Critical
Publication of JP2796430B2 publication Critical patent/JP2796430B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To make a pattern alignment accuracy smaller than the size of a detected pixel and reduce the effect of sampling errors by extracting and comparing the errors of two patterns whose positions are aligned with each other with the accuracy not larger than the size of one pixel. CONSTITUTION:The pattern of a wafer 1 illuminated by a light source 3 and an illumination optical system 4 in synchronism with the scanning of an X-Y stage under a command from a total controller 21 is photoelectrically converted by a one- dimensional image sensor 6 via an objective lens 5 to detect a two-dimensional pattern and a binary-coded 7 two-dimensional picture image 10 is obtained to be stored 8. A matching unit 13 calculates a difference between the detected picture image 10 and a comparison picture image 11 and outputs the picture image 14 wherein pixel unit position correction is terminated. Then, a sub-pixel matching unit 15 calculates the position alignment quantity of not larger than the size of a pixel. A position aligning unit 16 conducts position alignment on the basis of a position alignment quantity. A picture image extracting unit 18 extracts a difference picture image from the picture image wherein a position correction is terminated. The difference image 17 is binary-coded at a threshold value in a defect decision unit 19, a variety of characteristic quantities are extracted and defect decision is performed.

Description

【発明の詳細な説明】 [産業上の利用分野1 本発明は、例凡ば、LSIウェーハやTPTなとのパタ
ーンを比較して欠陥を認識する方法に係り、高精度な位
置合わせ、およびアライメントマーク等の高精度な位置
検出をするパターン認識方法に関する。
[Detailed Description of the Invention] [Industrial Application Field 1] The present invention generally relates to a method for recognizing defects by comparing patterns on LSI wafers and TPT, and is used for highly accurate positioning and alignment. This invention relates to a pattern recognition method for highly accurate position detection of marks, etc.

[従来の技術] 従来のパターン認識方法は、特開昭57−196377
号公報に記載のように、対象のパターンを検出し、検出
したパターンを記憶しておき、一つ前に記憶しておいた
パターンと検出したパターンとを画素単位に位置合わせ
し、位置合わせした二つのパターンの誤差を抽出・比較
することにより、パターンの欠陥を認識するようになっ
ていた。
[Prior art] A conventional pattern recognition method is disclosed in Japanese Patent Application Laid-Open No. 57-196377.
As described in the publication, the target pattern was detected, the detected pattern was memorized, and the previously stored pattern and the detected pattern were aligned pixel by pixel. Defects in patterns can be recognized by extracting and comparing errors between two patterns.

この認識対象は、第2図(a)、 (b)、 (c)に
例示するような、メモリ用LSIなとの半導体ウェハの
パターン、 T F T (Thin Film Tr
ansisLer)のパターン、プリント配線板のパタ
ーン、セラミック基板のパターンまたは、それらを製造
する工程で用いるマスクやレチクルなどのパターンなど
である。ここでは−例として半導体ウェハのパターンに
ついて説明するが、他のパターンに対しても同じ事が成
り立つ。半導体ウェハのパターンは最終的に切り離され
て個別製品となるチップが数十個−枚のウェハに載って
おり、それらは互いに同じパターンを持っている。この
ようなパターンの欠陥を認識する原理を第2図(a)〜
(C)を用いて説明4、する。
This recognition target is a pattern of a semiconductor wafer such as a memory LSI, as illustrated in FIGS. 2(a), 2(b), and 2(c).
AnsisLer) patterns, printed wiring board patterns, ceramic substrate patterns, and patterns of masks, reticles, etc. used in the process of manufacturing them. Here, a semiconductor wafer pattern will be described as an example, but the same holds true for other patterns. The pattern of a semiconductor wafer is that dozens of chips are mounted on each wafer, and each chip has the same pattern. The principle of recognizing such pattern defects is shown in Figure 2(a)~
Explain 4 using (C).

第2図(a)〜(C)は従来の一般的なパターン比較方
法の原理説明図で、第2図(a)は記憶パターン、第2
図(b)は検出パターン、第2図(C)はパターン差で
ある。各チップが全く同一のパターンを持っていること
に着目し、第2図(a)のパターンを検出して記憶して
おき、第2図(b)のそれと同一であるはずの別のパタ
ーンを次に検出して、二つのパターンを画素単位に位置
合わせし、第2図(c)の位置合わせした二つのパター
ンの誤差を抽出して比較する。いずれのパターンにも欠
陥が存在しない場合にはパターンの差はほとんどないが
、いずれかのパターン、例えば、第2図(b)の検出パ
ターンに欠陥が存在する場合には、第2図(C)のよう
に欠陥部分でパターンに差があるため、パターンの比較
により誤差を生じる場所を検出することでパターン欠陥
を認識することができる。なお、ここで比較して差があ
ればいずれかのパターンに欠陥があると言えるが、いず
れのパターンに欠陥があるかを判別することはできない
2(a) to 2(C) are explanatory diagrams of the principle of the conventional general pattern comparison method. FIG. 2(a) shows the memory pattern,
Figure (b) shows the detection pattern, and Figure 2 (C) shows the pattern difference. Focusing on the fact that each chip has exactly the same pattern, detect and memorize the pattern in Figure 2(a), and then create another pattern that should be the same as that in Figure 2(b). Next, the two patterns are detected and aligned pixel by pixel, and the error between the two aligned patterns shown in FIG. 2(c) is extracted and compared. If there is no defect in any of the patterns, there is almost no difference between the patterns, but if there is a defect in any of the patterns, for example, the detection pattern in FIG. ), there are differences in the pattern at the defective part, so pattern defects can be recognized by comparing the patterns and detecting the location where the error occurs. Note that if there is a difference in this comparison, it can be said that one of the patterns has a defect, but it is not possible to determine which pattern has a defect.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

上記従来技術では画像をデジタル化して入力するためサ
ンプリング点の情報しか得られずサンプリング誤差の発
生は避けられないが、このサンプリング誤差の影響で小
さい欠陥の認識が困難となる問題がある。このことを第
3図(a)〜(C)により説明する。
In the above-mentioned conventional technology, since the image is digitized and input, only information on sampling points can be obtained, and the occurrence of sampling errors is unavoidable, but there is a problem in that it is difficult to recognize small defects due to the influence of these sampling errors. This will be explained with reference to FIGS. 3(a) to (C).

第3図(a)〜(c)は第2図(a) 〜(c)のx−
x’縁線上パターンの波形図で、第3図(a)は第2図
(a)の記憶パターンの検出信号波形図、第3図(b)
は第2図(b)の検出パターンの検出信号波形図、第3
図(C)は第2図(b)の検出パターンのサンプリング
誤差の無い場合の検出信号波形図、第3図(d)は第3
図(a)と第3図(b)のサンプリング誤差有りとの差
信号波形図、第3図(e)は第3図(a)と第3図(C
)のサンプリング誤差無しとの差信号波形図であり、図
中の・はサンプリング点での検出信号を示している。第
3図(b)、 (c)のように本来は全く同一のパター
ンに対して同一点に設定することができないためサンプ
リング点での検出波形が異なった物となり、検出波形や
検出パターンに誤差を生じ、この誤差をサンプリング誤
差と呼ぶ。比較する検出パターンにサンプリング誤差が
無い場合は第3図(e)のように欠陥部差信号は正常部
差信号より十分大きく欠陥の認識は容易であるが、検出
パターンにサンプリング誤差がある場合は第3図(d)
のように欠陥部差信号は正常部差信号と同程度となり欠
陥の認識は困難となる。検出時の画素サイズに対して認
識する欠陥サイズが十分大きい場合は差の大きい場所の
面積の違いを利用してサンプリング誤差と欠陥を識別で
きるが、小さい場合は欠陥により生じる差の大きい場所
の面積はサンプリング誤差によるそれと同程度となり欠
陥の識別は困難となる。
Figures 3(a) to (c) are x- in Figures 2(a) to (c).
FIG. 3(a) is a waveform diagram of the pattern on the x' edge line, and FIG. 3(a) is a detection signal waveform diagram of the memory pattern of FIG. 2(a), and FIG. 3(b)
is the detection signal waveform diagram of the detection pattern in Fig. 2(b),
Figure (C) is a detection signal waveform diagram when there is no sampling error in the detection pattern of Figure 2 (b), and Figure 3 (d) is a diagram of the detection signal waveform when there is no sampling error in the detection pattern of Figure 2 (b).
Difference signal waveform diagrams between Fig. 3(a) and Fig. 3(b) with sampling error, Fig. 3(e) are diagrams of Fig. 3(a) and Fig. 3(C).
) is a difference signal waveform diagram with no sampling error. In the figure, . indicates a detection signal at a sampling point. As shown in Figure 3 (b) and (c), it is not possible to set the same point at the same point for the exact same pattern, so the detected waveform at the sampling point will be different, resulting in errors in the detected waveform and pattern. This error is called sampling error. If there is no sampling error in the detection pattern to be compared, the defective part difference signal is sufficiently larger than the normal part difference signal as shown in Fig. 3(e), and the defect can be easily recognized. However, if the detection pattern has a sampling error, Figure 3(d)
As shown in the figure, the defective part difference signal is of the same level as the normal part difference signal, making it difficult to recognize the defect. If the defect size to be recognized is sufficiently large compared to the pixel size at the time of detection, sampling errors and defects can be identified by using the difference in the area of the place where the difference is large, but if it is small, the area of the place where the difference is large caused by the defect. The error is about the same as that due to sampling error, making it difficult to identify defects.

本発明の目的はパターンの位置合わせの精度を検出画素
サイズ以下としてサンプリング誤差の影響を軽減できる
パターン認識方法を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide a pattern recognition method that can reduce the influence of sampling errors by making the accuracy of pattern alignment less than or equal to the detection pixel size.

〔課題を解決するための手段] 上記目的を達成するために、本発明のパターン認識方法
はパターンを画素単位で位置合わせした後、画素単位以
下の精度で位置合わせをするようにしたものである。す
なわち、対象のパターンを検出し、検出したパターンを
記憶しておき、一つ前に記憶しておいたパターンと検出
したパターンを画素単位に位置合わせし、あらかじめ画
素単位に位置合わせしたパターンに対して画素以下の精
度で位置合わせし、画素以下の精度で位置合わせした二
つのパターンの誤差を抽出・比較して、パターンの欠陥
を認識するものである。
[Means for Solving the Problems] In order to achieve the above object, the pattern recognition method of the present invention aligns patterns in pixel units, and then performs alignment with an accuracy less than that in pixel units. . In other words, a target pattern is detected, the detected pattern is memorized, the previously stored pattern and the detected pattern are aligned pixel by pixel, and the pattern that was previously aligned pixel by pixel is This method identifies defects in the patterns by extracting and comparing the errors between the two patterns that have been aligned with sub-pixel accuracy.

この画素単位以下の精度で位置合わせするには、例えば
、次に示す最小二乗法を用いる。二枚のパターンをf(
xty)、 g(x、y)とするとき、あらかじめ(1
)式の52(dx、dy)を最小とする位置(dxo、
dyo)に画素単位で位置合わせして、x、y座標とも
値がOと1の間に検出画像と記憶画像のパターンの差を
最小とする位置(δxO,JyO)があるようにする。
In order to perform positioning with precision less than this pixel unit, for example, the following least squares method is used. The two patterns are f(
xty), g(x, y), (1
) The position (dxo,
dyo) in pixel units so that there is a position (δxO, JyO) where the difference between the patterns of the detected image and the stored image is minimized between values O and 1 for both x and y coordinates.

E 2(dx、dy)=ε(dx、dy)+ε(dx+
I、dy)+E (dx、dy+1)+ε(dx+l、
dy+I) HHHH(1)ε(dx、dy)・ΣΣI
f(x、y)−g(x+dx、y+ay)1− 、 、
 、 、 、 (2)ここで、X、yは画素単位のパタ
ーンの座標、dx。
E 2 (dx, dy) = ε (dx, dy) + ε (dx+
I, dy)+E (dx, dy+1)+ε(dx+l,
dy+I) HHHH(1)ε(dx,dy)・ΣΣI
f(x,y)-g(x+dx,y+ay)1- , ,
, , , (2) Here, X, y are the coordinates of the pattern in pixel units, dx.

dyは二枚のパターンの画素単位の位置合わせ量、cl
xo 、 dyoはC2を最小とする画素以下の位置合
わせ量dx、dy、Jx、δyは画素以下の位置合わせ
量、δxO2δyOはパターン差を最小とする画素以下
の位置合わせ量δX、δy、ΣΣは位置合わせする範囲
のx、y座標に関する和を各々示す。
dy is the alignment amount of the two patterns in pixel units, cl
xo, dyo are the alignment amounts below the pixel that minimize C2 dx, dy, Jx, δy are the alignment amounts below the pixel, δxO2δyO are the alignment amounts below the pixel that minimize the pattern difference δX, δy, ΣΣ Each shows the sum of the x and y coordinates of the range to be aligned.

画素単位の位置合わせをするには、次の(3)式で示す
gをシフトしたglを用いる。
To perform alignment in pixel units, gl, which is obtained by shifting g shown in the following equation (3), is used.

gl (x、y)□g(x+ムty+dy)・・・・・
・・・・・・・・(3)画素と画素の中間の値を(4)
、 (5)式で定義する。
gl (x, y)□g(x+muty+dy)・・・・・・
・・・・・・・・・(3) The intermediate value between pixels (4)
, defined by equation (5).

fd(XIδx+y、dy)=f(x、い+δx本(f
(x+l、y)−f(x、y))+Jy本げ(’+y”
1)−f (x、い)(4)gld(x、δX+ yy
δy)=gl (x、い+δχ本(gl(x−Ly)−
gl(xty))+δy本(gl(x、y−])−gl
(x、y))           (5)二乗誤差は
(6)式で定義できる。
fd(XIδx+y,dy)=f(x,i+δx books(f
(x+l,y)-f(x,y))+Jyhonge('+y"
1)-f (x, i) (4) gld(x, δX+ yy
δy)=gl (x, i+δχ book(gl(x-Ly)-
gl (xty)) + δy books (gl (x, y-]) - gl
(x, y)) (5) The squared error can be defined by equation (6).

εd(Jx、δい=ΣΣ(fd(x、δx、y、δy)
−gld(x、δX、yTδい)本12       
           (6)(6)0式をδX、 ’
Vで偏微分してこれを0と置いたものを整理して(7)
、 (8)式を得る。
εd(Jx, δ=ΣΣ(fd(x, δx, y, δy)
-gld(x, δX, yTδ) Book 12
(6) (6) Expression 0 as δX, '
Partially differentiate with respect to V and set this as 0 to organize (7)
, we obtain equation (8).

(ΣΣCO本Cj)本(ΣΣC1零Cj)−(ΣΣCO
本Ci)宰(ΣΣCj寡Cj)δxO= −−−−−−
−−−−−−−−一−−−−−−−(7)(ΣΣCO京
Cj)富(ΣΣCi本Cj)−(ΣΣCO本Ci)本(
ΣΣCj末Cj)(ΣΣCO本Ci)本(ΣΣCi本C
j)−(ΣΣCO*Cj)零(ΣΣCj零Cj)δxO
= −−−−−−−−−−−−−−−−−−−−−−(
8)(OCO寧Cj)宰(EXCCCj)−(OCO*
Ci)本(OCj<j)ここで、 C0=f(x、y)−gl (x、y)Ci=げ(x+
l、y)−f(x、y))−(gl(x−1,y)−g
l(x、y))    (9)Cj=げ(X、y+1)
−f(X、y))−(gl(X、y−1)−gl(X、
y))画素以下の位置合わせ量δxo、JyOより位置
合わせ後のパターンf2. g2を次の(10)、 (
II)式で計算する。
(ΣΣCO book Cj) book (ΣΣC1 zero Cj) - (ΣΣCO
Book Ci) (ΣΣCj 小Cj) δxO= −−−−−−
−−−−−−−−1−−−−−−−(7) (ΣΣCO 京Cj) Wealth (ΣΣCi book Cj) - (ΣΣCO book Ci) book (
ΣΣCj end Cj) (ΣΣCO book Ci) book (ΣΣCi book C
j) - (ΣΣCO*Cj) zero (ΣΣCj zero Cj) δxO
= −−−−−−−−−−−−−−−−−−−−−−(
8) (OCO Ning Cj)
Ci) Book (OCj<j) Here, C0=f(x,y)-gl(x,y)Ci=ge(x+
l,y)-f(x,y))-(gl(x-1,y)-g
l(x,y)) (9)Cj=ge(X,y+1)
-f(X,y))-(gl(X,y-1)-gl(X,
y)) Pattern f2 after alignment based on the alignment amount δxo and JyO below the pixel. g2 as the following (10), (
II) Calculate using the formula.

f2(xty)=fd(x、δxo、y、8yo)  
         (10)g2(x、y)=gld(
x、δxo、yJyo)          (II)
[作用] このパターン認識方法の作用を第4図(a)〜(d’1
および第5図により説明する。
f2(xty)=fd(x, δxo, y, 8yo)
(10) g2(x,y)=gld(
x, δxo, yJyo) (II)
[Operation] The operation of this pattern recognition method is shown in Fig. 4 (a) to (d'1).
This will be explained with reference to FIG.

第4図(a)〜(d)は本発明による第2図のパターン
の画素以下のピッチで位置合わせするサブピクセル位置
合わせの動作例の波形図で、第4図(a)は記憶波形、
第4図(b)は欠陥の無い検出波形、第4図(C)は画
素単位の位置合わせのみをした単純差波形、第4図(d
)はサブピクセル位置合わせ後差波形である。第5図は
第4図(a)〜(d)の数値表図で、サンプリング位置
0〜15の記憶波形、検出波形、単純差波形、サブピク
セル位置合わせ後のf2. g2. lf2−g21の
数値を各々示す。記憶波形と検出波形が、例えば、第4
図(a)、 (b)及び第5図のようであったとし、こ
こで第4図(b)の検品波形は第4図(a)の記憶波形
の前後二画素の平均をとった波形でほぼ0.5画素のシ
フトをさせた波形と同等である。
4(a) to 4(d) are waveform diagrams of an operation example of sub-pixel alignment in which alignment is performed at a pitch less than the pixel of the pattern of FIG. 2 according to the present invention; FIG. 4(a) is a stored waveform;
Figure 4(b) is a detected waveform with no defects, Figure 4(C) is a simple difference waveform with only pixel-by-pixel alignment, and Figure 4(d) is a detected waveform with no defects.
) is the difference waveform after subpixel alignment. FIG. 5 is a numerical table diagram of FIGS. 4(a) to 4(d), including the stored waveforms, detected waveforms, simple difference waveforms, and f2. g2. The numerical values of lf2-g21 are shown respectively. For example, if the stored waveform and the detected waveform are
Assume that the inspection waveform in Figure 4 (b) is as shown in Figures (a), (b), and Figure 5, and the inspection waveform in Figure 4 (b) is the average of the two pixels before and after the memory waveform in Figure 4 (a). This is equivalent to a waveform shifted by approximately 0.5 pixel.

これらの波形に最小二乗法を適用してδXOを求め、実
際に計算するとδxO=0.2となり、この値より(t
o)、 (11)式を用いて位置合わせ後のパターンf
2. g2を求める。このときサブピクセル位置合わせ
をした場合としない場合の差信号波形は第4図(C)、
 (d)および第5図のようになり、残差は半減してい
る。これにより、サンプリング誤差によるパターン差の
値は欠陥の値より十分に小さくなるので、欠陥を容易に
識別できる。
Applying the least squares method to these waveforms to find δXO and actually calculating it, δxO=0.2, and from this value (t
o), pattern f after alignment using equation (11)
2. Find g2. At this time, the difference signal waveforms with and without subpixel alignment are shown in Figure 4 (C).
(d) and FIG. 5, and the residual error has been reduced by half. As a result, the value of the pattern difference due to the sampling error becomes sufficiently smaller than the value of the defect, so that the defect can be easily identified.

[実施例] 以下、本発明の第一の実施例を第1図、第6図により説
明する。第1図はLSIウェーハのパターン認識装置の
構成図である。本パターン認識装置はウェーハ1を走査
するXYステージ2とウェーハを照明する光源3と照明
光学系4と照明されたウェーハの光学像を検出する対物
レンズ5と一次元イメージセンサ6よりなる検出部と、
−次元イメージセンサ6の信号をデジタル化して記憶す
るだめのA/D変換器7と画像メモリ部8よりなる画像
入力部9と、画像入力部9に入力された検出画像IOと
比較画像11を画像メモリ部8より取り出す画像取り出
し部12、検出画像10と比較画像11より(2)式で
あられされる画像の差を計算して比較画像を(3)式の
ように移動させて位置合わせをする画素単位マツチング
部13と画素単位マツチング部13よりの画素単位位置
補正の終わった画像14と検出画像lOから(7)、 
(8)式で表される画素以下の位置合わせ量δxO1δ
yOを計算するサブビクセルマツチング部15とサブピ
クセルマツチング部よりの位置合わせ量を基に(10)
、 (11)式で表される位置補正を行う位置合わせ部
16と位置合わせの終わった画像17の差画像17.差
画像17を二値化して差の存在する場所の各種特徴量を
抽出して欠陥の判定を行う欠陥判定部19よりなる画像
処理部2oと、XYステージ2の制御と画像処理部20
より出力される欠陥情報の記憶や表示と全体シーケンス
の管理を行う計算機で構成された全体制御部21から構
成される。
[Example] Hereinafter, a first example of the present invention will be described with reference to FIGS. 1 and 6. FIG. 1 is a block diagram of an LSI wafer pattern recognition device. This pattern recognition apparatus includes an XY stage 2 that scans a wafer 1, a light source 3 that illuminates the wafer, an illumination optical system 4, an objective lens 5 that detects an optical image of the illuminated wafer, and a detection section that includes a one-dimensional image sensor 6. ,
- An image input section 9 consisting of an A/D converter 7 for digitizing and storing the signal of the dimensional image sensor 6 and an image memory section 8; The image extraction unit 12 retrieves the image from the image memory unit 8, calculates the difference between the detected image 10 and the comparison image 11 using equation (2), and moves the comparison image as shown in equation (3) for alignment. From the pixel unit matching unit 13 and the image 14 after the pixel unit position correction from the pixel unit matching unit 13 and the detected image lO, (7)
Alignment amount δxO1δ below the pixel expressed by equation (8)
Based on the alignment amount from the sub-vixel matching unit 15 and sub-pixel matching unit that calculates yO (10)
, a difference image 17. between the alignment unit 16 that performs position correction expressed by equation (11) and the aligned image 17. An image processing unit 2o that includes a defect determination unit 19 that binarizes the difference image 17 and extracts various feature amounts of the location where the difference exists to determine defects; and an image processing unit 20 that controls the XY stage 2.
The control unit 21 is comprised of a computer that stores and displays defect information output from the controller and manages the overall sequence.

この構成によりパターン欠陥を検出する動作を次に説明
する。まず、全体制御部21よりの指令で各部のイニシ
ャライズ後に、xYステージ2の走査に同期して、光源
3と照明光学系4で照明されたウェーハ1のパターンを
対物レンズ5を介して−次元イメージセンサ6で光電変
換することにより二次元のパターンを検出し、A/D変
換器7でデジタル化した二次元の検出画像1oとして、
得られた検出画像は画像メモリ部8に記憶する。
The operation of detecting pattern defects using this configuration will be described next. First, after initializing each part according to a command from the overall control unit 21, in synchronization with the scanning of the xY stage 2, the pattern of the wafer 1 illuminated by the light source 3 and the illumination optical system 4 is imaged as a -dimensional image via the objective lens 5. A two-dimensional pattern is detected by photoelectric conversion with the sensor 6, and digitized with the A/D converter 7 as a two-dimensional detected image 1o.
The obtained detected image is stored in the image memory section 8.

画像取り出し部12は画像メモリ部8の一定のアドレス
を参照することにより比較画像11を取り出す。ここで
、画素単位マツチング部13の動作を第6図により説明
する。第6図は第1図のマツチング部13の動作原理説
明図である。検出画像loと比較画像11より、比較画
像を△X、△Y方向に位置ずれ許容量の±δ画素(本実
施例ではδ=1で説明するが、検出対象の寸法精度と欠
陥検出装置の位置決め精度で決まる値であり必要な値を
適当に設定するものとする)だけずらしたときの検出画
像lOと比較画像11の画像の差を式(2)で計算し、
(1)式のε2(第6図のSl)を最小とするdxo。
The image retrieval unit 12 retrieves the comparison image 11 by referring to a fixed address in the image memory unit 8. Here, the operation of the pixel unit matching section 13 will be explained with reference to FIG. FIG. 6 is an explanatory diagram of the operating principle of the matching section 13 shown in FIG. 1. From the detected image lo and the comparison image 11, the comparison image is determined by ±δ pixels of the positional deviation tolerance in the △X and △Y directions (in this example, δ = 1, but depending on the dimensional accuracy of the detection target and the defect detection device) Calculate the difference between the detected image lO and the comparison image 11 when the image is shifted by a value determined by positioning accuracy, and the necessary value shall be set appropriately) using equation (2),
dxo that minimizes ε2 in equation (1) (Sl in FIG. 6).

ayo (第6図の△X=−1、△y=o)を計算し、
比較画像11を(3)式を用いて位置補正を行い、画素
単位位置補正の終わった画像14を出力する。
Calculate ayo (△X=-1, △y=o in Figure 6),
The position of the comparison image 11 is corrected using equation (3), and the image 14 after the pixel-by-pixel position correction is output.

サブビクセルマツチング部15は画素単位マツチング部
13よりの画素単位位置補正の終わった画像14と検出
画像lOから(7)、(8)式で表される画素以下の位
置合わせ量δxO1δyOを計算する。位置合わせ部1
6はサブピクセルマツチング部I5よりの位置合わせ量
を基に(to)、(11)式で表される位置補正を行う
。差画像抽出部I8は位置補正の終わった画像より次の
(12)式で差画像17を抽出する。
The sub-pixel matching unit 15 calculates the sub-pixel alignment amount δxO1δyO expressed by equations (7) and (8) from the image 14 after the pixel unit position correction from the pixel unit matching unit 13 and the detected image lO. . Positioning section 1
6 performs position correction expressed by equation (11) based on the alignment amount from the sub-pixel matching unit I5 (to). The difference image extracting unit I8 extracts a difference image 17 from the image whose position has been corrected using the following equation (12).

S (i、j)・1f2(i、j)−g2(i、j) 
l         (12)欠陥判定部19は差画像
17を欠陥判定の閾値Vthで二値化して、差の存在す
る場所の面積1幅、投影長などの各種特徴量を抽出して
欠陥の判定を行う。
S (i, j)・1f2(i, j)−g2(i, j)
(12) The defect determination unit 19 binarizes the difference image 17 using the defect determination threshold Vth, extracts various feature quantities such as area 1 width and projected length of the location where the difference exists, and determines a defect. .

本実施例によれば、検出画像と記憶画像の二枚のパター
ンの両方を同じだけ反対方向に移動させて画素以下の位
置合わせ画像を作っているため、画像の平滑化効果(例
えば、δxo=0.5.Δyo=oの場合にf2(x、
y)□(f(x+1.y)+f(x、y))/2で平均
値フィルタをかけたのと等価)が二枚のパターンで同じ
になり、これにより生じる差画像の誤差を最低限にでき
る効果がある。
According to this embodiment, since the two patterns of the detected image and the stored image are both moved in opposite directions by the same amount to create a sub-pixel aligned image, the image smoothing effect (for example, δxo= 0.5. f2(x,
y) □ (equivalent to applying an average value filter by f(x+1.y)+f(x,y))/2) is the same for the two patterns, and the error in the difference image caused by this is minimized. It has the effect of

本実施例の第1の変形は、(to)、(11)式を(1
3)。
The first modification of this example is (to), replacing equation (11) with (1
3).

(14)式を用いる。Formula (14) is used.

f2(x、y)・f(x、y)           
   (13)g2(x、y): f(x、y)+δχ本げ(x−1,y)−f(X+い)
+2本δF(f(xpy−1)−f(xpy))if 
 O,0≦Ax<0.25,0.0≦δy<o、2sf
 (x+1.y)+(1−δ)0寡(f (xty)イ
(x−1,y))+2本δytげ(x−1,y−1)−
f(x−1,y))if 0.25≦δx<0.5,0
.0≦δy〈0.25f(X、y+1)+δX零げ(x
−1,y−1)−f(x、y−1))”(1−2宰δy
戸(f(x、y)−f(x、y−1))if  O,0
≦δx<0.25,0.25≦δy<o、5f(x+l
、y+1)+(1−Jx)本げ(x p y−1) −
f (x−1r y−1) )+(1−21δy)宰げ
(x−1,y)−f(x−1,y−1))if 0.2
5≦δx<0.5.0.25≦δy<o、5本変形によ
れば、Ax、δyが0.5近くの値をとるときにf2.
 g2の値をより連続にできる。つまり、第7図に示し
たgのデータ例に対してdx・0.δX・0.49の場
合とdx=1.δx=0.O1の場合の本変形をした場
合としない場合のg2の値を第7図に示す。本変形をし
ない場合は値が大きく異なるのに対し、本変形をすると
ほぼ同じ値になる。
f2(x,y)・f(x,y)
(13) g2 (x, y): f (x, y) + δχ Honge (x-1, y) - f (X + i)
+2 δF(f(xpy-1)-f(xpy))if
O, 0≦Ax<0.25, 0.0≦δy<o, 2sf
(x+1.y) + (1-δ) 0 (f (xty) i (x-1, y)) + 2 δyt (x-1, y-1) -
f(x-1,y))if 0.25≦δx<0.5,0
.. 0≦δy〈0.25f(X, y+1)+δX spill(x
−1,y−1)−f(x,y−1))”(1−2dδy
door(f(x,y)-f(x,y-1))if O,0
≦δx<0.25, 0.25≦δy<o, 5f(x+l
, y+1) + (1-Jx) Honge (x p y-1) −
f (x-1r y-1) ) + (1-21δy) (x-1, y) - f (x-1, y-1)) if 0.2
According to the five-line modification, f2.
The value of g2 can be made more continuous. That is, for the data example of g shown in FIG. 7, dx·0. In the case of δX・0.49 and dx=1. δx=0. FIG. 7 shows the values of g2 with and without this modification in the case of O1. If this transformation is not carried out, the values will be significantly different, but if this transformation is carried out, the values will be almost the same.

また、本実施例の第二の変形は、XYステージIOの走
査に同期して一次元イメージセンサ14で光電変換する
ことにより二次元のパターンを検出する代わりに、XY
ステージlOをステップ移動させてTVカメラで光電変
換することにより二次元のパターンを検出する。または
、−次元イメージセンサ14の代わりにフォトマルなど
のポイント型センサと走査機構を用いるなどいろんな形
のセンサを用いることができる。また、画像処理部は全
てハードウェアでなくても、ハードウェア+ソフトウェ
アで構成することもできる。
In addition, in a second modification of this embodiment, instead of detecting a two-dimensional pattern by photoelectric conversion using the one-dimensional image sensor 14 in synchronization with the scanning of the XY stage IO,
A two-dimensional pattern is detected by moving the stage IO in steps and photoelectrically converting it with a TV camera. Alternatively, instead of the -dimensional image sensor 14, various types of sensors can be used, such as using a point type sensor such as a photomultiplier and a scanning mechanism. Furthermore, the image processing section does not have to be entirely hardware, but can also be composed of hardware and software.

また、本実施例の第三の変形は検出画像と記憶画像の差
を(2)式で計算し、各ずらし量に対応した画像の差を
マツチング値として出力する代りに、検出画像と比較画
像にそれぞれフィルタをかけることによりエツジなどを
抽出し、そのフィルタ画像にたいして画像の差を(2)
式で計算し、f2. g2はフィルタをかける前の画像
に対して計算する。
In addition, the third modification of this embodiment calculates the difference between the detected image and the stored image using equation (2), and instead of outputting the difference between the images corresponding to each shift amount as a matching value, the difference between the detected image and the comparison image is calculated. Extract edges etc. by applying a filter to each, and calculate the image difference between the filtered images (2)
Calculate using the formula, f2. g2 is calculated for the image before applying the filter.

またc裏検出画像と比較画像に各々フィルタをかけて二
値化し、そのフィルタニ値画像にたいして画像の差を(
2)式で計算し、f2. g2はフィルタをかける前の
画像に対して計算する。本変形によれば、フィルタを用
いているため検出画像と比較画像の不要な情報の違いに
よる影響を受けにくくする効果がある。
In addition, the c back detection image and the comparison image are each filtered and binarized, and the difference between the images is calculated (
2) Calculate by formula, f2. g2 is calculated for the image before applying the filter. According to this modification, since a filter is used, there is an effect of making the detection image less susceptible to the difference in unnecessary information between the detected image and the comparison image.

また、本実施例の第四の変形は(1)、 (4)、 (
5)。
Moreover, the fourth modification of this example is (1), (4), (
5).

(9)式を(15−1)、 (15−4)、 (15−
5)、 (15−9)と置き換える。
(15-1), (15-4), (15-
5), replace with (15-9).

ε2(dx、dy)=ΣΣE (dx+nx、dy+n
y)       (15−1)fd(x、Jx、y、
δy)=f(x、y)+δ)Fげ<x+ntV)−f(
x、y))+δy本(f(x、y+n)−f(x、y)
)           (15−4)gld(x、δ
X1yt ’y) =gt (xty)+δx本(gl
 (x−n、y)−gl (xty)+δy本(gl(
x、y−n)−gl(x、y))        (1
5−5)Co=f(x、y)−gl(x、y) Ci=(f(x+n、y)−f(x、y))−(gl(
x−n、y)−gl(x、y))  (15−9)Cj
−(f(x、y+n)−f(x、い)−(gl (x、
y−n)−gl (x、y))ここで、nは画素と画素
の中間の値の演算のピッチで、n−1,2,3,・・・ (1)式のΣΣはnx、 nyの0〜nまでの和を意味
する。
ε2 (dx, dy) = ΣΣE (dx+nx, dy+n
y) (15-1) fd(x, Jx, y,
δy)=f(x,y)+δ)F<x+ntV)-f(
x, y)) + δy books (f(x, y+n) - f(x, y)
) (15-4) gld(x, δ
X1yt 'y) = gt (xty) + δx books (gl
(x-n, y)-gl (xty) + δy books (gl(
x, y-n)-gl(x, y)) (1
5-5) Co=f(x,y)-gl(x,y) Ci=(f(x+n,y)-f(x,y))-(gl(
x-n,y)-gl(x,y)) (15-9)Cj
−(f(x,y+n)−f(x,i)−(gl(x,
y-n)-gl (x, y)) Here, n is the pitch of calculation of intermediate values between pixels, n-1, 2, 3,... ΣΣ in equation (1) is nx, It means the sum of ny from 0 to n.

(6)、 (7)式のΣΣは位置合わせする範囲のL’
l座標に関する全ての和、またはn毎の和を示す。
ΣΣ in equations (6) and (7) is L' of the alignment range
Indicates all sums for l coordinates or sums for every n.

(1)式のt 2(dx、dy)を最小とする(dx、
 dy)に画素単位で位置合わせして、x、y座標とも
0とnの間に二枚のパターンの差を最小とする位置((
δX、δy)があるようにすればよい。
Minimize t 2 (dx, dy) in equation (1) (dx,
dy) pixel by pixel, and find the position ((
δX, δy).

本変形によれば、あらかじめ画素単位マツチング部で位
置合わせして置く範囲がラフでよい特徴がある。
This modification has the feature that the range that is aligned in advance by the pixel unit matching section can be rough.

また、本実施例の第五の変形は画素単位マツチング部1
3を用いない。対象の条件によっては画素単位マツチン
グをしなくても(1)式のε2(dx、dy)を最小と
する位置(δX、δy)がx、y座標とも0と1の間に
ある。この場合、画素単位の位置合わせは不要である。
Furthermore, the fifth modification of this embodiment is the pixel unit matching unit 1.
3 is not used. Depending on the conditions of the object, the position (δX, δy) that minimizes ε2(dx, dy) in equation (1) is between 0 and 1 in both x and y coordinates even without performing pixel-by-pixel matching. In this case, pixel-by-pixel alignment is not necessary.

特に、本実施例の第四の変形をした場合には不要となる
可能性は高い。本変形によれば、構成が簡単である特徴
がある。
In particular, if the fourth modification of this embodiment is adopted, there is a high possibility that this will become unnecessary. This modification is characterized by a simple configuration.

また、本実施例の第六の変形は画素単位のマツチング部
13にサブビクセルマツチング部15と同じ方式を用い
る。このとき、一般には画素単位のマツチング部13に
は第三の変形と第四の変形を付加する。つまり、記憶画
像gを(16)式でn画素シフトさせた後f、goに対
して、(17)式の平均値フィルタを作用させた、画素
演算のピッチnで演算を行う。また、式(20)、 (
11)は式(18)、 (19)を用いる。
Further, in the sixth modification of this embodiment, the same method as the sub-vixel matching section 15 is used for the pixel-by-pixel matching section 13. At this time, the third transformation and the fourth transformation are generally added to the pixel-by-pixel matching section 13. That is, after shifting the stored image g by n pixels using equation (16), calculations are performed on f and go at the pitch n of pixel calculation by applying the average value filter of equation (17). Also, equation (20), (
11) uses equations (18) and (19).

本変形によれば、サブビクセルマツチング二段のみなの
で、ハードウェア化する時には同一構成の回路が二式と
なるので効率がよい特徴がある。
According to this modification, since there are only two stages of sub-vixel matching, there are two sets of circuits with the same configuration when implemented in hardware, so it is characterized by good efficiency.

gS(Xt’/)”g(x+Q、y”n)      
                       (1
6)fo(X、y)=ΣΣf(x+i、y+j)go(
x、y)邦Σgs(x+i、y+j)        
   (17)ΣΣはi、j=−m−mの和を示す。
gS(Xt'/)"g(x+Q,y"n)
(1
6) fo (X, y) = ΣΣf (x+i, y+j) go (
x, y) Σgs(x+i, y+j)
(17) ΣΣ represents the sum of i, j=-m−m.

f2(x、y)・f(x、δXO+y+δyO)   
       、   (18)g2(x+y)=gs
(x++、 JxO,y+1.δyO)       
   (+9)また、本実施例の第七の変形は(4)、
 (5)式を一次式ではなく任意の式を用いて(7)、
 (8)式を解析的、または数値解析的に求めることが
できればこれらの式を用いることができる。本変形によ
れば、任意の式を用いることができるので、汎用性が高
い特徴がある。
f2(x,y)・f(x,δXO+y+δyO)
, (18) g2(x+y)=gs
(x++, JxO, y+1.δyO)
(+9) Also, the seventh modification of this example is (4),
Using an arbitrary formula instead of a linear formula for formula (5), (7),
If equation (8) can be obtained analytically or numerically, these equations can be used. According to this modification, any formula can be used, so it is characterized by high versatility.

次に、本発明の第二の実施例を第8図により説明する。Next, a second embodiment of the present invention will be explained with reference to FIG.

第8図はパターンの位置誤差を検出するパターン認識装
置の構成図である。本パターン認識装置はウェハ1を位
置決めするXYステージ2とウェハを照明する光源3と
照明光学系4と照明されたウェハの光学像を検出する対
物レンズ5とTVカメラ22よりなる検出部と、TVカ
メラ22の信号をデジタル化して記憶するためのA/D
変換器7と画像メモリ部8よりなる画像入力部9と、画
像入力部に入力された検出画像IOと画像メモリ中の記
憶画像11より(7)、 (8)式で表される画素以下
の位置合わせ量δxO9δyaを計算するサブビクセル
マツチング部15よりなる画像処理部20と、XYステ
ージ2の制御と画像処理部20より出力される情報の記
憶や表示と全体シーケンスの管理を行う計算機で構成さ
れた全体制御部21から構成される。
FIG. 8 is a block diagram of a pattern recognition device that detects pattern position errors. This pattern recognition apparatus includes an XY stage 2 for positioning a wafer 1, a light source 3 for illuminating the wafer, an illumination optical system 4, an objective lens 5 for detecting an optical image of the illuminated wafer, a detection section consisting of a TV camera 22, and a TV camera 22. A/D for digitizing and storing the signal from the camera 22
An image input unit 9 consisting of a converter 7 and an image memory unit 8, a detected image IO input to the image input unit, and a stored image 11 in the image memory, calculate the following pixels expressed by equations (7) and (8). It consists of an image processing unit 20 consisting of a sub-vixel matching unit 15 that calculates the alignment amount δxO9δya, and a computer that controls the XY stage 2, stores and displays information output from the image processing unit 20, and manages the entire sequence. It is composed of an overall control section 21.

この構成によりパターン誤差を検出する動作を次に説明
する。まず、全体制御部21よりの指令で各部のイニシ
ャライズ後に、XYステージ2を駆動して位置決めし、
光源3と照明光学系4で照明されたウェハ1のパターン
を対物レンズ5を介してTVカメラ22で光i!f換す
ることにより二次元のパターンを検出し、A/D変換器
7でデジタル化した二次元の検出画像10とし、得られ
た検出画像は画像メモリ部8に記憶する。一つ前に検出
して記憶しておいた画像メモリ8中の記憶画像11を(
20)式で一画素シフトさせた後(7)、 (8)式で
位置の誤差δXO9δyoを計算する。位置の誤差を全
体制御部に渡す。
The operation of detecting pattern errors using this configuration will be described next. First, after initializing each part according to a command from the overall control unit 21, the XY stage 2 is driven and positioned.
The pattern of the wafer 1 illuminated by the light source 3 and the illumination optical system 4 is captured by the TV camera 22 through the objective lens 5. A two-dimensional pattern is detected by performing f conversion, and a two-dimensional detected image 10 is digitized by the A/D converter 7, and the obtained detected image is stored in the image memory section 8. The stored image 11 in the image memory 8 that was detected and stored the previous time is (
After shifting by one pixel using equation (20), the position error δXO9δyo is calculated using equations (7) and (8). Pass the position error to the overall control section.

gl(x、y)=g(x+l、y+l)       
     (20)本発明によれば、パターンの位置合
わせ情報をそのまま用いてパターンの位置誤差として出
力しており、高精度な位置誤差検出ができる特徴がある
gl(x,y)=g(x+l,y+l)
(20) According to the present invention, pattern positioning information is used as it is and outputted as a pattern position error, and is characterized in that highly accurate position error detection is possible.

本発明の第一の変形は検出画像10と記憶画像)1より
(7)、 (8)式でδxO9δyOを計算する時に、
画像にマスキングをする方式がある。本変形によれば、
はしい情報のみより位置の誤差δXO9δyoを計算で
き、高精度である特徴かある。
The first modification of the present invention is that when calculating δxO9δyO from the detected image 10 and the stored image) 1 using equations (7) and (8),
There is a method for masking images. According to this modification,
It is possible to calculate the positional error δXO9δyo only from accurate information, which is a feature of high accuracy.

本発明の第二の変形はアライメントマークの検出に用い
て、位置の誤差情報をフィードバッグすることにより、
アライメントを行う。本変形によれば高精度なアライメ
ントができる特徴がある。
The second modification of the present invention is used to detect alignment marks, and by feeding back position error information,
Perform alignment. This modification has the feature that highly accurate alignment can be achieved.

本発明の第三の変形は角度検出に用いる。二点以上の位
置の誤差情報を基に角度の計算を行う。
A third variant of the invention is used for angle detection. The angle is calculated based on the error information of the positions of two or more points.

本変形によれば高精度な角度検出ができる特徴がある。This modification has the feature of being able to detect angles with high accuracy.

[発明の効果] 本発明によれば、パターンの位置合わせ精度を検出画素
サイズ以下としてサンプリング誤差の影響を軽減でき、
画素サイズと同程度の大きさの欠陥の検出を容易にする
ことができる。
[Effects of the Invention] According to the present invention, the influence of sampling errors can be reduced by setting the pattern alignment accuracy to be less than or equal to the detection pixel size,
Defects with a size comparable to the pixel size can be easily detected.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例のブロック図、第2図(a)
〜(C)は従来−船釣なパターン比較方式によるパター
ン欠陥検出方法の原理説明図、第3図(a)〜(e)は
第2図(a)〜(c)のパターン波形図、第4図(a)
〜(cl)は本発明による第2図のパターンのサブビク
セルマツチング動作例の波形図、第5図は第4図(a)
〜(d)の数値の説明図、第6図は第1図の画素単位マ
ツチング部の動作説明図、第7図は第一の実施例の変形
の説明図、第8図は本発明の第二の実施例を示す装置の
ブロック図である。 ■・・・ウェハ、2・・・XYステージ、3・・・光源
、4・・・照明光学系、5・・・対物レンズ、6・・・
−次元イメージセンサ、7・・・A/D変換器、8・・
・画像メモリ部、9・・・画像入力部、10・・・検出
画像、11・・・比較画像、12・・・画像取り出し部
、13・・・マツチング部、14・・・画素単位位置補
正の終わった画像、15・・・サブビクセルマツチング
部、16・・・位置合わせ部、17・・・差画像、18
・・・差画像抽出部、19・・・欠陥判定部、20・・
・画像処理部、21・・・全体制御部、22・・・サブ
ビクセル演算部、23・・・TVカメラ。 第 1 閉 第2 図 第 3 図 第4(2) 第 S 口 ′!!−)6図 yb7  図 第8区
Fig. 1 is a block diagram of an embodiment of the present invention, Fig. 2(a)
~(C) is a diagram explaining the principle of a pattern defect detection method using a conventional pattern comparison method; Figures 3(a) to (e) are pattern waveform diagrams of Figures 2(a) to (c); Figure 4 (a)
~(cl) is a waveform diagram of an example of the sub-vixel matching operation of the pattern of FIG. 2 according to the present invention, and FIG. 5 is a waveform diagram of FIG. 4(a).
6 is an explanatory diagram of the operation of the pixel unit matching section of FIG. 1, FIG. 7 is an explanatory diagram of a modification of the first embodiment, and FIG. FIG. 2 is a block diagram of a device showing a second embodiment. ■...Wafer, 2...XY stage, 3...Light source, 4...Illumination optical system, 5...Objective lens, 6...
- Dimensional image sensor, 7... A/D converter, 8...
- Image memory unit, 9... Image input unit, 10... Detected image, 11... Comparison image, 12... Image extraction unit, 13... Matching unit, 14... Pixel unit position correction 15... Sub-vixel matching section, 16... Registration section, 17... Difference image, 18
... difference image extraction section, 19 ... defect determination section, 20 ...
- Image processing unit, 21... Overall control unit, 22... Sub-vixel calculation unit, 23... TV camera. 1st closed 2nd figure 3 4th (2) S mouth'! ! -) Figure 6 yb7 Figure 8th section

Claims (1)

【特許請求の範囲】 1、対象のパターンを検出し、前記パターンとあらかじ
め記憶しておいたパターンまたは別途検出したパターン
とを画素単位に位置合わせし前記画素単位に位置合わせ
したパターンに対して画素以下の精度で位置合わせし、
前記画素以下の精度で位置合わせした二つのパターンの
誤差を抽出・比較して、パターンの欠陥を認識すること
を特徴とするパターン認識方法。 2、対象のパターンを検出し、検出した前記パターンと
あらかじめ記憶しておいたパターンまたは別途検出した
パターンとを画素単位に位置合わせし前記画素単位に位
置合わせしたパターンに対して画素以下の精度で位置合
わせし、位置合わせ量に基づいてパターンの位置誤差を
認識することを特徴とするパターン認識方法。 3、請求項1または2において、前記画素単位の位置合
わせは行わないパターン認識方法。 4、請求項1または2において、前記画素単位の位置合
わせは複数画素を一画素と考えた画素以下の位置合わせ
で行うパターン認識方法。 5、請求項1または2において、前記画素以下の位置合
わせは複数画素を一画素と考えた画素以下の位置合わせ
で行うパターン認識方法。 6、請求項1または2において、前記画素以下の位置合
わせはマスクした画像に対して位置合わせを行うパター
ン認識方法。 7、請求項1または2において、前記画素以下の精度の
位置合わせは最小二乗法を用いるパターン認識方法。 8、請求項7において、前記最小二乗法はx、y方向の
位置をパラメータに含むパターン認識方法。 9、請求項2において、アライメントマークを検出した
位置誤差をもとに位置補正することによりアライメント
をするパターン認識方法。 10、請求項2において、二点以上の位置誤差情報をも
とに角度検出を行うパターン認識方法。
[Claims] 1. Detect a target pattern, align the pattern with a pre-stored pattern or a separately detected pattern pixel by pixel, and compare the pixel with respect to the pattern aligned pixel by pixel. Align with the following accuracy,
A pattern recognition method characterized in that defects in the patterns are recognized by extracting and comparing errors between two patterns aligned with an accuracy below the pixel. 2. Detect the target pattern, align the detected pattern with a pre-stored pattern or a separately detected pattern pixel by pixel, and compare the pattern aligned in pixel units with sub-pixel accuracy. A pattern recognition method characterized by aligning and recognizing a pattern position error based on the amount of alignment. 3. The pattern recognition method according to claim 1 or 2, wherein the pixel-by-pixel alignment is not performed. 4. The pattern recognition method according to claim 1 or 2, wherein the pixel-by-pixel alignment is performed by pixel or smaller alignment, considering a plurality of pixels as one pixel. 5. The pattern recognition method according to claim 1 or 2, wherein the sub-pixel alignment is performed by considering a plurality of pixels as one pixel. 6. The pattern recognition method according to claim 1 or 2, wherein the alignment below the pixel is performed on a masked image. 7. The pattern recognition method according to claim 1 or 2, in which the least squares method is used for alignment with an accuracy of less than the pixel. 8. The pattern recognition method according to claim 7, wherein the least squares method includes positions in the x and y directions as parameters. 9. The pattern recognition method according to claim 2, wherein the alignment is performed by correcting the position based on the position error of the detected alignment mark. 10. The pattern recognition method according to claim 2, wherein angle detection is performed based on position error information of two or more points.
JP2322995A 1990-11-28 1990-11-28 Pattern defect detection method and apparatus Expired - Lifetime JP2796430B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2322995A JP2796430B2 (en) 1990-11-28 1990-11-28 Pattern defect detection method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2322995A JP2796430B2 (en) 1990-11-28 1990-11-28 Pattern defect detection method and apparatus

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP9208813A Division JPH1096613A (en) 1997-08-04 1997-08-04 Defect detection method and device thereof
JP20881297A Division JP3262030B2 (en) 1997-08-04 1997-08-04 Defect detection device

Publications (2)

Publication Number Publication Date
JPH04194702A true JPH04194702A (en) 1992-07-14
JP2796430B2 JP2796430B2 (en) 1998-09-10

Family

ID=18149969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2322995A Expired - Lifetime JP2796430B2 (en) 1990-11-28 1990-11-28 Pattern defect detection method and apparatus

Country Status (1)

Country Link
JP (1) JP2796430B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0743309A (en) * 1993-08-02 1995-02-14 Nec Corp Pattern inspection method
JPH10318950A (en) * 1997-05-21 1998-12-04 Hitachi Ltd Method and apparatus for inspection of pattern
JPH11160247A (en) * 1997-11-28 1999-06-18 Hitachi Ltd Method and apparatus for visual inspection
JPH11194154A (en) * 1998-01-06 1999-07-21 Hitachi Ltd Pattern inspection method and its device and pattern inspection method and device based on electron ray image
US6868175B1 (en) 1999-08-26 2005-03-15 Nanogeometry Research Pattern inspection apparatus, pattern inspection method, and recording medium
JP2007241356A (en) * 2006-03-06 2007-09-20 Fuji Xerox Co Ltd Image processor and image processing program
US7274813B2 (en) 1998-04-21 2007-09-25 Hitachi, Ltd. Defect inspection method and apparatus
JP2008140360A (en) * 2006-11-02 2008-06-19 Konica Minolta Holdings Inc Image collation device
US7796801B2 (en) 1999-08-26 2010-09-14 Nanogeometry Research Inc. Pattern inspection apparatus and method
US7817844B2 (en) 1999-08-26 2010-10-19 Nanogeometry Research Inc. Pattern inspection apparatus and method
US7983471B2 (en) 2006-12-05 2011-07-19 Ngr Inc. Pattern inspection apparatus and method
JP2011196952A (en) * 2010-03-23 2011-10-06 Nuflare Technology Inc Inspection device and method
US8150140B2 (en) 2008-12-22 2012-04-03 Ngr Inc. System and method for a semiconductor lithographic process control using statistical information in defect identification
US8422761B2 (en) 2008-12-22 2013-04-16 Ngr Inc. Defect and critical dimension analysis systems and methods for a semiconductor lithographic process

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0743309A (en) * 1993-08-02 1995-02-14 Nec Corp Pattern inspection method
JPH10318950A (en) * 1997-05-21 1998-12-04 Hitachi Ltd Method and apparatus for inspection of pattern
JPH11160247A (en) * 1997-11-28 1999-06-18 Hitachi Ltd Method and apparatus for visual inspection
JPH11194154A (en) * 1998-01-06 1999-07-21 Hitachi Ltd Pattern inspection method and its device and pattern inspection method and device based on electron ray image
US7512259B2 (en) 1998-04-21 2009-03-31 Hitachi, Ltd. Defect inspection method and apparatus
US8107717B2 (en) 1998-04-21 2012-01-31 Hitachi, Ltd. Defect inspection method and apparatus
US7274813B2 (en) 1998-04-21 2007-09-25 Hitachi, Ltd. Defect inspection method and apparatus
US7916929B2 (en) 1998-04-21 2011-03-29 Hitachi, Ltd. Defect inspection method and apparatus
US8045785B2 (en) 1999-08-26 2011-10-25 Ngr Inc. Pattern inspection apparatus and method
US7660455B2 (en) 1999-08-26 2010-02-09 Nanogeometry Research Inc. Pattern inspection apparatus, pattern inspection method, and recording medium
US7796801B2 (en) 1999-08-26 2010-09-14 Nanogeometry Research Inc. Pattern inspection apparatus and method
US7817844B2 (en) 1999-08-26 2010-10-19 Nanogeometry Research Inc. Pattern inspection apparatus and method
US6868175B1 (en) 1999-08-26 2005-03-15 Nanogeometry Research Pattern inspection apparatus, pattern inspection method, and recording medium
JP2007241356A (en) * 2006-03-06 2007-09-20 Fuji Xerox Co Ltd Image processor and image processing program
JP2008140360A (en) * 2006-11-02 2008-06-19 Konica Minolta Holdings Inc Image collation device
US7983471B2 (en) 2006-12-05 2011-07-19 Ngr Inc. Pattern inspection apparatus and method
US8285031B2 (en) 2006-12-05 2012-10-09 Ngr Inc. Pattern inspection apparatus and method
US9189843B2 (en) 2006-12-05 2015-11-17 Ngr Inc. Pattern inspection apparatus and method
US8150140B2 (en) 2008-12-22 2012-04-03 Ngr Inc. System and method for a semiconductor lithographic process control using statistical information in defect identification
US8422761B2 (en) 2008-12-22 2013-04-16 Ngr Inc. Defect and critical dimension analysis systems and methods for a semiconductor lithographic process
JP2011196952A (en) * 2010-03-23 2011-10-06 Nuflare Technology Inc Inspection device and method

Also Published As

Publication number Publication date
JP2796430B2 (en) 1998-09-10

Similar Documents

Publication Publication Date Title
JPH04194702A (en) Pattern recognizing method
JP4073265B2 (en) Inspection apparatus and inspection method
US6925203B1 (en) Position detection apparatus and exposure apparatus
JPH1096613A (en) Defect detection method and device thereof
JPH0789063A (en) Printed matter inspecting system
JPH1197512A (en) Positioning apparatus and method and storage medium capable of computer-reading of positioning programs
JP2675167B2 (en) Pattern recognition method
JPS62261005A (en) Printed-circuit board processing apparatus
JP2633147B2 (en) Component mounting method
JP2002005850A (en) Defect inspection method and apparatus therefor, and production method of mask
JP3262030B2 (en) Defect detection device
JPH04295748A (en) Pattern inspecting apparatus
CN105469085B (en) Board image acquiring method and system
US6327379B2 (en) Pattern inspection method and apparatus
JPH09147107A (en) Method and device for evaluating image position
JPH03201454A (en) Aligning method for semiconductor device
JP3182517B2 (en) Defect detection apparatus and method
JPS62267649A (en) Pattern defect detecting device
JP2926118B2 (en) Defect detection method
JP2000099742A (en) Fault detection method and device therefor
JP2001195583A (en) Position detector and exposure device using the same
JP4235756B2 (en) Misalignment detection method, misalignment detection apparatus, image processing method, image processing apparatus, and inspection apparatus using the same
JP2001165636A (en) Method and device for detecting pattern defect of printed board wiring pattern
JPS61151410A (en) Pattern defect detection and its apparatus
WO2004019389A1 (en) Mark position detection device, mark position detection method, superimposing measurement device, and superimposing measurement method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080626

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080626

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090626

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100626

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100626

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110626

Year of fee payment: 13

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110626

Year of fee payment: 13