JPH03177040A - Pattern recognition - Google Patents

Pattern recognition

Info

Publication number
JPH03177040A
JPH03177040A JP1315233A JP31523389A JPH03177040A JP H03177040 A JPH03177040 A JP H03177040A JP 1315233 A JP1315233 A JP 1315233A JP 31523389 A JP31523389 A JP 31523389A JP H03177040 A JPH03177040 A JP H03177040A
Authority
JP
Japan
Prior art keywords
pattern
image
pixel
detected
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1315233A
Other languages
Japanese (ja)
Other versions
JP2675167B2 (en
Inventor
Takashi Hiroi
高志 広井
Hitoshi Kubota
仁志 窪田
Shunji Maeda
俊二 前田
Hiroshi Makihira
牧平 坦
Fumiaki Endo
文昭 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP1315233A priority Critical patent/JP2675167B2/en
Publication of JPH03177040A publication Critical patent/JPH03177040A/en
Application granted granted Critical
Publication of JP2675167B2 publication Critical patent/JP2675167B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To reduce influence of a sampling error by registering a pattern on the basis of the pixel unit and then registering it in the precision of a subpixel. CONSTITUTION:After respective parts are initialized by a command from an overall control part 21, a two dimensional pattern is detected by photoelectrically converting the pattern on a wafer 1, illuminated by a light source 3 and a illuminating optical system 4, in synchronism with the scanning of an XY stage 2 with a one dimensional image sensor 6 via an objective lens 5, and it is digitized by an A/D converter 7 to obtain a two dimensional detected image 10 and this detected image is stored in an image memory 8. An image takeout part 12 takes out a reference image 11 referring to predetermined addresses for the image memory 8. Then, the pattern is registered on the basis of pixel as the unit by using the detected image 10 and the reference image 11 and the pattern, registered on the basis of the pixel unit beforehand, is registered in the precision of a subpixel, and the errors in said two patterns is extracted and compared to recognize the defect of the pattern.

Description

【発明の詳細な説明】 〔*東上の利用分野〕 本発明は倒えはLSIウェーハやTPTなどのパターン
を比較して欠陥を認識する方法に偽り、特に烏&良な位
置合わせによるパターン認識方法に胸する。
[Detailed Description of the Invention] [Field of Application of Togami] The present invention is a method for recognizing defects by comparing patterns of LSI wafers, TPTs, etc., and is particularly applicable to pattern recognition methods based on accurate alignment. I feel excited.

〔従来のa靭〕[Conventional a toughness]

従来のパターン認識方法は、特開昭57−196577
号公報に記載のように対象のパターンを検出し、!lt
出したパターンを紀億してお#%1つ創に記憶しておい
たパターンとm出したパターンとをm本単位に位置合わ
せし、位置合わせした2つのパターンの一差を抽出・比
較することにより、パターンの欠陥なg織するようにな
っていた。
The conventional pattern recognition method is disclosed in Japanese Patent Application Laid-Open No. 57-196577.
Detect the target pattern as described in the publication, and! lt
Extract the pattern that was created, align the pattern that was stored in memory and the pattern that was released in units of m, and extract and compare the difference between the two aligned patterns. This resulted in g-weaving with defective patterns.

このg臓対象は第2図(g) 、 (j)  (c)に
例示するようなメモリ用LSIなどの半導体ウェーハの
パターンや、7’ / T (Th1n Film T
ransistor)のパターンや、プリン)km板の
パターンや、セラミック基板のパターンや、それらを製
造する工機で用いるマスクやレチクルなどのパターンな
どである。ここでは−例として半導体ウェーハのパター
ンについてM5を男するが、他のパターンに対しても(
ロ)じことが成り立つ。半導体ウェーハのパターンは最
終的に切り魅されて個別染晶となるチップがalOM1
枚のウェーハに載っており、それらは互いKIWIじパ
ターンを持っている。このようなパターンの欠陥を認識
する原理を第2図(0〜<c>により&52男する。
This target is the pattern of a semiconductor wafer such as a memory LSI as exemplified in Fig. 2 (g), (j) (c),
These include patterns for P.transistor), KM plate patterns, ceramic substrate patterns, and patterns for masks and reticles used in the machinery used to manufacture them. Here, M5 is used as an example for semiconductor wafer patterns, but other patterns (
b) The same holds true. The pattern of the semiconductor wafer is finally cut out and the chips that become individually dyed crystals are called AlOM1.
They are placed on two wafers, and they have the same pattern as each other. The principle of recognizing such pattern defects is shown in FIG.

&、 21NN (a3〜(C)は従来の一般的なパタ
ーン比較方式によるパターン欠陥検査方法の原理説明画
で、m2図(α)は記憶パターン、忍2jg(b)は検
出パターン、第2図(c)はパターン差である。各チッ
プが全く同一のパターンを持っていることに層目し、絽
2図(α)のパターン′4I:検出して記憶しておき、
第2図(ハのそれと同一であるはずの別のパターンを次
に検出して、2つのパターンを画素単位に位置合わせし
%第2図(c)の位置合わせした2つのパターンの誤差
を抽出して比較する。
&, 21NN (A3 to (C) are illustrations explaining the principle of a pattern defect inspection method using a conventional general pattern comparison method, m2 (α) is a memory pattern, and 21NN (b) is a detection pattern. (c) is the pattern difference.Noting that each chip has exactly the same pattern, pattern '4I of Figure 2 (α): is detected and stored.
Figure 2 (C) Next, detect another pattern that should be the same as that in C, align the two patterns pixel by pixel, and extract the error between the two aligned patterns in Figure 2 (c). and compare.

いずれのパターンにも欠陥が存在しない場合にはパター
ンの量はほとんどないが、いずれかのパターンたとえば
第211 (b)の検出パターンに欠陥が存在する場合
には、第2図(C)のように欠陥部分でパターンに差が
あるため、パターンの比較によりdA差を生ずる場所を
検出することでパターン欠陥をM*することかできる。
If there is no defect in any of the patterns, there is almost no amount of patterns, but if there is a defect in any of the patterns, for example, the detection pattern 211 (b), as shown in Figure 2 (C). Since there is a difference in the pattern at the defective portion, the pattern defect can be identified as M* by comparing the patterns and detecting the location where the dA difference occurs.

なおここでパターン比較して差があればいずれかのパタ
ーンに欠陥があると6えるが、いずれのパターンに欠陥
かあるかを判別することはできない。これを判別する手
段としては柚々の方法かあるが1本発明に係る技術とは
Ui飯にはF!Ia価ないのでここでは特に読切したい
Here, if the patterns are compared and there is a difference, it can be said that one of the patterns has a defect, but it is not possible to determine which pattern has the defect. There are several methods to determine this, but the technology according to the present invention is F! I especially want to read it here because it doesn't have any value.

〔晃男かm決しようとする課題〕[A task that Akio is trying to decide on]

上記従来技術は*倣をテジタル化して入力するためサン
プリング点の情報しか侮られずサンプリング誤差4差の
発生が避けられ11いが、このサンプリング−麦の影譬
で小さい欠陥の画成か内輪となる問題がある。このこと
に第5−(a)〜0)により説明する。
In the above-mentioned conventional technology, since the pattern is digitalized and input, only the information of the sampling point is ignored, and the occurrence of sampling error 4 difference can be avoided. There is a problem. This will be explained in Sections 5-(a) to 0).

第3−(α)〜(−)は楽2囚(α〉〜(C)のパター
ンの改形釦−で、第5−(α)は第2−(0の記憶パタ
ーンの検出gI号波形、第5J(j>)は、1K2N1
.61の検出パターンの検出偏号技形、第5 m <c
>は第2図(,6)の検出パターンのi 21W (a
)のCttパターンに対してサンプリング誤差のない場
合の検出I!号阪形、第5図(m)は第5−(α)と第
5図(わのサンプリング誤差ありどの差ff1号波形、
第3図(−)は@ 5 [(lと第5 i (C’)の
サンプリング誤認なしとの差偏号技形であり、図中の・
印はサンプリング点での検出11号を示している。第5
−(旬。
The 3rd-(α) to (-) are the modification buttons for the patterns of Raku 2 (α> to (C)), and the 5th-(α) is the detection gI waveform of the 2nd-(0 memory pattern). , the fifth J (j>) is 1K2N1
.. Detection polarization technique of 61 detection patterns, 5th m < c
> is i 21W (a
) detection when there is no sampling error for the Ctt pattern I! Figure 5 (m) is the difference between Figure 5-(α) and Figure 5 (with sampling error).
Figure 3 (-) is the difference sign technique between @ 5 [(l and the 5th i (C') without sampling error, and the .
The mark indicates detection number 11 at the sampling point. Fifth
-(Season.

(lのよ5に本来は全く同一のパターンに対してもサン
プリング点をパターンに対して同一に設定することがで
きないためサンプリング点での検出波形が異なったもの
となり、検出僅号技形や検出パターンに誤差を生じ、こ
のwA差をサンプリング誤差と呼ぶ。比較する検出パタ
ーンにサンプリング誤注がない場合には第5−〇〉のよ
うに欠陥部走伯°号は正常S差信号より十分大きく欠陥
のgWRが容易であるが、検出パターンにサンプリング
誤差がある場合には第5−(d)のように欠陥S差信号
が正常部差信号とPi&度となり欠陥の#llt繊が困
難となる。
(As shown in item 5, it is not possible to set the sampling points the same for each pattern even if the pattern is originally the same, so the detected waveform at the sampling point will be different, and the detection An error occurs in the pattern, and this wA difference is called a sampling error.If there is no sampling error in the detected pattern to be compared, the defective part number is sufficiently larger than the normal S difference signal as shown in No. 5-0>. It is easy to gWR the defect, but if there is a sampling error in the detection pattern, the defect S difference signal becomes Pi & degree with the normal part difference signal, making it difficult to detect the #llt fiber of the defect. .

本発明の目的はパターンの位置合わせ、f′Iv度を検
出画素サイズ以下としてサンプリング誤差の影響を@涙
できるパターン紹織方法を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide a pattern introduction method in which the influence of sampling errors can be eliminated by adjusting the pattern position and setting the f'Iv degree to be less than the detection pixel size.

〔課題を解決するための手段〕[Means to solve the problem]

上記目的を達成するために、本発明のパターン線繊方法
はパターンを画素単位で位置合わせした後に画素単位以
下の精良で位置合わせするようにしたものである。すな
わち対象のパターンを検出し、検出したパターンを記憶
しておき、1つ前に記憶しておいたパターンと検出した
パターンを画素単位に位置合わせし、あらかじめll1
II素単位に位置合わせしたパターンに対して1lil
+素単位以下の精良で位置合わせし、ms単位以下の精
度で位置合わせした2つのパターンの誤差を抽出・比較
して。
In order to achieve the above object, the pattern line fiber method of the present invention aligns patterns in pixel units, and then aligns them with precision less than pixel units. In other words, the target pattern is detected, the detected pattern is memorized, the previously stored pattern and the detected pattern are aligned pixel by pixel, and the ll1
1lil for the pattern aligned to II elementary unit
+Extract and compare the errors of two patterns that are aligned with an accuracy of less than an elementary unit and that are aligned with an accuracy of less than a millisecond.

パターンの欠陥なMITIするものである。This is a defective MITI of the pattern.

上記の画素単位以下の精度で位置合わせする手段は例え
は次に示す最小2乗法を用いる。すなわち2枚のパター
ンを/ (J# y ) −i (Jca y )とす
るとき、あらかじめ次の111式のt、 (dJ、 d
y )を最小とする位fii (dx6 、 dyo)
に1iII累単位で位置合わせして、J、y座−とも0
幽零目と1i111iX目の間に2枚のパターンの差を
鍬小とする位置(δ’Oaδyo)があるように位置合
わせする。
For example, the following method of least squares is used as a means for aligning with an accuracy of less than the pixel unit. In other words, when the two patterns are / (J# y) -i (Jca y), t, (dJ, d
fii (dx6, dyo) that minimizes y)
Align in 1iII cumulative units, and both J and y loci are 0
Alignment is made so that there is a position (δ'Oaδyo) where the difference between the two patterns is the small distance between the 0th and 1i111iXth patterns.

gtCctxedy)= gcdx*dy)+ #(d
J +1*’y)十g(dJ:、dy+1 ) 十g(
da+1 、dy+1 )(1) t(d、x、dy)=ΣΣIj(x、y) −1Cx+
dx、y+dy)I  121ここでJ、yは画素単位
のパターンの座掘、dx。
gtCctxedy)=gcdx*dy)+#(d
J +1*'y) 10g (dJ:, dy+1) 10g (
da+1 , dy+1 ) (1) t (d, x, dy) = ΣΣIj (x, y) -1Cx+
dx, y+dy) I 121 Here, J and y are the counter-spots of the pixel-by-pixel pattern, dx.

ty は2枚υパターンの画素単位の位置合わせ菫↓(
δJ、δyt’zIIliIs以下の位置合わせ量s 
”’o n ’3’oはε!を最小とするrtii索単
位の位置合わせ量da; 、 dy 。
ty is the pixel-by-pixel alignment of the two-sheet υ pattern ↓ (
δJ, alignment amount s less than δyt'zIIliIs
``'on '3'o is the alignment amount da; dy for each rtii cord that minimizes ε!.

dX6 、dyoはり’に最小とするii!ll累以下
の位置合わせ重δX、δy、ΣΣは位置合わせするね囲
のX。
Minimize dX6, dyo beam'ii! The alignment weights δX, δy, and ΣΣ below ll are the X of the circumference to be aligned.

y座似に関1−る和を各々示す。The sums related to y-locus similarity are shown respectively.

夕を画素単位で位置合わせするには次の(51式で示す
!1をシフトしたl、を用いる。
In order to align the rays in pixel units, the following (1 shown in formula 51 is shifted) is used.

j’s CIJ) = !I(J + dX −J +
dy)      (51画素とIIkl索の中間のず
ムを(41,(5)式で定義すjtcx+δX、J+δ
y)=fCx、y)+δx*(ハX+1.J)−f(x
、yす◆δy本(ハx、y◆1)−ハx、yン)   
  (4)lldc’+δx、y−δ!>=1t  C
xey)十δx*cyl<x−1,7>−!A<x、y
))◆δy*(、y、 (J、 y−1> −yx t
a a y))     (532米誤差は(6)式で
定義できる。
j's CIJ) = ! I(J + dX −J +
dy) (The intermediate distance between 51 pixels and the IIkl line is defined by the formula (41, (5)) jtcx+δX, J+δ
y)=fCx, y)+δx*(cX+1.J)-f(x
, ysu◆δy books (Hax, y◆1) - Hax, y)
(4)lldc'+δx,y−δ! >=1t C
xey) 10 δx*cyl<x-1,7>-! A<x,y
))◆δy*(,y, (J, y-1> -yx t
a a y)) (532 meters error can be defined by equation (6).

cd(δX、δy)=ΣΣ(7’i(J◆δJ、31+
δy)−!s 4(J−dx 、 y−ay) )**
2      16)(6)式をdJ 、 ayで伽微
分して=Ωと置いたものを整理して171 、1131
式を侮る。
cd(δX, δy)=ΣΣ(7'i(J◆δJ, 31+
δy)−! s4(J-dx, y-ay))**
2 16) Differentiate equation (6) with dJ and ay and set it as =Ω, rearranging it as 171, 1131
despise the ceremony.

81 ここで、 co= fcxay)−tt (J#J)CL=(j 
CJ+1 、 y) −j <JCmJリー(y、 t
、r−t、y)−yX(、r、y))t91C)= C
j (”+ y+1)−ハ、r、y))−(y、 (J
cay−’)−9Hc’ca’/) )―素塊下の位置
合わ電量δJC6eδyOより位置合わせ仮のパターン
ft、5/、に次の(1Ω) 、 (11)式で計算す
る。
81 Here, co= fcxay)-tt (J#J)CL=(j
CJ+1, y) −j < JCmJ Lee(y, t
, r-t,y)-yX(,r,y))t91C)=C
j (”+ y+1)-ha, r, y))-(y, (J
cay-')-9Hc'ca'/)) - Calculate the alignment temporary pattern ft, 5/ from the alignment electric quantity δJC6eδyO under the elementary block using the following equation (1Ω) and (11).

f@ (J@y) ”j4<2+δ”o+y+δ3’o
)        (1(1)!lx (’#3’) 
=lrd<’−δX6ay−δy(1)       
 (11)〔作用〕 上記パターン認識方法の作用なWI4図(1〜ldlお
よび3145図により説明する。
f@ (J@y) "j4<2+δ"o+y+δ3'o
) (1(1)!lx ('#3')
=lrd<'-δX6ay-δy(1)
(11) [Operation] The operation of the above pattern recognition method will be explained with reference to WI4 diagrams (1 to ldl and 3145 diagrams).

組4図(g)〜(d)は本発明による第2図のパターン
のサブピクセルマyチングの動作例の波形図で、第4図
(α)は記憶波形、第4図(b)は欠陥のない構出波形
、第4幽((’)は単純差技形、第4図(4)はサブビ
クセル位置合せ&差技形である。第5図は第4図(α)
〜(d)の数値表図で、サンプリング位tILΩ〜15
の記憶成形、検出波形、単純差波形、サブビクセル位置
合せ後のf* −!lx −IIs −!h lの数値
を各々示す。記憶波形と構出波形が例えは74a(3)
(α)、(ハおよびyLs図のようであったとし。
Group 4 (g) to (d) are waveform diagrams of an operation example of sub-pixel machining of the pattern shown in Figure 2 according to the present invention, Figure 4 (α) is a stored waveform, and Figure 4 (b) is a The constructed waveform without defects, the fourth figure ((') is the simple difference technique, and Figure 4 (4) is the sub-vixel alignment and difference technique. Figure 5 is the figure 4 (α)
In the numerical table diagram of ~(d), the sampling position tILΩ ~15
Memory shaping, detection waveform, simple difference waveform, and f* −! after sub-vixel alignment. lx-IIs-! The numerical value of h l is shown respectively. For example, the memorized waveform and constructed waveform are 74a(3)
(α), (Ha and yLs diagram).

ここで第41J (A)の検出波形は第4図(0の記憶
波形の#恢2画累の平均をとった波形でほぼ0.5−累
のシフトをさせた波形と同等である。これらの波形に上
記の最小2乗法を通用してδxoを求め実際に計算する
とJJo工0.2となり、この仏より(10) 、 (
11)式を用いて位置合わせ恢のパターンノ4.hを求
める。このとき−V″1ピクセル位虹合わせなした場合
としない場合の差@I号跋形は第4図(tt) 、 (
d)および謳5図のようになり、残差は半減している。
Here, the detected waveform of No. 41J (A) is equivalent to the waveform obtained by taking the average of #2 strokes of the stored waveform of 0, and shifted by approximately 0.5. Applying the above least squares method to the waveform of
11) Positioning pattern No. 4 using formula. Find h. At this time, the difference between -V''1 pixel with and without rainbow alignment is shown in Figure 4 (tt), (
d) and Figure 5, the residual error has been halved.

これによりサンプリング誤差によるパターン差の伽は欠
陥の仏より十分に小さくなるので、欠陥を谷晶に識別で
きる。
As a result, the pattern difference due to the sampling error becomes sufficiently smaller than the defect, so that the defect can be clearly identified.

〔実り例〕[Fruitful example]

以下に本発明の実−例な縞1図、第6図、琳7図により
説明する。
The present invention will be explained below with reference to FIG. 1, FIG. 6, and FIG. 7, which are practical examples of the present invention.

第1幽は本発明によるパターン認識方法の第1の実2A
ilfilな示すLSIクエーハのパターン認識装置の
徊成図である。本実施例ではLSIウェーハtD /<
 / −7’x: HK tDt 男するが、TETな
どのパターンにも適用できることは゛ぎ5までもない。
The first example is the first example 2A of the pattern recognition method according to the present invention.
1 is a diagram showing the pattern recognition device of an LSI Quafer shown in ilfil. In this example, LSI wafer tD /<
/ -7'x: HK tDt, but it cannot be applied to patterns such as TET.

本パターン−臓装臘はウェーハ1を足並するX Y y
、テージ2とウェーハを照明する光源5と照明光字糸4
と照明されたウェーハの光学揮を検出する対物レンズ5
と1次元イメージセンサ6より耽る検出都と、1次元イ
メージセンサ6の侶号をデジタル化して記憶するための
Al1)変換器7と画像メモリ部8よりなる画像入力s
9と、画像入力部に入力された検出l1lII像10と
比較画像11を6律メモリ8より取り出す圓掘埴り出し
部12と検出画像10と比較lI!ll像11より(2
)式で表わされる画体の差を計算して比較tOWを(5
1式のように移動させて位置合わせするLi!il素本
位マツチング部15と画素単位マツチング部よりの11
1il素単位位置補正の終わったIil!i像14と検
出−憧10から17) 、 ta1式で表わされる画素
以下の位置合わせ童δJg mδ3’oをtinするサ
ブピクセルマツチング部15とす7゛ビクセルマツチン
グよりの位置合わせ菫を丞に(10)  (11)式で
表わされる位姐袖正を行たう位置合わせ部16と位置合
わせの終わったum*り左画像17を抽出するに幽儂抽
出部18と差mt*を2伽化して差の存在する場所の各
柚特微量を抽出して欠陥判定を行なう欠陥判定部19よ
りなる11111像処理部20と、XYステージ2の制
御と画極処塊部20より出力される欠陥恒轍の配恒や表
示と全体シーケンスのWSを行なうI″を其愼よりなる
全体制御部21とからW成される。
This pattern - the organ is parallel to wafer 1
, a light source 5 illuminating the stage 2 and the wafer, and an illumination light string 4
and an objective lens 5 that detects the optical emission of the illuminated wafer.
1) Image input s consisting of a converter 7 and an image memory unit 8
9, and the detection image 10 and the comparison image 11 inputted to the image input section are taken out from the six-temple memory 8 by the engraving section 12 and the detection image 10 is compared with the image 1I! From ll image 11 (2
) Calculate the image difference expressed by the formula and calculate the comparison tOW by (5
Li moves and aligns like the 1st set! 11 from the il elementary matching unit 15 and the pixel unit matching unit
Iil elemental unit position correction completed! i-image 14 and detection-images 10 to 17), a sub-pixel matching section 15 that tints the positioning process δJg mδ3'o below the pixel expressed by the ta1 formula, and a positioning summation based on 7゛ pixel matching. (10) The position alignment unit 16 performs the position correction expressed by equation (11), and the shadow extraction unit 18 extracts the um* left image 17 after alignment, and the difference mt* is 2. A 11111 image processing unit 20 consisting of a defect determination unit 19 that extracts each yuzu characteristic amount in a place where there is a difference and makes a defect determination, and an image processing unit 20 that controls the XY stage 2 and outputs from the image electrode agglomeration unit 20 It consists of an overall control section 21 consisting of I'', which performs the maintenance and display of defect records and the WS of the entire sequence.

上記構成によりパターン欠陥を検出する動作を次に説明
する。まず全体irt+a部21よりの指令で6邪のイ
ニシャライズ後に、XYステージ2の走査に間期して、
光源5と照明光学系4で照明されたウェーハ1のパター
ンを対物レンズ5Y介して1次元イメージセンサ6で光
電変換することにより2仄元のパターンを検出し、AD
D変換器7でデジタル化した2次元の検出画像10とし
、得られた検出画像は画像メモリs8に記憶する。画像
域り出し都12は画像メモリ部8の一定のアドレスを参
照することにより比較画像11を取り出す。ここで画素
単位マツチング@ I Sの動作なm6(3)により説
明する。
The operation of detecting pattern defects using the above configuration will be described next. First, after initializing the 6 evil by a command from the overall irt+a section 21, there is an interval between the scanning of the XY stage 2,
The pattern on the wafer 1 illuminated by the light source 5 and the illumination optical system 4 is photoelectrically converted by the one-dimensional image sensor 6 through the objective lens 5Y to detect two original patterns, and
A two-dimensional detected image 10 is digitized by the D converter 7, and the obtained detected image is stored in the image memory s8. The image area extractor 12 extracts the comparison image 11 by referring to a fixed address in the image memory section 8. Here, the operation of pixel unit matching @IS will be explained using m6(3).

謝6幽は謁1(3)の−索単位マッチング部15の動作
原理説明−である。上記の検出−像10と比較画像11
より、比較画像なΔX、ΔY−)j同に位置ずれ許容型
の土δ画素(本夾施仇では6二1で説明するか、検出対
象の寸法精度と欠陥検出装置の位亀決め精良で決まる1
1iLであり必賛な短を適当に設定するものとする)だ
けずらしたときの検出画像10と比較画像11の画像の
麦をL2)式で計算し、111式の〜(諧6図の’ss
)を最小とするdx6 a Qo CW46□□□のΔ
X=−1.ΔY=0)を計算し、比較画像11χ(51
式を用いて位置補正を行ない1画素単位位置補正の終わ
った画像14を出力する。
Xie 6 Yu is Audience 1 (3) - Explanation of the operating principle of the search unit matching unit 15. Above detection-image 10 and comparison image 11
Therefore, the comparison image is ΔX, ΔY-)j, and the positional deviation permissible type δ pixel (this will be explained in 6-21 in this paper). Determined 1
1iL, and the required short value is set appropriately), calculate the wheat of the detected image 10 and the comparison image 11 by L2) formula, ss
) is the minimum of dx6 a Qo CW46□□□Δ
X=-1. ΔY=0) is calculated, and the comparison image 11χ(51
The position is corrected using the formula, and the image 14 whose position has been corrected in units of one pixel is output.

サブビクセルマツチングs15は画素単位マツチング部
15よりの一素単位位fill補正の終った画像14と
検出画像10から+71 、181式で表わされるlI
!i累以下の位置合わせ童δxO,δy0を計算する。
The sub-vixel matching s15 is performed using the image 14 that has undergone the pixel unit fill correction from the pixel unit matching unit 15 and the detected image 10.
! Calculate alignment values δxO, δy0 of i or less.

位置合わせ都16はサブピクセルマツチング部15より
の位置合わせ菫を基に(10) 、 (It)式で表わ
される位置補正を行たう。差m体抽出部18は位振袖正
の終わった画像より次の(12)式で差画像17を抽出
する。
The alignment capital 16 performs position correction expressed by equation (10) and (It) based on the alignment violet from the sub-pixel matching unit 15. The difference m-body extracting unit 18 extracts a difference image 17 from the image for which the furisode is completed using the following equation (12).

S(&、))  = 171  (’−))−h  C
iaノ)l             (12)欠陥判
定部19は差thl像17を欠陥判定の閾値Vthで2
11!L化して、量の存在する場所の面積や輻や投影長
などの各櫨特倣意を抽出して欠陥判定を行なう。
S(&,)) = 171 ('-))-h C
(12) The defect determination unit 19 converts the difference thl image 17 to 2 at the defect determination threshold Vth.
11! Defects are determined by extracting the area of the location where the quantity exists, the convergence, the projection length, etc.

不爽抛例によれば、検出画像と記憶画像の2枚のパター
ンの両方を同じだげ反対方向に移動させてLIlII素
以下の位置合わせml蝕を作っているため。
According to the unfortunate example, the two patterns, the detected image and the stored image, are both moved in the same but opposite direction to create an alignment error below the LIIII element.

m像の平滑化効果(例えばδJO=Ω、5 、 ax6
== Oの場合にj*<’ e y) =(j(x” 
m y)+fCx e y))/2で平均伽フィルタを
かげたことと等価)が2枚のパターンで肉じになり、こ
れにより生じる差画像の!#4差を最小限にできる効果
がある。
Smoothing effect of m-image (e.g. δJO=Ω, 5, ax6
== If O, then j*<' e y) = (j(x”
m y) + fCx e y))/2) which is equivalent to shading the average filter) becomes a sharp contrast between the two patterns, and the resulting difference image! #4 It has the effect of minimizing the difference.

本実施餉の変形例として次のものがある。すなわちXY
ステージ2の走査にP1期してIvc元イメージセンサ
6で光電変換することにより2次元のパターンを検出す
る代わりに、XYステージ2をステップ移動させてTV
カメラで光電変換することにより2次元のパターンを検
出する。または1次元イメージセンサ6の代りにフォト
マルなどのポイント型センナと走査懺構を用いるなどい
かなる形のセンナも用いることができる。
Modifications of this implementation include the following. That is, XY
Instead of detecting a two-dimensional pattern by performing photoelectric conversion with the IVC source image sensor 6 during the P1 period of the scanning of the stage 2, the XY stage 2 is moved step by step to detect the TV.
A two-dimensional pattern is detected by photoelectric conversion using a camera. Alternatively, instead of the one-dimensional image sensor 6, any type of sensor can be used, such as a point-type sensor such as a photomultiplier and a scanning structure.

また検出画像と比較画像の差を唸)式で計算し、各ずら
し量に対応した画像の差をマyチング値として出力する
代わりに、検出画像と比較画像にそれぞれフィルタをか
げることによりエツジを抽出し、そのエツジ両心にたい
して画像の差k(21式で計算し、各ずらし童に対応し
た画像の差なマツチング伽之して出力する。または検出
1iII像と比[画像に各々フィルタをかげて2値化し
、そのエツジR1ll−律にたいして画像の差を(2)
式で計算し、各ずらし童に対応したm像の差として出力
する。本変形例によれば、エツジを用いるため検出画像
と比4!211111像のパターンの切るさの違いなど
による影響を受げにくくする効果がある。
In addition, instead of calculating the difference between the detected image and the comparison image using the equation (2) and outputting the difference between the images corresponding to each shift amount as a myching value, edges are The image difference k (calculated using equation 21 and the difference between the images corresponding to each shifted child) is extracted and output for the two centers of the edges. Alternatively, the detected 1iII image and the Binarize the edges and calculate the difference between the images using (2)
It is calculated using the formula and output as the difference between the m images corresponding to each shifted child. According to this modification, since edges are used, there is an effect of making it less susceptible to the effects of differences in pattern cutness between the detected image and the ratio 4!211111 image.

また(s) 、 (91e (10)式の代りに次の(
15) 、 (14) 。
Also, (s), (91e) Instead of equation (10), the following (
15), (14).

(15)を用いる。(15) is used.

j’tCJ:+δx、y+δy) = fcx 、 y
)      (15)’o”’ j’cJa y) 
−Is (” # y)Ci=−(y、(Jc−t 、
 y)−y、(z 、 y))     (14)CJ
 =ニー(!I、  (J  e   y−’)−y>
  CJ  −y))f* Cx a y) =jtC
x e y)         (15)本変形例によ
れは、検出画像を変化させないで、比較画像のみを変化
させているので構成が単純となる幼果かある。
j'tCJ: +δx, y+δy) = fcx, y
) (15)'o"'j'cJa y)
−Is (” # y) Ci=−(y, (Jc−t,
y)-y, (z, y)) (14) CJ
= Knee (!I, (J ey-')-y>
CJ −y)) f* Cx a y) = jtC
x e y) (15) In this modification, only the comparative image is changed without changing the detected image, so the structure is simple.

また比較1ilII像を検出して記憶した画像を用いる
代わりに、あらかじめ記憶しておいた良品m像を用いる
。本変形例によれば、練り返し性のある欠陥に対しても
見逃丁ことなく認識できる幼果かある。また比較画像を
検出して記憶した画像を用いる代わりに、検出系なもう
一式設けてこれで検出した6儂を用いる。本変形例によ
れば、画像メモリ鄭か不要にILり回路規惧が小さくな
る効果がある。
Furthermore, instead of using the image that was stored after detecting the comparison 1ilII image, a previously stored non-defective item m image is used. According to this modification, there is a young fruit that can be recognized without missing any defects even if they have a tendency to be kneaded. Also, instead of using an image that has been detected and stored as a comparative image, another set of detection systems is provided and the six images detected by this are used. According to this modified example, there is an effect that the image memory size and unnecessary IL circuit requirements are reduced.

k7図は本発明によるパターン認識方法の謝2の実施例
を示すLSIウェーハのパターン認臓鉄振のbg図であ
る。本パターン−織装置はウェーハ1を走査するXYス
テージ2とウェーハを照明する光源5と照明光学系4と
照明されたクエーー〜の九字像を検出する対物レンズ5
と1次元イメージセンサ6よりなる検出部と、1次元イ
メージセンサ6のqs号をデジタル化して記憶するため
のA/U変換変換上画体メモリ部8よりなる画像人力鄭
9と、1Iill像入力部に入力された検出画像10と
比較−1i#!11を画像メモリ部8より取り出す画像
取り出し&1i12と検出画像10と比較画像11より
(21式で表わされる1m11!f!の差を計算して比
較画像の位置合わせt ’JO@ ”ioを出力する画
素単位マツチング部15と画素単位マツチング部15よ
りの画素単位位置合わせ童から故の(16) 、 (1
7)式で表わされる1thi索以下の位置合わせ量δX
6 、dXoを計算するサブピクセル演′J!#部22
とサブピクセル演算fB22よりの位置合わせ量を基に
153 、 (10) 、 (11)式で表わされる位
置補正を行なう位置合わせ部16と位置合わせの終わっ
た画像のM画像17を抽出する差画憚抽出部18と差画
像を21直化して差の存在するMh所の各tlth1%
畝童を抽出して欠陥判定を行なう欠陥判定N19よりな
る1IkI像処理部20と、XYステージ2の制御と画
像処理部20より出力される欠陥情報の記憶や表示と全
体シーケンスの管理を行な5計算機よりなる全体制御部
21とから構成される。
Figure K7 is a BG diagram of pattern recognition of an LSI wafer showing the second embodiment of the pattern recognition method according to the present invention. This pattern-weaving apparatus consists of an XY stage 2 that scans the wafer 1, a light source 5 that illuminates the wafer, an illumination optical system 4, and an objective lens 5 that detects the illuminated Kuehler image.
a detection unit consisting of a one-dimensional image sensor 6; an image input unit 9 consisting of an A/U conversion image memory unit 8 for digitizing and storing the QS of the one-dimensional image sensor 6; -1i#! 11 from the image memory section 8 & 1i12, the detected image 10, and the comparison image 11 (Calculate the difference of 1m11!f! expressed by equation 21 and output the alignment of the comparison image t 'JO@ ``io (16), (1
7) Alignment amount δX of 1thi or less expressed by the formula
6. Sub-pixel function ′J! to calculate dXo! # part 22
and a subpixel calculation unit 16 that performs position correction expressed by equations 153, (10), and (11) based on the alignment amount from the sub-pixel calculation fB22, and a difference image that extracts the M image 17 of the aligned image. The error extraction unit 18 converts the difference image into 21 pixels and extracts each tlth1% of the Mh location where the difference exists.
A 1IkI image processing unit 20 consisting of a defect determination N19 that extracts unfinished areas and performs defect determination, controls the XY stage 2, stores and displays defect information output from the image processing unit 20, and manages the entire sequence. It is composed of an overall control section 21 consisting of five computers.

上記構成によりパターン欠陥を検出する動作を次に説明
する。まず全体制御部21よりの指令で各部のイニシャ
ライズ後に、XYステージ2の71:査に同期して、光
@Sと照明光学系4で照明されたクエーー・1のパター
ンを対物レンズ5を介して1次元イメージセンサ6で光
を変換することにより2次元のパターンを検出し、AI
D′:JLm器7でデジタル化した2次元の検出面1j
R10とし、得られた検出画像は1lIiII像メモリ
部8に記憶する。画像取り出し部12は1lIII像メ
モリ部8の一定のアドレスを参照することにより比較画
像を取り出丁。画素単位マツチング部15は検出面II
!10と比較画像11より比較1illI像をΔX、Δ
Y方向に位置ずれ許容量の±δ11ii11.@だげ丁
らしたときの検出画像10と比較iI!l111!11
の画像の差を(2)式でWt算しく11式の6を最小と
するdJc@ * ’y6 ’l計算してεとcLxl
) e dyoを出力するdサブビクセル演314s2
2は画素単位マツチング部15よりのεとd−x@ e
 dy6から次の(16) 、 (17)式で衣わされ
る画素以下の位置合わせ公δJ(1、δ’/。
The operation of detecting pattern defects using the above configuration will be described next. First, after initializing each part according to a command from the overall control unit 21, in synchronization with the scanning of the A two-dimensional pattern is detected by converting light with a one-dimensional image sensor 6, and AI
D': Two-dimensional detection surface 1j digitized by JLm device 7
R10, and the obtained detected image is stored in the 1lIiII image memory section 8. The image retrieval unit 12 retrieves a comparison image by referring to a fixed address in the 1lIII image memory unit 8. The pixel unit matching unit 15 is the detection surface II.
! 10 and comparison image 11, the comparison 1illI image is ΔX, Δ
±δ11ii11. of positional deviation tolerance in Y direction. @ Comparison with detected image 10 when using Dage Ding II! l111!11
Calculate the difference between the images by Wt using formula (2), minimize 6 of formula 11, and calculate dJc@ * 'y6 'l to calculate ε and cLxl
) d sub-pixel performance 314s2 that outputs e dyo
2 is ε and d−x@e from the pixel unit matching unit 15
From dy6, the sub-pixel alignment common δJ(1, δ'/) is given by the following equations (16) and (17).

を計算する。Calculate.

”% = (’ ””o * ’31(1)+g Cd
x6 e’yo ”1 )−g Cd50+ 1 、d
yo)−1(cLJ(1+ 1 、 Ql) ) )/
#@         (j6)δ’io= (’ (
”o n ”!10 )す(dxo 、ct yo◆1
)十g(dx0◆11αyo)−a<dX6 +1*’
yo ”1 ) )/a(gr        (17
)K韓”  g (dXo  r’ yo )”g (
cLJ@ a dy6 ” 1)+ g (dx6 +
 1+d3/6 )+ε(ctx6 + 1 、 d 
yl + 1 )匁置合わせ部16はサブピクセル演算
部22よりの位置合わせ童を基に+518(1Ω) 、
 (11)式で表わされる位置補正を行なう。差画像抽
出部18は位置補正旬終わったiI!l1111より(
12)式で差画像17を抽出する。
”% = (' ””o * '31(1)+g Cd
x6 e'yo "1)-g Cd50+ 1, d
yo)-1(cLJ(1+1,Ql) ) )/
#@ (j6)δ'io= (' (
“On”! 10) Su (dxo, ct yo◆1
) 10g(dx0◆11αyo)-a<dX6 +1*'
yo ”1 ) )/a(gr (17
)Khan”g (dXor’yo)”g (
cLJ@a dy6 ” 1) + g (dx6 +
1+d3/6)+ε(ctx6+1, d
yl + 1) The alignment unit 16 uses +518 (1Ω) based on the alignment value from the sub-pixel calculation unit 22,
Position correction expressed by equation (11) is performed. The difference image extraction unit 18 has finished position correction! From l1111 (
The difference image 17 is extracted using equation 12).

欠陥判定s19は差画像17を欠陥判定のw4値Vth
で21直化して、麦の存在する場所の面積や幅や投影−
に紅どの各櫨特微量を抽出して欠陥判定を行なうO 本実棚側によれは、画素以下の位置合わせ菫δよ。、δ
y0の演算が単純であり、−路徊成を小さくできる効果
がある。
Defect determination s19 uses the difference image 17 as w4 value Vth for defect determination.
Convert to 21 and calculate the area, width, and projection of the place where the wheat is located.
Defects are determined by extracting the characteristic quantities of each red oak. , δ
The calculation of y0 is simple and has the effect of reducing the -travel formation.

本実施例の変形例として次のものがある。すなわち(1
0) 、 (It)式の代わりに次の(18) 、 (
19)式を用いる。
Modifications of this embodiment include the following. That is, (1
0), (It), the following (18), (
19) Use formula.

j’、 (J、 y) = (1−δJO)*j(J、
y)◆δ、r0*(1−δ!io >*j (J+1 
j', (J, y) = (1-δJO)*j(J,
y)◆δ, r0*(1-δ!io >*j (J+1
.

y)◆(1−δx0)*δyo*7(xsy◆1)◆δ
x0*δyo*7(’◆1゜y◆1)        
          (1B)yl(、c、y)=(1
−δJ(1)*(1−リ@)*yl(、z、y)+δJ
O*(1−δy0ン*31.<x◆1.y)+(1−δ
x0ン*δyo*j’t  (xeJ◆1)◆δ、λ;
y)◆(1-δx0)*δyo*7(xsy◆1)◆δ
x0*δyo*7('◆1゜y◆1)
(1B)yl(,c,y)=(1
-δJ(1)*(1-ri@)*yl(,z,y)+δJ
O*(1-δy0n*31.<x◆1.y)+(1-δ
x0n*δyo*j't (xeJ◆1)◆δ, λ;
.

*δ!o *!h (’◆1.y◆1)       
       (19)〔発明の効果〕 本発明によればパターンの位置合わせ8度を検出画素サ
イズ以下としてサンプリング#A差の影響を軽減でき1
画素サイズと同81度の大きさの欠陥の検出を容品にで
きる効果がある。
*δ! o*! h ('◆1.y◆1)
(19) [Effects of the Invention] According to the present invention, the influence of the sampling #A difference can be reduced by setting the pattern alignment at 8 degrees below the detection pixel size.1
This has the effect of easily detecting defects with a size of 81 degrees, which is the same as the pixel size.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明によるパターン認識方法の纂1の災A3
i例を示す装置の構成図、第2図(41〜tC+は従来
一般的なパターン比奴方式によるパターン欠陥検出方法
の原理説明図、あ3図−1〜(−1は纂2図18)〜I
C)のパターン技形例図、論41V(cl〜u1は本発
明による鳳2図のパターンのす)゛ビクセルマツチング
動作例の波形−1第5図は第4図(g)〜−)の数値表
図、第6図は纂1図の画素単位マツチング都の動作原理
説明図、第7図は本発明によるパターン昭織方法の第2
の実施例を示す装置の構成−である。 1・・・ウェーハ     2・・・XYスf−ジ3・
・・光源       4・・・照#J光学系5・・・
対物レンズ      6・・・1次元イメージセンサ
7・・・A/D変II&器    8・・・画像メモリ
部9・・・画体入力部    10・・・検出画像11
・・・比較用I!Ii像    12・・・画像取り出
し部15・・・画素単位マツチング部 14・・・−索単位位置補正の終わった画像15・・・
サブピクセルマツチング部 16・・・位置合わせ部   ・・・差画像18・・・
差画像抽出部   19・・・欠陥判定部2Ω・・・画
像処理部    21・・・全体制御部22・・・サブ
ピクセル演算部 代坦人
Figure 1 shows the first problem A3 of the pattern recognition method according to the present invention.
A configuration diagram of the device showing example i, Figure 2 (41 to tC+ is a diagram explaining the principle of pattern defect detection method using the conventional pattern ratio method, A3 Figures -1 to (-1 are Series 2 Figure 18) ~I
C) pattern technique example diagram, Theory 41V (cl to u1 are the patterns of Figure 2 according to the present invention) ゛Vixel matching operation example waveform-1 Figure 5 is Figure 4 (g) to -) FIG. 6 is an explanatory diagram of the operating principle of the pixel-by-pixel matching shown in FIG. 1, and FIG.
This is a configuration of an apparatus showing an embodiment of the present invention. 1...Wafer 2...XY stripe 3.
...Light source 4...Illumination #J optical system 5...
Objective lens 6... One-dimensional image sensor 7... A/D converter II & device 8... Image memory section 9... Image input section 10... Detected image 11
...Comparison I! Ii image 12... Image extraction unit 15... Pixel unit matching unit 14... - Image 15 after cable unit position correction...
Sub-pixel matching section 16...positioning section...difference image 18...
Difference image extraction unit 19...Defect determination unit 2Ω...Image processing unit 21...Overall control unit 22...Sub-pixel calculation unit representative

Claims (1)

【特許請求の範囲】 1、対象のパターンを検出し、検出したパターンとあら
かじめ記憶しておいたパターンまたは別途検出したパタ
ーンとを画素単位に位置合わせし画素単位に位置合わせ
したパターンに対して画素以下の精度で位置合わせし、
画素以下の精度で位置合わせした2つのパターンの誤差
を抽出・比較して、パターンの欠陥を認識することを特
徴とするパターン認識方法。 2、画素以下で位置合わせする方法は最小2乗法を用い
ることを特徴とする請求項1記載のパターン認識方法。 3、画素以下の精度で位置合わせする方法は画素単位に
位置合わせした時のマッチング値より推定することによ
り行うことを特徴とする請求項1記載のパターン認識方
法。
[Claims] 1. Detect a target pattern, align the detected pattern with a pre-stored pattern or a separately detected pattern pixel by pixel, and compare the pixel with respect to the aligned pattern pixel by pixel. Align with the following accuracy,
A pattern recognition method characterized by recognizing defects in patterns by extracting and comparing errors between two patterns aligned with sub-pixel accuracy. 2. The pattern recognition method according to claim 1, wherein the method of aligning at or below a pixel uses a least squares method. 3. The pattern recognition method according to claim 1, wherein the method of aligning with an accuracy of less than a pixel is performed by estimating a matching value when aligning on a pixel-by-pixel basis.
JP1315233A 1989-12-06 1989-12-06 Pattern recognition method Expired - Fee Related JP2675167B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1315233A JP2675167B2 (en) 1989-12-06 1989-12-06 Pattern recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1315233A JP2675167B2 (en) 1989-12-06 1989-12-06 Pattern recognition method

Publications (2)

Publication Number Publication Date
JPH03177040A true JPH03177040A (en) 1991-08-01
JP2675167B2 JP2675167B2 (en) 1997-11-12

Family

ID=18062989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1315233A Expired - Fee Related JP2675167B2 (en) 1989-12-06 1989-12-06 Pattern recognition method

Country Status (1)

Country Link
JP (1) JP2675167B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10318950A (en) * 1997-05-21 1998-12-04 Hitachi Ltd Method and apparatus for inspection of pattern
JPH11194154A (en) * 1998-01-06 1999-07-21 Hitachi Ltd Pattern inspection method and its device and pattern inspection method and device based on electron ray image
US8036447B2 (en) 2005-02-01 2011-10-11 Hitachi High-Technologies Corporation Inspection apparatus for inspecting patterns of a substrate

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10318950A (en) * 1997-05-21 1998-12-04 Hitachi Ltd Method and apparatus for inspection of pattern
US6087673A (en) * 1997-05-21 2000-07-11 Hitachi, Ltd. Method of inspecting pattern and apparatus thereof
US6236057B1 (en) 1997-05-21 2001-05-22 Hitachi, Ltd. Method of inspecting pattern and apparatus thereof with a differential brightness image detection
US6376854B2 (en) 1997-05-21 2002-04-23 Hitachi, Ltd. Method of inspecting a pattern on a substrate
JPH11194154A (en) * 1998-01-06 1999-07-21 Hitachi Ltd Pattern inspection method and its device and pattern inspection method and device based on electron ray image
US6614923B1 (en) 1998-01-06 2003-09-02 Hitachi, Ltd. Pattern inspecting method and apparatus thereof, and pattern inspecting method on basis of electron beam images and apparatus thereof
US7263216B2 (en) 1998-01-06 2007-08-28 Hitachi, Ltd. Pattern inspecting method and apparatus thereof, and pattern inspecting method on basis of electron beam images and apparatus thereof
US8036447B2 (en) 2005-02-01 2011-10-11 Hitachi High-Technologies Corporation Inspection apparatus for inspecting patterns of a substrate

Also Published As

Publication number Publication date
JP2675167B2 (en) 1997-11-12

Similar Documents

Publication Publication Date Title
US5696835A (en) Apparatus and method for aligning and measuring misregistration
EP0457843B1 (en) Method and apparatus for measuring registration between layers of a semiconductor wafer
US20040008880A1 (en) Device and method for inspecting photomasks and products fabricated using the same
JPH04194702A (en) Pattern recognizing method
JPH1096613A (en) Defect detection method and device thereof
US5640243A (en) Position detection method
JPH03177040A (en) Pattern recognition
US20020028013A1 (en) Size checking method and apparatus
JP2000147749A (en) Image alignment method for reticle appearance inspection device
EP0434871B1 (en) Character recognition method
JPH04295748A (en) Pattern inspecting apparatus
US20180276806A1 (en) Method for detecting coordinates, coordinate output device and defect inspection device
JPH0140489B2 (en)
JPH11340115A (en) Pattern matching method and exposing method using the same
JP3262030B2 (en) Defect detection device
JP3182517B2 (en) Defect detection apparatus and method
JPH06185999A (en) Method and device for inspecting pattern
JP2926118B2 (en) Defect detection method
US20010012391A1 (en) Pattern inspection method and apparatus
JPH03201454A (en) Aligning method for semiconductor device
JPH10288517A (en) Wafer measuring method
JPH04316346A (en) Pattern recognition method
JP3198105B2 (en) Automatic visual inspection device
JPH0562879A (en) Aligning method
JPH03270249A (en) Method of preparing pattern test data, and pattern tester

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees