JP2796430B2 - Pattern defect detection method and apparatus - Google Patents

Pattern defect detection method and apparatus

Info

Publication number
JP2796430B2
JP2796430B2 JP2322995A JP32299590A JP2796430B2 JP 2796430 B2 JP2796430 B2 JP 2796430B2 JP 2322995 A JP2322995 A JP 2322995A JP 32299590 A JP32299590 A JP 32299590A JP 2796430 B2 JP2796430 B2 JP 2796430B2
Authority
JP
Japan
Prior art keywords
image data
pattern
pixel
image
defect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2322995A
Other languages
Japanese (ja)
Other versions
JPH04194702A (en
Inventor
高志 広井
仁志 窪田
俊二 前田
坦 牧平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2322995A priority Critical patent/JP2796430B2/en
Publication of JPH04194702A publication Critical patent/JPH04194702A/en
Application granted granted Critical
Publication of JP2796430B2 publication Critical patent/JP2796430B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、例えば、LSIウェーハやTFTなどのパターン
を比較して欠陥を検出する方法に係り、高精度な位置合
せ、およびアライメントマーク等の高精度な位置検出を
して欠陥を検出するパターン欠陥検出方法およびその装
置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Industrial Application Field] The present invention relates to a method of detecting defects by comparing patterns of, for example, LSI wafers and TFTs, and relates to a method of high-accuracy alignment and alignment marks. The present invention relates to a pattern defect detection method for detecting a defect by performing high-accuracy position detection and an apparatus therefor.

〔従来の技術〕[Conventional technology]

従来のパターン認識方法は、特開昭57−196377号公報
に記載のように、対象のパターンを検出し、検出したパ
ターンを記憶しておき、一つ前に記憶しておいたパター
ンと検出したパターンとを画素単位に位置合わせし、位
置合わせした二つのパターンの誤差を抽出・比較するこ
とにより、パターンの欠陥の認識するようになってい
た。
As described in Japanese Patent Application Laid-Open No. 57-196377, a conventional pattern recognition method detects a target pattern, stores the detected pattern, and detects a pattern stored immediately before. A pattern defect is recognized by aligning a pattern with a pixel unit and extracting and comparing an error between the two aligned patterns.

この認識対象は、第2図(a),(b),(c)に例
示するような、メモリ用LSIなどの半導体ウェハのパタ
ーン,TFT(Thin Film Transister)のパターン,プリン
ト配線板のパターン,セラミック基板のパターンまた
は、それらを製造する工程で用いるマスクやレチクルな
どのパターンなどである。ここでは一例として半導体ウ
ェハのパターンについて説明するが、他のパターンに対
しても同じ事が成り立つ。半導体ウェハのパターンは最
終的に切り離されて個別製品となるチップが数十個一枚
のウエハに載っており、それらは互いに同じパターンを
持っている。このようなパターンの欠陥を認識する原理
を第2図(a)〜(c)を用いて説明する。
The recognition target is a pattern of a semiconductor wafer such as a memory LSI, a pattern of a TFT (Thin Film Transister), a pattern of a printed wiring board, or the like, as illustrated in FIGS. 2 (a), 2 (b) and 2 (c). The pattern is a pattern of a ceramic substrate or a pattern of a mask or a reticle used in a process of manufacturing the pattern. Here, a pattern of a semiconductor wafer will be described as an example, but the same holds true for other patterns. The semiconductor wafer pattern has several tens of chips, which are finally separated into individual products, mounted on a single wafer, and they have the same pattern. The principle of recognizing such a pattern defect will be described with reference to FIGS. 2 (a) to 2 (c).

第2図(a)〜(c)は従来の一般的なパターン比較
方法の原理説明図で、第2図(a)は記憶パターン、第
2図(b)は検出パターン、第2図(c)はパターン差
である。各チップが全く同一のパターンを持っているこ
とに着目し、第2図(a)のパターンを検出して記憶し
ておき、第2図(b)のそれと同一であるはずの別のパ
ターンを次に検出して、二つのパターンを画素単位に位
置合わせし、第2図(c)の位置合わせした二つのパタ
ーンの誤差を抽出して比較する。いずれのパターンにも
欠陥が存在しない場合にはパターンの差はほとんどない
が、いずれかのパターン、例えば、第2図(b)の検出
パターンに欠陥が存在する場合には、第2図(c)のよ
うに欠陥部分でパターンに差があるため、パターンの比
較により誤差を生じる場所を検出することでパターン欠
陥を認識することができる。なお、ここで比較して差が
あればいずれかのパターンに欠陥があると言えるが、い
ずれのパターンに欠陥があるかを判別することはできな
い。
2 (a) to 2 (c) are diagrams for explaining the principle of a conventional general pattern comparison method. FIG. 2 (a) is a storage pattern, FIG. 2 (b) is a detection pattern, and FIG. ) Is a pattern difference. Paying attention to the fact that each chip has exactly the same pattern, the pattern of FIG. 2A is detected and stored, and another pattern which should be the same as that of FIG. Next, the two patterns are detected and aligned in pixel units, and the error between the two aligned patterns in FIG. 2C is extracted and compared. When there is no defect in any of the patterns, there is almost no difference between the patterns. However, when there is a defect in any of the patterns, for example, the detection pattern in FIG. 2B, FIG. Since there is a difference in the pattern at the defective portion as shown in (2), the pattern defect can be recognized by detecting a place where an error occurs by comparing the patterns. Note that if there is a difference, it can be said that any of the patterns has a defect, but it cannot be determined which pattern has a defect.

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

上記従来技術では画像をデジタル化して入力するため
サンプリング点の情報しか得られずサンプリング誤差の
発生は避けられないが、このサンプリング誤差の影響で
小さい欠陥の認識が困難となる問題がある。このことを
第3図(a)〜(c)により説明する。
In the above prior art, since an image is digitized and input, only information on sampling points is obtained, and occurrence of a sampling error is inevitable. However, there is a problem that it is difficult to recognize a small defect due to the influence of the sampling error. This will be described with reference to FIGS. 3 (a) to 3 (c).

第3図(a)〜(c)は第2図(a)〜(c)のX−
X′線上のパターンの波形図で、第3図(a)は第2図
(a)の記憶パターンの検出信号波形図、第3図(b)
は第2図(b)の検出パターンの検出信号波形図、第3
図(c)は第2図(b)の検出パターンのサンプリング
誤差の無い場合の検出信号波形図、第3図(d)は第3
図(a)と第3図(b)のサンプリング誤差有りとの差
信号波形図、第3図(e)は第3図(a)と第3図
(c)のサンプリング誤差無しとの差信号波形図であ
り、図中の・はサンプリング点での検出信号を示してい
る。第3図(b),(c)のように本来は全く同一のパ
ターンに対して同一点に設定することができないためサ
ンプリング点での検出波形が異なった物となり、検出波
形や検出パターンに誤差を生じ、この誤差をサンプリン
グ誤差と呼ぶ。比較する検出パターンにサンプリング誤
差が無い場合は第3図(e)のように欠陥部差信号は正
常部差信号より十分大きく欠陥の認識は容易であるが、
検出パターンにサンプリング誤差がある場合は第3図
(d)のように欠陥部差信号は正常部差信号と同程度と
なり欠陥の認識は困難となる。検出時の画素サイズに対
して認識する欠陥サイズが十分大きい場合は差の大きい
場所の面積の違いを利用してサンプリング誤差と欠陥を
識別できるが、小さい場合は欠陥により生じる差の大き
い場所の面積はサンプリング誤差によるそれと同程度と
なり欠陥の識別は困難となる。
FIGS. 3 (a) to 3 (c) show X- in FIGS. 2 (a) to 2 (c).
FIG. 3 (a) is a waveform diagram of a detected signal of the storage pattern of FIG. 2 (a), and FIG. 3 (b) is a waveform diagram of a pattern on the X 'line.
Is a detection signal waveform diagram of the detection pattern of FIG.
FIG. 3 (c) is a detection signal waveform diagram when there is no sampling error in the detection pattern of FIG. 2 (b), and FIG.
3 (a) and 3 (b) show the difference signal waveforms when there is a sampling error, and FIG. 3 (e) shows the difference signal between FIGS. 3 (a) and 3 (c) when there is no sampling error. FIG. 3 is a waveform diagram, in which “・” indicates a detection signal at a sampling point. As shown in FIGS. 3 (b) and 3 (c), originally the same pattern cannot be set at the same point, so that the detected waveform at the sampling point becomes different, and the detected waveform and the detected pattern have an error. And this error is called a sampling error. If there is no sampling error in the detection pattern to be compared, the defect difference signal is sufficiently larger than the normal difference signal as shown in FIG.
If there is a sampling error in the detection pattern, the defect difference signal is almost the same as the normal difference signal as shown in FIG. 3 (d), making it difficult to recognize the defect. If the defect size to be recognized is sufficiently large with respect to the pixel size at the time of detection, the sampling error and the defect can be identified by using the difference in the area of the place with a large difference. Is about the same as that due to sampling errors, and it is difficult to identify defects.

本発明の目的はパターンの位置合わせの精度を検出画
素サイズ以下としてサンプリング誤差の影響を軽減でき
るパターン欠陥検出方法およびその装置を提供すること
にある。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a pattern defect detection method and apparatus capable of reducing the influence of sampling errors by setting the accuracy of pattern alignment to the detection pixel size or less.

〔課題を解決するための手段〕[Means for solving the problem]

上記目的を達成するために、本発明によるパターン欠
陥検出方法は、基板上に形成されたパターンを検出して
画像データを生成し、この画像データを用いて比較画像
データを作成し、画像データと比較画像データとに基づ
いて画像データと比較画像データとのずれを画素以下の
精度で互いに補正し、このずれを補正した画像データと
比較画像データとを比較してパターンの欠陥を検出する
方法である。
In order to achieve the above object, a pattern defect detection method according to the present invention detects a pattern formed on a substrate, generates image data, creates comparative image data using the image data, and generates image data. A method of correcting the deviation between the image data and the comparison image data based on the comparison image data with an accuracy equal to or less than the pixel, and comparing the image data with the corrected deviation with the comparison image data to detect a pattern defect. is there.

また、本発明によるとパタン欠陥検出方法は、基板上
に形成されたパターンを検出して画像データを生成し、
この画像データを用いて比較画像データを作成し、画像
データと比較画像データとに基づいてずらすべき量を画
素以下の精度で求め、この求めたずらすべき量に基づい
て画像データと比較画像データとを画素以下の精度で互
いにずらし、この互いにずらした画像データと比較画像
データとを比較してパターンの欠陥を検出する方法であ
る。
Further, according to the present invention, the pattern defect detection method detects a pattern formed on a substrate to generate image data,
Using this image data, comparative image data is created, an amount to be shifted based on the image data and the comparative image data is determined with an accuracy of a pixel or less, and the image data and the comparative image data are determined based on the determined amount to be shifted. Are compared with each other with a precision equal to or less than a pixel, and the image data shifted from each other is compared with comparative image data to detect a pattern defect.

更に、本発明によるパタン欠陥検出方法は、基板上に
形成されたパターンを検出して画像データを発生する画
像データ発生手段と、この画像データ発生手段で発生し
た画像データを用いて比較画像データを作成する比較画
像データ作成手段と、画像データと比較画像データとに
基づいてずらすべき量を画素以下の精度で求めるずらし
量算出手段と、このずらし量算出手段で求めたずらし量
に基づいて画像データと比較画像データとの互いにずら
す補正手段と、この補正手段で互いにずらした画像デー
タと比較画像データとを比較してパターンの欠陥を検出
する欠陥検出手段とを備えて構成した。
Further, the pattern defect detection method according to the present invention includes an image data generating means for detecting a pattern formed on a substrate to generate image data, and comparing the comparison image data using the image data generated by the image data generating means. Comparison image data creation means to be created, shift amount calculation means for obtaining an amount to be shifted based on the image data and the comparison image data with an accuracy of a pixel or less, and image data based on the shift amount obtained by the shift amount calculation means. And a comparison image data, and a defect detection unit for comparing the image data shifted by the correction unit with the comparison image data to detect a pattern defect.

この画素単位以下の精度で位置合わせするには、例え
ば、次に示す最小二乗法を用いる。二枚のパターンをf
(x,y),g(x,y)とするとき、あらかじめ(1)式のε
2(dx,dy)を最小とする位置(dx0,dy0)に画素単位で
位置合わせして、x,y座標とも値が0と1の間に検出画
像と記憶画像のパターンの差を最小とする位置(δx0,
δy0)があるようにする。
In order to perform positioning with an accuracy of this pixel unit or less, for example, the following least square method is used. F two patterns
When (x, y) and g (x, y), ε in equation (1)
2 (dx, dy) is aligned to the position (dx0, dy0) that minimizes the pixel unit, and the difference between the pattern of the detected image and the stored image is minimized between the values 0 and 1 for both x and y coordinates. Position (δx0,
δy0).

δ2(dx,dy)=ε(dx,dy)+ε(dx+1,dy) +ε(dx,dy+1)+ε(dx+1,dy+1) ……(1) ε(dx,dy)=ΣΣ|f(x,y)−g(x+dx,y+dy)|
……(2) ここで、x,yは画素単位のパターンの座標、dx,dyは二
枚のパターンの画素単位の位置合わせ量、dx0,dy0はε
2を最小とする画素単位の位置合わせ量dx,dy,δx,δy
は画素以下の位置合わせ量、δx0,δy0はパターン差を
最小とする画素以下の位置合わせ量δx,δy,ΣΣは位置
合わせする範囲のx,y座標に関する和を各々示す。
δ2 (dx, dy) = ε (dx, dy) + ε (dx + 1, dy) + ε (dx, dy + 1) + ε (dx + 1, dy + 1) (1) ε (dx, dy) = ΣΣ | f (x, y ) -G (x + dx, y + dy) |
(2) where x and y are the coordinates of the pattern in pixel units, dx and dy are the alignment amounts in pixel units of the two patterns, and dx0 and dy0 are ε.
Pixel-based registration amounts dx, dy, δx, δy that minimize 2.
Indicates the amount of alignment below the pixel, and δx0, δy0 indicate the amount of alignment δx, δy, ΣΣ below the pixel that minimizes the pattern difference, and indicates the sum of the x and y coordinates of the range to be aligned.

画素単位の位置合わせをするには、次の(3)式で示
すgをシフトしたg1を用いる。
In order to perform pixel-by-pixel alignment, g1 obtained by shifting g shown in the following equation (3) is used.

g1(x,y)=g(x+dx,y+dy) ……(3) 画素と画素の中間の値を(4),(5)式で定義す
る。
g1 (x, y) = g (x + dx, y + dy) (3) An intermediate value between pixels is defined by equations (4) and (5).

fd(x,δx,y,δy)=f(x,y) +δx*(f(x+1,y)−f(x,y)) +δy*(f(x,y+1)−f(x,y)) (4) g1d(x,δx,y,δy)=g1(x,y) +δx*(g1(x−1,y)−g1(x,y)) +δy*(g1(x,y−1)−g1(x,y)) (5) 二乗誤差(6)式で定義できる。 fd (x, δx, y, δy) = f (x, y) + δx * (f (x + 1, y) -f (x, y)) + δy * (f (x, y + 1) -f (x, y) (4) g1d (x, δx, y, δy) = g1 (x, y) + δx * (g1 (x−1, y) −g1 (x, y)) + δy * (g1 (x, y−1) ) −g1 (x, y)) (5) The square error can be defined by equation (6).

εd(δx,δy)=ΣΣ(fd(x,δx,y,δy) −g1d(x,δx,y,δy))**2 (6) (6)式をδx,δyで偏微分してこれを0と置いたも
のを整理して(7),(8)式を得る。
εd (δx, δy) = ΣΣ (fd (x, δx, y, δy) −g1d (x, δx, y, δy)) ** 2 (6) Equation (6) is partially differentiated by δx, δy. By setting this to 0, the equations (7) and (8) are obtained.

ここで、 Co=f(x,y)−g1(x,y) Ci=(f(x+1,y)−f(x,y))−(g1(x−1,
y) −g1(x,y)) (9) Cj=(f(x,y+1)−f(x,y))−(g1(x,y−
1)− g1(x,y)) 画素以下の位置合わせ量δx0,δy0より位置合わせ後
のパターンf2,g2を次の(10),(11)式で計算する。
Here, Co = f (x, y) −g1 (x, y) Ci = (f (x + 1, y) −f (x, y)) − (g1 (x−1,
y) -g1 (x, y)) (9) Cj = (f (x, y + 1) -f (x, y))-(g1 (x, y-
1) -g1 (x, y)) Patterns f2 and g2 after alignment are calculated from the alignment amounts δx0 and δy0 below the pixel by the following equations (10) and (11).

f2(x,y)=fd(x,δx0,y,δy0) (10) f2(x,y)=g1d(x,δx0,y,δy0) (11) 〔作用〕 このパターン認識方法の作用を第4図(a)〜(d)
および第5図により説明する。
f2 (x, y) = fd (x, δx0, y, δy0) (10) f2 (x, y) = g1d (x, δx0, y, δy0) (11) [Action] The action of this pattern recognition method FIG. 4 (a) to (d)
This will be described with reference to FIG.

第4図(a)〜(d)は本発明による第2図のパター
ンの画素以下のピッチで位置合わせするサブピクセル位
置合わせの動作例の波形図で、第4図(a)は記憶波
形、第4図(b)は欠陥の無い検出波形、第4図(c)
は画素単位の位置合わせのみをした単純差波形、第4図
(d)はサブピクセル位置合わせ後差波形である。第5
図は第4図(a)〜(d)の数値表図で、サンプリング
位置0〜15の記憶波形、検出波形、単純差波形、サブピ
クセル位置合わせ後のf2,g2,|f2−g2|の数値を各々示
す。記憶波形と検出波形が、例えば、第4図(a),
(b)及び第5図のようであったとし、ここで第4図
(b)の検出波形は第4図(a)の記憶波形の前後二画
素の平均をとった波形でほぼ0.5画素のシフトをさせた
波形と同等である。
4 (a) to 4 (d) are waveform diagrams of an operation example of sub-pixel positioning for positioning at a pitch equal to or less than the pixel of the pattern of FIG. 2 according to the present invention, and FIG. FIG. 4 (b) is a defect-free detected waveform, and FIG. 4 (c).
Fig. 4 (d) shows a difference waveform after sub-pixel positioning, in which a simple difference waveform is obtained by performing only pixel-by-pixel positioning. Fifth
The figures are the numerical table diagrams of FIGS. 4 (a) to 4 (d). The stored waveforms at the sampling positions 0 to 15, the detected waveforms, the simple difference waveforms, and the f2, g2, | f2-g2 | Numerical values are shown. The stored waveform and the detected waveform are, for example, as shown in FIG.
4B and FIG. 5, the detected waveform in FIG. 4B is a waveform obtained by averaging two pixels before and after the stored waveform in FIG. This is equivalent to the shifted waveform.

これらの波形に最小二乗法を適用してδx0を求め、実
際に計算するとδx0=0.2となり、この値より(10),
(11)式を用いて位置合わせ後のパターンf2,g2を求め
る。このときサブピクセル位置合わせをした場合としな
い場合の差信号波形は第4図(c),(d)および第5
図のようになり、残差は半減している。これにより、サ
ンプリング誤差によるパターン差の値は欠陥の値より十
分に小さくなるので、欠陥を容易に識別できる。
By applying the least squares method to these waveforms, δx0 is obtained, and when it is actually calculated, δx0 = 0.2. From this value, (10),
The patterns f2 and g2 after the alignment are obtained by using the equation (11). At this time, the difference signal waveforms with and without sub-pixel alignment are shown in FIGS.
As shown in the figure, the residual is reduced by half. As a result, the value of the pattern difference due to the sampling error becomes sufficiently smaller than the value of the defect, so that the defect can be easily identified.

〔実施例〕〔Example〕

以下、本発明の第一の実施例を第1図、第6図により
説明する。第1図は、LSIウェーハのパターン欠陥検出
装置の構成図である。本パターン欠陥検出装置はウエー
ハ1を走査するXYステージ2とウエーハを照明する光源
3と照明光学系4と照明されたウエーハの光学像を検出
する対物レンズ5と一次元イメージセンサ6よりなる検
出部と、一次元イメージセンサ6の信号をデジタル化し
て記憶するためのA/D変換器7と画像メモリ部8よりな
る画像入力部9と、画像入力部9に入力された検出画像
10と比較画像11を画像メモリ部8より取り出す画像取り
出し部12、検出画像10と比較画像11より(2)式であら
わされる画像の差を計算して比較画像を(3)式のよう
に移動させて位置合わせをする画像単位マッチング部13
と画素単位マッチング部13よりの画素単位位置補正の終
わった画像14と検出画像10から(7),(8)式で表さ
れる画素以下の位置合わせ量δx0、δy0を計算するサブ
ピクセルマッチング部15とサブピクセルマッチング部よ
りの位置合わせ量を基に(10),(11)式で表わされる
位置補正を行う位置合わせ部16と位置合わせの終わつた
画像17の差画像17,差画像17を二値化して差の存在する
場所の各種特徴量を抽出して欠陥の判定を行う欠陥判定
部19よりなる画像処理部20と、XYステージ2の制御と画
像処理部20より出力される欠陥情報の記憶や表示と全体
シーケンスの管理を行う計算機で構成された全体制御部
21から構成される。
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a configuration diagram of an LSI wafer pattern defect detection apparatus. This pattern defect detection device comprises a XY stage 2 for scanning the wafer 1, a light source 3 for illuminating the wafer, an illumination optical system 4, an objective lens 5 for detecting an optical image of the illuminated wafer, and a one-dimensional image sensor 6. An image input unit 9 including an A / D converter 7 and an image memory unit 8 for digitizing and storing a signal of the one-dimensional image sensor 6, and a detected image input to the image input unit 9.
An image extracting unit 12 for extracting the reference image 10 and the comparative image 11 from the image memory unit 8, and calculating the difference between the detected image 10 and the comparative image 11 by using the expression (2), and moving the comparative image as in the expression (3). Image unit matching unit 13
And a sub-pixel matching unit that calculates an alignment amount δx0, δy0 of a pixel or less represented by the equations (7) and (8) from the image 14 after the pixel-unit position correction by the pixel-unit matching unit 13 and the detected image 10 Based on the position adjustment amount from the sub-pixel matching unit 15 and the position adjustment unit 16 that performs the position correction expressed by the equations (10) and (11), the difference image 17 and the difference image 17 of the image 17 after the alignment are obtained. An image processing unit 20 including a defect determination unit 19 that binarizes and extracts various feature amounts at a location where a difference exists to determine a defect, and control of the XY stage 2 and defect information output from the image processing unit 20 Control unit composed of computers that store and display data and manage the entire sequence
Consists of 21.

この構成によりパターン欠陥を検出する動作を次に説
明する。まず、全体制御部21よりの指令で各部のイニシ
ャライズ後に、XYステージの走査に同期して、光源3と
照明光学系4で照明されたウエーハ1のパターンを対物
レンズ5を介して一次元イメージセンサ6で光電変換す
ることにより二次元のパターンを検出し、A/D変換器7
でデジタル化した二次元の検出画像10として、得られた
検出画像は画像メモリ部8に記憶する。
The operation of detecting a pattern defect with this configuration will now be described. First, after initialization of each unit by a command from the overall control unit 21, the pattern of the wafer 1 illuminated by the light source 3 and the illumination optical system 4 is synchronized with the scanning of the XY stage by the one-dimensional image sensor via the objective lens 5. A two-dimensional pattern is detected by photoelectric conversion at 6 and an A / D converter 7
The obtained detection image is stored in the image memory unit 8 as the two-dimensional detection image 10 digitized in the step (1).

画像取り出し部12は画像メモリ部8の一定のアドレス
を参照することにより比較画像11を取り出す。ここで、
画素単位マッチング部13の動作を第6図により説明す
る。第6図は第1図のマッチング部13の動作原理説明図
である。検出画像10と比較画像11により、比較画像をΔ
X,ΔY方向に位置ずれ許容量の±δ画素(本実施例では
δ=1で説明するが、検出対象の寸法精度と欠陥検出装
置の位置決め精度で決まる値であり必要な値を適当に設
定するものとする)だけずらしたときの検出画像10と比
較画像11の画像の差を式(2)で計算し、(1)式のε
2(第6図のS1)を最小とするdx0,dy0(第6図のΔX
=−1、ΔY=0)を計算し、比較画像11を(3)式を
用いて位置補正を行い、画像単位位置補正の終わった画
像14を出力する。
The image extracting section 12 extracts the comparative image 11 by referring to a fixed address in the image memory section 8. here,
The operation of the pixel unit matching unit 13 will be described with reference to FIG. FIG. 6 is an explanatory view of the operation principle of the matching unit 13 in FIG. Based on the detected image 10 and the comparative image 11, the comparative image
± δ pixels of the permissible displacement in the X and ΔY directions (this embodiment will be described with δ = 1, but the value is determined by the dimensional accuracy of the detection target and the positioning accuracy of the defect detection device, and the necessary values are set appropriately. The difference between the image of the detected image 10 and the image of the comparative image 11 when the image is shifted by only
Dx0, dy0 (ΔX in FIG. 6) that minimizes 2 (S1 in FIG. 6)
= -1, ΔY = 0), the position of the comparative image 11 is corrected using the equation (3), and the image 14 after the image unit position correction is output.

サブピクセルマッチング部15は画素単位マッチング部
13よりの画素単位位置補正の終わった画像14と検出画像
10から(7),(8)式で表される画素以下の位置合わ
せ量δx0、δypを計算する。位置合わせ部16はサブピク
セルマッチング部15よりの位置合わせ量を基に(10),
(11)式で表される位置補正を行う。差画像抽出部18は
位置補正の終わった画像より次の(12)式で差画像17を
抽出する。
Sub-pixel matching unit 15 is a pixel unit matching unit
Image 14 and detected image after pixel unit position correction from 13
From 10, the amounts of alignment δx0 and δyp below the pixel represented by the equations (7) and (8) are calculated. Based on the amount of alignment from the sub-pixel matching unit 15 (10),
The position correction represented by the equation (11) is performed. The difference image extracting unit 18 extracts the difference image 17 from the image after the position correction by the following equation (12).

S(i,j)=|f2(i,j)−g2(i,j)| (12) 欠陥判定部19は差画像17を欠陥判定の閾値Vthで二値
化して、差の存在する場所の面積,幅,投影長などの各
種特徴量を抽出して欠陥の判定を行う。
S (i, j) = | f2 (i, j) −g2 (i, j) | (12) The defect determination unit 19 binarizes the difference image 17 with a threshold value Vth for defect determination, and determines a location where the difference exists. Defects are determined by extracting various features such as the area, width, and projection length of the image.

本実施例によれば、検出画像と記憶画像の二枚のパタ
ーンの両方を同じだけ反対方向に移動させて画素以下の
位置合わせ画像を作っているため、画像の平滑化効果
(例えば、δx0=0.5,δy0=0の場合にf2(x,y)=
(f(x+1,y)+f(x,y))/2で平均値フィルタをか
けたのと等価)が二枚のパターンで同じになり、これに
より生じる差画像の誤差を最低限にできる効果がある。
According to this embodiment, since the two images of the detected image and the stored image are moved by the same amount in the opposite direction to create an alignment image of pixels or less, an image smoothing effect (for example, δx0 = F2 (x, y) = 0.5, δy0 = 0
(Equivalent to applying an average filter at f (x + 1, y) + f (x, y)) / 2), the same effect is obtained for the two patterns, and the error of the resulting difference image can be minimized. There is.

本実施例の第1の変形は、(10),(11)式を(1
3),(14)式を用いる。
A first modification of the present embodiment is that the equations (10) and (11) are
Equations 3) and (14) are used.

f2(x,y)=f(x,y) (13) g2(x,y)= f(x,y)+δx*(fx−1,y)−f(x,y)) +2*δy*(f(x,y−1)−f(x,y)) if0.0≦δx<0.25,0.0≦δy<0.25 f(x+1,y)+(1−δx)*(f(x,y) −f(x−1,y) +2*δy*(f(x−1,y−1)−f(x−1,
y)) if0.25≦δx<0.5,0,0≦δy<0.25 f(x,y+1)+δx*(f(x−1,y−1) −f(x,y−1)) +(1−2*δy)*(f(x,y)−f(x,y−
1)) if=0.0≦δx<0.25,0.25≦δy<0.5 f(x+1,y+1)+(1−δx)*(f(x,y−
1) −f(x−1,y−1)) +(1−2*δy)*(f(x−1,y) −f(x−1,y−1)) if0.25≦δx<0.5,0.25≦δy<0.5 (14) 本変形によれば、δx,δyが0.5近くの値をとるとき
にf2,g2の値をより連続にできる。つまり、第7図に示
したgのデータ例に対してdx=0,δx=0.49の場合とdx
=1,δx=0.01の場合の本変形をした場合としない場合
のg2の値を第7図に示す。本変形をしない場合は値が大
きく異なるのに対し、本変形をするとほぼ同じ値にな
る。
f2 (x, y) = f (x, y) (13) g2 (x, y) = f (x, y) + δx * (fx−1, y) −f (x, y)) + 2 * δy * (F (x, y-1) -f (x, y)) if0.0 ≦ δx <0.25,0.0 ≦ δy <0.25 f (x + 1, y) + (1-δx) * (f (x, y) −f (x−1, y) + 2 * δy * (f (x−1, y−1) −f (x−1,
y)) if0.25 ≦ δx <0.5,0,0 ≦ δy <0.25 f (x, y + 1) + δx * (f (x−1, y−1) −f (x, y−1)) + (1 −2 * δy) * (f (x, y) −f (x, y−
1)) if = 0.0 ≦ δx <0.25, 0.25 ≦ δy <0.5 f (x + 1, y + 1) + (1−δx) * (f (x, y−
1) −f (x−1, y−1)) + (1-2 * δy) * (f (x−1, y) −f (x−1, y−1)) if0.25 ≦ δx < 0.5, 0.25 ≦ δy <0.5 (14) According to this modification, when δx and δy take values close to 0.5, the values of f2 and g2 can be made more continuous. That is, for the data example of g shown in FIG. 7, the case of dx = 0, δx = 0.49 and the case of dx
FIG. 7 shows the value of g2 in the case where this modification is performed when = 1 and δx = 0.01 and when this deformation is not performed. When the main deformation is not performed, the values are greatly different, but when the main deformation is performed, the values are substantially the same.

また、本実施例の第二の変形は、XYステージ10の走査
に同期して一次元イメージセンサ14で光電変換すること
により二次元のパターンを検出する代わりに、XYステー
ジ10をステップ移動させてTVカメラで光電変換すること
により二次元のパターンを検出する。または、一次元イ
メージセンサ14の代わりにフォトマルなどのポイント型
センサと走査機構を用いるなどいろんな形のセンサを用
いることができる。また、画像処理部は全てハードウェ
アでなくても、ハードウェア+ソフトウェアで構成する
こともできる。
Further, a second modification of the present embodiment is that the XY stage 10 is step-moved instead of detecting a two-dimensional pattern by photoelectrically converting the one-dimensional image sensor 14 in synchronization with scanning of the XY stage 10. A two-dimensional pattern is detected by photoelectric conversion with a TV camera. Alternatively, instead of the one-dimensional image sensor 14, various types of sensors such as using a point type sensor such as a photomultiplier and a scanning mechanism can be used. Further, the image processing unit may not be entirely hardware, but may be configured by hardware + software.

また、本実施例の第三の変形は検出画像と記憶画像の
差を(2)式で計算し、各ずらし量に対応した画像の差
をマッチング値として出力する代りに、検出画像と比較
画像にそれぞれフィルタをかけることによりエッジなど
を抽出し、そのフィルタ画像をたいして画像の差を
(2)式で計算し、f2,g2はフィルタをかける前の画像
に対して計算する。または検出画像と比較画像に各々フ
ィルタをかけて二値化し、そのフィルタ二値画像にたい
して画像の差を(2)式で計算し、f2,g2はフィルタを
かける前の画像に対して計算する。本変形によれば、フ
ィルタを用いているため検出画像と比較画像の不要な情
報の違いによる影響を受けにくくする効果がある。
A third modification of the present embodiment is to calculate the difference between the detected image and the stored image by equation (2) and output the difference between the images corresponding to the respective shift amounts as the matching value, instead of the detected image and the comparison image. Then, the edges are extracted by applying filters to the filter images, and the difference between the images is calculated by the equation (2) with respect to the filtered image, and f2 and g2 are calculated with respect to the image before being filtered. Alternatively, the detected image and the comparison image are each subjected to filtering to be binarized, and the difference between the filtered binary images is calculated by equation (2), and f2 and g2 are calculated for the image before being filtered. According to this modification, since the filter is used, there is an effect that it is hardly affected by a difference between unnecessary information of the detected image and the comparative image.

また、本実施例の第四の変形は(1),(4),
(5),(9)式を(15−1),(15−4),(15−
5),(15−9)と置き換える。
The fourth modification of this embodiment is (1), (4),
Equations (5) and (9) are replaced by (15-1), (15-4), (15-
5) Replace with (15-9).

ε2(dx,dy)=ΣΣε(dx+nx,dy+ny)(15−1) fd(x,δx,y,δy)=f(x,y) +δx*(f(x+n,y)−f(x,y)) +δy*(f(x,y+n)−f(x,y))(15−4) g1d(x,δx,y,δy)=g1(x,y) +δx*(g1(x−n,y)−g1(x,y) +δy*(g1(x,y−n)g1(x,y)) (15−5) Co=f(x,y)−g1(x,y) Ci=(f(x+n,y)−f(x,y)) −(g1(x−n,y)−g1(x,y)) (15−9) Cj=(f(x,y+n)−f(x,y)) −(g1(x,y−n)−g1(x,y)) ここで、nは画素と画素の中間の値の演算のピッチ
で、n−1,2,3,・・・ (1)式のΣΣはnx,nyの0〜nまでの和を意味す
る。(6),(7)式のΣΣは位置合わせする範囲のx,
y座標に関する全ての和、またはn毎の和を示す。
ε2 (dx, dy) = ΣΣε (dx + nx, dy + ny) (15-1) fd (x, δx, y, δy) = f (x, y) + δx * (f (x + n, y) −f (x, y )) + Δy * (f (x, y + n) −f (x, y)) (15-4) g1d (x, δx, y, δy) = g1 (x, y) + δx * (g1 (x−n, y) −g1 (x, y) + δy * (g1 (x, y−n) g1 (x, y)) (15-5) Co = f (x, y) −g1 (x, y) Ci = ( f (x + n, y) -f (x, y))-(g1 (x-n, y) -g1 (x, y)) (15-9) Cj = (f (x, y + n) -f (x , y))-(g1 (x, yn)-g1 (x, y)) where n is the pitch of the calculation of the intermediate value between pixels, and n-1, 2, 3,. ΣΣ in equation (1) means the sum of nx and ny from 0 to n, ΣΣ in equations (6) and (7) indicates x, ny in the range to be aligned.
Shows the sum of all y coordinates or the sum of every n.

(1)式のε2(dx,dy)を最小とする(dx,dy)に画
素単位で位置合わせして、x,y座標とも0とnの間に二
枚のパターンの差を最小とする位置((δx,δy)があ
るようにすればよい。
(1) The pixel is aligned to (dx, dy) which minimizes ε2 (dx, dy) in equation (1), and the difference between the two patterns between 0 and n in both x and y coordinates is minimized. The position ((δx, δy)) may be used.

本変形によれば、あらかじめ画素単位マッチング部で
位置合わせして置く範囲がラフでよい特徴がある。
According to this modification, there is a feature that the range to be aligned and placed in advance by the pixel unit matching unit may be rough.

また、本実施例の第五の変形は画素単位マッチング部
13を用いない。対象の条件によっては画素単位マッチン
グをしなくても(1)式のε2(dx,dy)を最小とする
位置(δx,δy)がx,y座標とも0と1の間にある。こ
の場合、画素単位の位置合わせは不要である。特に、本
実施例の第四の変形をした場合には不要となる可能性は
高い。本変形によれば、構成が簡単である特徴がある。
A fifth modification of the present embodiment is a pixel unit matching unit.
Do not use 13. Depending on the target condition, the position (δx, δy) that minimizes ε2 (dx, dy) in equation (1) is between 0 and 1 for both x and y coordinates without performing pixel unit matching. In this case, it is not necessary to perform positioning in pixel units. In particular, when the fourth modification of the present embodiment is performed, there is a high possibility that it becomes unnecessary. According to this modification, there is a feature that the configuration is simple.

また、本実施例の第六の変形は画素単位のマッチング
部13にサブピクセルマッチング部15と同じ方式を用い
る。このとき、一般には画素単位のマッチング部13には
第三の変形と第四の変形を付加する。つまり、記憶画像
gを(16)式でn画素シフトさせた後f,goに対して、
(17)式の平均値フィルタを作用させた、画素演算のピ
ッチnで演算を行う。また、式(10),(11)は式(1
8),(19)を用いる。本変形によれば、サブピクセル
マッチング二段のみなので、ハードウェア化する時には
同一構成の回路が二式となるので効率がよい特徴があ
る。
In a sixth modification of the present embodiment, the same method as the sub-pixel matching unit 15 is used for the matching unit 13 for each pixel. At this time, a third modification and a fourth modification are generally added to the matching unit 13 for each pixel. In other words, after the stored image g is shifted by n pixels according to the equation (16),
The calculation is performed at the pitch n of the pixel calculation with the average value filter of equation (17) applied. Equations (10) and (11) are obtained from equation (1).
Use 8) and (19). According to this modification, there are only two stages of sub-pixel matching, so that there are two sets of circuits having the same configuration when implemented in hardware, which is an efficient feature.

gs(x,y)=g(x+n,y+n) (16) fo(x,y)=ΣΣf(x+i,y+j) go(x,y)=ΣΣgs(x+i,y+j) (17) ΣΣはi,j=−m〜mの和を示す。 gs (x, y) = g (x + n, y + n) (16) fo (x, y) = {f (x + i, y + j) go (x, y) = {gs (x + i, y + j) (17)} is i, j = Sum of -m to m.

f2(x,y)=f(x,δx0,y,δy0) (18) g2(x,y)=gs(x+1,δx0,y+1,δy0) (19) また、本実施例の第七の変形は(4),(5)式を一
次式ではなく任意の式を用いて(7),(8)式を解析
的、または数値解析的に求めることができればこれらの
式を用いることができる。本変形によれば、任意の式を
用いることができるので、汎用性が高い特徴がある。
f2 (x, y) = f (x, δx0, y, δy0) (18) g2 (x, y) = gs (x + 1, δx0, y + 1, δy0) (19) A seventh modification of the present embodiment If the equations (4) and (5) can be determined analytically or numerically by using arbitrary equations instead of linear equations, these equations can be used. According to this modification, an arbitrary expression can be used, and therefore, there is a feature of high versatility.

次に、本発明の第二の実施例を第8図により説明す
る。第8図はパターンの位置誤差を検出するパターン認
識装置の構成図である。本パターン認識装置はウエハ1
を位置決めするXYステージ2とウエハを照明する光源3
と照明光学系4と照明されたウエハの光学像を検出する
対物レンズ5とTVカメラ22よりなる検出部と、TVカメラ
22の信号をデジタル化して記憶するためのA/D変換器7
と画像メモリ部8よりなる画像入力部9と、画像入力部
に入力された検出画像10と画像メモリ中の記憶画像11よ
り(7),(8)式で表される画素以下の位置合わせ量
δx0,δy0を計算するサブピクセルマッチング部15より
なる画像処理部20と、XYステージ2の制御と画像処理部
20より出力される情報の記憶や表示と全体シーケンスの
管理を行う計算機で構成された全体制御部21から構成さ
れる。
Next, a second embodiment of the present invention will be described with reference to FIG. FIG. 8 is a block diagram of a pattern recognition device for detecting a position error of a pattern. This pattern recognition device is a wafer 1
XY stage 2 for positioning wafer and light source 3 for illuminating wafer
A detection unit including an illumination optical system 4, an objective lens 5 for detecting an optical image of the illuminated wafer, and a TV camera 22, and a TV camera
A / D converter 7 for digitizing and storing 22 signals
And an image input unit 9 composed of an image memory unit 8, and a detected image 10 input to the image input unit and a stored image 11 in the image memory, and an alignment amount of a pixel or less represented by the equations (7) and (8). an image processing unit 20 including a sub-pixel matching unit 15 for calculating δx0 and δy0, and a control and image processing unit for the XY stage 2
It comprises an overall control unit 21 composed of a computer for storing and displaying information output from 20 and managing the overall sequence.

この構成によりパターン誤差を検出する動作を次に説
明する。まず、全体制御部21よりの指令で各部のイニシ
ャライズ後に、XYステージ2を駆動して位置決めし、光
源3と照明光学系4で照明されたウエハ1のパターンを
対物レンズ5を介してTVカメラ22で光電変換することに
より二次元のパターンを検出し、A/D変換器7でデジタ
ル化した二次元の検出画像10とし、得られた検出画像は
画像メモリ部8に記憶する。一つ前に検出して記憶して
おいた画像メモリ8中の記憶画像11を(20)式で一画素
シフトされた後(7),(8)式で位置の誤差δx0,δy
0を計算する。位置の誤差を全体制御部に渡す。
The operation of detecting a pattern error with this configuration will now be described. First, after initializing each unit according to a command from the overall control unit 21, the XY stage 2 is driven and positioned, and the pattern of the wafer 1 illuminated by the light source 3 and the illumination optical system 4 is passed through the objective lens 5 to the TV camera 22. Then, a two-dimensional pattern is detected by photoelectric conversion in step (2), and is converted into a two-dimensional detection image 10 digitized by the A / D converter 7. The obtained detection image is stored in the image memory unit 8. After the stored image 11 in the image memory 8 detected and stored immediately before is shifted by one pixel by the equation (20), the position errors δx0 and δy are calculated by the equations (7) and (8).
Calculate 0. The position error is passed to the overall control unit.

g1(x,y)=g(x+1,y+1) (20) 本発明によれば、パターンの位置合わせ情報をそのま
ま用いてパターンの位置誤差として出力しており、高精
度な位置誤差検出ができる特徴がある。
g1 (x, y) = g (x + 1, y + 1) (20) According to the present invention, a pattern position error is output using pattern alignment information as it is, so that a highly accurate position error detection is possible. There is.

本発明の第一の変形は検出画像10と記憶画像11より
(7),(8)式でδx0,δy0を計算する時に、画像に
マスキングをする方式がある。本変形によれば、ほしい
情報のみより位置の誤差δx0,δy0を計算でき、高精度
である特徴がある。
In the first modification of the present invention, there is a method of masking an image when calculating δx0 and δy0 from the detected image 10 and the stored image 11 by the equations (7) and (8). According to this modification, the position errors Δx0 and Δy0 can be calculated from only the desired information, which is a feature of high accuracy.

本発明の第二の変形はアライメントマークの検出に用
いて、位置の誤差情報をフィードバックすることによ
り、アラメントを行う。本変形によれば高精度なアライ
メントができる特徴がある。
In a second modification of the present invention, alignment is performed by feeding back positional error information used for detecting an alignment mark. According to this modification, there is a feature that highly accurate alignment can be performed.

本発明の第三の変形は角度検出に用いる。二点以上の
位置の誤差情報を基に角度の計算を行う。本変形によれ
ば高精度な角度検出ができる特徴がある。
A third variant of the invention is used for angle detection. The angle is calculated based on error information of two or more positions. According to this modification, there is a feature that highly accurate angle detection can be performed.

〔発明の効果〕〔The invention's effect〕

本発明によれば、パターンの位置合わせ精度を検出画
素サイズ以下としてサンプリング誤差の影響を軽減で
き、画素サイズと同程度の大きさの欠陥の検出を容易に
することができる。
According to the present invention, it is possible to reduce the influence of sampling errors by setting the pattern alignment accuracy to be equal to or smaller than the detection pixel size, and to facilitate detection of a defect having a size similar to the pixel size.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明の一実施例のブロック図、第2図(a)
〜(c)は従来一般的なパターン比較方式によるパター
ン欠陥検出方法の原理説明図、第3図(a)〜(e)は
第2図(a)〜(c)のパターン波形図、第4図(a)
〜(d)は本発明による第2図のパターンのサブピクセ
ルマッチング動作例の波形図、第5図は第4図(a)〜
(d)の数値の説明図、第6図は第1図の画素単位マッ
チング部の動作説明図、第7図は第一の実施例の変形の
説明図、第8図は本発明の第二の実施例を示す装置のブ
ロック図である。 1……ウエハ、2……XYステージ、3……光源、4……
照明光学系、5……対物レンズ、6……一次元イメージ
センサ、7……A/D変換器、8……画像メモリ部、9…
…画像入力部、10……検出画像、11……比較画像、12…
…画像取り出し部、13……マッチング部、14……画素単
位位置補正の終わった画像、15……サブピクセルマッチ
ング部、16……位置合わせ部、17……差画像、18……差
画像抽出部、19……欠陥判定部、20……画像処理部、21
……全体制御部、22……サブピクセル演算部、23……TV
カメラ。
FIG. 1 is a block diagram of one embodiment of the present invention, and FIG.
3 (a) to 3 (c) are explanatory diagrams of the principle of a pattern defect detection method using a conventional general pattern comparison method, FIGS. 3 (a) to 3 (e) are pattern waveform diagrams of FIGS. 2 (a) to 2 (c), and FIG. Figure (a)
4 (d) are waveform diagrams of an example of the sub-pixel matching operation of the pattern of FIG. 2 according to the present invention, and FIG.
FIG. 6 is an explanatory diagram of the numerical value of (d), FIG. 6 is an explanatory diagram of the operation of the pixel unit matching unit of FIG. 1, FIG. 7 is an explanatory diagram of a modification of the first embodiment, and FIG. FIG. 3 is a block diagram of an apparatus showing an embodiment of the present invention. 1 ... wafer, 2 ... XY stage, 3 ... light source, 4 ...
Illumination optical system, 5 ... objective lens, 6 ... one-dimensional image sensor, 7 ... A / D converter, 8 ... image memory unit, 9 ...
… Image input unit, 10… Detected image, 11… Comparative image, 12…
… Image extraction unit, 13… matching unit, 14… image after pixel unit position correction, 15… sub-pixel matching unit, 16… alignment unit, 17… difference image, 18… difference image extraction Unit, 19 ... Defect determination unit, 20 ... Image processing unit, 21
…… Overall control unit, 22 …… Sub-pixel operation unit, 23 …… TV
camera.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI H01L 21/66 G06F 15/62 405C (72)発明者 牧平 坦 神奈川県横浜市戸塚区吉田町292番地 株式会社日立製作所生産技術研究所内 (56)参考文献 特開 昭57−196377(JP,A) 特開 昭61−176807(JP,A) 特開 昭62−140009(JP,A) 特開 昭59−157505(JP,A) 特開 昭63−88682(JP,A) 特開 平3−177040(JP,A) (58)調査した分野(Int.Cl.6,DB名) G01B 11/00 - 11/30 G01N 21/84 - 21/91 G06T 1/00 - 9/20 H01L 21/64 - 21/66──────────────────────────────────────────────────の Continuation of the front page (51) Int.Cl. 6 Identification code FI H01L 21/66 G06F 15/62 405C (72) Inventor Takaki Makihira 292 Yoshida-cho, Totsuka-ku, Yokohama-shi, Kanagawa Prefecture Production technology of Hitachi, Ltd. (56) References JP-A-57-196377 (JP, A) JP-A-61-176807 (JP, A) JP-A-62-140009 (JP, A) JP-A-59-157505 (JP, A) JP-A-63-88682 (JP, A) JP-A-3-177040 (JP, A) (58) Fields investigated (Int. Cl. 6 , DB name) G01B 11/00-11/30 G01N 21 / 84-21/91 G06T 1/00-9/20 H01L 21/64-21/66

Claims (9)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】基板上に形成されたパターンを検出して画
像データを生成し、該画像データを用いて比較画像デー
タを作成し、前記画像データと前記比較画像データとに
基づいて前記画像データと前記比較画像データとのずれ
を画素以下の精度で互いに補正し、該ずれを補正した前
記画像データと前記比較画像データとを比較してパター
ンの欠陥を検出することを特徴とするパターン欠陥検出
方法。
An image data is generated by detecting a pattern formed on a substrate, comparative image data is created using the image data, and the image data is generated based on the image data and the comparative image data. Pattern defect detection, wherein a shift between the image data and the comparison image data is corrected with an accuracy of a pixel or less, and the image data corrected for the shift is compared with the comparison image data to detect a pattern defect. Method.
【請求項2】基板上に形成されたパターンを検出して画
像データを生成し、該画像データを用いて比較画像デー
タを作成し、前記画像データと前記比較画像データとに
基づいてずらすべき量を画素以下の精度で求め、該求め
たずらすべき量に基づいて前記画像データと前記比較画
像データとを画素以下の精度で互いにずらし、該互いに
ずらした前記画像データと前記比較画像データとを比較
してパターンの欠陥を検出することを特徴とするパター
ン欠陥検出方法。
2. A method for detecting a pattern formed on a substrate to generate image data, generating comparative image data using the image data, and determining an amount to be shifted based on the image data and the comparative image data. Is calculated with an accuracy of a pixel or less, and the image data and the comparative image data are mutually shifted with a precision of a pixel or less based on the obtained amount to be shifted, and the image data and the comparative image data shifted from each other are compared. And detecting a defect in the pattern.
【請求項3】前記画像データと前記比較画像データとを
互いにずらすことが、前記画像データと前記比較画像デ
ータとを互いに反対方向にずらして行うことを特徴とす
る請求項1または2記載のパターン欠陥検出方法。
3. The pattern according to claim 1, wherein the shifting of the image data and the comparison image data is performed by shifting the image data and the comparison image data in opposite directions. Defect detection method.
【請求項4】前記画像データと前記比較画像データとを
互いに反対方向にずらすことが、前記画像データと前記
比較画像データとを互いに反対方向に同じ量だけずらし
て行うことを特徴とする請求項3記載のパターン欠陥検
出方法。
4. The method according to claim 1, wherein the shifting of the image data and the comparison image data in opposite directions is performed by shifting the image data and the comparison image data in the opposite directions by the same amount. 3. The pattern defect detection method according to 3.
【請求項5】前記検出するパターンの欠陥が、前記画素
の寸法と同程度の大きさの欠陥であることを特徴とする
請求項1又は2に記載のパターン欠陥検出方法。
5. The pattern defect detecting method according to claim 1, wherein the defect of the pattern to be detected is a defect having a size substantially equal to the size of the pixel.
【請求項6】前記画素以下の位置合せは、複数画素を1
単位の画素として該1単位の画素位置の位置合せを行う
ことを特徴とする請求項2記載のパターン欠陥検出方
法。
6. The method of claim 1, wherein the alignment of the plurality of pixels or less is performed by a plurality of pixels.
3. The pattern defect detection method according to claim 2, wherein the position of the unit pixel is aligned as a unit pixel.
【請求項7】基板上に形成されたパターンを検出して画
像データを発生する画像データ発生手段と、該画像デー
タ発生手段で発生した前記画像データを用いて比較画像
データを作成する比較画像データ作成手段と、前記画像
データと前記比較画像データとに基づいてずらすべき量
を画素以下の精度で求めるずらし量算出手段と、該ずら
し量算出手段で求めたずらし量に基づいて前記画像デー
タと前記比較画像データとを互いにずらす補正手段と、
該補正手段で互いにずらした前記画像データと前記比較
画像データとを比較して前記パターンの欠陥を検出する
欠陥検出手段とを備えたことを特徴とするパターン欠陥
検出装置。
7. Image data generating means for detecting a pattern formed on a substrate and generating image data, and comparing image data for generating comparative image data using said image data generated by said image data generating means. Creating means, a shift amount calculating means for obtaining an amount to be shifted based on the image data and the comparison image data with an accuracy of less than a pixel, and the image data and the image data based on the shift amount obtained by the shift amount calculating means. Correction means for shifting the comparison image data from each other;
A defect detection unit for comparing the image data shifted by the correction unit with the comparison image data to detect a defect in the pattern.
【請求項8】前記比較画像データ作成手段が、前記画像
データを記憶する記憶部を備えていることを特徴とする
請求項7記載のパターン欠陥検出装置。
8. The pattern defect detecting device according to claim 7, wherein said comparison image data creating means includes a storage unit for storing said image data.
【請求項9】前記補正手段が、前記ずらし量算出手段で
求めたずらし量に基づいて前記画像データと前記比較画
像データとを互いに反対方向に同じ量ずらすことを特徴
とする請求項7記載のパターン欠陥検出装置。
9. The apparatus according to claim 7, wherein said correction means shifts said image data and said comparison image data by the same amount in opposite directions based on the shift amount obtained by said shift amount calculation means. Pattern defect detection device.
JP2322995A 1990-11-28 1990-11-28 Pattern defect detection method and apparatus Expired - Lifetime JP2796430B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2322995A JP2796430B2 (en) 1990-11-28 1990-11-28 Pattern defect detection method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2322995A JP2796430B2 (en) 1990-11-28 1990-11-28 Pattern defect detection method and apparatus

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP9208813A Division JPH1096613A (en) 1997-08-04 1997-08-04 Defect detection method and device thereof
JP20881297A Division JP3262030B2 (en) 1997-08-04 1997-08-04 Defect detection device

Publications (2)

Publication Number Publication Date
JPH04194702A JPH04194702A (en) 1992-07-14
JP2796430B2 true JP2796430B2 (en) 1998-09-10

Family

ID=18149969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2322995A Expired - Lifetime JP2796430B2 (en) 1990-11-28 1990-11-28 Pattern defect detection method and apparatus

Country Status (1)

Country Link
JP (1) JP2796430B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0743309A (en) * 1993-08-02 1995-02-14 Nec Corp Pattern inspection method
JP3484042B2 (en) * 1997-05-21 2004-01-06 株式会社日立製作所 Pattern inspection method and apparatus
JP3409670B2 (en) * 1997-11-28 2003-05-26 株式会社日立製作所 Appearance inspection method and apparatus
JP4002655B2 (en) * 1998-01-06 2007-11-07 株式会社日立製作所 Pattern inspection method and apparatus
US6947587B1 (en) 1998-04-21 2005-09-20 Hitachi, Ltd. Defect inspection method and apparatus
US7796801B2 (en) 1999-08-26 2010-09-14 Nanogeometry Research Inc. Pattern inspection apparatus and method
US6868175B1 (en) 1999-08-26 2005-03-15 Nanogeometry Research Pattern inspection apparatus, pattern inspection method, and recording medium
US7817844B2 (en) 1999-08-26 2010-10-19 Nanogeometry Research Inc. Pattern inspection apparatus and method
JP2007241356A (en) * 2006-03-06 2007-09-20 Fuji Xerox Co Ltd Image processor and image processing program
JP2008140360A (en) * 2006-11-02 2008-06-19 Konica Minolta Holdings Inc Image collation device
JP4943304B2 (en) 2006-12-05 2012-05-30 株式会社 Ngr Pattern inspection apparatus and method
JP5429869B2 (en) 2008-12-22 2014-02-26 株式会社 Ngr Pattern inspection apparatus and method
US8150140B2 (en) 2008-12-22 2012-04-03 Ngr Inc. System and method for a semiconductor lithographic process control using statistical information in defect identification
JP2011196952A (en) * 2010-03-23 2011-10-06 Nuflare Technology Inc Inspection device and method

Also Published As

Publication number Publication date
JPH04194702A (en) 1992-07-14

Similar Documents

Publication Publication Date Title
JP2796430B2 (en) Pattern defect detection method and apparatus
US5696835A (en) Apparatus and method for aligning and measuring misregistration
US7590280B2 (en) Position detection apparatus and exposure apparatus
JPH1096613A (en) Defect detection method and device thereof
JP2005308464A (en) Flaw detector and flaw detecting method
US5640243A (en) Position detection method
JPH09189519A (en) Pattern detection method and device for aligning positions of mask and work
US5978094A (en) Alignment device and method based on imaging characteristics of the image pickup system
JP3262030B2 (en) Defect detection device
JP2675167B2 (en) Pattern recognition method
JP3040845B2 (en) Alignment mark
US6327379B2 (en) Pattern inspection method and apparatus
JPH0140489B2 (en)
JPH03201454A (en) Aligning method for semiconductor device
JP2000099742A (en) Fault detection method and device therefor
JPH08181053A (en) Position detecting method
JP2001195583A (en) Position detector and exposure device using the same
JP2926118B2 (en) Defect detection method
JP2565585B2 (en) Position detection method for scribe line intersection area
JP3182517B2 (en) Defect detection apparatus and method
JP3654092B2 (en) Image recognition method
JPH104044A (en) Method for detecting pattern, method for detecting alignment mark and optical apparatus using the methods
JP2005292016A (en) Defect detector, and defect detecting method
JP4599893B2 (en) Misalignment detection method
KR100282340B1 (en) Alignment test Target insertion pattern insertion method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080626

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080626

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090626

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100626

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100626

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110626

Year of fee payment: 13

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110626

Year of fee payment: 13