JP4532640B2 - Position detection apparatus and exposure apparatus using the same - Google Patents

Position detection apparatus and exposure apparatus using the same Download PDF

Info

Publication number
JP4532640B2
JP4532640B2 JP2000005350A JP2000005350A JP4532640B2 JP 4532640 B2 JP4532640 B2 JP 4532640B2 JP 2000005350 A JP2000005350 A JP 2000005350A JP 2000005350 A JP2000005350 A JP 2000005350A JP 4532640 B2 JP4532640 B2 JP 4532640B2
Authority
JP
Japan
Prior art keywords
image
mark
position detection
edge
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000005350A
Other languages
Japanese (ja)
Other versions
JP2001195583A (en
JP2001195583A5 (en
Inventor
正基 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2000005350A priority Critical patent/JP4532640B2/en
Publication of JP2001195583A publication Critical patent/JP2001195583A/en
Publication of JP2001195583A5 publication Critical patent/JP2001195583A5/ja
Application granted granted Critical
Publication of JP4532640B2 publication Critical patent/JP4532640B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は位置検出装置及びそれを用いた露光装置に関するもので、特にIC,LSI等の半導体デバイス、CCD等の撮像デバイス、そして液晶パネル等の表示デバイス等のデバイス製造用のステップアンドリピート方式やステップアンドスキャン方式等の露光装置(投影露光装置)においてレチクル面上に形成された微細な電子回路パターンをウエハ(感光基板)に露光転写又は投影光学系で投影露光するときのレチクルとウエハとの相対的な位置合わせ(アライメント)をパターンマッチングを利用して行なうときのレチクル又はウエハの位置情報を検出する際に好適なものである。
【0002】
【従来の技術】
半導体素子製造用の投影露光装置において、レチクルとウエハの相対位置合わせの高精度化は半導体素子の高集積化を図る為の重要な一要素となっており、最近では半導体素子の微細化に伴いサブミクロン以下の位置合わせ精度が要求されている。
【0003】
この為、半導体素子製造用の投影露光装置には位置検出装置が搭載されており、該位置検出装置においてレチクルとウエハとの位置検出(アライメント)を行っている。このときのアライメント方式には様々な方法が知られている。その中の一方法にパターンマッチング方法がある。
【0004】
従来のパターンマッチング方式による位置検出方法では、被検物上(レチクル又はウエハ上)の位置合わせマーク等のパターンをCCDカメラ等で撮像し、該撮像された映像信号を画像処理手段へ入力し、該画像処理手段では、あらかじめ指定されている閾値または、該映像信号からPタイル法や統計的手法により算出された閾値で、該映像信号を2値化し、該2値化画像とあらかじめ登録されている基準パターン(テンプレート)とを比較し、パターンの相関度すなわち、一致した割合が最大となる座標を算出することにより、該被検物の位置座標を検出する方法が広く用いられている(第1の従来例)。
【0005】
また、特開昭63−054680号公報では前記2値化手段の際に、所定画素数単位に分割された小領域ごとに画像濃度ヒストグラムを算出し、該ヒストグラムデータに基づき該各小領域の2値化閾値を算出する手段を有する位置検出方法を提案している(第2の従来例)。
【0006】
【発明が解決しようとする課題】
第1の従来例では、2値化画像を得るための閾値算出手段にさまざまな工夫を凝らした変化例も知られているが、一般的に照明光の照度ムラが大きい場合や位置合わせマークと背景とのコントラストが低い場合には、該閾値が安定せず検出率が低くなるという問題点があった(第1の問題点)。
【0007】
特に、半導体製造の露光工程では、位置合わせマークの上にさまざまな薄膜を形成するため、その膜厚のバラツキ等によって同一装置においてもマークおよび背景からの照明光の反射率が変化し、マークが背景に対し明るく見えたり、逆に暗く見えたりする場合があり、2値画像が安定せず検出率が低くなるという問題点があった(第2の問題点)。
【0008】
一方、第2の従来例では、上記第1の問題点を改善すべく特定小領域に分割して2値化閾値を算出することにより照度ムラ等に影響されにくい位置検出装置を提案している。
【0009】
しかしながら、第2の従来例においても、位置合わせ用マークが分割された小領域に占める割合によって閾値が微妙に変化し、特に分割小領域の境目において2値画像が連続しないため、同一被検物でも位置を変えて撮像した場合に安定して検出できないという問題点があった(第3の問題点)。
【0010】
また、第2の問題点については、一般的に膜の分光反射率特性から膜ごとに照明光源の波長を変えたり、同一製品内のバラツキについては一度撮像された画像信号の平均輝度等によって照明光量を制御して、再度位置合わせマークを撮像してから2値化するという方法が一般的に行われている。
【0011】
しかしながら、照明光源の波長を変えるための装置の改造には多大な時間と費用がかかる。また、照明光量を制御する方法では、検出時間がかかるという問題点があった(第4の問題点)。
【0012】
本発明は、照度ムラや照明光量の変動・低コントラストな映像信号に対して影響されにくいマークの位置検出を、画像処理手段のソフトウェアアルゴリズムを適切に設定することで実現し、検出時間を増やすことなく検出率を大幅に向上させることができる位置検出装置及びそれを用いた露光装置の提供を目的としている。
【0013】
【課題を解決するための手段】
請求項1の発明の位置検出装置は、被検物上の位置合わせ用のマークを照明する照明手段と、該マークを撮像する撮像手段と、該撮像手段より得られる該マークに関する画像信号を画像処理し、あらかじめ記憶手段に記憶してある基準パターンとの比較を行なうことによってマークの位置情報を検出する画像処理手段とを有した位置検出装置において、該画像処理手段は該画像信号に対し空間2次微分によるエッジ強調処理を行ない、該空間2次微分画像の正側を+側エッジ画像、負側を−側エッジ画像として抽出するエッジ強調部を有し、該抽出された+側エッジ画像と該基準パターンとの相関度と、該抽出された−側エッジ画像と該基準パターンとの相関度とをそれぞれ求め、該相関度の高い方の画像から該マークの位置情報を検出することを特徴としている。
【0014】
請求項2の発明は請求項1の発明において、前記画像処理手段は画像信号を輝度信号に変換する輝度変換テーブル作成部と該輝度変換テーブル作成部に従って画像変換する画像変換部とを有し、該輝度変換テーブル作成部は画像信号のコントラスト差の3倍を限度としてコントラスト強調することを特徴としている。
【0015】
請求項3の発明は請求項1の発明において、前記画像処理手段は前記被検物上の位置合わせマークが、前記撮像手段で合焦している場合に該マークの線幅が2Pixelになるよう、画像信号に対し縮小処理した後にエッジ強調処理を行なうことを特徴としている。
【0016】
請求項4の発明の露光装置は、請求項1から3のいずれか1項記載の位置検出装置を用いて第1物体と第2物体との相対的な位置合わせを行った後に、該第1物体面上のパターンを第2物体面上に露光転写することを特徴としている。
【0017】
請求項5の発明のデバイスの製造方法は、請求項1から3のいずれか1項記載の位置検出装置を用いてレチクルとウエハとの相対的な位置合わせを行った後に該レチクル面上のパターンをウエハ面上に露光転写した後に該ウエハを現像処理工程を介してデバイスを製造することを特徴としている。
【0018】
【発明の実施の形態】
図1は、本発明の実施形態1を示すフローチャートである。図2は図1のフローチャートにおいてコントラスト強調手段で画像信号のコントラスト強調処理を行うときの概略図を示している。図3〜図5は図1のフローチャートにおいてエッジ強調手段でエッジ強調処理を行う概略図を示す。図6は本発明の位置検出装置を用いた投影露光装置の要部概略図である。
【0019】
まず、図6の半導体製造用の投影露光装置の概要について説明する。
【0020】
同図においてRは原板であるレチクル、Wは基板であるウエハ、1は投影光学系である。また、Gは位置合わせ用光学系、2は位置合わせ用照明手段、3はビームスプリッタ、4と5は結像光学系、6は撮像手段、7は画像処理手段、8はエッジ強調手段、9は照明手段、10はステージ駆動手段、11は2次元に移動可能なXYステージである。
【0021】
図6ではX方向の位置を計測する位置合わせ光学系Gのみを示したが、同装置にはX方向と同様にY方向の位置を計測する不図示の位置合わせ光学系も搭載されている。図6に示した半導体製造用の投影露光装置はレチクルRとウエハWの相対的な位置検出して位置合わせした後、照明手段9からの露光照明光源から露光光を照明し、レチクルR上に形成されている電子回路パターンを投影光学系1を介してXYステージ11上に載置したウエハWに投影露光する。
【0022】
次に、図6の装置におけるレチクルRとウエハWの位置合わせについて説明する。
【0023】
非露光光を照射する位置合わせ照明手段2から照射された光束は、結像光学系4、ビームスプリッタ3、レチクルR、および投影光学系1を介して、ウエハ上に形成された位置合わせ用マーク(以降アライメントマークと称する)AMを照明する。アライメントマークAMから反射した光束は、再度投影光学系1、レチクルRを通ってビームスプリッタ3で反射し、結像光学系5を介して撮像手段6の撮像面上にアライメントマークの像WMを形成する。撮像手段6は形成されたマークの像WMを光電変換し、該光電変換された信号は画像処理手段7に入力される。画像処理手段7は後述する画像処理を行い、アライメントマークAMの位置を計測する。
【0024】
以上の手順を繰り返して計測したウエハ上複数個の点の位置情報や、予め不図示の方法により求めた撮像手段6とレチクルRとの相対的な位置情報に基づき、ステージ駆動手段10によりXYステージ11を移動して、マスクとウエハの位置合わせを行なっている。
【0025】
本実施形態ではこのような位置検出装置を用いてレチクルとウエハとの相対的な位置合わせを行った後に該レチクル面上のパターンをウエハ面上に露光転写した後に該ウエハを現像処理工程を介してデバイスを製造している。
【0026】
次に、図1〜図5を用いて発明における位置検出装置を説明する。
【0027】
本発明における位置検出装置では、図1のフローチャートに示すように、まずステップS1で、位置合わせマーク(アライメントマーク)AMをCCDカメラ等の撮像手段6で撮像し、該撮像信号を画像処理手段7に取り込み(図1−A)、次にステップS2で、該撮像信号に対し縮小処理を施し(図1−B)、ステップS3で該縮小画像に対しコントラスト強調手段でコントラスト強調処理を施し(図1−C)、その後、ステップS4でエッジ強調手段でエッジ強調処理を行ない+側エッジ画像(図1−D)と−側エッジ画像(図1−E)とを算出し、ステップS5で両エッジ画像とあらかじめ記憶手段に記憶されている基準マークとのパターンマッチングを行ない、相関度の高い方の画像から位置座標を算出することによって、マークの位置情報の検出を行なっている。
【0028】
図1のステップS2の縮小処理手段では、縮小後の位置合わせマークの線幅が2Pixel程度となるように、1/2に縮小する処理を施している。該縮小処理は、例えば単に画素を間引く処理でも良いし、2×2画素の平均値を採用しても良い。
【0029】
次に図1のステップS3のコントラスト強調手段によるコントラスト強調処理を図2を用いて説明する。
【0030】
一般に、コントラストの悪い画像は図2−Aに示すように、輝度分布が一定の範囲に集中している。これを図2−Bに示すように、輝度分布範囲を広げるように画像変換部で画像を変換する処理がコントラスト強調処理である。
【0031】
まず、上記縮小後の画像(図1−B)から輝度ヒストグラムを算出し、該輝度ヒストグラムに基づき輝度変換テーブルを作成する。該輝度変換テーブルは、元の画像における最小輝度と最大輝度の範囲内の値を、出力の最小値から最大値の範囲に一次変換するテーブルである。輝度変換テーブル部は、この時、出力値の幅(最大値−最小値)が、入力値の幅(最大輝度−最小輝度)の3倍を越えないように該輝度変換テーブルを作成する。図2−Cは、この時の輝度変換テーブルに関する説明図である。そして、この輝度変換テーブルに基づいて入力輝度に対して出力輝度を設定し、図2−Aの画像を図2−Bの画像の如くして画像の最大輝度と最小輝度の差が拡大するようにしている。
【0032】
次に、図1のステップS4のエッジ強調手段によるエッジ強調処理を図3〜図5を用いて説明する。
【0033】
図3は、本実施形態におけるエッジ強調処理を示すフローチャートである。まず、ステップ11で正規関数による平滑化フィルタ処理を行なう。これは、次の空間2次微分フィルタによるエッジ強調処理において、ノイズ成分を強調しすぎないようにするためである。
【0034】
画像f(x,y)に対する、平均0・分散σ2の正規関数(ガウス関数)は、次式で表される。
G(x,y)=(1/2πσ2)・exp(-(x2+y2)/2)
画像f(x,y)に対し、G(x,y)をたたみ込むことによって得られる平滑化画像をF(x,y)とすると、
F(x,y)=G(x,y)*f(x,y)=∬G(x+u,y+v)・f(x,y)dudv
となる。
【0035】
すなわち、該正規関数G(x,y)はσの値によって平滑化の度合い(ボケ具合)が変化する。具体的には、画像f(x,y)は離散的なディジタル画像として処理するため、例えば3×3の重み係数を
【0036】
【表1】

Figure 0004532640
【0037】
とし、画素(i,j)とその近傍8点の計9点に対し、上記重み係数を掛けて正規化する。
【0038】
したがって、画素(i,j)の平滑化画像F(x,y)は、
【0039】
【数1】
Figure 0004532640
【0040】
となる。
【0041】
また、平滑化の度合い(ボケ具合)は、上記演算を繰り返し行なうことによって実現できる。繰り返し回数を増やすことにより、よりボケた画像となる。
【0042】
次に、ステップS12で前記平滑化画像に対し空間2次微分フィルタ処理を行なう。空間2次微分(ラプラシアン)は、次式で表される。
【0043】
【数2】
Figure 0004532640
【0044】
ただし、fxx(x,y),fyy(x,y)はそれぞれx方向、y方向の2次微分を表す。2次微分はディジタル画像においては画素間の差分の差分で算出する。すなわち、画素(i,j)における2次微分は、
Figure 0004532640
となり、これらを線形結合すると、重み係数は
【0045】
【表2】
Figure 0004532640
【0046】
となる。同様に45°方向も考慮すると、
【0047】
【表3】
Figure 0004532640
【0048】
となる。
【0049】
具体的には、画素(i,j)とその近傍8点の計9点に対し、上記3×3の重み係数を掛けて正規化する。したがって、画素(i,j)の空間2次微分画像∇2f(i,j)は、
【0050】
【数3】
Figure 0004532640
【0051】
となる。
【0052】
次に、ステップS13で該空間2次微分画像からエッジ部分を2値化して抽出する。
【0053】
エッジ抽出の方法としては、一般的に0交差法と呼ばれる手法が用いられるが、本実施例においては以下の理由から0交差法を採用しない。▲1▼0交差法によってエッジを抽出するためには処理時間がかかるため。
▲2▼0交差法によって抽出されるエッジは1Pixel幅となるため、その後のパターンマッチング処理に鑑みると、撮像されたアライメントマークの主にディフォーカスによって発生する大きさの変化に影響を受け易く、検出率が悪化する要因となるため。
▲3▼0交差法によってエッジを抽出する場合、理想は1Pixel幅のエッジとなるが、特に低コントラストの画像に対しては、背景ノイズ等の影響により抽出されたエッジ部分がかすれたり非連続となったりするため、パターンマッチングによる基準パターンとの相関度が低下する要因となるため。
【0054】
図4は、画像の例えばx方向における輝度断面とその1次微分および2次微分を表しており、一般に(a)をstep型のエッジ、(b)をline型のエッジ、(c)をroof型のエッジと呼んでいるが、本実施形態においてはエッジ検出の方法として、前記空間2次微分画像の+側と−側をそれぞれ+側エッジ画像、−側エッジ画像として抽出する。
【0055】
図5は、フォーカス合焦時とディフォーカス時のそれぞれについて、位置合わせマークと背景との輝度関係において、該マークが背景に比べて明るい場合(白マーク)と暗い場合(黒マーク)の前記+側エッジ画像と−側エッジ画像を示している。
【0056】
同図において、フォーカス合焦時には、画像A1とB2、画像B1とA2はほぼ同じ画像となるため、例えば画像A1を基準パターンとして画像A1,A2,B1,B2に対してパターンマッチングを行なうと、白マークの場合には画像A1が画像B1に対して相関度が高くなり、同様に黒マークの場合には画像B2が画像A2に対して相関度が高くなる。
【0057】
一方、フォーカス合焦時とディフォーカス時とを比較すると、例えば画像A1と画像A3に対して画像A1の画像を基準パターンとしてパターンマッチングを行なうと、画像A1の相関度は高いが画像A3はエッジがマークの内側と外側にずれているので相関度が低くなる。
【0058】
しかしながら、画像B1とB3に対して画像B1を基準パターンとしてパターンマッチングを行なうと、画像B3のエッジ部分は画像B1のエッジ部分を含むため、画像B1とB3ともに相関度は高くなる。
【0059】
本実施形態においては、画像B1を基準パターンとしてパターンマッチングを行なうことにより、フォーカス合焦時においてもディフォーカス時においても、白マークの場合においても黒マークの場合においても、同一の基準パターンでパターンマッチングを行ない、マーク位置を検出することができる。
【0060】
以上のように本実施形態では、被検物上の位置合わせマークを上方から照明する照明手段と、被検物からの反射光を撮像するCCDカメラ等の撮像手段と、該撮像された画像信号を処理する画像処理手段とを有し、該画像処理手段では、該撮像画像を画像処理した後あらかじめ記録されている基準パターンとの比較を行なうことによってマーク位置を検出するパターンマッチング方式の位置検出方法を利用している。
【0061】
そして、該画象処理手段は縮小処理手段とコントラスト強調処理手段とエッジ強調手段とを具備し、被検物上の位置合わせマークの線幅が合焦している場合に2Pixel程度となるよう該撮像画像を縮小し、該縮小画像をコントラスト強調処理後にエッジ強調処理を行ない、該エッジ強調処理によって+側エッジ画像と−側エッジ画像とを抽出し、該抽出された両エッジ画像と基準パターンとの相関度を算出し、相関度の高い画像を用いてマーク位置検出している。
【0062】
本実施形態のエッジ強調手段は、位置合わせマークのエッジ部分のような輝度変化の厳しい部分のみを抽出するように作用するため、背景の照度ムラ等に影響されないという効果がある。
【0063】
また、エッジ部分でパターンマッチングを行なうため、従来例のように2値化の閾値を正確に算出・設定するための複雑で不安定な処理が必要なく、また、照明光量を変更しながら撮像するといった余分な処理も不要であるため、短時間で安定した位置検出が行なえるという効果がある。
【0064】
さらに、エッジ強調手段で+側エッジと−側エッジの両方のエッジ画像を抽出するため、該位置合わせマークと背景との輝度関係が逆転し該マーク部分が明るい場合と暗い場合の双方において、同じ基準パターンで位置検出ができるため、検出率が向上するという効果がある。
【0065】
又、コントラスト強調手段は低コントラストな映像信号(画像信号)の輝度差を広げるように作用するため、その後のエッジ強調手段でエッジを明瞭に抽出しやすくなるという効果がある。
【0066】
また、上記コントラスト強調処理手段において、原画像のコントラスト差の3倍を限度としてコントラスト強調することにより、低コントラストな画像に対して背景のノイズ成分が過度に強調されるのを防ぐように作用するため、ノイズによる誤検出を防ぐことができ、検出率が向上するという効果がある。
【0067】
又、縮小処理手段は、その後の画像処理手段において処理範囲を狭くする作用があるため、位置検出時間の短縮ができるという効果がある。
【0068】
また、被検物上の位置合わせマークの線幅が画像処理手段で2Pixel程度になるよう縮小することにより、ディフォーカスにより位置合わせマークの線幅が多少太くなった場合においても、パターンマッチングすることができるため、ディフォーカス特性が向上するという効果がある。
【0069】
次に本発明の実施形態2について説明する。
【0070】
実施形態1では、エッジ強調処理において空間2次微分フィルタ処理でエッジ強調したが、本実施形態では平滑化フィルタと原画像との差分を算出することによりエッジ強調している。
【0071】
例えば、平滑化フィルタとして平均値フィルタを用いると、画素(i,j)の平滑化画像H(i,j)は、
【0072】
【数4】
Figure 0004532640
【0073】
となり、該平均値フィルタによる平滑化画像と原画像との差分を算出してエッジ画像とする。この他の構成は実施形態1と同様である。
【0074】
【発明の効果】
本発明によれば、照度ムラや照明光量の変動・低コントラストな映像信号に対して影響されにくいマークの位置検出を、画像処理手段のソフトウェアアルゴリズムを適切に設定することで実現し、検出時間を増やすことなく検出率を大幅に向上させることができる位置検出装置及びそれを用いた露光装置を達成することができる。
【図面の簡単な説明】
【図1】 本発明の実施形態1の動作を示すフローチャート
【図2】 図1におけるコントラスト強調処理の説明図
【図3】 図1におけるエッジ強調処理の説明図
【図4】 図1におけるエッジ強調処理の説明図
【図5】 図1におけるエッジ強調処理の説明図
【図6】 本発明の位置検出装置の要部概略図
【符号の説明】
1 投影光学系
2 位置合わせ用照明手段
3 ビームスプリッタ
4 結像光学系
5 結像光学系
6 撮像手段
7 画像処理手段
8 エッジ強調手段
9 照明手段
10 ステージ駆動手段
11 XYステージ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a position detection apparatus and an exposure apparatus using the same, and in particular, a step-and-repeat method for manufacturing devices such as semiconductor devices such as IC and LSI, imaging devices such as CCD, and display devices such as liquid crystal panels, In a step-and-scan exposure apparatus (projection exposure apparatus), a fine electronic circuit pattern formed on a reticle surface is exposed to a wafer (photosensitive substrate) by exposure transfer or projection exposure using a projection optical system. This is suitable for detecting position information of a reticle or wafer when performing relative alignment (alignment) using pattern matching.
[0002]
[Prior art]
In a projection exposure apparatus for manufacturing semiconductor elements, increasing the precision of the relative alignment between the reticle and the wafer is an important element for achieving higher integration of semiconductor elements. Sub-micron alignment accuracy is required.
[0003]
For this reason, a projection exposure apparatus for manufacturing semiconductor elements is equipped with a position detection apparatus, which performs position detection (alignment) between the reticle and the wafer. Various methods are known as alignment methods at this time. One of them is a pattern matching method.
[0004]
In a conventional position detection method using a pattern matching method, a pattern such as an alignment mark on a test object (on a reticle or wafer) is imaged with a CCD camera or the like, and the captured video signal is input to an image processing means. In the image processing means, the video signal is binarized at a predetermined threshold value or a threshold value calculated from the video signal by a P-tile method or a statistical method, and the binarized image is registered in advance. A method for detecting the position coordinates of the test object by calculating the degree of correlation of the patterns, that is, the coordinates at which the matching ratio is maximum, is widely used. Conventional example 1).
[0005]
In Japanese Patent Laid-Open No. 63-054680, the binarization means calculates an image density histogram for each small area divided in units of a predetermined number of pixels, and 2 of each small area is based on the histogram data. A position detection method having means for calculating a threshold value is proposed (second conventional example).
[0006]
[Problems to be solved by the invention]
In the first conventional example, there are known examples of changes in which the threshold calculation means for obtaining a binarized image has been devised in various ways. However, in general, when the illuminance unevenness of illumination light is large, When the contrast with the background is low, there is a problem that the threshold value is not stable and the detection rate is low (first problem).
[0007]
In particular, in the exposure process of semiconductor manufacturing, various thin films are formed on the alignment mark. Therefore, the reflectance of illumination light from the mark and the background changes even in the same apparatus due to variations in film thickness, etc. The background may appear brighter or darker, and there is a problem that the binary image is not stable and the detection rate is low (second problem).
[0008]
On the other hand, the second conventional example proposes a position detection device that is less affected by uneven illuminance and the like by calculating a binarization threshold by dividing into specific small areas in order to improve the first problem. .
[0009]
However, even in the second conventional example, the threshold value slightly changes depending on the ratio of the alignment mark to the divided small area, and the binary image does not continue particularly at the boundary between the divided small areas. However, there is a problem that stable detection cannot be performed when the position is changed (third problem).
[0010]
As for the second problem, generally, the wavelength of the illumination light source is changed for each film from the spectral reflectance characteristics of the film, or the variation in the same product is illuminated by the average luminance of the image signal once taken. A method is generally used in which the amount of light is controlled and the alignment mark is imaged again and then binarized.
[0011]
However, it takes a lot of time and money to modify the apparatus for changing the wavelength of the illumination light source. Further, the method of controlling the amount of illumination light has a problem that it takes a detection time (fourth problem).
[0012]
The present invention realizes mark position detection that is hardly affected by illuminance unevenness, fluctuation of illumination light quantity, and low-contrast video signals by appropriately setting the software algorithm of the image processing means, and increases the detection time. It is an object of the present invention to provide a position detection apparatus capable of greatly improving the detection rate and an exposure apparatus using the position detection apparatus.
[0013]
[Means for Solving the Problems]
The position detection device according to the first aspect of the present invention provides an illuminating means for illuminating a mark for alignment on a test object, an imaging means for imaging the mark, and an image signal relating to the mark obtained from the imaging means. In the position detection apparatus, the image processing means detects the position information of the mark by comparing with a reference pattern that has been processed and stored in advance in the storage means. An edge enhancement unit that performs edge enhancement by secondary differentiation and extracts the positive side of the spatial secondary differential image as a positive side edge image and the negative side as a negative side edge image, and the extracted positive side image and issued correlation and, extract with the reference pattern - seeking the correlation degree between the side edge image and said reference pattern respectively, to detect the position information of the mark from the side of the image with a high correlation degree It is characterized by a door.
[0014]
According to a second aspect of the present invention, in the first aspect of the invention, the image processing unit includes a luminance conversion table creating unit that converts an image signal into a luminance signal, and an image converting unit that performs image conversion according to the luminance conversion table creating unit, The luminance conversion table creation unit is characterized in that contrast enhancement is performed up to three times the contrast difference of the image signal.
[0015]
According to a third aspect of the present invention, in the first aspect of the present invention, the image processing means is configured such that when the alignment mark on the test object is focused by the imaging means, the line width of the mark becomes 2 pixels. The image processing apparatus is characterized in that the edge enhancement process is performed after the image signal is reduced.
[0016]
An exposure apparatus according to a fourth aspect of the present invention is the first exposure apparatus after the first object and the second object are relatively aligned using the position detection apparatus according to any one of the first to third aspects. A pattern on the object plane is exposed and transferred onto the second object plane.
[0017]
According to a fifth aspect of the present invention, there is provided a method for manufacturing a device, comprising: performing a relative alignment between a reticle and a wafer using the position detecting device according to any one of the first to third aspects; The device is manufactured by exposing and transferring the wafer onto the wafer surface and then developing the wafer through a development process.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a flowchart showing Embodiment 1 of the present invention. FIG. 2 shows a schematic diagram when contrast enhancement processing of an image signal is performed by the contrast enhancement means in the flowchart of FIG. 3 to 5 are schematic diagrams for performing edge enhancement processing by edge enhancement means in the flowchart of FIG. FIG. 6 is a schematic view of the main part of a projection exposure apparatus using the position detection apparatus of the present invention.
[0019]
First, an outline of the projection exposure apparatus for semiconductor production in FIG. 6 will be described.
[0020]
In the figure, R is a reticle as an original plate, W is a wafer as a substrate, and 1 is a projection optical system. G is a positioning optical system, 2 is a positioning illumination unit, 3 is a beam splitter, 4 and 5 are imaging optical systems, 6 is an imaging unit, 7 is an image processing unit, 8 is an edge enhancement unit, 9 Are illumination means, 10 is a stage drive means, and 11 is an XY stage movable in two dimensions.
[0021]
Although only the alignment optical system G for measuring the position in the X direction is shown in FIG. 6, the alignment optical system (not shown) for measuring the position in the Y direction as well as the X direction is mounted on the apparatus. The projection exposure apparatus for manufacturing a semiconductor shown in FIG. 6 detects and aligns the relative positions of the reticle R and the wafer W, then illuminates the exposure light from the exposure illumination light source from the illumination means 9, and onto the reticle R. The formed electronic circuit pattern is projected and exposed to the wafer W placed on the XY stage 11 via the projection optical system 1.
[0022]
Next, alignment between the reticle R and the wafer W in the apparatus of FIG. 6 will be described.
[0023]
The light beam emitted from the alignment illumination means 2 for irradiating the non-exposure light is aligned with the alignment mark formed on the wafer via the imaging optical system 4, the beam splitter 3, the reticle R, and the projection optical system 1. The AM (hereinafter referred to as an alignment mark) is illuminated. The light beam reflected from the alignment mark AM is reflected again by the beam splitter 3 through the projection optical system 1 and the reticle R, and an image W M of the alignment mark is formed on the imaging surface of the imaging means 6 via the imaging optical system 5. Form. The imaging unit 6 photoelectrically converts the formed mark image W M, and the photoelectrically converted signal is input to the image processing unit 7. The image processing means 7 performs image processing, which will be described later, and measures the position of the alignment mark AM.
[0024]
Based on the positional information of a plurality of points on the wafer measured by repeating the above procedure, and the relative positional information of the imaging means 6 and the reticle R obtained in advance by a method not shown, the stage driving means 10 uses the XY stage. 11, the mask and the wafer are aligned.
[0025]
In this embodiment, after performing relative alignment between the reticle and the wafer using such a position detection device, the pattern on the reticle surface is exposed and transferred onto the wafer surface, and then the wafer is subjected to a development processing step. The device is manufactured.
[0026]
Next, the position detection apparatus in the invention will be described with reference to FIGS.
[0027]
In the position detection apparatus according to the present invention, as shown in the flowchart of FIG. 1, first, in step S1, an alignment mark (alignment mark) AM is imaged by an imaging means 6 such as a CCD camera, and the imaging signal is image processing means 7. Then, in step S2, the imaging signal is reduced (FIG. 1B), and in step S3, the reduced image is subjected to contrast enhancement processing by contrast enhancement means (FIG. 1B). 1-C), then, edge enhancement is performed by the edge enhancement means in step S4 to calculate a + side edge image (FIG. 1-D) and a − side edge image (FIG. 1-E), and in step S5 both edges Pattern matching between the image and the reference mark stored in advance in the storage means is performed, and the position coordinates are calculated from the image with the higher degree of correlation. It is performed to detect the location information.
[0028]
In the reduction processing means in step S2 of FIG. 1, a process of reducing the alignment mark to 1/2 is performed so that the line width of the alignment mark after reduction is about 2 pixels. The reduction process may be, for example, a process of thinning out pixels or an average value of 2 × 2 pixels.
[0029]
Next, contrast enhancement processing by the contrast enhancement means in step S3 in FIG. 1 will be described with reference to FIG.
[0030]
In general, an image with poor contrast has a luminance distribution concentrated in a certain range, as shown in FIG. As shown in FIG. 2B, the process of converting the image by the image conversion unit so as to widen the luminance distribution range is the contrast enhancement process.
[0031]
First, a luminance histogram is calculated from the reduced image (FIG. 1B), and a luminance conversion table is created based on the luminance histogram. The luminance conversion table is a table that primarily converts a value within the range of the minimum luminance and the maximum luminance in the original image from the minimum value of the output to the maximum value range. At this time, the luminance conversion table unit creates the luminance conversion table so that the width of the output value (maximum value-minimum value) does not exceed three times the width of the input value (maximum luminance-minimum luminance). FIG. 2C is an explanatory diagram regarding the luminance conversion table at this time. Then, the output brightness is set with respect to the input brightness based on this brightness conversion table, and the difference between the maximum brightness and the minimum brightness of the image is enlarged as in the image of FIG. 2-B. I have to.
[0032]
Next, edge enhancement processing by the edge enhancement unit in step S4 in FIG. 1 will be described with reference to FIGS.
[0033]
FIG. 3 is a flowchart showing edge enhancement processing in the present embodiment. First, in step 11, a smoothing filter process using a normal function is performed. This is to prevent the noise component from being excessively emphasized in the edge enhancement processing by the next spatial secondary differential filter.
[0034]
A normal function (Gaussian function) with mean 0 and variance σ 2 for the image f (x, y) is expressed by the following equation.
G (x, y) = (1 / 2πσ 2 ) ・ exp (-(x 2 + y 2 ) / 2)
If F (x, y) is a smoothed image obtained by convolving G (x, y) with respect to image f (x, y),
F (x, y) = G (x, y) * f (x, y) = ∬G (x + u, y + v) ・ f (x, y) dudv
It becomes.
[0035]
That is, the smoothing degree (blurring degree) of the normal function G (x, y) varies depending on the value of σ. Specifically, since the image f (x, y) is processed as a discrete digital image, for example, a weighting factor of 3 × 3 is used.
[Table 1]
Figure 0004532640
[0037]
And normalizing the pixel (i, j) and its neighboring 8 points by a total of 9 points by multiplying the weighting factor.
[0038]
Therefore, the smoothed image F (x, y) of the pixel (i, j) is
[0039]
[Expression 1]
Figure 0004532640
[0040]
It becomes.
[0041]
Further, the degree of smoothing (the degree of blur) can be realized by repeating the above calculation. By increasing the number of repetitions, the image becomes more blurred.
[0042]
Next, spatial secondary differential filter processing is performed on the smoothed image in step S12. The spatial second derivative (Laplacian) is expressed by the following equation.
[0043]
[Expression 2]
Figure 0004532640
[0044]
Here, f xx (x, y) and f yy (x, y) represent the second derivative in the x direction and the y direction, respectively. The secondary differentiation is calculated as a difference between pixels in a digital image. That is, the second derivative at pixel (i, j) is
Figure 0004532640
When these are linearly combined, the weighting coefficient is
[Table 2]
Figure 0004532640
[0046]
It becomes. Similarly, considering the 45 ° direction,
[0047]
[Table 3]
Figure 0004532640
[0048]
It becomes.
[0049]
Specifically, normalization is performed by multiplying the total of 9 points including the pixel (i, j) and 8 neighboring points by the weighting coefficient of 3 × 3. Therefore, the spatial second derivative image ∇ 2 f (i, j) of the pixel (i, j) is
[0050]
[Equation 3]
Figure 0004532640
[0051]
It becomes.
[0052]
Next, in step S13, the edge portion is binarized and extracted from the spatial secondary differential image.
[0053]
As an edge extraction method, a method generally called a zero crossing method is used. However, in the present embodiment, the zero crossing method is not adopted for the following reason. (1) It takes a long time to extract an edge by the 0 intersection method.
(2) Since the edge extracted by the 0 intersection method has a 1 pixel width, in view of the subsequent pattern matching process, it is easily affected by a change in the size of the captured alignment mark mainly caused by defocusing. Because it becomes a factor to deteriorate the detection rate.
(3) When an edge is extracted by the 0 crossing method, the ideal is an edge of 1 pixel width. However, particularly for a low-contrast image, the extracted edge portion is blurred or discontinuous due to the influence of background noise or the like. This may cause a decrease in the degree of correlation with the reference pattern by pattern matching.
[0054]
FIG. 4 shows, for example, the luminance cross section in the x direction and the first and second derivatives of the image. In general, (a) is a step type edge, (b) is a line type edge, and (c) is roof. In this embodiment, as the edge detection method, the + side and − side of the spatial secondary differential image are extracted as a + side edge image and a − side edge image, respectively.
[0055]
FIG. 5 shows the above-described + in the brightness relationship between the alignment mark and the background when the focus is in focus and when the mark is brighter (white mark) and darker (black mark) than the background. A side edge image and a minus side edge image are shown.
[0056]
In the same figure, at the time of focusing, images A1 and B2, and images B1 and A2 are almost the same image.For example, when pattern matching is performed on images A1, A2, B1, and B2 using image A1 as a reference pattern, In the case of a white mark, the correlation between the image A1 and the image B1 is high. Similarly, in the case of a black mark, the correlation between the image B2 and the image A2 is high.
[0057]
On the other hand, when comparing the focus and the defocus, for example, when pattern matching is performed on the images A1 and A3 using the image A1 as a reference pattern, the correlation between the images A1 is high, but the image A3 has an edge. Is shifted to the inside and the outside of the mark, the degree of correlation is low.
[0058]
However, when pattern matching is performed on the images B1 and B3 using the image B1 as a reference pattern, the edge portion of the image B3 includes the edge portion of the image B1, so that the degree of correlation is high in both the images B1 and B3.
[0059]
In this embodiment, by performing pattern matching using the image B1 as a reference pattern, the pattern with the same reference pattern regardless of whether it is in focus or defocused, in the case of a white mark or in the case of a black mark. Matching can be performed to detect the mark position.
[0060]
As described above, in the present embodiment, the illumination unit that illuminates the alignment mark on the specimen from above, the imaging unit such as a CCD camera that images the reflected light from the specimen, and the captured image signal A pattern matching method for detecting a mark position by performing image processing on the captured image and comparing it with a reference pattern recorded in advance. Use the method.
[0061]
The image processing means includes a reduction processing means, a contrast enhancement processing means, and an edge enhancement means, so that the line width of the alignment mark on the object is about 2 pixels when the line width is in focus. The captured image is reduced, edge enhancement processing is performed on the reduced image after contrast enhancement processing, and the + side edge image and the − side edge image are extracted by the edge enhancement processing, and the extracted both edge images and the reference pattern The mark position is detected using an image having a high degree of correlation.
[0062]
The edge emphasizing means of the present embodiment operates so as to extract only a portion where the luminance change is severe, such as the edge portion of the alignment mark, so that there is an effect that it is not affected by uneven illuminance of the background.
[0063]
In addition, since pattern matching is performed at the edge portion, there is no need for complicated and unstable processing for accurately calculating and setting the binarization threshold as in the conventional example, and imaging is performed while changing the amount of illumination light. Since there is no need for such extra processing, there is an effect that stable position detection can be performed in a short time.
[0064]
Further, since both edge images of the positive side edge and negative side edge are extracted by the edge emphasizing means, the luminance relationship between the alignment mark and the background is reversed, and the same is true both when the mark portion is bright and dark. Since the position can be detected with the reference pattern, the detection rate is improved.
[0065]
Further, since the contrast enhancing means acts to widen the luminance difference of the low-contrast video signal (image signal), there is an effect that it becomes easy to clearly extract the edge by the subsequent edge enhancing means.
[0066]
In the contrast enhancement processing means, the contrast enhancement is performed up to three times the contrast difference of the original image, so that the background noise component is prevented from being excessively enhanced with respect to the low contrast image. Therefore, erroneous detection due to noise can be prevented, and the detection rate is improved.
[0067]
Further, the reduction processing means has an effect of narrowing the processing range in the subsequent image processing means, and therefore has an effect of shortening the position detection time.
[0068]
In addition, by reducing the line width of the alignment mark on the test object to about 2 pixels by image processing means, pattern matching can be performed even if the line width of the alignment mark is somewhat thick due to defocusing. Therefore, the defocus characteristic is improved.
[0069]
Next, a second embodiment of the present invention will be described.
[0070]
In the first embodiment, the edge enhancement is performed by the spatial second-order differential filter processing in the edge enhancement processing. However, in this embodiment, the edge enhancement is performed by calculating the difference between the smoothing filter and the original image.
[0071]
For example, if an average value filter is used as the smoothing filter, the smoothed image H (i, j) of the pixel (i, j) is
[0072]
[Expression 4]
Figure 0004532640
[0073]
Thus, the difference between the smoothed image by the average value filter and the original image is calculated to obtain an edge image. Other configurations are the same as those of the first embodiment.
[0074]
【The invention's effect】
According to the present invention, it is possible to detect the position of a mark that is not easily affected by illuminance unevenness, fluctuations in illumination light quantity, and low-contrast video signals by appropriately setting the software algorithm of the image processing means, and reducing the detection time. It is possible to achieve a position detection apparatus and an exposure apparatus using the position detection apparatus that can greatly improve the detection rate without increasing it.
[Brief description of the drawings]
FIG. 1 is a flowchart showing the operation of Embodiment 1 of the present invention. FIG. 2 is an explanatory diagram of contrast enhancement processing in FIG. 1. FIG. 3 is an explanatory diagram of edge enhancement processing in FIG. Explanatory diagram of processing [FIG. 5] Explanatory diagram of edge enhancement processing in FIG. 1 [FIG.
DESCRIPTION OF SYMBOLS 1 Projection optical system 2 Positioning illumination means 3 Beam splitter 4 Imaging optical system 5 Imaging optical system 6 Imaging means 7 Image processing means 8 Edge emphasis means 9 Illumination means 10 Stage drive means 11 XY stage

Claims (5)

被検物上の位置合わせ用のマークを照明する照明手段と、該マークを撮像する撮像手段と、該撮像手段より得られる該マークに関する画像信号を画像処理し、あらかじめ記憶手段に記憶してある基準パターンとの比較を行なうことによってマークの位置情報を検出する画像処理手段とを有した位置検出装置において、該画像処理手段は該画像信号に対し空間2次微分によるエッジ強調処理を行ない、該空間2次微分画像の正側を+側エッジ画像、負側を−側エッジ画像として抽出するエッジ強調部を有し、該抽出された+側エッジ画像と該基準パターンとの相関度と、該抽出された−側エッジ画像と該基準パターンとの相関度とをそれぞれ求め、該相関度の高い方の画像から該マークの位置情報を検出することを特徴とする位置検出装置。An illuminating unit that illuminates a mark for alignment on the test object, an imaging unit that images the mark, and an image signal related to the mark obtained from the imaging unit is image-processed and stored in advance in a storage unit In a position detection apparatus having image processing means for detecting mark position information by performing comparison with a reference pattern, the image processing means performs edge enhancement processing by spatial second-order differentiation on the image signal, and An edge enhancement unit that extracts the positive side of the spatial secondary differential image as a positive side edge image and the negative side as a negative side edge image, and the degree of correlation between the extracted positive side image and the reference pattern; A position detection apparatus characterized in that a degree of correlation between the extracted -side edge image and the reference pattern is obtained, and position information of the mark is detected from an image having a higher degree of correlation . 前記画像処理手段は画像信号を輝度信号に変換する輝度変換テーブル作成部と該輝度変換テーブル作成部に従って画像変換する画像変換部とを有し、該輝度変換テーブル作成部は画像信号のコントラスト差の3倍を限度としてコントラスト強調することを特徴とする請求項1の位置検出装置。  The image processing means includes a luminance conversion table creation unit that converts an image signal into a luminance signal, and an image conversion unit that performs image conversion according to the luminance conversion table creation unit. The luminance conversion table creation unit 2. The position detection apparatus according to claim 1, wherein contrast enhancement is performed up to a maximum of three times. 前記画像処理手段は前記被検物上の位置合わせマークが、前記撮像手段で合焦している場合に該マークの線幅が2Pixelになるよう、画像信号に対し縮小処理した後にエッジ強調処理を行なうことを特徴とする請求項1の位置検出装置。The image processing means performs edge emphasis processing after reducing the image signal so that the line width of the mark becomes 2 pixels when the alignment mark on the object is focused by the imaging means. The position detecting device according to claim 1, wherein the position detecting device is performed. 請求項1から3のいずれか1項記載の位置検出装置を用いて第1物体と第2物体との相対的な位置合わせを行った後に、該第1物体面上のパターンを第2物体面上に露光転写することを特徴とする露光装置。  The relative position of a 1st object and a 2nd object is performed using the position detection apparatus of any one of Claim 1 to 3, Then, the pattern on this 1st object surface is made into a 2nd object surface. An exposure apparatus characterized by performing exposure transfer on the top. 請求項1から3のいずれか1項記載の位置検出装置を用いてレチクルとウエハとの相対的な位置合わせを行った後に該レチクル面上のパターンをウエハ面上に露光転写した後に該ウエハを現像処理工程を介してデバイスを製造することを特徴とするデバイスの製造方法。  4. After performing relative alignment between the reticle and the wafer using the position detecting device according to claim 1, the pattern on the reticle surface is exposed and transferred onto the wafer surface, and then the wafer is moved. A device manufacturing method comprising manufacturing a device through a development processing step.
JP2000005350A 2000-01-14 2000-01-14 Position detection apparatus and exposure apparatus using the same Expired - Fee Related JP4532640B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000005350A JP4532640B2 (en) 2000-01-14 2000-01-14 Position detection apparatus and exposure apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000005350A JP4532640B2 (en) 2000-01-14 2000-01-14 Position detection apparatus and exposure apparatus using the same

Publications (3)

Publication Number Publication Date
JP2001195583A JP2001195583A (en) 2001-07-19
JP2001195583A5 JP2001195583A5 (en) 2007-03-08
JP4532640B2 true JP4532640B2 (en) 2010-08-25

Family

ID=18534028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000005350A Expired - Fee Related JP4532640B2 (en) 2000-01-14 2000-01-14 Position detection apparatus and exposure apparatus using the same

Country Status (1)

Country Link
JP (1) JP4532640B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100479305B1 (en) * 2002-08-20 2005-03-25 삼성전자주식회사 Method for recognizing pattern of align mark on wafer
JP2005116626A (en) 2003-10-03 2005-04-28 Canon Inc Position detector, position detecting method, and exposure system
NL1036559A1 (en) 2008-03-12 2009-09-15 Asml Netherlands Bv Lithographic Apparatus and Method.
JP5895276B2 (en) * 2011-11-02 2016-03-30 株式会社ブイ・テクノロジー Alignment mark and exposure apparatus
JP5948102B2 (en) * 2012-03-26 2016-07-06 株式会社Screenホールディングス Transfer apparatus and transfer method
JP2022002018A (en) * 2020-06-22 2022-01-06 オムロン株式会社 Dynamic body detection device and method for the same
CN114359378A (en) * 2021-12-31 2022-04-15 四川省自贡运输机械集团股份有限公司 Method for positioning inspection robot of belt conveyor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01128523A (en) * 1987-11-13 1989-05-22 Hitachi Ltd Position detector
JPH064670A (en) * 1992-06-22 1994-01-14 Omron Corp Pattern matching device for gradation picture
JPH06151274A (en) * 1992-11-11 1994-05-31 Hitachi Ltd Method and device for positioning semiconductor integrated circuit pattern

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0623999B2 (en) * 1986-07-28 1994-03-30 株式会社日立製作所 Pattern defect detection method
JPS6354680A (en) * 1986-08-26 1988-03-09 Canon Inc Position detector
JPS63192179A (en) * 1987-02-04 1988-08-09 Mitsubishi Electric Corp Mark reader
JP2986824B2 (en) * 1990-01-12 1999-12-06 株式会社日立製作所 Circuit pattern defect detection method and device
JP3187827B2 (en) * 1989-12-20 2001-07-16 株式会社日立製作所 Pattern inspection method and apparatus
JP3198105B2 (en) * 1990-08-29 2001-08-13 株式会社日立製作所 Automatic visual inspection device
JPH0512441A (en) * 1991-05-30 1993-01-22 Omron Corp Edge image generator
JP3223384B2 (en) * 1992-06-19 2001-10-29 オムロン株式会社 Pattern matching device for grayscale images
JPH06259561A (en) * 1993-03-08 1994-09-16 Mitsubishi Electric Corp Device for calculating target in moving picture and target tracking device
US5990540A (en) * 1997-12-15 1999-11-23 Kabushiki Kaisha Toshiba Semiconductor device and method for manufacturing the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01128523A (en) * 1987-11-13 1989-05-22 Hitachi Ltd Position detector
JPH064670A (en) * 1992-06-22 1994-01-14 Omron Corp Pattern matching device for gradation picture
JPH06151274A (en) * 1992-11-11 1994-05-31 Hitachi Ltd Method and device for positioning semiconductor integrated circuit pattern

Also Published As

Publication number Publication date
JP2001195583A (en) 2001-07-19

Similar Documents

Publication Publication Date Title
US6269194B1 (en) Method and apparatus using image subtraction and dynamic thresholding
TWI618977B (en) Mask inspection method and mask inspection device
US7590280B2 (en) Position detection apparatus and exposure apparatus
US7627179B2 (en) Image processing apparatus, image processing method, exposure apparatus, and device manufacturing method
JP4357355B2 (en) Pattern inspection method and apparatus
TWI322329B (en)
US8260031B2 (en) Pattern inspection apparatus, pattern inspection method, and computer-readable recording medium storing a program
KR101994524B1 (en) Focusing device, focusing method, and pattern inspection method
US6721461B1 (en) Method and apparatus using image subtraction and dynamic thresholding
US7639863B2 (en) Die-to-database photomask defect detection using region data to modify inspection thresholds
TWI625701B (en) Method for measuring offset of pattern width size and pattern inspection device
JPH0945609A (en) Best focus decision method and decision method of exposure requirement using it
JP6633918B2 (en) Pattern inspection equipment
WO2002091440A1 (en) Optical characteristic measuring method, exposure method, and device manufacturing method
JP4532640B2 (en) Position detection apparatus and exposure apparatus using the same
TW200425295A (en) Method of checking and repairing a defect in a graytone mask
JP2010183028A (en) Pattern drawing apparatus and pattern drawing method
JP2001217174A (en) Position detection method, position detection device, exposure method and aligner
JP2001281161A (en) Defect inspecting device and inspecting method
JP2005285898A (en) Pattern image determination method and pattern image determination apparatus using the same
JP2000113189A (en) Defect checking method
JP2002175520A (en) Device and method for detecting defect of substrate surface, and recording medium with recorded program for defect detection
JP2830462B2 (en) Alignment apparatus, exposure apparatus, and method of manufacturing semiconductor device using the same
JPH08181053A (en) Position detecting method
JP5391172B2 (en) Foreign object inspection apparatus and alignment adjustment method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100525

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100611

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees