JP4178875B2 - Mark position detection device, mark position detection method, overlay measurement device, and overlay measurement method - Google Patents

Mark position detection device, mark position detection method, overlay measurement device, and overlay measurement method Download PDF

Info

Publication number
JP4178875B2
JP4178875B2 JP2002242049A JP2002242049A JP4178875B2 JP 4178875 B2 JP4178875 B2 JP 4178875B2 JP 2002242049 A JP2002242049 A JP 2002242049A JP 2002242049 A JP2002242049 A JP 2002242049A JP 4178875 B2 JP4178875 B2 JP 4178875B2
Authority
JP
Japan
Prior art keywords
edge signal
mark
waveform
edge
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002242049A
Other languages
Japanese (ja)
Other versions
JP2004079970A (en
Inventor
洋 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2002242049A priority Critical patent/JP4178875B2/en
Priority to AU2003264338A priority patent/AU2003264338A1/en
Priority to PCT/JP2003/010582 priority patent/WO2004019389A1/en
Priority to TW92123118A priority patent/TW200405427A/en
Publication of JP2004079970A publication Critical patent/JP2004079970A/en
Application granted granted Critical
Publication of JP4178875B2 publication Critical patent/JP4178875B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F9/00Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically
    • G03F9/70Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically for microlithography
    • G03F9/7092Signal processing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70605Workpiece metrology
    • G03F7/70616Monitoring the printed patterns
    • G03F7/70633Overlay, i.e. relative alignment between patterns printed by separate exposures in different layers, or in the same layer in multiple exposures or stitching
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F9/00Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically
    • G03F9/70Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically for microlithography
    • G03F9/7073Alignment marks and their environment
    • G03F9/7084Position of mark on substrate, i.e. position in (x, y, z) of mark, e.g. buried or resist covered mark, mark on rearside, at the substrate edge, in the circuit area, latent image mark, marks in plural levels

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Exposure And Positioning Against Photoresist Photosensitive Materials (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Exposure Of Semiconductors, Excluding Electron Or Ion Beam Exposure (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、基板上の被検マークの位置を検出するマーク位置検出装置、マーク位置検出方法、重ね合わせ測定装置、および、重ね合わせ測定方法に関し、特に、半導体素子などの製造工程における高精度な位置検出に好適なマーク位置検出装置などに関する。
【0002】
【従来の技術】
周知のように、半導体素子や液晶表示素子の製造工程では、マスク(レチクル)に形成された回路パターンをレジスト膜に焼き付ける露光工程と、レジスト膜の露光部分または未露光部分を溶解する現像工程とを経て、レジスト膜に回路パターン(レジストパターン)が転写され、このレジストパターンをマスクとしてエッチングや蒸着などを行うことにより(加工工程)、レジスト膜の直下に隣接している所定の材料膜に回路パターンが転写される(パターン形成工程)。
【0003】
次いで、上記所定の材料膜に形成された回路パターンの上に別の回路パターンを形成するためには、同様のパターン形成工程が繰り返される。このように、パターン形成工程を何回も繰り返し実行することにより、様々な材料膜の回路パターンが基板(半導体ウエハや液晶基板)の上に積層され、半導体素子や液晶表示素子の回路が形成される。
【0004】
ところで、上記の製造工程では、様々な材料膜の回路パターンを精度よく重ね合わせるため、各々のパターン形成工程のうち露光工程の前に、マスクと基板とのアライメントを行い、さらに、現像工程の後でかつ加工工程の前に、基板上のレジストパターンの重ね合わせ状態の検査を行い、製品の歩留まり向上を図っている。
【0005】
ちなみに、マスクと基板とのアライメント(露光工程の前)は、マスク上の回路パターンと、1つ前のパターン形成工程で基板上に形成された回路パターンとのアライメントであり、各々の回路パターンの基準位置を示すアライメントマークを用いて行われる。
また、基板上のレジストパターンの重ね合わせ状態の検査(加工工程の前)は、1つ前のパターン形成工程で形成された回路パターン(以下「下地パターン」という)に対するレジストパターンの重ね合わせ検査であり、下地パターンとレジストパターンの各々の基準位置を示す重ね合わせマークを用いて行われる。
【0006】
そして、これらのアライメントマークや重ね合わせマーク(総じて「被検マーク」という)の位置検出は、この被検マークを装置の視野領域内に位置決めし、CCDカメラなどの撮像素子を用いて被検マークの像を撮像し、得られた画像信号のうちエッジ信号に基づいて行われる。なお、画像信号は、撮像素子の撮像面における各画素ごとの輝度値に関する分布を表している。エッジ信号は、画像信号のうち輝度値の急変部分である。
【0007】
また、このエッジ信号から被検マークの位置を算出するに当たっては、周知の相関法というアルゴリズムが用いられる。相関法では、エッジ信号の波形の全体を使って相関演算を行うため、信号ノイズの影響を受け難く、被検マークの位置を再現性よく算出できる。
【0008】
【発明が解決しようとする課題】
しかしながら、相関法は、エッジ信号の波形が左右対称であることを前提としたアルゴリズムである。このため、エッジ信号の波形の対称性が低下していると、被検マークの位置を算出する際に誤差が増大してしまう。つまり、被検マークの位置を精度良く検出できない。なお、エッジ信号の波形の対称性が低下する事態は、被検マークのエッジ対の形状が左右対称な場合でも起こりうる。
【0009】
本発明の目的は、被検マークのエッジ対に関わるエッジ信号の波形が非対称であっても精度良く被検マークの位置を検出できるマーク位置検出装置、マーク位置検出方法、重ね合わせ測定装置、および、重ね合わせ測定方法を提供することにある。
【0010】
【課題を解決するための手段】
請求項1に記載のマーク位置検出装置は、基板上に形成された1つ以上のエッジ対を含む被検マークを照明する照明手段と、前記被検マークからの光に基づく像を撮像し、複数のサンプル点からなる画像信号を出力する撮像手段と、前記画像信号のうち輝度値の急変部分を前記エッジ対に関わるエッジ信号として抽出する抽出手段と、前記エッジ信号に基づいて、前記被検マークの中心位置を検出する検出手段とを備えたものであり、前記検出手段が、前記エッジ信号に含まれるサンプル点のうち1つ以上を除去することにより、前記エッジ信号の非対称性を補正する補正手段と、前記補正手段による補正後のエッジ信号に基づいた波形と、該波形を折り返して得られる波形との相関関数における最大相関値を算出することにより、前記中心位置を算出する算出手段とを有するものである。
【0011】
請求項2に記載のマーク位置検出装置は、基板上に形成された1つ以上のエッジ対を含む被検マークを照明する照明手段と、前記被検マークからの光に基づく像を撮像し、複数のサンプル点からなる画像信号を出力する撮像手段と、前記画像信号のうち輝度値の急変部分を前記エッジ対に関わるエッジ信号として抽出する抽出手段と、前記エッジ信号に基づいて、前記被検マークの中心位置を検出する検出手段とを備えたものであり、前記検出手段が、前記エッジ信号に含まれるサンプル点のうち1つ以上を除去することにより、前記エッジ信号を補正する補正手段と、前記補正手段による補正前のエッジ信号または補正後のエッジ信号に基づいた演算用波形と該演算用波形を折り返して得られる波形との相関関数における最大相関値を算出し、該最大相関値に基づいて前記中心位置の候補を算出する算出手段と、複数の異なる前記演算用波形の各々を用いて前記算出手段が算出した複数の前記最大相関値と前記候補とを参照し、前記複数の候補のうち、対応する前記最大相関値が最も大きい1つを前記中心位置として選択する選択手段とを有するものである。
【0012】
請求項3に記載の発明は、請求項2に記載のマーク位置検出装置において、前記検出手段は、前記補正前のエッジ信号に基づく前記演算用波形を用いて前記算出手段が算出した前記最大相関値と予め定めた閾値とを比較する比較手段をさらに有し、前記補正手段は、前記比較手段による比較の結果、前記補正前のエッジ信号に基づく前記最大相関値の方が前記閾値よりも小さいときに、前記エッジ信号に対する補正を行うものである。
【0013】
請求項4に記載のマーク位置検出方法は、基板上に形成された1つ以上のエッジ対を含む被検マークを照明する照明工程と、前記被検マークからの光に基づく像を撮像し、複数のサンプル点からなる画像信号を出力する撮像工程と、前記画像信号のうち輝度値の急変部分を前記エッジ対に関わるエッジ信号として抽出する抽出工程と、前記エッジ信号に基づいて、前記被検マークの中心位置を検出する検出工程とを備えたものであり、前記検出工程が、前記エッジ信号に含まれるサンプル点のうち1つ以上を除去することにより、前記エッジ信号の非対称性を補正する補正工程と、前記補正工程における補正後のエッジ信号に基づいた波形と、該波形を折り返して得られる波形との相関関数における最大相関値を算出することにより、前記中心位置を算出する算出工程とを有するものである。
【0014】
請求項5に記載のマーク位置検出方法は、基板上に形成された1つ以上のエッジ対を含む被検マークを照明する照明工程と、前記被検マークからの光に基づく像を撮像し、複数のサンプル点からなる画像信号を出力する撮像工程と、前記画像信号のうち輝度値の急変部分を前記エッジ対に関わるエッジ信号として抽出する抽出工程と、前記エッジ信号に基づいて、前記被検マークの中心位置を検出する検出工程とを備えたものであり、前記検出工程が、前記エッジ信号に含まれるサンプル点のうち1つ以上を除去することにより、前記エッジ信号を補正する補正工程と、前記補正工程における補正前のエッジ信号または補正後のエッジ信号に基づいた演算用波形と該演算用波形を折り返して得られる波形との相関関数における最大相関値を算出し、該最大相関値に基づいて前記中心位置の候補を算出する算出工程と、複数の異なる前記演算用波形の各々を用いて前記算出工程で算出された複数の前記最大相関値と前記候補とを参照し、前記複数の候補のうち、対応する前記最大相関値が最も大きい1つを前記中心位置として選択する選択工程とを有するものである。
【0015】
請求項6に記載の発明は、請求項5に記載のマーク位置検出方法において、前記検出工程は、前記補正前のエッジ信号に基づく前記演算用波形を用いて前記算出工程で算出された前記最大相関値と予め定めた閾値とを比較する比較工程をさらに有し、前記補正工程では、前記比較工程における比較の結果、前記補正前のエッジ信号に基づく前記最大相関値の方が前記閾値よりも小さいときに、前記エッジ信号に対する補正を行うものである。
【0016】
請求項7に記載の発明は、基板上に形成された複数のパターンの重ね合わせ状態を検査する重ね合わせ測定装置において、前記複数のパターンの各々の基準位置を示す被検マークの中心位置を各々検出する請求項1または請求項2または請求項3に記載のマーク位置検出装置と、前記マーク位置検出装置が検出した前記各々の中心位置の差に基づいて、前記複数のパターンどうしの重ね合わせずれ量を測定する測定手段とを備えたものである。
【0017】
請求項8に記載の発明は、請求項4または請求項5または請求項6に記載のマーク位置検出方法を用い、基板上に形成された複数のパターンの重ね合わせ状態を検査する重ね合わせ測定方法において、前記検出工程は、前記複数のパターンの各々の基準位置を示す被検マークの中心位置を各々検出する工程であり、前記検出工程で検出された前記各々の中心位置の差に基づいて、前記複数のパターンどうしの重ね合わせずれ量を測定する測定工程をさらに備えたものである。
【0018】
【発明の実施の形態】
以下、図面を用いて本発明の実施形態を詳細に説明する。
本発明の実施形態は、請求項1〜請求項8に対応する。
ここでは、本実施形態のマーク位置検出装置について、図1に示す重ね合わせ測定装置10を例に説明する。
【0019】
重ね合わせ測定装置10は、図1に示すように、ウエハ11を支持する検査ステージ12と、ウエハ11側に向けて照明光L1を射出する照明光学系(13〜15)と、ウエハ11の像を形成する結像光学系(16,17)と、CCD撮像素子18と、画像処理装置19とで構成されている。
この重ね合わせ測定装置10について具体的に説明する前に、ウエハ11(基板)の説明を行う。
【0020】
ウエハ11には、複数の回路パターン(何れも不図示)が表面上に積層されている。最上層の回路パターンは、レジスト膜に転写されたレジストパターンである。つまり、ウエハ11は、1つ前のパターン形成工程で形成された下地パターンの上に別の回路パターンを形成する工程の途中(レジスト膜に対する露光・現像後で且つ材料膜に対するエッチング加工前)の状態にある。
【0021】
そして、ウエハ11の下地パターンに対するレジストパターンの重ね合わせ状態が重ね合わせ測定装置10によって検査される。このため、ウエハ11の表面には、重ね合わせ状態の検査に用いられる重ね合わせマーク30(図2(a))が形成されている。図2(a)は重ね合わせマーク30の平面図である。
重ね合わせマーク30は、外側のフレームマーク31と内側のボックスマーク32とからなり、フレームマーク31,ボックスマーク32のうち一方が下地マーク、他方がレジストマークである。下地マーク,レジストマークは、各々、下地パターン,レジストパターンと同時に形成され、下地パターン,レジストパターンの基準位置を示す。
【0022】
また、フレームマーク31は、X方向に関して、2つのエッジ対E1,E2を含んでいる。一方のエッジ対E1は、左側のエッジE1(L)と右側のエッジE1(R)とで構成され、他方のエッジ対E2は、左側のエッジE2(L)と右側のエッジE2(R)とで構成されている。つまり、フレームマーク31は、左側に2本のエッジE1(L),E2(L)、右側に2本のエッジE1(R),E2(R)を持つ。フレームマーク31のY方向に関しても同様である。
【0023】
ボックスマーク32は、X方向に関して、1つのエッジ対E3を含んでいる。このエッジ対E3は、左側のエッジE3(L)と右側のエッジE3(R)とで構成されている。つまり、ボックスマーク32は、左側に1本のエッジE3(L)、右側に1本のエッジE3(R)を持つ。ボックスマーク32のY方向に関しても同様である。フレームマーク31,ボックスマーク32は、各々、請求項の「被検マーク」に対応する。
【0024】
なお、図示省略したが、レジストスマークおよびレジストパターンと、下地マークおよび下地パターンとの間には、加工対象となる材料膜が形成されている。この材料膜は、重ね合わせ測定装置10による重ね合わせ状態の検査後、レジストマークが下地マークに対して正確に重ね合わされ、レジストパターンが下地パターンに対して正確に重ね合わされている場合に、レジストパターンを介して実際に加工される。
【0025】
さて次に、重ね合わせ測定装置10(図1)の具体的な構成説明を行う。
重ね合わせ測定装置10の検査ステージ12は、ウエハ11を水平状態に保持すると共に、水平面内で任意の位置に移動可能である。検査ステージ12を移動させることにより、ウエハ11の重ね合わせマーク30(図2(a))を含む観察領域が結像光学系(16,17)の視野内に位置決めされる。検査ステージ12の法線方向をZ方向、ウエハ11の載置面をXY面とする。
【0026】
照明光学系(13〜15)は、光源13と照明レンズ14とプリズム15とで構成され、プリズム15が結像光学系(16,17)の光軸O2上に配置される。結像光学系(16,17)の光軸O2はZ方向に平行である。プリズム15の反射透過面15aは、光軸O2に対して略45°傾けられている。照明光学系(13〜15)の光軸O1は、結像光学系(16,17)の光軸O2に垂直である。
【0027】
結像光学系(16,17)は、対物レンズ16と結像レンズ17とで構成された光学顕微鏡部であり、対物レンズ16が検査ステージ12とプリズム15との間に配置される。結像レンズ17は、第2対物レンズとして機能する光学素子であり、プリズム15を挟んで対物レンズ16とは反対側に配置される。
上記の照明光学系(13〜15)および結像光学系(16,17)において、光源13から射出された光は、照明レンズ14を介してプリズム15に導かれ、その反射透過面15aで反射した後(照明光L1)、対物レンズ16側に導かれる。そして、対物レンズ16を通過した後(照明光L2)、検査ステージ12上のウエハ11に入射する。このとき、ウエハ11の観察領域は、照明光L2により略垂直に照明される。
【0028】
そして、照明光L2が照射されたウエハ11の観察領域からは、そこでの凹凸構造(重ね合わせマーク30)に応じて反射光L3が発生する。この反射光L3は、対物レンズ16とプリズム15とを介して結像レンズ17に導かれ、対物レンズ16と結像レンズ17の作用によってCCD撮像素子18の撮像面上に結像される。このとき、CCD撮像素子18の撮像面上には、反射光L3に基づく拡大像(反射像)が形成される。
【0029】
CCD撮像素子18は、複数の画素が2次元配列されたエリアセンサであり、撮像面上の反射像を撮像し、画像信号を画像処理装置19に出力する。画像信号は、複数のサンプル点からなり、CCD撮像素子18の撮像面における各画素ごとの輝度値に関する分布(輝度分布)を表している。
なお、上記の照明光学系(13〜15)および対物レンズ16は、請求項の「照明手段」に対応する。結像光学系(16,17)およびCCD撮像素子18は、請求項の「撮像手段」に対応する。画像処理装置19は、請求項の「抽出手段」,「検出手段」に対応する。
【0030】
画像処理装置19は、CCD撮像素子18からの画像信号に基づいて、ウエハ11の観察領域(重ね合わせマーク30を含む)の反射像を画像として取り込む。ここで、ウエハ11の観察領域の画像には、図2(b)に示すように、X方向に関して、左側に3本のエッジ像F1(L),F2(L),F3(L)が現れ、右側に3本のエッジ像F1(R),F2(R),F3(R)が現れている。
【0031】
このうち、内側の2本のエッジ像F3(L),F3(R)は、図2(a)に示すボックスマーク32の凹凸構造のエッジE3(L),E3(R)に対応する像である。残りの4本のエッジ像F1(L),F2(L),F1(R),F2(R)は、フレームマーク31の凹凸構造のエッジE1(L),E2(L),E1(R),E2(R)に対応する像である。
このため、画像処理装置19は、ウエハ11の観察領域の画像に現れた6本のエッジ像F1(L),F2(L),…(図2(b))のうち、ボックスマーク32に関わるエッジ像F3(L),F3(R)に基づいて、ボックスマーク32のX方向の中心位置C2を検出し、フレームマーク31に関わるエッジ像F1(L),F2(L),F1(R),F2(R)に基づいて、フレームマーク31のX方向の中心位置C1を検出する。
【0032】
X方向の中心位置C1,C2を検出する手順については、後で詳細に説明する。なお、ウエハ11の観察領域の画像には、Y方向に関して、フレームマーク31,ボックスマーク32のエッジ像が同様に現れる。フレームマーク31,ボックスマーク32Y方向の中心位置も、X方向と同じ手順で検出可能である。このため、以下では、「X方向」に関する説明のみを行い、「Y方向」に関する説明を省略する。
【0033】
ここで、中心位置C1,C2を検出する際の前処理について説明しておく。中心位置C1,C2の検出に先立ち、画像処理装置19は、CCD撮像素子18から取り込んだ画像信号を積算する(プロジェクション処理)。つまり、中心位置C1,C2の検出方向(X方向)とは垂直な方向(Y方向)に沿って、画像信号を積算していく。これは、信号ノイズを低減させるための処理である。プロジェクション処理によって生成される積算後の画像信号の波形を「代表波形」という。
【0034】
例えば、図2(b)に点線で示すように、観察領域の画像内に現れた全てのエッジ像F1(L),F2(L),F3(L),F1(R),F2(R),F3(R)を含むような範囲33を設定し、この範囲33内で画像信号をY方向に積算した場合、得られる画像信号の代表波形は、図3〜図6の(a)に示すような形状となる。
図3〜図6の横軸は、代表波形の各々のサンプル点(画素)の位置を表し、縦軸は輝度値を表している。図3〜図6の(a)において、代表波形の輝度値が極小となるボトム付近は、各々、エッジ像F1(L),F2(L),F3(L),F1(R),F2(R),F3(R)に対応する。
【0035】
また、図3,図4の(a)は、共に、図10(a)に示すようなフレームマーク31とボックスマーク32とのサイズ差が大きい標準的な重ね合わせマーク30における代表波形の例であり、図3(a)は、フレームマーク31,ボックスマーク32の中心位置C1,C2のずれが小さい場合、図4(a)は、中心位置C1,C2のずれが大きい場合に関する。
【0036】
図5,図6の(a)は、共に、図10(b)に示すようなフレームマーク31とボックスマーク32とのサイズ差が小さい重ね合わせマーク30における代表波形の例であり、図5(a)は、フレームマーク31,ボックスマーク32の中心位置C1,C2のずれが小さい場合、図6(a)は、中心位置C1,C2のずれが大きい場合に関する。
【0037】
図3〜図6の(a)を比較すると分かるように、図3〜図5の(a)では、フレームマーク31に起因するエッジ像F2(L),F2(R)と、ボックスマーク32に起因するエッジ像F3(L),F3(R)とが十分離れているため、代表波形のうちフレームマーク31,ボックスマーク32の間に対応する境界部分40(L),(R)の輝度値は、一定の値Aに保たれている。
【0038】
これに対し、図6の(a)では、フレームマーク31に起因するエッジ像F2(L),F2(R)と、ボックスマーク32に起因するエッジ像F3(L),F3(R)とが、図中左側においてある程度離れているものの、図中右側において非常に近接している。
したがって、代表波形のうちフレームマーク31,ボックスマーク32の間に対応する左側の境界部分41(L)は、輝度値が一定の値Aに保たれ、右側の境界部分41(R)は、輝度値が一定の値Aより小さい値Bとなっている。つまり、左右のバランス(対称性)が崩れている。これは、フレームマーク31,ボックスマーク32どうしの近接の影響である。
【0039】
なお、実際の位置検出はフレームマーク31とボックスマーク32とで別々に行われるため、上記のような代表波形(図3〜図6の(a)参照)を生成するためのプロジェクション処理は、図2(c),(d)に点線で示す範囲34,35を各々設定して実施される。
図2(c)の範囲34は、観察領域の画像内に現れたボックスマーク32に関わる2本のエッジ像F3(L),F3(R)を含むような範囲であり、ボックスマーク32の中心位置C2を検出する際に設定される。そして、この範囲34内での画像信号の積算により代表波形(不図示)が生成され、得られた代表波形が中心位置C2の検出に用いられる。
【0040】
図2(d)の範囲35は、フレームマーク31に関わる4本のエッジ像F1(L),F2(L),F1(R),F2(R)を含むような範囲であり、フレームマーク31の中心位置C1を検出する際に設定される。そして、この範囲35内での画像信号の積算により代表波形(不図示)が生成され、得られた代表波形が中心位置C1の検出に用いられる。
【0041】
次に、重ね合わせ測定装置10におけるフレームマーク31,ボックスマーク32の中心位置C1,C2の検出手順について、図7のフローチャートを用いて具体的に説明する。ここでは、ボックスマーク32の中心位置C2の検出を例に説明する。
この位置検出時、重ね合わせ測定装置10の視野内には、ウエハ11の重ね合わせマーク30(図2(a))を含む観察領域が位置決めされる。そして、CCD撮像素子18の撮像面上には、重ね合わせマーク30の反射像が形成される。このため、画像処理装置19では、CCD撮像素子18からの画像信号に基づいて、重ね合わせマーク30の反射像を画像(図2(c)参照)として取り込むことができる。
【0042】
次に、画像処理装置19は、図2(c)に点線で示すように、ボックスマーク32に関わる2本のエッジ像F3(L),F3(R)を含むような範囲34を設定し、この範囲34内で画像信号をY方向に積算することにより、代表波形(不図示,図3〜図6の(a)参照)を生成する(図7のステップS1)。範囲34の設定は、手動または自動で行われる。
【0043】
そして次に、画像処理装置19は、ステップS1で生成した代表波形に基づいて、画像信号のうち輝度値の急変部分をエッジ信号として抽出する(ステップS2)。エッジ信号とは、ボックスマーク32のエッジ対E3(図2(a))に関わる信号である。エッジ信号の抽出は、例えば次の(1)〜(6)の手順にしたがって自動的に行われる。
【0044】
(1)ボックスマーク32に関わる代表波形の輝度値が極小となる2つのボトムポイントを見つける。
(2)左側のボトムポイントから左方へ輝度値の変化を追跡し、輝度値が最大となるサンプル点S1(図3〜図6の(a)参照)を見つける。サンプル点S1の輝度値は、図3〜図6の(a)の何れにおいても、一定の値Aとなっている。
【0045】
(3)左側のボトムポイントから右方へ輝度値の変化を追跡し、輝度値が最大となるサンプル点S3(図3〜図6の(a)参照)を見つける。
(4)右側のボトムポイントから右方へ輝度値の変化を追跡し、輝度値が最大となるサンプル点S2(図3〜図6の(a)参照)を見つける。サンプル点S2の輝度値は、図3〜図5の(a)では一定の値Aとなるが、図6(a)では、上記した近接の影響で値Aより小さい値Bとなる。
【0046】
(5)右側のボトムポイントから左方へ輝度値の変化を追跡し、輝度値が最大となるサンプル点S3(図3〜図6の(a)参照)を見つける。本実施形態では、サンプル点S3は、(3)で求めたサンプル点と同一点となっている。
(6)サンプル点S1からサンプル点S2まで(つまり輝度値の急変部分)をエッジ信号として抽出する。
【0047】
その結果、抽出されたエッジ信号の波形42は、図3〜図6の(b)に示すような形状となる。図3〜図6の(b)を比較すると分かるように、図3〜図5の(b)では、波形42の左端と右端の輝度値が、共に同じ値Aとなる。このため、図3〜図5の(b)の波形42は、左右対称である。これに対し、図6の(b)では、波形42の左端と右端の輝度値が、フレームマーク31,ボックスマーク32どうしの近接の影響で、異なる値A,Bとなる。このため、図6の(b)の波形42は、左右非対称である。
【0048】
画像処理装置19では、ステップS2で抽出したエッジ信号の波形42(図3〜図6の(b)参照)に基づいて、図7のステップS3以降の手順にしたがい、ボックスマーク32の中心位置C2を検出する。この手順は、エッジ信号の波形42が図3〜図5の(b)のように左右対称であっても、図6(b)のように左右非対称であっても、同じように精度良く位置検出を行えるものである。
【0049】
さて、図7のステップS3以降の手順について説明する。画像処理装置19は、まず初めに演算用波形を決定する(ステップS3)。今回(1回目)の処理では、ステップS2で抽出したエッジ信号の波形42が演算用波形となる。そして、画像処理装置19は、波形42の仮中心位置を設定する(ステップS4)。
次に、画像処理装置19は、波形42を仮中心位置で折り返し、得られた折り返し波形と元々の波形42との相関関数を演算する(ステップS5)。相関関数とは、折り返し波形と元々の波形42とのオフセット量と、そのときの相関値との関係を表したものである。この場合、相関値は「0〜1」の値をとる。
【0050】
そして、画像処理装置19は、ステップS5で計算した相関関数における最大相関値を求め、この最大相関値に対応するオフセット量Δを選択する(ステップS6)。今回の処理は1回目であるため(ステップS7がY)、次にステップS8の処理を行う。つまり、ステップS6で求めた最大相関値と予め定めた閾値(例えば0.95)との大小比較を行う。最大相関値は、演算用波形の左右の対称性を示す指標である。
【0051】
比較の結果、ステップS6で求めた最大相関値が閾値(例えば0.95)より大きい場合(ステップS8がN)、画像処理装置19は、元々の波形42が左右対称(図3〜図5の(b)参照)であると判断して、ステップS14の処理を行う。つまり、ステップS6で選択したオフセット量Δと、ステップS4で設定した仮中心位置とに基づいて、ボックスマーク32の中心位置C2(=仮中心位置+Δ/2)を算出する。
【0052】
一方、ステップS8における比較の結果、ステップS6で求めた最大相関値の方が閾値(例えば0.95)よりも小さい場合(ステップS8がY)、画像処理装置19は、元々の波形42が左右非対称(図6(b)参照)であると判断して、ステップS9の処理を行う。つまり、ステップS6で選択したオフセット量Δと、ステップS4で設定した仮中心位置とに基づいて、ボックスマーク32の中心位置C2の候補(=仮中心位置+Δ/2)を算出する。
【0053】
そして、ステップS9で算出した中心位置C2の候補とステップS6で求めた最大相関値との関係を示すデータテーブルを作成する(ステップS10)。画像処理装置19は、上記のような中心位置C2の候補の算出を繰り返して実行する場合(ステップS11がN)、次のステップS12の処理を経てから、ステップS3に戻る。
【0054】
ステップS12では、ステップS2で抽出したエッジ信号(図6(b)の左右非対称な波形42)から1つ以上のサンプル点が除去され、エッジ信号に対する補正処理が行われる。このとき、サンプル点の除去位置や除去数は任意である。例えば、エッジ信号(図6(b)の左右非対称な波形42)の左端や右端に位置するサンプル点を1つ除去することなどが考えられる。
【0055】
ステップS12におけるエッジ信号の補正処理が終わると、画像処理装置19は、ステップS3の処理に戻って、2回目の処理(S3〜S11)を実行する。今回(2回目)、ステップS3の処理では、ステップS12における補正後のエッジ信号の波形が演算用波形となる。
そして、この演算用波形(補正後のエッジ信号の波形)を用いてステップS4〜S6を実行し、相関関数における最大相関値を求めると共に、この最大相関値に対応するオフセット量Δを選択する。今回の処理は2回目であるため(ステップS7がN)、ステップS8の処理を実行せずにステップS9に進み、ボックスマーク32の中心位置C2の新たな候補を算出する。そして、この新たな候補とステップS6で求めた最大相関値との関係をデータテーブルに加える(ステップS10)。
【0056】
このようにして、ボックスマーク32の中心位置C2の候補を繰り返し算出する際、ステップS12の処理(エッジ信号の補正処理)を行う毎に、サンプル点の除去位置や除去数を変更すれば、複数の異なる演算用波形による中心位置C2の候補を次々に算出することができる。なお、除去するサンプル点の指定は、オペレータによる指定でも、装置の自動設定でもよい。
【0057】
画像処理装置19は、中心位置C2の候補の算出を終了すると(ステップS11がY)、次のステップS13に進む。このとき、画像処理装置19内には、複数の中心位置C2の候補と最大相関値との関係を示すデータテーブルが完成している。
このため、画像処理装置19は、そのデータテーブルを参照して、複数の中心位置C2の候補のうち1つを選択する(ステップS13)。すなわち、複数の最大相関値の中で最も値が大きい1つ(最大相関値の最大値)に対応する候補を探し、この候補を“中心位置C2”として選択する。最大相関値が大きいほど、演算用波形の左右の対称性が高く、高精度な検出結果が得られるからである。
【0058】
例えば、上記ステップS2で抽出されたエッジ信号(補正前のエッジ信号)の波形が、図6(b)に示す波形42のような左右非対称性をもつ場合、ステップS13で“中心位置C2”として選択される候補は、図8に示す波形43を演算用波形にした場合である。
この波形43は、波形42(図6(b))のサンプル点のうち、左端側の4つのサンプル点と右端側の1つのサンプル点とを除去したものであり、図8から分かるように左右対称な波形となっている。この波形43における最大相関値は、図9に示すように「0.97」であり、補正前のエッジ信号の波形42における最大相関値「0.65」と比較して、「0.32」だけ向上したことが分かる。
【0059】
これは、ステップS2で抽出されたエッジ信号(補正前のエッジ信号)の波形42(図6(b))が左右非対称であっても、サンプル点を除去することで相関演算に用いる波形の対称性を向上させ、左右対称な波形43(図8)を用いて精度良く中心位置C2を算出できることを意味する。
このため、補正後の左右対称な波形43を用いて算出した中心位置C2と、補正前の左右非対称な波形42を用いて算出した中心位置C2の候補とのずれ(図9では約19nm)は、検出精度が向上した分を表している。つまり、サンプル点の除去により、内マーク中心位置の測定誤差を約19nm低減することができた。
【0060】
また同様にして、フレームマーク31の中心位置C1も精度良く検出することができる。例えば、上記ステップS2で抽出されたエッジ信号(補正前のエッジ信号)の波形が、図6(b)に示す波形44,45のような左右非対称性をもつ場合、ステップS13で“中心位置C2”として選択される候補は、図8に示す波形46,47を演算用波形にした場合となる。
【0061】
このうち、波形46は、波形44(図6(b))のサンプル点のうち、右端側の4つのサンプル点を除去したものであり、波形47は、波形45(図6(b))のサンプル点のうち、左端側の1つのサンプル点を除去したものである。その結果、波形46,47は、図8から分かるように左右対称な波形となっている。この波形46,47における最大相関値は、図9に示すように「0.98」であり、補正前のエッジ信号の波形44,45における最大相関値「0.82」と比較して、「0.16」だけ向上したことが分かる。
【0062】
これは、ステップS2で抽出されたエッジ信号(補正前のエッジ信号)の波形44,45(図6(b))が左右非対称であっても、サンプル点を除去することで波形の対称性を向上させ、左右対称な波形46,47(図8)を用いて精度良く中心位置C1を算出できることを意味する。
【0063】
このため、補正後の左右対称な波形46,47を用いて算出した中心位置C1と、補正前の左右非対称な波形44,45を用いて算出した中心位置C1の候補とのずれ(図9では約13nm)は、検出精度が向上した分を表している。つまり、サンプル点の除去により、測定誤差を約13nm低減することができた。
続いて、画像処理装置19は、ウエハ11の重ね合わせ検査(下地パターンに対するレジストパターンの重ね合わせ状態の検査)を実行する。つまり、フレームマーク31,ボックスマーク32の中心位置C1,C2の差に基づいて、重ね合わせずれ量R(図2(a))を算出する。重ね合わせずれ量Rは、ウエハ11の表面の2次元ベクトルとして表される。
【0064】
本実施形態では、前述したようにフレームマーク31,ボックスマーク32の中心位置C1,C2が共に精度良く検出されているため、重ね合わせずれ量Rも精度良く検出することができる。図9の例では、サンプル点の除去により、重ね合わせずれ量Rが約32nmだけ向上した。つまり、測定誤差を約32nm低減することができた。
【0065】
また、本実施形態では、ステップS3で決定した演算用波形の全体を使って相関演算(演算用波形と折り返し波形との相関関数の演算)を行うため、信号ノイズの影響を受け難く、フレームマーク31,ボックスマーク32の中心位置C1,C2を再現性よく算出できる。また、重ね合わせずれ量Rを再現性よく算出することもできる。
【0066】
なお、エッジ信号の補正処理(S12)におけるサンプル点の除去数は、最小限に抑えることが好ましい。サンプル点の除去数が多くなると、それだけ演算用波形の範囲が狭く(サンプル点の数が少なく)なり、信号ノイズの影響を受けやすくなるからである。
上記した実施形態では、1回目の相関演算の後にステップS8で、最大相関値と予め定めた閾値(例えば0.95)との大小比較を行い、最大相関値の方が小さいときのみサンプル点を除去したが、1回目の相関演算で求めた最大相関値に拘わらず、全ての場合にサンプル点を除去してもよい。これは、図7のフローチャートにおいてステップS7,S8,S14の処理を省略することに相当する。
【0067】
さらに、上記した実施形態では、重ね合わせ測定装置10内の画像処理装置19によって、エッジ信号のサンプル点の除去や中心位置C1,C2の検出などを行ったが、重ね合わせ測定装置10に接続された外部のコンピュータを用いた場合でも、同様の効果を得ることができる。
また、上記した実施形態では、重ね合わせ測定装置10を例に説明したが、本発明はこれに限定されない。例えば、マスクに形成された回路パターンをレジスト膜に焼き付ける露光工程の前に、マスクとウエハ11とのアライメントを行う装置(露光装置のアライメント系)にも適用できる。この場合には、ウエハ11上に形成されたアライメントマークの位置を精度よく検出することができる。また、単一の被検マークとカメラの基準位置との光学的位置ずれを検出する装置にも、本発明は適用できる。
【0068】
【発明の効果】
以上説明したように、本発明によれば、被検マークのエッジ対に関わるエッジ信号の波形が非対称であっても精度良く被検マークの位置を検出できる。
【図面の簡単な説明】
【図1】重ね合わせ測定装置10の全体構成を示す図である。
【図2】ウエハ11に形成された重ね合わせマーク30の平面図(a)、観察領域の画像を説明する図(b)〜(d)である。
【図3】標準的な重ね合わせマーク30における代表波形(a)およびエッジ信号の波形(b)の例を示す図である。
【図4】標準的な重ね合わせマーク30における代表波形(a)およびエッジ信号の波形(b)の例を示す図である。
【図5】近接状態の重ね合わせマーク30における代表波形(a)およびエッジ信号の波形(b)の例を示す図である。
【図6】近接状態の重ね合わせマーク30における代表波形(a)およびエッジ信号の波形(b)の例を示す図である。
【図7】重ね合わせ測定装置10における位置検出の手順を示すフローチャートである。
【図8】対称性を向上させた後のエッジ信号の波形例を示す図である。
【図9】対称性の向上および検出精度の向上を説明する図である。
【図10】フレームマークとボックスマークのサイズ差が大きい重ね合わせマーク(a)と小さい重ね合わせマーク(b)を示す図である。
【符号の説明】
10 重ね合わせ測定装置
11 ウエハ
12 検査ステージ
13 光源
14 照明レンズ
15 プリズム
16 対物レンズ
17 結像レンズ
18 CCD撮像素子
19 画像処理装置
30 重ね合わせマーク
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a mark position detection apparatus, a mark position detection method, an overlay measurement apparatus, and an overlay measurement method for detecting the position of a test mark on a substrate, and in particular, a highly accurate manufacturing process of a semiconductor element or the like. The present invention relates to a mark position detection device suitable for position detection.
[0002]
[Prior art]
As is well known, in the manufacturing process of a semiconductor element or a liquid crystal display element, an exposure process in which a circuit pattern formed on a mask (reticle) is baked on a resist film, and a development process in which an exposed or unexposed part of the resist film is dissolved. After that, the circuit pattern (resist pattern) is transferred to the resist film, and the resist pattern is used as a mask to perform etching and vapor deposition (machining process) to form a circuit on a predetermined material film adjacent to the resist film. A pattern is transferred (pattern formation process).
[0003]
Next, in order to form another circuit pattern on the circuit pattern formed on the predetermined material film, the same pattern forming process is repeated. As described above, by repeatedly performing the pattern formation process many times, circuit patterns of various material films are stacked on a substrate (semiconductor wafer or liquid crystal substrate), and a circuit of a semiconductor element or a liquid crystal display element is formed. The
[0004]
By the way, in the above manufacturing process, in order to accurately overlay circuit patterns of various material films, the mask and the substrate are aligned before the exposure process in each pattern formation process, and further after the development process. In addition, prior to the processing step, the resist pattern on the substrate is inspected for superposition to improve the product yield.
[0005]
Incidentally, the alignment between the mask and the substrate (before the exposure process) is an alignment between the circuit pattern on the mask and the circuit pattern formed on the substrate in the previous pattern formation process. This is performed using an alignment mark indicating a reference position.
Further, the inspection of the overlay state of the resist pattern on the substrate (before the processing step) is a resist pattern overlay inspection with respect to the circuit pattern (hereinafter referred to as “underlying pattern”) formed in the previous pattern formation step. Yes, it is performed using an overlay mark indicating the reference position of each of the base pattern and the resist pattern.
[0006]
The position of these alignment marks and overlay marks (generally referred to as “test marks”) is detected by positioning the test marks within the field of view of the apparatus and using an image sensor such as a CCD camera. This is performed based on the edge signal among the obtained image signals. The image signal represents a distribution related to the luminance value for each pixel on the imaging surface of the imaging element. The edge signal is a sudden change portion of the luminance value in the image signal.
[0007]
In calculating the position of the test mark from the edge signal, a known algorithm called a correlation method is used. In the correlation method, since the correlation calculation is performed using the entire waveform of the edge signal, the position of the test mark can be calculated with high reproducibility without being affected by the signal noise.
[0008]
[Problems to be solved by the invention]
However, the correlation method is an algorithm on the assumption that the waveform of the edge signal is symmetrical. For this reason, if the symmetry of the waveform of the edge signal is reduced, an error increases when calculating the position of the test mark. That is, the position of the test mark cannot be detected with high accuracy. Note that a situation where the symmetry of the waveform of the edge signal is lowered can occur even when the shape of the edge pair of the test mark is symmetrical.
[0009]
An object of the present invention is to provide a mark position detection device, a mark position detection method, an overlay measurement device, and a mark position detection device capable of accurately detecting the position of the test mark even if the waveform of the edge signal related to the edge pair of the test mark is asymmetric. Another object of the present invention is to provide an overlay measurement method.
[0010]
[Means for Solving the Problems]
The mark position detection apparatus according to claim 1, an illumination unit that illuminates a test mark including one or more edge pairs formed on a substrate, and an image based on light from the test mark, An imaging means for outputting an image signal composed of a plurality of sample points, an extraction means for extracting a sudden change portion of a luminance value of the image signal as an edge signal related to the edge pair, and the test based on the edge signal Detection means for detecting the center position of the mark, and the detection means corrects asymmetry of the edge signal by removing one or more of the sample points included in the edge signal. Calculating a maximum correlation value in a correlation function between a correction unit, a waveform based on the edge signal corrected by the correction unit, and a waveform obtained by folding the waveform; And it has a calculating means for calculating a location.
[0011]
The mark position detection apparatus according to claim 2, an illumination unit that illuminates a test mark including one or more edge pairs formed on a substrate, and an image based on light from the test mark, An imaging means for outputting an image signal composed of a plurality of sample points, an extraction means for extracting a sudden change portion of a luminance value of the image signal as an edge signal related to the edge pair, and the test based on the edge signal Detecting means for detecting the center position of the mark, wherein the detecting means corrects the edge signal by removing one or more of the sample points included in the edge signal; The maximum correlation value is calculated in the correlation function between the waveform for calculation based on the edge signal before or after correction by the correction means and the waveform obtained by folding the waveform for calculation. A calculation means for calculating a candidate for the center position based on the maximum correlation value, and a plurality of the maximum correlation values and the candidates calculated by the calculation means using each of a plurality of different calculation waveforms. And selecting means for selecting one of the plurality of candidates having the largest corresponding maximum correlation value as the center position.
[0012]
According to a third aspect of the present invention, in the mark position detection device according to the second aspect, the detection means uses the maximum correlation calculated by the calculation means using the waveform for calculation based on the edge signal before correction. The comparator further includes a comparing unit that compares a value with a predetermined threshold value, and as a result of comparison by the comparing unit, the maximum correlation value based on the edge signal before correction is smaller than the threshold value. Sometimes, the edge signal is corrected.
[0013]
The mark position detection method according to claim 4, an illumination step of illuminating a test mark including one or more edge pairs formed on a substrate, and an image based on light from the test mark, An imaging step of outputting an image signal composed of a plurality of sample points, an extraction step of extracting a sudden change portion of the luminance value of the image signal as an edge signal related to the edge pair, and the test based on the edge signal A detection step of detecting a center position of the mark, wherein the detection step corrects asymmetry of the edge signal by removing one or more of the sample points included in the edge signal. Calculating a maximum correlation value in a correlation function between a correction step, a waveform based on the edge signal after correction in the correction step, and a waveform obtained by folding the waveform; Position are those having a calculation step of calculating.
[0014]
The mark position detection method according to claim 5, an illumination process for illuminating a test mark including one or more edge pairs formed on a substrate, and an image based on light from the test mark, An imaging step of outputting an image signal composed of a plurality of sample points, an extraction step of extracting a sudden change portion of the luminance value of the image signal as an edge signal related to the edge pair, and the test based on the edge signal A detection step of detecting the center position of the mark, wherein the detection step corrects the edge signal by removing one or more of the sample points included in the edge signal; The maximum correlation value in the correlation function between the waveform for calculation based on the edge signal before correction or the edge signal after correction in the correction step and the waveform obtained by folding back the waveform for calculation is calculated. A calculation step of calculating the center position candidate based on the maximum correlation value; and a plurality of the maximum correlation values and the candidates calculated in the calculation step using each of a plurality of different calculation waveforms. And a selection step of selecting one of the plurality of candidates having the largest corresponding maximum correlation value as the center position.
[0015]
According to a sixth aspect of the present invention, in the mark position detection method according to the fifth aspect, the detection step uses the maximum waveform calculated in the calculation step using the waveform for calculation based on the edge signal before correction. The method further includes a comparison step of comparing a correlation value with a predetermined threshold value. In the correction step, as a result of comparison in the comparison step, the maximum correlation value based on the edge signal before correction is more than the threshold value. When it is small, the edge signal is corrected.
[0016]
According to a seventh aspect of the present invention, in the overlay measurement apparatus for inspecting the overlay state of the plurality of patterns formed on the substrate, the center position of the test mark indicating each reference position of each of the plurality of patterns is set. 4. The overlay error between the plurality of patterns based on a difference between the mark position detection device according to claim 1 or claim 2 to be detected and the respective center positions detected by the mark position detection device. Measuring means for measuring the quantity.
[0017]
The invention according to claim 8 is an overlay measurement method for inspecting an overlay state of a plurality of patterns formed on a substrate using the mark position detection method according to claim 4 or claim 5 or claim 6. The detecting step is a step of detecting a center position of each of the test marks indicating a reference position of each of the plurality of patterns, and based on the difference between the center positions detected in the detecting step, The method further includes a measuring step of measuring an overlay error amount between the plurality of patterns.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Embodiments of the present invention correspond to claims 1 to 8.
Here, the mark position detection apparatus of the present embodiment will be described using the overlay measurement apparatus 10 shown in FIG. 1 as an example.
[0019]
As shown in FIG. 1, the overlay measurement apparatus 10 includes an inspection stage 12 that supports the wafer 11, an illumination optical system (13 to 15) that emits illumination light L <b> 1 toward the wafer 11, and an image of the wafer 11. Are formed by an imaging optical system (16, 17), a CCD image pickup device 18, and an image processing device 19.
Before specifically describing the overlay measurement apparatus 10, the wafer 11 (substrate) will be described.
[0020]
A plurality of circuit patterns (all not shown) are laminated on the surface of the wafer 11. The uppermost circuit pattern is a resist pattern transferred to a resist film. That is, the wafer 11 is in the process of forming another circuit pattern on the base pattern formed in the previous pattern forming process (after exposure / development of the resist film and before etching processing of the material film). Is in a state.
[0021]
Then, the overlay measurement apparatus 10 inspects the overlay state of the resist pattern on the underlying pattern of the wafer 11. For this reason, an overlay mark 30 (FIG. 2A) used for the inspection of the overlay state is formed on the surface of the wafer 11. FIG. 2A is a plan view of the overlay mark 30.
The overlay mark 30 includes an outer frame mark 31 and an inner box mark 32. One of the frame mark 31 and the box mark 32 is a base mark and the other is a registration mark. The ground mark and the resist mark are formed simultaneously with the ground pattern and the resist pattern, respectively, and indicate the reference positions of the ground pattern and the resist pattern.
[0022]
The frame mark 31 includes two edge pairs E1 and E2 in the X direction. One edge pair E1 includes a left edge E1 (L) and a right edge E1 (R), and the other edge pair E2 includes a left edge E2 (L) and a right edge E2 (R). It consists of That is, the frame mark 31 has two edges E1 (L) and E2 (L) on the left side and two edges E1 (R) and E2 (R) on the right side. The same applies to the Y direction of the frame mark 31.
[0023]
The box mark 32 includes one edge pair E3 with respect to the X direction. The edge pair E3 includes a left edge E3 (L) and a right edge E3 (R). That is, the box mark 32 has one edge E3 (L) on the left side and one edge E3 (R) on the right side. The same applies to the Y direction of the box mark 32. Each of the frame mark 31 and the box mark 32 corresponds to a “test mark” in the claims.
[0024]
Although not shown, a material film to be processed is formed between the resist marks and resist pattern and the base mark and base pattern. This material film is formed when the registration mark is accurately superimposed on the ground mark and the resist pattern is accurately superimposed on the ground pattern after the overlay measurement by the overlay measuring apparatus 10. It is actually processed through.
[0025]
Next, a specific configuration of the overlay measurement apparatus 10 (FIG. 1) will be described.
The inspection stage 12 of the overlay measuring apparatus 10 can hold the wafer 11 in a horizontal state and can move to an arbitrary position within a horizontal plane. By moving the inspection stage 12, the observation region including the overlay mark 30 (FIG. 2A) on the wafer 11 is positioned in the field of view of the imaging optical system (16, 17). The normal direction of the inspection stage 12 is the Z direction, and the mounting surface of the wafer 11 is the XY plane.
[0026]
The illumination optical system (13 to 15) includes a light source 13, an illumination lens 14, and a prism 15, and the prism 15 is disposed on the optical axis O2 of the imaging optical system (16, 17). The optical axis O2 of the imaging optical system (16, 17) is parallel to the Z direction. The reflection / transmission surface 15a of the prism 15 is inclined by approximately 45 ° with respect to the optical axis O2. The optical axis O1 of the illumination optical system (13 to 15) is perpendicular to the optical axis O2 of the imaging optical system (16, 17).
[0027]
The imaging optical system (16, 17) is an optical microscope unit composed of the objective lens 16 and the imaging lens 17, and the objective lens 16 is disposed between the inspection stage 12 and the prism 15. The imaging lens 17 is an optical element that functions as a second objective lens, and is disposed on the opposite side of the objective lens 16 with the prism 15 interposed therebetween.
In the illumination optical system (13-15) and the imaging optical system (16, 17), the light emitted from the light source 13 is guided to the prism 15 via the illumination lens 14, and reflected by the reflection / transmission surface 15a. (Illumination light L1) is then guided to the objective lens 16 side. Then, after passing through the objective lens 16 (illumination light L <b> 2), it enters the wafer 11 on the inspection stage 12. At this time, the observation area of the wafer 11 is illuminated substantially vertically by the illumination light L2.
[0028]
Then, reflected light L3 is generated from the observation region of the wafer 11 irradiated with the illumination light L2 in accordance with the uneven structure (overlapping mark 30) there. The reflected light L3 is guided to the imaging lens 17 through the objective lens 16 and the prism 15, and is imaged on the imaging surface of the CCD imaging device 18 by the action of the objective lens 16 and the imaging lens 17. At this time, an enlarged image (reflected image) based on the reflected light L3 is formed on the imaging surface of the CCD image sensor 18.
[0029]
The CCD image pickup device 18 is an area sensor in which a plurality of pixels are two-dimensionally arranged, picks up a reflected image on the image pickup surface, and outputs an image signal to the image processing device 19. The image signal is composed of a plurality of sample points, and represents a distribution (luminance distribution) related to the luminance value for each pixel on the imaging surface of the CCD imaging device 18.
The illumination optical system (13 to 15) and the objective lens 16 correspond to “illumination means” in the claims. The imaging optical system (16, 17) and the CCD image pickup device 18 correspond to “image pickup means” in the claims. The image processing device 19 corresponds to “extraction means” and “detection means” in the claims.
[0030]
Based on the image signal from the CCD image sensor 18, the image processing device 19 captures a reflected image of the observation region (including the overlay mark 30) of the wafer 11 as an image. Here, in the image of the observation area of the wafer 11, as shown in FIG. 2B, three edge images F1 (L), F2 (L), and F3 (L) appear on the left side in the X direction. On the right side, three edge images F1 (R), F2 (R), and F3 (R) appear.
[0031]
Among these, the inner two edge images F3 (L) and F3 (R) are images corresponding to the edges E3 (L) and E3 (R) of the concavo-convex structure of the box mark 32 shown in FIG. is there. The remaining four edge images F1 (L), F2 (L), F1 (R), F2 (R) are the edges E1 (L), E2 (L), E1 (R) of the concavo-convex structure of the frame mark 31. , E2 (R).
For this reason, the image processing apparatus 19 relates to the box mark 32 among the six edge images F1 (L), F2 (L),... (FIG. 2B) appearing in the image of the observation region of the wafer 11. Based on the edge images F3 (L), F3 (R), the center position C2 of the box mark 32 in the X direction is detected, and the edge images F1 (L), F2 (L), F1 (R) related to the frame mark 31 are detected. , F2 (R), the center position C1 of the frame mark 31 in the X direction is detected.
[0032]
The procedure for detecting the center positions C1 and C2 in the X direction will be described in detail later. In the image of the observation area of the wafer 11, edge images of the frame mark 31 and the box mark 32 appear in the Y direction in the same manner. The center positions in the frame mark 31 and box mark 32Y directions can also be detected by the same procedure as in the X direction. For this reason, only the description about the “X direction” will be described below, and the description about the “Y direction” will be omitted.
[0033]
Here, pre-processing for detecting the center positions C1 and C2 will be described. Prior to the detection of the center positions C1 and C2, the image processing device 19 integrates the image signals taken from the CCD image sensor 18 (projection processing). That is, the image signals are integrated along a direction (Y direction) perpendicular to the detection direction (X direction) of the center positions C1 and C2. This is a process for reducing signal noise. The waveform of the integrated image signal generated by the projection processing is referred to as “representative waveform”.
[0034]
For example, as shown by a dotted line in FIG. 2B, all the edge images F1 (L), F2 (L), F3 (L), F1 (R), F2 (R) appearing in the image of the observation region. , F3 (R) is set, and when the image signal is integrated in the Y direction within this range 33, the representative waveform of the obtained image signal is shown in FIGS. It becomes such a shape.
3 to 6, the horizontal axis represents the position of each sample point (pixel) of the representative waveform, and the vertical axis represents the luminance value. In FIG. 3A to FIG. 6A, the vicinity of the bottom where the luminance value of the representative waveform is minimized is the edge images F1 (L), F2 (L), F3 (L), F1 (R), F2 ( R) and F3 (R).
[0035]
3 and 4A are examples of representative waveforms in a standard overlay mark 30 having a large size difference between the frame mark 31 and the box mark 32 as shown in FIG. 10A. Yes, FIG. 3A relates to the case where the shift between the center positions C1 and C2 of the frame mark 31 and the box mark 32 is small, and FIG. 4A relates to the case where the shift between the center positions C1 and C2 is large.
[0036]
FIGS. 5A and 6B are examples of representative waveforms in the overlay mark 30 having a small size difference between the frame mark 31 and the box mark 32 as shown in FIG. FIG. 6A relates to the case where the shift between the center positions C1 and C2 of the frame mark 31 and the box mark 32 is small, and FIG. 6A relates to the case where the shift between the center positions C1 and C2 is large.
[0037]
As can be seen by comparing FIG. 3A to FIG. 6A, in FIG. 3A to FIG. 5A, the edge images F2 (L) and F2 (R) resulting from the frame mark 31 and the box mark 32 are displayed. Since the resulting edge images F3 (L) and F3 (R) are sufficiently separated, the luminance values of the boundary portions 40 (L) and (R) corresponding to the frame waveform 31 and the box mark 32 in the representative waveform. Is kept at a constant value A.
[0038]
On the other hand, in FIG. 6A, edge images F2 (L) and F2 (R) caused by the frame mark 31 and edge images F3 (L) and F3 (R) caused by the box mark 32 are obtained. Although they are separated to some extent on the left side in the figure, they are very close on the right side in the figure.
Therefore, in the representative waveform, the left boundary portion 41 (L) corresponding to the space between the frame mark 31 and the box mark 32 has a constant luminance value A, and the right boundary portion 41 (R) has a luminance value. The value is a value B smaller than a certain value A. That is, the left-right balance (symmetry) is broken. This is an influence of proximity between the frame mark 31 and the box mark 32.
[0039]
Since the actual position detection is performed separately for the frame mark 31 and the box mark 32, the projection process for generating the representative waveform as described above (see FIG. 3A to FIG. 6A) is shown in FIG. This is performed by setting ranges 34 and 35 indicated by dotted lines in 2 (c) and (d), respectively.
A range 34 in FIG. 2C is a range including two edge images F3 (L) and F3 (R) related to the box mark 32 appearing in the image of the observation region. It is set when detecting the position C2. Then, a representative waveform (not shown) is generated by integrating the image signals within this range 34, and the obtained representative waveform is used for detection of the center position C2.
[0040]
A range 35 in FIG. 2 (d) is a range including four edge images F 1 (L), F 2 (L), F 1 (R), and F 2 (R) related to the frame mark 31. Is set when detecting the center position C1 of the. Then, a representative waveform (not shown) is generated by integration of the image signals within this range 35, and the obtained representative waveform is used for detecting the center position C1.
[0041]
Next, a procedure for detecting the center positions C1 and C2 of the frame mark 31 and the box mark 32 in the overlay measurement apparatus 10 will be specifically described with reference to the flowchart of FIG. Here, detection of the center position C2 of the box mark 32 will be described as an example.
When this position is detected, an observation region including the overlay mark 30 (FIG. 2A) of the wafer 11 is positioned in the field of view of the overlay measurement apparatus 10. A reflected image of the overlay mark 30 is formed on the imaging surface of the CCD image sensor 18. Therefore, the image processing device 19 can capture the reflected image of the overlay mark 30 as an image (see FIG. 2C) based on the image signal from the CCD image sensor 18.
[0042]
Next, the image processing device 19 sets a range 34 including two edge images F3 (L) and F3 (R) related to the box mark 32 as indicated by a dotted line in FIG. A representative waveform (not shown, see FIGS. 3 to 6A) is generated by integrating the image signals in the Y direction within this range 34 (step S1 in FIG. 7). The setting of the range 34 is performed manually or automatically.
[0043]
Next, based on the representative waveform generated in step S1, the image processing device 19 extracts a sudden change portion of the luminance value from the image signal as an edge signal (step S2). The edge signal is a signal related to the edge pair E3 of the box mark 32 (FIG. 2A). The extraction of the edge signal is automatically performed, for example, according to the following procedures (1) to (6).
[0044]
(1) Find two bottom points at which the luminance value of the representative waveform related to the box mark 32 is minimized.
(2) The change of the luminance value is traced from the left bottom point to the left, and the sample point S1 (see (a) of FIGS. 3 to 6) where the luminance value is maximum is found. The luminance value of the sample point S1 is a constant value A in any of FIGS.
[0045]
(3) The change of the luminance value is traced from the left bottom point to the right, and the sample point S3 (see (a) of FIGS. 3 to 6) having the maximum luminance value is found.
(4) The change of the luminance value is traced from the right bottom point to the right, and the sample point S2 (see (a) of FIGS. 3 to 6) where the luminance value is maximum is found. The luminance value of the sample point S2 is a constant value A in FIGS. 3 to 5A, but becomes a value B smaller than the value A in FIG.
[0046]
(5) The change of the luminance value is traced from the bottom point on the right side to the left, and the sample point S3 (see (a) in FIGS. 3 to 6) where the luminance value is maximum is found. In this embodiment, the sample point S3 is the same as the sample point obtained in (3).
(6) Extract from the sample point S1 to the sample point S2 (that is, the sudden change portion of the luminance value) as an edge signal.
[0047]
As a result, the waveform 42 of the extracted edge signal has a shape as shown in FIG. As can be seen by comparing (b) in FIGS. 3 to 6, the luminance values at the left end and the right end of the waveform 42 are the same value A in FIGS. 3 to 5 (b). For this reason, the waveform 42 of FIGS. 3-5 is symmetrical. On the other hand, in FIG. 6B, the luminance values at the left end and the right end of the waveform 42 become different values A and B due to the proximity of the frame mark 31 and the box mark 32. For this reason, the waveform 42 in FIG. 6B is asymmetrical.
[0048]
In the image processing device 19, based on the waveform 42 of the edge signal extracted in step S <b> 2 (see FIGS. 3 to 6B), the center position C <b> 2 of the box mark 32 is followed according to the procedure after step S <b> 3 in FIG. 7. Is detected. Even if the waveform 42 of the edge signal is left-right symmetric as shown in FIGS. 3 to 5B or left-right asymmetric as shown in FIG. It can be detected.
[0049]
Now, the procedure after step S3 in FIG. 7 will be described. The image processing device 19 first determines a calculation waveform (step S3). In the current processing (first time), the waveform 42 of the edge signal extracted in step S2 is a calculation waveform. Then, the image processing device 19 sets a temporary center position of the waveform 42 (step S4).
Next, the image processing device 19 folds the waveform 42 at the temporary center position, and calculates a correlation function between the obtained folded waveform and the original waveform 42 (step S5). The correlation function represents the relationship between the offset amount between the folded waveform and the original waveform 42 and the correlation value at that time. In this case, the correlation value takes a value of “0 to 1”.
[0050]
Then, the image processing device 19 obtains the maximum correlation value in the correlation function calculated in step S5, and selects the offset amount Δ corresponding to this maximum correlation value (step S6). Since the process this time is the first time (step S7 is Y), the process of step S8 is performed next. That is, the magnitude correlation between the maximum correlation value obtained in step S6 and a predetermined threshold value (for example, 0.95) is performed. The maximum correlation value is an index indicating the left-right symmetry of the calculation waveform.
[0051]
As a result of the comparison, when the maximum correlation value obtained in step S6 is larger than a threshold value (for example, 0.95) (N in step S8), the image processing apparatus 19 has the original waveform 42 symmetrical (see FIGS. 3 to 5). (b)), and the process of step S14 is performed. That is, the center position C2 (= temporary center position + Δ / 2) of the box mark 32 is calculated based on the offset amount Δ selected in step S6 and the temporary center position set in step S4.
[0052]
On the other hand, as a result of the comparison in step S8, when the maximum correlation value obtained in step S6 is smaller than a threshold (for example, 0.95) (step S8 is Y), the image processing apparatus 19 has the original waveform 42 left and right. It is determined that it is asymmetric (see FIG. 6B), and the process of step S9 is performed. That is, the candidate (= temporary center position + Δ / 2) of the center position C2 of the box mark 32 is calculated based on the offset amount Δ selected in step S6 and the temporary center position set in step S4.
[0053]
And the data table which shows the relationship between the candidate of the center position C2 calculated by step S9 and the maximum correlation value calculated | required by step S6 is created (step S10). When the calculation of the candidate for the center position C2 as described above is repeatedly executed (N in Step S11), the image processing device 19 returns to Step S3 after performing the processing in the next Step S12.
[0054]
In step S12, one or more sample points are removed from the edge signal extracted in step S2 (the asymmetric waveform 42 in FIG. 6B), and the edge signal is corrected. At this time, the removal position and the number of removal of sample points are arbitrary. For example, it may be possible to remove one sample point located at the left end or the right end of the edge signal (the asymmetrical waveform 42 in FIG. 6B).
[0055]
When the edge signal correction process in step S12 ends, the image processing device 19 returns to the process in step S3 and executes the second process (S3 to S11). This time (second time), in the process of step S3, the waveform of the edge signal after the correction in step S12 is the waveform for calculation.
Then, steps S4 to S6 are executed using the waveform for calculation (the waveform of the corrected edge signal) to obtain the maximum correlation value in the correlation function, and the offset amount Δ corresponding to the maximum correlation value is selected. Since this process is the second time (N in step S7), the process proceeds to step S9 without executing the process in step S8, and a new candidate for the center position C2 of the box mark 32 is calculated. Then, the relationship between this new candidate and the maximum correlation value obtained in step S6 is added to the data table (step S10).
[0056]
In this way, when the candidate of the center position C2 of the box mark 32 is repeatedly calculated, a plurality of sample points can be obtained by changing the sample point removal position and the number of removals every time the process of step S12 (edge signal correction process) is performed. Candidates for the center position C2 with different calculation waveforms can be calculated one after another. The sample point to be removed may be designated by an operator or automatically set by the apparatus.
[0057]
When the calculation of the candidate for the center position C2 ends (step S11 is Y), the image processing device 19 proceeds to the next step S13. At this time, in the image processing device 19, a data table indicating the relationship between a plurality of candidates for the center position C2 and the maximum correlation value is completed.
For this reason, the image processing device 19 refers to the data table and selects one of a plurality of candidates for the center position C2 (step S13). That is, a candidate corresponding to one of the maximum correlation values having the largest value (maximum value of the maximum correlation value) is searched for, and this candidate is selected as “center position C2”. This is because as the maximum correlation value is larger, the left / right symmetry of the calculation waveform is higher, and a highly accurate detection result can be obtained.
[0058]
For example, when the waveform of the edge signal (edge signal before correction) extracted in step S2 has a left-right asymmetry like the waveform 42 shown in FIG. 6B, “center position C2” is set in step S13. The candidate to be selected is when the waveform 43 shown in FIG.
This waveform 43 is obtained by removing four sample points on the left end side and one sample point on the right end side from the sample points of the waveform 42 (FIG. 6B). It has a symmetrical waveform. The maximum correlation value in the waveform 43 is “0.97” as shown in FIG. 9, and is “0.32” compared with the maximum correlation value “0.65” in the waveform 42 of the edge signal before correction. You can see that it has only improved.
[0059]
This is because even if the waveform 42 (FIG. 6B) of the edge signal (edge signal before correction) extracted in step S2 is asymmetrical, the waveform used for correlation calculation is eliminated by removing sample points. This means that the center position C2 can be accurately calculated using the symmetrical waveform 43 (FIG. 8).
For this reason, a deviation (about 19 nm in FIG. 9) between the center position C2 calculated using the corrected left-right symmetric waveform 43 and the center position C2 calculated using the left-right asymmetric waveform 42 before correction is obtained. This represents the improvement in detection accuracy. That is, by removing the sample point, the measurement error of the center position of the inner mark can be reduced by about 19 nm.
[0060]
Similarly, the center position C1 of the frame mark 31 can be detected with high accuracy. For example, when the waveform of the edge signal (edge signal before correction) extracted in step S2 has left-right asymmetry like the waveforms 44 and 45 shown in FIG. 6B, “center position C2” is determined in step S13. The candidate selected as “” is when the waveforms 46 and 47 shown in FIG.
[0061]
Of these, the waveform 46 is obtained by removing four sample points on the right end from the sample points of the waveform 44 (FIG. 6B), and the waveform 47 is the waveform 45 (FIG. 6B). Among the sample points, one sample point on the left end side is removed. As a result, the waveforms 46 and 47 are symmetrical waveforms as can be seen from FIG. As shown in FIG. 9, the maximum correlation value in the waveforms 46 and 47 is “0.98”. Compared with the maximum correlation value “0.82” in the waveforms 44 and 45 of the edge signal before correction, It can be seen that the improvement is 0.16 ".
[0062]
This is because even if the waveforms 44 and 45 (FIG. 6B) of the edge signal (edge signal before correction) extracted in step S2 are left-right asymmetric, the waveform symmetry is eliminated by removing the sample points. This means that the center position C1 can be accurately calculated using the symmetrical waveforms 46 and 47 (FIG. 8).
[0063]
Therefore, the difference between the center position C1 calculated using the corrected left and right symmetrical waveforms 46 and 47 and the candidate of the center position C1 calculated using the left and right asymmetric waveforms 44 and 45 before correction (in FIG. 9). (About 13 nm) represents an improvement in detection accuracy. In other words, the measurement error could be reduced by about 13 nm by removing the sample points.
Subsequently, the image processing apparatus 19 performs an overlay inspection of the wafer 11 (inspection of the overlay state of the resist pattern with respect to the base pattern). That is, the overlay deviation amount R (FIG. 2A) is calculated based on the difference between the center positions C1 and C2 of the frame mark 31 and the box mark 32. The overlay deviation amount R is expressed as a two-dimensional vector on the surface of the wafer 11.
[0064]
In the present embodiment, as described above, since the center positions C1 and C2 of the frame mark 31 and the box mark 32 are both detected with high accuracy, the overlay deviation amount R can also be detected with high accuracy. In the example of FIG. 9, the overlay deviation amount R is improved by about 32 nm by removing the sample points. That is, the measurement error could be reduced by about 32 nm.
[0065]
In this embodiment, since the correlation calculation (calculation of the correlation function between the calculation waveform and the folded waveform) is performed using the entire calculation waveform determined in step S3, the frame mark is hardly affected by the signal noise. 31, center positions C1 and C2 of the box mark 32 can be calculated with good reproducibility. Also, the overlay deviation amount R can be calculated with good reproducibility.
[0066]
Note that the number of sample points removed in the edge signal correction process (S12) is preferably minimized. This is because as the number of sample points to be removed increases, the range of the waveform for calculation becomes narrower (the number of sample points decreases) and is more susceptible to signal noise.
In the above-described embodiment, after the first correlation calculation, in step S8, the maximum correlation value is compared with a predetermined threshold (for example, 0.95), and the sample point is determined only when the maximum correlation value is smaller. Although removed, the sample points may be removed in all cases regardless of the maximum correlation value obtained in the first correlation calculation. This corresponds to omitting the processing of steps S7, S8, and S14 in the flowchart of FIG.
[0067]
Furthermore, in the above-described embodiment, the image processing device 19 in the overlay measurement apparatus 10 performs the removal of the edge signal sample points, the detection of the center positions C1 and C2, etc., but is connected to the overlay measurement apparatus 10. Even when an external computer is used, the same effect can be obtained.
In the above-described embodiment, the overlay measurement apparatus 10 has been described as an example, but the present invention is not limited to this. For example, the present invention can also be applied to an apparatus (an alignment system of an exposure apparatus) that aligns the mask and the wafer 11 before an exposure process in which a circuit pattern formed on the mask is printed on a resist film. In this case, the position of the alignment mark formed on the wafer 11 can be detected with high accuracy. The present invention can also be applied to an apparatus that detects an optical displacement between a single test mark and a camera reference position.
[0068]
【The invention's effect】
As described above, according to the present invention, the position of the test mark can be detected with high accuracy even if the waveform of the edge signal related to the edge pair of the test mark is asymmetric.
[Brief description of the drawings]
FIG. 1 is a diagram showing an overall configuration of an overlay measurement apparatus 10;
2A is a plan view of an overlay mark 30 formed on a wafer 11, and FIGS. 2B to 2D are views for explaining images of an observation area. FIG.
3 is a diagram showing an example of a representative waveform (a) and a waveform (b) of an edge signal in a standard overlay mark 30. FIG.
4 is a diagram illustrating an example of a representative waveform (a) and a waveform (b) of an edge signal in a standard overlay mark 30. FIG.
FIG. 5 is a diagram showing an example of a representative waveform (a) and an edge signal waveform (b) in the overlay mark 30 in the proximity state.
FIG. 6 is a diagram showing an example of a representative waveform (a) and an edge signal waveform (b) in the overlay mark 30 in the proximity state.
FIG. 7 is a flowchart showing a position detection procedure in the overlay measurement apparatus 10;
FIG. 8 is a diagram illustrating an example of a waveform of an edge signal after improving symmetry.
FIG. 9 is a diagram for explaining improvement in symmetry and improvement in detection accuracy.
FIG. 10 is a diagram showing an overlay mark (a) with a large size difference between a frame mark and a box mark and a small overlay mark (b).
[Explanation of symbols]
10 Overlay measuring device
11 Wafer
12 Inspection stage
13 Light source
14 Lighting lens
15 Prism
16 Objective lens
17 Imaging lens
18 CCD image sensor
19 Image processing device
30 Overlay mark

Claims (8)

基板上に形成された1つ以上のエッジ対を含む被検マークを照明する照明手段と、
前記被検マークからの光に基づく像を撮像し、複数のサンプル点からなる画像信号を出力する撮像手段と、
前記画像信号のうち輝度値の急変部分を前記エッジ対に関わるエッジ信号として抽出する抽出手段と、
前記エッジ信号に基づいて、前記被検マークの中心位置を検出する検出手段とを備え、
前記検出手段は、
前記エッジ信号に含まれるサンプル点のうち1つ以上を除去することにより、前記エッジ信号の非対称性を補正する補正手段と、
前記補正手段による補正後のエッジ信号に基づいた波形と、該波形を折り返して得られる波形との相関関数における最大相関値を算出することにより、前記中心位置を算出する算出手段とを有する
ことを特徴とするマーク位置検出装置。
Illuminating means for illuminating a test mark including one or more edge pairs formed on the substrate;
An imaging means for capturing an image based on light from the test mark and outputting an image signal composed of a plurality of sample points;
Extraction means for extracting a sudden change portion of the luminance value of the image signal as an edge signal related to the edge pair;
Detecting means for detecting a center position of the test mark based on the edge signal;
The detection means includes
Correction means for correcting asymmetry of the edge signal by removing one or more of the sample points included in the edge signal;
Calculating means for calculating the center position by calculating a maximum correlation value in a correlation function between a waveform based on the edge signal corrected by the correction means and a waveform obtained by folding the waveform. A mark position detecting device as a feature.
基板上に形成された1つ以上のエッジ対を含む被検マークを照明する照明手段と、
前記被検マークからの光に基づく像を撮像し、複数のサンプル点からなる画像信号を出力する撮像手段と、
前記画像信号のうち輝度値の急変部分を前記エッジ対に関わるエッジ信号として抽出する抽出手段と、
前記エッジ信号に基づいて、前記被検マークの中心位置を検出する検出手段とを備え、
前記検出手段は、
前記エッジ信号に含まれるサンプル点のうち1つ以上を除去することにより、前記エッジ信号を補正する補正手段と、
前記補正手段による補正前のエッジ信号または補正後のエッジ信号に基づいた演算用波形と該演算用波形を折り返して得られる波形との相関関数における最大相関値を算出し、該最大相関値に基づいて前記中心位置の候補を算出する算出手段と、
複数の異なる前記演算用波形の各々を用いて前記算出手段が算出した複数の前記最大相関値と前記候補とを参照し、前記複数の候補のうち、対応する前記最大相関値が最も大きい1つを前記中心位置として選択する選択手段とを有する
ことを特徴とするマーク位置検出装置。
Illuminating means for illuminating a test mark including one or more edge pairs formed on the substrate;
An imaging means for capturing an image based on light from the test mark and outputting an image signal composed of a plurality of sample points;
Extraction means for extracting a sudden change portion of the luminance value of the image signal as an edge signal related to the edge pair;
Detecting means for detecting a center position of the test mark based on the edge signal;
The detection means includes
Correction means for correcting the edge signal by removing one or more of the sample points included in the edge signal;
A maximum correlation value in a correlation function between a waveform for calculation based on an edge signal before correction by the correction means or an edge signal after correction and a waveform obtained by folding the calculation waveform is calculated, and based on the maximum correlation value Calculating means for calculating the candidate for the center position;
The plurality of maximum correlation values calculated by the calculation means using each of a plurality of different calculation waveforms and the candidate are referred to, and one of the plurality of candidates having the largest corresponding maximum correlation value And a selection means for selecting the center position as the center position.
請求項2に記載のマーク位置検出装置において、
前記検出手段は、前記補正前のエッジ信号に基づく前記演算用波形を用いて前記算出手段が算出した前記最大相関値と予め定めた閾値とを比較する比較手段をさらに有し、
前記補正手段は、前記比較手段による比較の結果、前記補正前のエッジ信号に基づく前記最大相関値の方が前記閾値よりも小さいときに、前記エッジ信号に対する補正を行う
ことを特徴とするマーク位置検出装置。
In the mark position detection apparatus according to claim 2,
The detection means further includes comparison means for comparing the maximum correlation value calculated by the calculation means with a predetermined threshold value using the waveform for calculation based on the edge signal before correction.
The correction means corrects the edge signal when the maximum correlation value based on the edge signal before correction is smaller than the threshold value as a result of the comparison by the comparison means. Detection device.
基板上に形成された1つ以上のエッジ対を含む被検マークを照明する照明工程と、
前記被検マークからの光に基づく像を撮像し、複数のサンプル点からなる画像信号を出力する撮像工程と、
前記画像信号のうち輝度値の急変部分を前記エッジ対に関わるエッジ信号として抽出する抽出工程と、
前記エッジ信号に基づいて、前記被検マークの中心位置を検出する検出工程とを備え、
前記検出工程は、
前記エッジ信号に含まれるサンプル点のうち1つ以上を除去することにより、前記エッジ信号の非対称性を補正する補正工程と、
前記補正工程における補正後のエッジ信号に基づいた波形と、該波形を折り返して得られる波形との相関関数における最大相関値を算出することにより、前記中心位置を算出する算出工程とを有する
ことを特徴とするマーク位置検出方法。
Illuminating a test mark including one or more edge pairs formed on the substrate;
An imaging step of capturing an image based on light from the test mark and outputting an image signal composed of a plurality of sample points;
An extraction step of extracting a sudden change portion of the luminance value of the image signal as an edge signal related to the edge pair;
A detection step of detecting a center position of the test mark based on the edge signal,
The detection step includes
A correction step of correcting asymmetry of the edge signal by removing one or more of the sample points included in the edge signal;
A calculation step of calculating the center position by calculating a maximum correlation value in a correlation function between a waveform based on the corrected edge signal in the correction step and a waveform obtained by folding the waveform. Characteristic mark position detection method.
基板上に形成された1つ以上のエッジ対を含む被検マークを照明する照明工程と、
前記被検マークからの光に基づく像を撮像し、複数のサンプル点からなる画像信号を出力する撮像工程と、
前記画像信号のうち輝度値の急変部分を前記エッジ対に関わるエッジ信号として抽出する抽出工程と、
前記エッジ信号に基づいて、前記被検マークの中心位置を検出する検出工程とを備え、
前記検出工程は、
前記エッジ信号に含まれるサンプル点のうち1つ以上を除去することにより、前記エッジ信号を補正する補正工程と、
前記補正工程における補正前のエッジ信号または補正後のエッジ信号に基づいた演算用波形と該演算用波形を折り返して得られる波形との相関関数における最大相関値を算出し、該最大相関値に基づいて前記中心位置の候補を算出する算出工程と、
複数の異なる前記演算用波形の各々を用いて前記算出工程で算出された複数の前記最大相関値と前記候補とを参照し、前記複数の候補のうち、対応する前記最大相関値が最も大きい1つを前記中心位置として選択する選択工程とを有する
ことを特徴とするマーク位置検出方法。
Illuminating a test mark including one or more edge pairs formed on the substrate;
An imaging step of capturing an image based on light from the test mark and outputting an image signal composed of a plurality of sample points;
An extraction step of extracting a sudden change portion of the luminance value of the image signal as an edge signal related to the edge pair;
A detection step of detecting a center position of the test mark based on the edge signal,
The detection step includes
A correction step of correcting the edge signal by removing one or more of the sample points included in the edge signal;
A maximum correlation value in a correlation function between a waveform for calculation based on the edge signal before correction or the edge signal after correction in the correction step and a waveform obtained by folding back the waveform for calculation is calculated, and based on the maximum correlation value Calculating a candidate for the center position;
The plurality of maximum correlation values calculated in the calculation step using each of a plurality of different calculation waveforms and the candidate are referred to, and the corresponding maximum correlation value is the largest among the plurality of candidates 1 And a selection step of selecting one as the center position.
請求項5に記載のマーク位置検出方法において、
前記検出工程は、前記補正前のエッジ信号に基づく前記演算用波形を用いて前記算出工程で算出された前記最大相関値と予め定めた閾値とを比較する比較工程をさらに有し、
前記補正工程では、前記比較工程における比較の結果、前記補正前のエッジ信号に基づく前記最大相関値の方が前記閾値よりも小さいときに、前記エッジ信号に対する補正を行う
ことを特徴とするマーク位置検出方法。
In the mark position detection method according to claim 5,
The detection step further includes a comparison step of comparing the maximum correlation value calculated in the calculation step with a predetermined threshold value using the calculation waveform based on the edge signal before correction.
In the correction step, the mark position is corrected when the maximum correlation value based on the edge signal before the correction is smaller than the threshold value as a result of the comparison in the comparison step. Detection method.
基板上に形成された複数のパターンの重ね合わせ状態を検査する重ね合わせ測定装置において、
前記複数のパターンの各々の基準位置を示す被検マークの中心位置を各々検出する請求項1または請求項2または請求項3に記載のマーク位置検出装置と、
前記マーク位置検出装置が検出した前記各々の中心位置の差に基づいて、前記複数のパターンどうしの重ね合わせずれ量を測定する測定手段とを備えた
ことを特徴とする重ね合わせ測定装置。
In the overlay measurement apparatus for inspecting the overlay state of a plurality of patterns formed on the substrate,
The mark position detection device according to claim 1, wherein the mark position detection device detects a center position of a test mark indicating a reference position of each of the plurality of patterns.
An overlay measurement apparatus comprising: a measuring unit that measures an overlay deviation amount between the plurality of patterns based on a difference between the respective center positions detected by the mark position detection apparatus.
請求項4または請求項5または請求項6に記載のマーク位置検出方法を用い、基板上に形成された複数のパターンの重ね合わせ状態を検査する重ね合わせ測定方法において、
前記検出工程は、前記複数のパターンの各々の基準位置を示す被検マークの中心位置を各々検出する工程であり、
前記検出工程で検出された前記各々の中心位置の差に基づいて、前記複数のパターンどうしの重ね合わせずれ量を測定する測定工程をさらに備えた
ことを特徴とする重ね合わせ測定方法。
In the overlay measurement method for inspecting the overlay state of a plurality of patterns formed on a substrate using the mark position detection method according to claim 4 or claim 5 or claim 6,
The detection step is a step of detecting a center position of a test mark indicating a reference position of each of the plurality of patterns,
An overlay measurement method, further comprising a measurement step of measuring an overlay deviation amount between the plurality of patterns based on a difference between the respective center positions detected in the detection step.
JP2002242049A 2002-08-22 2002-08-22 Mark position detection device, mark position detection method, overlay measurement device, and overlay measurement method Expired - Lifetime JP4178875B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2002242049A JP4178875B2 (en) 2002-08-22 2002-08-22 Mark position detection device, mark position detection method, overlay measurement device, and overlay measurement method
AU2003264338A AU2003264338A1 (en) 2002-08-22 2003-08-21 Mark position detection device, mark position detection method, superimposing measurement device, and superimposing measurement method
PCT/JP2003/010582 WO2004019389A1 (en) 2002-08-22 2003-08-21 Mark position detection device, mark position detection method, superimposing measurement device, and superimposing measurement method
TW92123118A TW200405427A (en) 2002-08-22 2003-08-22 Detecting apparatus of mark position, detecting method of mark position, measuring apparatus of overlap status and measuring method of overlap status

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002242049A JP4178875B2 (en) 2002-08-22 2002-08-22 Mark position detection device, mark position detection method, overlay measurement device, and overlay measurement method

Publications (2)

Publication Number Publication Date
JP2004079970A JP2004079970A (en) 2004-03-11
JP4178875B2 true JP4178875B2 (en) 2008-11-12

Family

ID=31944008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002242049A Expired - Lifetime JP4178875B2 (en) 2002-08-22 2002-08-22 Mark position detection device, mark position detection method, overlay measurement device, and overlay measurement method

Country Status (4)

Country Link
JP (1) JP4178875B2 (en)
AU (1) AU2003264338A1 (en)
TW (1) TW200405427A (en)
WO (1) WO2004019389A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005302970A (en) * 2004-04-09 2005-10-27 Nikon Corp Method for creating recipe, position detector, and misregistration detector
JP2006118931A (en) * 2004-10-20 2006-05-11 Nikon Corp Mark position detection apparatus and misregistration detection apparatus
JP4757701B2 (en) * 2006-04-25 2011-08-24 Juki株式会社 Electronic component suction position correction method and apparatus
JP4770590B2 (en) 2006-05-26 2011-09-14 ソニー株式会社 Outline creation apparatus, creation method, and image processing apparatus
TWI762417B (en) * 2021-09-01 2022-04-21 環球晶圓股份有限公司 Method for identifying wafer

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3347490B2 (en) * 1994-09-28 2002-11-20 キヤノン株式会社 Positioning method, projection exposure apparatus and position deviation measuring apparatus by the method
JPH104044A (en) * 1996-06-13 1998-01-06 Hitachi Ltd Method for detecting pattern, method for detecting alignment mark and optical apparatus using the methods
AU3325500A (en) * 1999-03-24 2000-10-09 Nikon Corporation Position determining device, position determining method and exposure device, exposure method and alignment determining device, and alignment determining method
JP4046884B2 (en) * 1999-03-26 2008-02-13 キヤノン株式会社 Position measuring method and semiconductor exposure apparatus using the position measuring method

Also Published As

Publication number Publication date
JP2004079970A (en) 2004-03-11
AU2003264338A1 (en) 2004-03-11
WO2004019389A1 (en) 2004-03-04
TW200405427A (en) 2004-04-01

Similar Documents

Publication Publication Date Title
JP3998334B2 (en) Defect inspection method
US10643327B2 (en) Inspection method and inspection apparatus
JP2003092246A (en) Alignment mark and alignment apparatus and method, projection aligner, and manufacturing method of device
JP2016145887A (en) Inspection device and method
JP2009239077A (en) Position detection apparatus, position detection method, exposure apparatus, and device fabrication method
JP3882588B2 (en) Mark position detection device
JP4442130B2 (en) Overlay measuring apparatus and method
JP2004022797A (en) Device and method for detecting position of mark
JP4178875B2 (en) Mark position detection device, mark position detection method, overlay measurement device, and overlay measurement method
JP3732794B2 (en) Dimensional inspection method and apparatus, and mask manufacturing method
JP2001281161A (en) Defect inspecting device and inspecting method
JP3040845B2 (en) Alignment mark
JP4096715B2 (en) Overlay inspection apparatus and overlay inspection method
JP4300802B2 (en) Mark position detection device, mark position detection method, overlay measurement device, and overlay measurement method
JP4427980B2 (en) Mark position detection method
JP4235756B2 (en) Misalignment detection method, misalignment detection apparatus, image processing method, image processing apparatus, and inspection apparatus using the same
JP3994223B2 (en) Overlay measuring device and overlay measuring method
JP4599810B2 (en) Overlay inspection method
WO2015094818A1 (en) A method for measuring positions of structures on a mask and thereby determining mask manufacturing errors
JP2004158555A (en) Mark position detecting apparatus, its substrate for adjustment, and adjustment method
JP2565585B2 (en) Position detection method for scribe line intersection area
JP2007156262A (en) Photomask inspection method and photomask inspection device
JP2002124458A (en) Overlap inspection device and method
JP4599893B2 (en) Misalignment detection method
JP4207689B2 (en) Misalignment measuring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080805

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080818

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4178875

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110905

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110905

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140905

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140905

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140905

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term