JP3986801B2 - Surface state observation apparatus and method, and semiconductor device and microdevice manufacturing method - Google Patents

Surface state observation apparatus and method, and semiconductor device and microdevice manufacturing method Download PDF

Info

Publication number
JP3986801B2
JP3986801B2 JP2001345215A JP2001345215A JP3986801B2 JP 3986801 B2 JP3986801 B2 JP 3986801B2 JP 2001345215 A JP2001345215 A JP 2001345215A JP 2001345215 A JP2001345215 A JP 2001345215A JP 3986801 B2 JP3986801 B2 JP 3986801B2
Authority
JP
Japan
Prior art keywords
image
optical system
mapping
detection surface
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001345215A
Other languages
Japanese (ja)
Other versions
JP2003151481A (en
Inventor
喜和 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ebara Corp
Nikon Corp
Original Assignee
Ebara Corp
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ebara Corp, Nikon Corp filed Critical Ebara Corp
Priority to JP2001345215A priority Critical patent/JP3986801B2/en
Publication of JP2003151481A publication Critical patent/JP2003151481A/en
Application granted granted Critical
Publication of JP3986801B2 publication Critical patent/JP3986801B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Testing Or Measuring Of Semiconductors Or The Like (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、電子ビームやイオンビーム等の荷電粒子線又は光やX線等の電磁波を照明用ビームとして物体に照射し、照明用ビームを物体に照射して得られる二次ビーム(二次電子、反射電子、後方散乱光、反射光)を検出して物体の表面状態の観察や検査等を行う表面状態観察装置及び方法、並びに、当該表面状態観察装置及び方法を用いて観察された半導体素子、及び、当該表面状態観察装置及び方法を用いてマイクロデバイスの表面を観察する工程を含むマイクロデバイスの製造方法に関する。
【0002】
【従来の技術】
半導体素子はプレーナ技術を用いて半導体基板表面に微細なパターンを形成して製造されるが、半導体素子の小型化の要求によりそのパターンは微細化され、高集積化されている。かかる半導体素子の表面状態の観察及び欠陥検査を行うために電子ビーム(電子線)等の荷電粒子を用いた荷電粒子線顕微鏡が用いられている。従来から荷電粒子顕微鏡として一般的に知られており、使用頻度が高い顕微鏡は走査型電子顕微鏡(SEM:Scanning Electron Microscope)である。走査型電子顕微鏡は、物体表面の一点に電子ビームを照射し、電子ビームを照射した点から発生する二次電子、反射電子、及び後方散乱電子を検出し、かかる動作を物体に対して照射する電子ビームを相対的に走査しつつ行うことにより物体表面の画像を形成する。走査型電子顕微鏡は、観察を行う領域全面に亘って電子ビームを走査する必要があるため、観察に比較的長時間を要するという問題がある。
【0003】
この問題を解決する装置として、近年、写像型電子顕微鏡が案出されている。この写像型電子顕微鏡は、電子ビームやイオンビーム等の荷電粒子線又は光やX線等の電磁波を物体の観察面に面状に照射し、物体の表面から発生する二次電子、反射電子、及び後方散乱電子を加速して集束し、電子光学系によりその像を拡大投影して撮像面に結像させ、電子強度分布を光強度分布に変換することにより物体の表面を観察する装置である。物体に電子ビームを照射する写像型電子顕微鏡は、例えば特開平10−197462号公報や特開平11−64256号公報に開示されている。
【0004】
写像型電子顕微鏡は、電子光学系に設けられるCCD(Charge Coupled Device)等のセンサが一次元のセンサであるか又は二次元のセンサであるかにより観察時の制御方法が異なる。一次元のセンサを備える写像型電子顕微鏡は観察対象の物体が載置されたステージを一定速度で移動させて、センサに対して物体の像を走査しつつ、順次光強度分布を得る制御方法が基本となる。一方、二次元のセンサを備える写像型電子顕微鏡は、物体が載置されたステージを一定距離だけ移動させてセンサで撮像し、その後更にステージを一定距離だけ移動させてセンサで撮像を行う動作、即ちステージをステップ・アンド・リピートにより光強度分布を得る制御方法が基本となる。
【0005】
一次元のセンサを備える写像型電子顕微鏡は、二次元のセンサを備える写像型電子顕微鏡に比べて、以下に示す利点を有する。まず、物体の表面から発生する二次電子、反射電子、及び後方散乱電子を拡大等させる電子光学系の視野が二次元びセンサを備える場合に比べて狭くて良いため、収差補正を考慮した電子光学系の設計・製造コストを低減することができるという利点がある。第2に、広い範囲を観察する場合であっても、単にステージを一定の速度で移動させるだけで良いため、ステージ制御を簡単化することができるという利点がある。以上の理由から、写像型電子顕微鏡は一次元のセンサを備えることが多い。
【0006】
ところで、以上の特徴を有する一次元のセンサを備えた写像型電子顕微鏡を発展させた顕微鏡として、特開平10−197462号公報に開示された写像型電子顕微鏡が案出されている。この写像型電子顕微鏡は、観察する物体をステージ上に載置し、ステージを移動させながら撮像面に結像された二次元画像をTDI(Time-Delay-Integration;時間遅延積分型)アレイCCD(Charge Coupled Device)で検出するものである。ここで、TDIアレイCCDの構成を簡単に説明すると以下の通りである。TDIアレイCCDは、複数の行(例えば、256行)と複数の列(例えば、1024列)とを有し、各行と列との交点位置に画素が配列され、各行に配列された画素において蓄積された電荷を列毎に隣接する行に転送する構成である。換言すると、TDIアレイCCDは列数分の長さを有する行数分のラインセンサと考えることができる。よって、TDIアレイCCDにおける電荷の転送タイミングとステージの移動タイミングとを同期させれば、電荷が転送される度に同じ信号が順次積算されるため、検出感度を向上させることができる。
【0007】
【発明が解決しようとする課題】
ところで、TDIアレイCCDにおける電荷の転送タイミングは固定であり、高解像度の観察結果を得るためにはステージの移動タイミング(移動速度)を高い精度をもってTDIアレイCCDにおける電荷の転送タイミングに合わせる制御を行う必要がある。また、物体の表面状態を精密に検査するためには、物体表面からの二次電子、反射電子、及び後方散乱電子を集束して撮像面に結像させる写像光学系の収差、特に歪曲収差を極力抑える必要がある。図16は、歪曲収差の一例を示す図である。いま、図16(a)に示すように格子形状が物面(例えば、観察対象の物体の表面)に配置されている場合、写像光学系に負の歪曲収差が生じている場合には、像面(例えば、撮像面)に結像される像は、例えば図16(b)に示したように樽型に変形する。かかる変形した像をCCDで撮像した場合には、変形した分の誤差が生じた状態で物体の表面が観察される。
【0008】
また、TDIアレイCCDで図16(b)に示した像を撮像した場合にはTDIアレイCCDの構成上、更に検出精度が悪化する。以下、その原因について説明する。図17は、歪曲収差が生じている像をTDIアレイCCDで検出した場合の検出精度の悪化を説明する図である。いま、理解を容易にするため、物体上の観察面に点光源があるとする。TDIアレイCCDで観察する場合には、前述した通りステージを移動させながら観察するため、物面(観察面)での点光源の軌跡tr1は図17(a)に示した通り線状になる。写像光学系に歪曲収差が生じていない場合には像面における点光源の像の軌跡も線状になる。
【0009】
しかしながら、写像光学系に歪曲収差が生じている場合には、図16(b)に示したように像面に結像される像が変形するため、物面において点光源が移動すると、像面における点光源の像の軌跡は直線とはならず、図17(b)に示すように弧状の曲線の軌跡tr2となる。かかる弧状の曲線の軌跡tr2をTDIアレイCCDで検出すると、TDIアレイCCDの端部に位置する行r1,r3においては、第j(jは自然数)列の画素で観察され、TDIアレイCCDの中央部に位置する行r2においては、第i(iはi<jを満たす自然数)列の画素で検出される(尚、図中の右側ではこの関係は逆になる)。前述したように、TDIアレイCCDは蓄積した電荷を順次隣接する行に転送しているため、物面における点光源の像は像面において、第i列と第j列との間隔Δxの幅だけぼけて観察される。このように、歪曲収差を有する光学像をTDIアレイCCDで検出すると、像が悪化してしまう。
【0010】
スキャン方向(図17のY方向)については、歪曲収差が無いと仮定すると、物面上にある点光源の像は、一定の時間間隔で同一列に配列された異なる画素で順次観察され、点光源が観察される時間間隔とTDIアレイCCDの電荷の転送タイミングが同期しているため、最終的にTDIアレイCCDからは同一の列に配列された画素の数だけ信号強度が積算された点光源の像が出力される。しかしながら、写像光学系に歪曲収差が生じていると、物面の点光源の移動速度が一定であってもTDIアレイCCD上における点光源の像の移動速度が歪曲収差に応じて変化するため、点光源の像の移動速度とTDIアレイCCDの電荷の転送タイミングが異なったものとなり、結果として点光源は歪曲収差に応じてY方向に延びた形状が観察されることになる(正確にはX方向にも歪曲収差があるため、円形状又は楕円形状の像が観察される)。
【0011】
以上のように、歪曲収差が生じている写像光学系を介した像をTDIアレイCCDで観察しようとすると、X方向及びY方向ともにぼけた像が得られ、分解能が低下してしまう。図17(b)で示したように、X方向についてはΔxだけぼけた像が得られるが、スキャン方向については、図18に示すように、最大で2・Δyだけぼけた像が得られる。図18は、歪曲収差が生じている像をTDIアレイCCDで検出した場合のスキャン方向の検出精度の悪化を説明する図である。図18に示したように、スキャン方向(Y方向)については、同一の列に配列される画素は、+Y方向に歪曲した像(+Y方向に凸となる像)及び−Y方向に歪曲した像(−Y方向に凸となる像)の両方を検出することになるため、スキャン方向の解像度は、図17(b)に示したX方向の解像度よりも低下する。よって、全体的な解像度を向上させるためには、まずY方向(スキャン方向)の解像度の低下を極力防止する必要がある。
【0012】
本発明は、上記事情に鑑みてなされたものであり、写像光学系に歪曲収差が残存する場合であっても高分解能で観察することができる表面状態観察装置及び方法、並びに、当該表面状態観察装置及び方法を用いて観察された半導体素子、及び、当該表面状態観察装置及び方法を用いてマイクロデバイスの表面を観察する工程を含むマイクロデバイスの製造方法を提供することを目的とする。
【0013】
【課題を解決するための手段】
上記課題を解決するために、本発明の第1の観点による表面状態観察装置は、観察対象の物体の表面上に照明用ビームを照射する照明光学系と、前記照明用ビームを前記物体表面に照射して得られる二次ビームを所定の検出面上に結像させる写像光学系と、前記検出面に結像した像を電気信号に変換し、当該電気信号を前記検出面上における前記像の移動方向に転送しつつ積算した信号を出力する撮像手段と、前記写像光学系の光学特性に起因して生ずる前記像の位置ずれ量に応じて、前記撮像手段の変換タイミングと前記検出面上の前記像の移動速度との非同期量を制御する制御手段とを備え、該制御手段は、前記撮像手段から出力される信号から求められる光学的伝達関数が、前記物体に形成されたパターンのピッチに応じた前記像の空間周波数において最大となるように前記非同期量を制御することを特徴としている。
この発明によれば、写像光学系の光学特性に応じて生ずる検出面上での光学像の位置ずれ量に応じて、撮像手段が検出面に結像した像を電気信号に変換するタイミングと検出面上における像の移動速度とを非同期にするのみならず、その非同期の量を制御するようにしているため、写像光学系の歪曲収差による解像度の低下を防止することができ、その結果として写像光学系に歪曲収差が残存していても高分解能で観察することができる。
また、本発明の第2の観点による表面状態観察装置は、第1の観点による表面状態観察装置において、前記物体を載置した状態で移動可能に構成されたステージを更に備え、前記制御手段が、前記像の位置ずれ量に応じて前記ステージの移動速度を可変にすることにより、前記撮像手段の変換タイミングと前記検出面上の前記像の移動速度との非同期量を制御することを特徴としている。
また、本発明の第3の観点による表面状態観察装置は、第1の観点による表面状態観察装置において、前記制御手段が、前記検出面上の像の移動速度を一定とした状態で、前記撮像手段から出力される信号から求められる光学的伝達関数が、前記物体に形成されたパターンのピッチに応じた前記像の空間周波数において最大となるように前記非同期量を制御することを特徴としている。
また、本発明の第4の観点による表面状態観察装置は、第3の観点による表面状態観察装置において、前記空間周波数が、前記検出面上の前記像の移動方向における空間周波数であることを特徴としている。
また、本発明の第5の観点による表面状態観察装置は、第3の観点又は第4の観点による表面状態観察装置において、前記写像光学系の設計値から又は実測値から予め求めた前記写像光学系の光学特性を記憶する記憶手段と、前記物体に形成されたパターンのピッチを入力する入力手段と、前記記憶手段に記憶された前記写像光学系の光学特性及び前記入力手段から入力された前記パターンのピッチに基づいて前記変換タイミングに対する前記像の非同期量を算出する算出手段とを備えることを特徴としている。
また、本発明の第6の観点による表面状態観察装置は、第1の観点から第5の観点の何れかの表面状態観察装置において、前記撮像手段が、前記検出面において二次元的に等間隔で配列された複数の画素を有し、各画素における前記変換タイミングは同一であることを特徴としている。
また、本発明の第7の観点による表面状態観察装置は、観察対象の物体の表面上に照明用ビームを照射する照明光学系と、前記照明用ビームを前記物体表面に照射して得られる二次ビームを所定の検出面上に結像させる写像光学系と、前記検出面に結像した像を電気信号に変換し、当該電気信号を前記検出面上における前記像の移動方向に転送しつつ積算した信号を出力する撮像手段と、前記写像光学系の光学特性に起因して生ずる前記像の位置ずれ量に応じて、前記撮像手段の変換タイミングと前記検出面上の前記像の移動速度との非同期量を制御する制御手段とを備え、前記写像光学系の光学特性に起因して生ずる前記像の位置ずれは、前記写像光学系に残存する歪曲収差による位置ずれであることを特徴としている。
また、本発明の第8の観点による表面状態観察装置は、第1の観点から第7の観点の何れかの表面状態観察装置において、前記照明用ビームは荷電粒子線であり、前記二次ビームは、前記荷電粒子線を前記物体に照射して生ずる二次電子、反射電子、及び後方散乱電子の少なくとも1つであることを特徴としている。
また、本発明の第9の観点による表面状態観察装置は、第8の観点の表面状態観察装置において、前記撮像手段が、前記写像光学系によって前記検出面に結像された像を光学像に変換する変換手段を備え、当該変換手段で変換された光学像を光電変換して前記電気信号に変換することを特徴としている。
上記課題を解決するために、本発明の表面状態観察方法は、観察対象の物体の表面上に照明用ビームを照射して得られる二次ビームを写像光学系を介して所定の検出面上に結像させ、当該検出面に結像した像を移動させつつ電気信号に変換し、当該電気信号を前記検出面上における前記像の移動方向に転送しつつ積算して得られる信号を用いて前記物体の表面の状態を観察する表面状態観察方法において、前記写像光学系の光学特性に起因して生ずる該写像光学系に残存する歪曲収差による位置ずれ量に応じて、前記検出面に結像した像の電気信号への変換タイミングと前記検出面上の前記像の移動速度との非同期量を制御することを特徴としている
更に、上記課題を解決するために、本発明のマイクロデバイスの製造方法は、上記第1の観点から第9の観点の何れかに記載の表面状態観察装置又は上記表面状態観察方法を用いてマイクロデバイスの表面を観察する工程を含むことを特徴としている。
【0014】
【発明の実施の形態】
以下、図面を参照して本発明の一実施形態による表面状態観察装置及び方法並びに半導体素子及びマイクロデバイスの製造方法について詳細に説明する。図1は、本発明の一実施形態による表面状態観察装置の構成を示す図である。本実施形態の表面状態観察装置は、主として電子ビームを加速して試料に導くための一次コラム1と、電子ビームを試料に照射した際に発生する二次電子ビームを電子ビーム検出器30の検出面に集束させるための二次コラム2と、観測対象である試料(物体)4を収容するチャンバー3とから構成されている。一次コラム1の光軸は鉛直方向に対して斜方向に設定され、二次コラム2の光軸はほぼ鉛直方向に設定される。よって、一次コラム1から二次コラム2へは照明用ビームB1が斜方向から入射する。一次コラム1、二次コラム2、及びチャンバー3には真空排気系(図示省略)が繋がっており、真空排気系が備えるターボポンプ等の真空ポンプにより排気されており、これらの内部は真空状態に維持される。
【0015】
一次コラム1内部には熱電子放出型電子銃10が設けられており、この熱電子放出型電子銃10から照射される照明用ビームB1の光軸上に照明光学系11が配置される。ここで、熱電子放出型電子銃10のチップとしては、例えば矩形陰極で大電流を取り出すことができることが好ましい。照明光学系11は、視野絞りFS1、照射レンズ12,13,14、アライナ15,16、スキャン用アライナ17、アパーチャ18等で構成されている。ここで、照射レンズ12,13,14は電子レンズであり、例えば円形レンズ、4極子レンズ、8極子レンズ等が用いられる。照明光学系11が備える照射レンズ12,13,14の照明用ビームB1に対する収束特性は印加する電圧を変えることにより変化する。尚、照射レンズ12,13,14は、ユニポテンシャルレンズ又はアインツェルレンズと称される回転軸対称型のレンズであってもよい。
【0016】
二次コラム2内には写像光学系20が配置されている。写像光学系20は試料4に照明用ビームB1を照射した場合に生ずる二次ビームとしての二次電子ビームB2を収束して電子ビーム検出器30の検出面に結像させるためのものであり、試料4側から鉛直上方向へ順にカソードレンズ21、第1アライナ22、開口絞りAS、イー・クロス・ビー23、スティグメータ24、結像レンズ前群25、第2アライナ26、スティグメータ27、視野絞りFS2、結像レンズ後群28、及び第3アライナ29が配置されてなるものである。
【0017】
写像光学系20が備える視野絞りFS2は、カソードレンズ21と結像レンズ前群25に関して、試料4の物体面と共役な位置関係に設定されている。また、写像光学系20の結像レンズ前群25及び結像レンズ後群28は電子レンズであり、例えば円形レンズ、4極子レンズ、8極子レンズ等が用いられる。尚、カソードレンズ21、結像レンズ前群25、及び結像レンズ後群28は、ユニポテンシャルレンズ又はアインツェルレンズと称される回転軸対称型のレンズであってもよい。また、写像光学系20が備えるカソードレンズ21、結像レンズ前群25、及び結像レンズ後群28の二次電子ビームB2に対する収束特性、つまり二次電子ビームB2の焦点位置は印加する電圧を変えることにより変化する。また、イー・クロス・ビー23の照明用ビームB1及び二次電子ビームB2に対する偏向特性及び収束特性は印加する電圧又は電流を変えることにより変化する。
【0018】
更に、写像光学系20が備える第3アライナ29の鉛直上方向には電子ビーム検出器30が配置される。この電子ビーム検出器30の検出面には電子ビームB1を試料4に照射したときに放出される二次電子ビームB2が写像光学系20によって結像される。ここで、電子ビーム検出器30は、電子を増幅するためのMCP(Micro Channel Plate)31と、電子ビーム検出器30の検出面に結像された像を光学像に変換する変換手段としての蛍光板32と、真空状態に保たれた二次コラム2の外部に蛍光板によって変換された光を放出するための真空窓33とから構成されている。電子ビーム検出器30から放出された光、即ち試料4の光学像はリレーレンズ34を透過して、TDI(Time-Delay-Integration;時間遅延積分型)アレイCCD(Charge Coupled Device)の撮像素子35の撮像面に入射する。尚、上記電子ビーム検出器30、リレーレンズ34、及び撮像素子35は、本発明にいう撮像手段に相当するものである。また、電子ビーム検出器30の検出面はリレーレンズ34により電子ビーム検出器30の検出面と光学的に共役関係にあるので、以下、単に検出面といった場合には、電子ビーム検出器30の検出面及び撮像素子35の撮像面の両方を意味するものとする。
【0019】
ここで、撮像素子35の構成について説明する。図2は、撮像素子35としてのTDIアレイCCDの構成例を示す機能ブロック図である。図2に示したTDIアレイCCDは、水平方向(図2中のX軸方向)に1024個の画素C1〜C1024を配列してライン状のCCD画素列が構成されており、更に垂直方向(図2中のY軸方向)に256列のCCD画素列R1〜R256を配列して構成される。各CCD画素は行方向及び列方向に等間隔に配置されており、各CCD画素が撮像面に結像した像を変換するタイミングは同一に設定されている。尚、各画素が行方向に配列される間隔と列方向に配列される間隔とは異なっていても良い。CCD画素列R1〜R256各々に配列された画素上の蓄積電荷は、外部から供給される1垂直クロック信号により、一度に垂直方向へ1つのCCD画素列分だけ転送されるようになっている。
【0020】
撮像素子35の撮像面に結像した画像の内、ある時点でCCD画素列R1で撮像された画像が、垂直方向に1CCD画素列分だけ移動し、それと同期して垂直クロック信号が与えられると、CCD画素列R1の各画素で蓄積された画素信号はCCD画素列R2へ転送される。CCD画素列R2では、垂直クロック信号が与えられる前においてCCD画素列R1で撮像された画像と同一の画像を撮像するので、CCD画素列R2内で蓄積される画像の電荷は2倍になる。続けて画像が垂直方向にさらに1CCD画素列分だけ移動し、同期クロック信号が与えられると、蓄積画像はCCD画素列R3に転送され、そこで3倍の画像電荷が蓄積される。以下順々に、画像の移動に追随してCCD画素列R256まで電荷の転送と撮像とを繰り返し行うと、最初にCCD画素列R1において蓄積された電荷の256倍の電荷を蓄積した結果が水平出力レジスタHRからシリアルに画素信号として出力される。ここで、撮像素子35が備える各画素は、水平方向(図2中のX軸方向)及び垂直方向(図2中のY軸方向)に等間隔をもって配列されている。
【0021】
この撮像素子35にはコントロールユニット36が接続されている。コントロールユニット36は、撮像素子35から出力される画素信号をシリアルに読み出し、順次主制御系37へ出力する。主制御系37はコントロールユニット36から出力される画素信号に対して、例えばテンプレートマッチング等の画像処理を行って試料4の欠陥の有無を判断する。また、主制御系37は照明光学系制御部38及び写像光学系制御部39に制御信号を出力して照明光学系11及び写像光学系20の光学特性の制御並びにイー・クロス・ビー23の電磁界制御を行う。尚、コントロールユニット36から主制御系37へ出力される画像信号をCRT(Cathod Ray Tube)等の表示装置へ表示させれば試料4の像は表示装置へ表示されることになる。
【0022】
次に、チャンバー3内の構成について説明する。チャンバー3の内部には、試料4を載置した状態で水平面とほぼ平行に設定されたxy平面内で移動自在に構成されたxyステージ40が配置されている。xyステージ40上の一端にはL字型の移動鏡41が取り付けられ、移動鏡41の鏡面に対向した位置にレーザ干渉計42が配置されている。図1では簡略化して図示しているが、移動鏡41はx軸に垂直な反射面を有する平面鏡及びy軸に垂直な反射面を有する平面鏡より構成されている。また、レーザ干渉計42は、x軸に沿って移動鏡41にレーザビームを照射する2個のx軸用のレーザ干渉計及びy軸に沿って移動鏡41にレーザビームを照射するy軸用のレーザ干渉計より構成され、x軸用の1個のレーザ干渉計及びy軸用の1個のレーザ干渉計により、xyステージ40のx座標及びy座標が計測される。また、x軸用の2個のレーザ干渉計の計測値の差により、xyステージ40のxy平面内における回転角が計測される。
【0023】
レーザ干渉計42の計測結果は主制御系37に出力され、主制御系37はこの計測結果に基づいて駆動装置43に対して制御信号を出力し、xyステージ40のxy平面内における位置を制御する。また、図示は省略しているが、xyステージ40以外に試料4のz軸方向(鉛直方向)の位置を変化させることができるzステージや試料4の物体面のxy平面に対する傾斜を制御するチルトステージを設けることが好ましい。
【0024】
本実施形態の表面状態観察装置は、上記構成に加えて写像光学系20の設計値から又は実測値から予め求めた写像光学系20の歪曲収差量を記憶する記憶手段としての記憶装置44及び試料4に形成されているパターンのピッチを入力するための入力手段としての入力装置45を備える。記憶装置45は例えばハードディスク等の外部記憶装置により実現され、入力装置45はキーボード及びマウス等により実現される。尚、記憶装置44は写像光学系20の歪曲収差量のみを記憶する訳ではなく、その他に写像光学系20の倍率及び撮像素子35に関する情報(例えば、撮像素子35に設けられるシャッタが開状態にある時間並びに行方向及び列方向の画素数)を記憶する。
【0025】
入力装置45から入力されたパターンのピッチは主制御系37に出力され、主制御系37は入力装置45からの値に基づいて写像光学系20の歪曲収差量に応じて検出面(ひいては、撮像素子35の撮像面)で生ずる像のずれ量に基づいて生ずる解像度の低下を極力低下させないようにステージ20の移動速度を算出する。この算出方法の詳細については後述する。尚、主制御系37は、本発明にいう制御手段及び算出手段に相当する。
【0026】
以上、本発明の一実施形態による表面状態観察装置の概略構成について説明したが、次に本発明の一実施形態による表面状態観察装置の照明用ビームB1と二次電子ビームB2の軌道について詳細に説明する。図3は、本発明の一実施形態による表面状態観察装置の照明用ビームB1の軌道を示す図である。尚、図3においては理解を容易にするため、照明光学系11が備える部材の一部の図示を省略している。熱電子放出型電子銃10から放出された照明用ビームB1は、図3に示したように照射レンズ12,13,14によって形成された電場の影響を受けて集束及び発散する。ここで、熱電子放出型電子銃10が有する矩形形状のチップの長軸方向をa軸方向に設定し、短軸方向をb軸方向に設定すると、矩形陰極のa軸方向断面に放出された電子の軌道は図3において符号Paを付して示した軌道となり、矩形陰極のb軸方向断面に放出された電子の軌道は図3において符号Pbを付して示した軌道となる。
【0027】
照射レンズ12,13,14による電場の影響を受けた後、照明用ビームB1は斜め方向からイー・クロス・ビー23に入射する。照明用ビームB1がイー・クロス・ビー23に入射すると、その光路が鉛直方向に対してほぼ平行な方向に偏向される。イー・クロス・ビー23によって偏向された照明用ビームB1は開口絞りASに達し、この位置で熱電子放出型電子銃10のクロスオーバーの像を形成する。開口絞りASを通過した照明用ビームB1は、第1アライナ22を通過した後、カソードレンズ21によるレンズ作用を受けて、試料4をケーラー照明する。
【0028】
試料4に照明用ビームB1が照射されると、試料4からは試料4の表面形状、材質分布、電位の変化等に応じた分布の二次電子、反射電子、及び後方散乱電子を含む二次電子ビームB2が発生する。このうち、主に二次電子による二次電子ビームB2が観察用電子ビームとなる。二次電子ビームB2の初期エネルギーは低く、0.5〜2eV程度である。次に、試料4から発生した二次電子ビームB2の軌道について説明する。図4は、本発明の一実施形態による表面状態観察装置の二次電子ビームB2の軌道を示す図である。尚、図4においては理解を容易にするため、写像光学系20が備える部材の一部の図示を省略している。
【0029】
試料4から放出された二次電子ビームB2は、写像光学系20が備えるカソードレンズ21、第1アライナ22、開口絞りAS、イー・クロス・ビー23を順に通過する。二次電子ビームB2がイー・クロス・ビー23を通過すると、結像レンズ前群25によって収束され、試料4の像を視野絞りFS2の位置に結像する。視野絞りFS2を通過した二次電子ビームB2は結像レンズ後群28によって再度収束されて電子ビーム検出器30の検出面に試料4の物体面の拡大像が結像される。このとき、写像光学系20に歪曲収差が残存している場合には、検出面に結像される像は、歪曲収差を反映したものとなる。二次電子ビームB2が電子ビーム検出器30に入射すると、まずMCP31によって電子数が増幅され、その後蛍光板32に入射して光子に変換される。蛍光板32によって変換された光学像は、リレーレンズ34を介して撮像素子35の撮像面に結像する。このとき、蛍光板32における試料4の像の大きさは撮像素子35の撮像面よりも大であるため、リレーレンズ34は蛍光板32によって変換された光学像を所定の倍率で縮小するよう設定される。
【0030】
次に、本発明の一実施形態による表面状態観察装置が備えるイー・クロス・ビー23について詳細に説明する。図5は、本発明の一実施形態による表面状態観察装置が備えるイー・クロス・ビー23の構成及び動作原理を説明するための図である。図5(a)はイー・クロス・ビー23の構成を示す斜視図である。図5(a)に示すように、熱電子放出型電子銃10から放出された照明用ビームB1は、照明光学系11によるレンズ作用を受けて収束し、イー・クロス・ビー23に入射した後、イー・クロス・ビー23の偏向作用によりその軌道(光路)が曲げられる。これは、図5(b)に示すように、互いに直交する電界Eと磁界Bの中を、電荷qの電子(照明用ビームB1)が、+z方向に速度vにて進むとき、−x方向に働く電界による力FE(=qE)と磁界による力FB(=qvB)との合力を受けるためである。これによって、照明用ビームB1の軌道は、zx平面内で曲げられる。
【0031】
一方、照明用ビームB1が照射された試料4から発生した二次電子ビームB2は、カソードレンズ21によるレンズ作用を受けて、カソードレンズ21の焦点位置に配置される開口絞りASを通過し、イー・クロス・ビー23に入射した後、イー・クロス・ビー23をそのまま直進する。これは、以下の理由による。図5(c)に示すように、互いに直交する電界Eと磁界Bの中を、電荷qの電子(二次電子ビームB2)が、−z方向に速度vにて進むとき、−x方向に働く電界による力FEと、+x方向に働く磁界による力FBとの合力を受ける。このとき、電界による力FEと磁界による力FBとの絶対値は、等しく(E=vB)なるように、即ちウィーン条件を満たすように設定されている。従って、電界による力FEと磁界による力FBとは互いに相殺され、二次電子ビームB2が受ける見かけ上の力はゼロになり、二次電子ビームB2はイー・クロス・ビー23の中を直進することになる。以上のように、イー・クロス・ビー23は、通過する電子ビームの光路を選択する、いわゆる電磁プリズムとしての機能をもつ。
【0032】
以上、本発明の一実施形態による表面状態観察装置の構成について説明した。従来の一般的な表面状態観察装置は、撮像素子35の撮像面に結像した像を電気信号に変換するタイミング及び変換した電気信号を転送するタイミングに同期してxyステージ40を一定方向(本実施形態ではy方向とする)に一定速度で走査移動させることが基本である。しかしながら、本発明の一実施形態による表面状態観察装置は、解像度を向上させるために、撮像面に結像した像を撮像素子35が電気信号へ変換するタイミングと、xyステージ40の移動速度(ひいては検出面における像の移動速度)とが非同期となるようにxyステージ40の移動速度を制御している。
【0033】
より具体的には、本実施形態では、xyステージ40の移動速度をOTF(Optical Transfer Function:光学的伝達関数)が最大となるように制御している。ここで、OTFとはレンズの結像特性等の光学系の画像伝達性能を評価する概念であり、端的にいうと物面にある空間周波数fの物体の像を光学系で像面に結像させたときに得られる像の空間周波数特性である。
【0034】
OTFは撮像素子35の撮像面上における空間周波数の関数であり、分布を有するものであるが、本実施形態では試料4に形成されているパターンのピッチに応じた撮像面上における空間周波数でのOTFが最大となるようにxyステージ40の移動速度を制御している。ここで、写像光学系20の歪曲収差に起因する解像度の低下は、走査方向(y方向)の方が非走査方向(x方向)よりも顕著である。従って、OTFを考慮する場合にも、y方向のピッチに応じた方向(撮像素子35の撮像面上におけるY方向(図2参照))の空間周波数でのOTFが最大となるようにxyステージ40の移動速度を制御している。以下、xyステージ40の移動速度の制御方法の一例について具体的に説明する。
【0035】
いま、図6に示す座標系を設定する。図6は、試料4の表面に設定されたxy座標系を撮像素子35の撮像面に設定されたXY座標系を示す図である。尚、図6において、35aは撮像面を示している。以下の、説明では、撮像素子35が撮像面35aに結像した像を電気信号に変換するタイミングとxyステージ40の移動速度とが同期している場合において、〔1〕写像光学系20に歪曲収差がないと仮定したときに撮像素子35から得られる信号を求め、〔2〕写像光学系20の歪曲収差を考慮したときに撮像素子35から得られる信号を求め、〔3〕撮像素子35から得られる信号のOTFを求める。そして、最後に〔4〕OTFを最大にするxyステージ40の移動速度を求める。尚、〔4〕の場合は、撮像素子35が撮像面に結像した像を電気信号に変換するタイミングとxyステージ40の移動速度とが非同期となっている点に注意されたい。
【0036】
〔1〕写像光学系20に歪曲収差がないと仮定したときに撮像素子35から得られる信号
写像光学系20に歪曲収差がないと仮定した場合、写像光学系20の倍率をβ(ここで、通常はβ>1である)とすると、図6に示したxy座標系とXY座標系との関係は以下の(1)式で表される。
【数1】

Figure 0003986801
試料4に形成されているパターンをO(x,y)とすると、このパターンO(x,y)は、上記(1)式からXY座標系を用いて表すことができ、更にxyステージ40のy方向の移動速度をvとすると以下の(2)式で表される。
【数2】
Figure 0003986801
【0037】
次に、撮像素子35から出力される画素信号について考える。まず、撮像素子35が備える複数の画素の内の1つの画素から出力される信号について考察する。図7は、撮像素子35が備える画素の配列の一例を示す図である。いま、図7に示すように、撮像素子35のX方向の画素を第1番目から第m番目のm個とし、Y方向の画素を第1番目から第n番目のn個とし、X方向についてp(1≦p≦m)番目であって、Y方向についてq(1≦q≦n)番目の画素(図7中においては斜線を付した画素)からの出力を考える。また、各画素の感度特性は全て等しいと仮定し、この感度特性を関数g(X,Y)で表す。図8は、Y方向の位置が画素の中心に設定された感度特性関数g(X)の一例を示す図である。図8に示したように、この感度特性関数g(X)は画素の開口内のみで値を有する関数である。尚、感度特性関数g(Y)も、図8と同様に開口内でのみ値を有する関数である。
【0038】
ここで、時刻tにおいて試料4に形成されているパターンの像の一部が着目画素上にあるとすると、着目画素から出力される信号g′(Xp,Yq,t)は、感度特性関数g(X,Y)を用いて以下の(3)式で表される。尚、本明細書において、数式中の積分範囲に積分範囲を明示していない場合には、−∞から∞まで積分するものとする。
【数3】
Figure 0003986801
ところで、撮像素子35は各画素毎にシャッタが設けられており、シャッタが開状態の時のみパターンの光学像を電気信号に変換する。そこで、シャッタが開状態である時間をΔtとし、以下の(4)式に示す関数Ω(t)を考える。
【数4】
Figure 0003986801
上記(4)式で表される関数Ω(t)は、シャッタが開状態にあるΔtの間のみ値「1」となり、それ以外のシャッタが閉状態にある時間は値が「0」となる関数である。よって、シャッタを考慮した上で時刻tkに着目画素から出力される信号g″(Xp,Yq,tk)は以下の(5)式で表される。
【数5】
Figure 0003986801
【0039】
次に、撮像素子35の全画素を考慮した信号を考える。前述したように、撮像素子35はY軸方向に並んだ画素各々が変換した信号を積算して出力する。ここでは、撮像素子35が撮像面に結像した像を電気信号に変換するタイミングとxyステージ40の移動速度とが同期している場合を考えているので、Y座標を時刻で表すことができる。いま、試料4上の任意の点Pの像が撮像素子35の撮像面35aをY方向に移動している場合を考える。尚、この場合において、点Pの像は撮像素子35の同一列上を移動する点に注意されたい。
【0040】
この点Pの像が撮像面35aの中心に配置された行を横切る(通過する)時刻をTとすると、この行からY方向へq個の画素数分だけずれた位置の画素を点Pの像が通り過ぎる時刻はT+tqとなる。尚、tq=(Yq/β)/vである。このため、時刻Tにおいて、撮像素子35から出力される信号s(Xp,T)は、以下の(6)式で表される。
【数6】
Figure 0003986801
上記(6)式に示した撮像素子35から出力される信号s(Xp,T)を示す式はX方向の値が離散的であり、後述するOTFを解析する上で取り扱いが不便である。このため、連続的な変数Xを用いた式S(X,T)に変形すると、以下の(7)式となる。
【数7】
Figure 0003986801
この(7)式中の右辺のδ(X−Xp)は、Diracのδ関数である。上記の(7)式が写像光学系20に歪曲収差がないとしたときの撮像素子35から出力される信号を示す式である。
【0041】
〔2〕写像光学系20の歪曲収差を考慮したときに撮像素子35から得られる信号
上記〔1〕においては、写像光学系20の倍率βを定数として歪曲収差がない場合を考えた。この場合には試料4に形成されたパターンを拡大又は縮小した像が撮像素子35の撮像面35aに形成される。しかしながら、写像光学系20に歪曲収差がある場合には撮像面35a上の像は歪む。この像の歪みは、写像光学系20の局所的な倍率の変動と解釈できる。そこで、xy座標内の位置に応じて写像光学系20の倍率が異なるものとして歪曲収差を捕らえ、前述した(1)式を以下の(8)式で表す。
【数8】
Figure 0003986801
尚、上述したように、写像光学系20の倍率がxy座標内の位置に応じて異なるものであるならば、上記(8)式中の倍率βx,βyがx,yの関数とするのが自然であるが、倍率βx,βyをX,Yの関数としても結果は同じになるため、以下の取り扱いを容易にすることを考慮して、上記(8)式では、倍率βx,βyをX,Yの関数としている。
【0042】
xy座標系とXY座標系との関係が上記(8)式に示した関係にある場合に、撮像素子35の撮像面上に形成される像は、(8)式をx,y各々について解いた式を、試料4上のパターンを示す式O(x,y)に代入し、更にxyステージ40のy方向の移動速度vを考慮すると以下の(9)式となる。
【数9】
Figure 0003986801
写像光学系20の歪曲収差を考慮したときの、撮像素子35から出力される信号sd(Xp,T)は、(5)式中の式O(X/β,Y/β−v・t)を上記(9)式に換えた式を(6)に代入することにより以下の(10)式の通りに求まる。
【数10】
Figure 0003986801
最後に、上記〔1〕の場合と同様に、後述するOTFを解析する上で取り扱いを容易とするため、連続的な変数Xを用いた式に変形すると、以下の(11)式となる。
【数11】
Figure 0003986801
【0043】
〔3〕撮像素子35から得られる信号のOTFの計算
以下、上記(10)式及び(11)式で示される撮像素子35から出力される信号をフーリエ変換することにより撮像素子35から得られる信号のOTFを求めることができる。しかしながら、通常は写像光学系20の歪曲収差は極力小さくなるように設計されている。従って、以下においては、歪曲収差が小さいとして式の簡略化を図り、その後にOTFを計算する。
【0044】
(a)式の簡略化
写像光学系20の歪曲収差が小さいため、(8)式に示した倍率βx(X,Y),βy(X,Y)は〔1〕で用いた定数の倍率βに極めて近いと考えられる。このため、倍率βx(X,Y),βy(X,Y)をそれぞれ以下の(12)式で表す。
【数12】
Figure 0003986801
ここで、上記(12)式中のDx(X,Y),Dy(X,Y)は、それぞれ、Dx(X,Y)≪1、Dy(X,Y)≪1である。
【0045】
次に、上記(12)式に示した倍率、βx(X,Y),βy(X,Y)を(10)式に適用するわけであるが、ここで、以下の(13)式に示す変数変換を施す。尚、以下の式では、式の簡略化のために、倍率βx(X,Y),βy(X,Y)をβx,βyとそれぞれ表記する。
【数13】
Figure 0003986801
この(13)式に示した変数変換では、(9)式に示した撮像面35a上の像の位置を規定するX座標の値及びY座標の値をそれぞれ変数X′,Y′に変換していることから、撮像素子35の撮像面35a上で移動する像の移動とともに移動する座標系(X′,Y′)を設定している。尚、(13)式中のLはX′Y′座標系の原点とq番目の画素とのY方向についてのオフセット量(距離)を示している。上記(10)式に示した変数変換を行うときに、(10)式中の積分要素dXdYdtは、dXdYdt=(1/|A|)dX′dY′dLとなる。ここで、Aは、以下の(14)式で表される。
【数14】
Figure 0003986801
【0046】
ここで、|A|を計算すると、以下の(15)式となる。
【数15】
Figure 0003986801
尚、上記(15)式を導出するにあたっては、(12)式を用いるとともにDx(X,Y),Dy(X,Y)の2次以上の項を無視している。上記(13)式中の各式を、t,X,Yについて解いて(10)式に代入するとともに、(12)式を(10)式に代入し、更にdXdYdt=(1/|A|)dX′dY′dLなる関係を用いて(10)式を表すと以下の(16)式となる。
【数16】
Figure 0003986801
【0047】
ところで、前述しように、撮像素子35が備える各画素の感度特性を示す関数gは、画素の開口内でのみ値を有する関数である。従って、上記(16)式においても、感度関数gはDx(X,Y),Dy(X,Y)が極めて小さいとすると、X方向のp番目の画素、及び、Y方向のq番目の画素に対して、以下の(17)式が成り立つ極めて近接する領域のみで値を有することになる。
【数17】
Figure 0003986801
また、上記(16)式中の感度関数gのX座標の値におけるDx(X,Y)・X′についても、上記(17)式が成り立つ座標(X′,Y′)の周りで展開したときに、第2項目以降は無視することができるので、以下の(18)式のように近似することができる。
【数18】
Figure 0003986801
【0048】
同様に、上記(16)式中の感度関数のX座標の値におけるDy(X,Y)・(Y′+L−v・tq)についても、以下の(19)式のように近似することができる。
【数19】
Figure 0003986801
更に、同様の理由から|A(X,Y)|についても以下の(20)式のように近似することができる。
【数20】
Figure 0003986801
【0049】
以上の近似式(18)式〜(20)式を(16)式に代入すると、以下の(21)式が得られる。
【数21】
Figure 0003986801
この(21)式が写像光学系20に歪曲収差があるときに、撮像素子35から出力される信号の近似値を示している。
【0050】
(b)信号のフーリエ成分
次に、写像光学系20に残存収差があるときに、撮像素子35から出力される信号Sd(X、T)のフーリエ成分について考察する。いま、信号Sd(X,T)のフーリエ変換をFSd(μ,ν)とすると、この式は以下の(22)式で表される。
【数22】
Figure 0003986801
ここで、(11)式を参照すると分かるように、式Sd(X,T)は、くし形関数(comb関数)と式sd(X,T)との積であるので、そのフーリエ変換は式sd(X,T)のフーリエ変換、comb関数、及び式FSd(μ,ν)のコンボリューションとなる。よって、式sd(X,T)のフーリエ変換をFsd(μ,ν)とすると、式FSd(μ,ν)は以下の(23)式のように変形することができる。
【数23】
Figure 0003986801
【0051】
上記(23)式を参照すると、式FSd(μ,ν)は式sdのフーリエ変換から得られることが分かる。従って、次に式sdについて考察する。ここで、上記(21)式に着目すると、この式中に含まれる感度関数gが値を有する領域は、前述したように、極めて狭い領域である。また、試料4に形成されたパターンを示す式Oについても、分解能を議論するときには極めて微細なパターンを考えている。従って、関数Oが値を有する領域も極めて狭い領域となる。それ故、上記(21)式も限られた領域でのみ値を持つ式である。かかる限られた領域内においては、X方向に関して歪曲収差の変化量も小さいと考えられる。つまり、上記(21)式中のDx(Xp,Yq)・(Xp/β)及びDy(Xp,Yq)・(Xp/β)の変化は小さいものとし、X方向に関しては、第p列に配列された全ての画素について同一の値をとるものとし、以下の(24)式に示すように、Y方向の座標にのみ依存するとする。尚、(24)式中のδxp,δypはδ関数ではない点に注意されたい。
【数24】
Figure 0003986801
また、上記(22)式中の|A(Xp,Xq)|についても同様の理由により、X方向に関して定数と見なして、(25)式のように近似する。
【数25】
Figure 0003986801
【0052】
以上の(24)式及び(25)式に示した近似を用いると、式sd(Xp,T)のフーリエ変換は簡単になる。いま、以下の(26)式に示す関数Gq(X,Y)を定義する。
【数26】
Figure 0003986801
この関数Gq(X,Y)を用いて(21)式を表記すると以下の(27)式になる。尚、(27)式中のdは画素のピッチを示している。
【数27】
Figure 0003986801
ここで、上記(27)式に示したように、式sd(X,T)は関数Gq(X,Y)と関数O(X′,Y′)とのコンボリューション、更にはΩ(T)とのコンボリューションの形で表されている。ここで、関数Gqはいわば撮像素子35に設けられた各画素の感度を示す式であり、関数O(X′,Y′)は撮像面に結像している試料4のパターンの像を示す式であり、Ω(T)は各画素のシャッタ速度を示す式である。
【0053】
上記(27)式のフーリエ変換を求めると以下の(28)式になる。尚、(28)式中のFΩは、式Ωのフーリエ変換であり、FOは式Oのフーリエ変換である。
【数28】
Figure 0003986801
【0054】
更に、感度関数gのフーリエ変換をFgとすると、(26)式に示した関数Gq(X,Y)のフーリエ変換は、以下の(29)式となる。
【数29】
Figure 0003986801
そこで、上記(29)式を上記(28)式に代入し、点像のフーリエ変換をOTFと考えると、OTFは以下の(30)式で表される。
【数30】
Figure 0003986801
【0055】
上記(30)中において、写像光学系20の歪曲収差に関係するのは、以下の(31)式に示す部分である。
【数31】
Figure 0003986801
上記(31)式が写像光学系20に歪曲収差が存在するときのOTFを示している。
【0056】
〔4〕OTFを最大にするxyステージ40の移動速度
以上の〔2〕及び〔3〕の議論では、撮像素子35が撮像面に結像した像を電気信号に変換するタイミングとxyステージ40の移動速度とが同期している状態において、写像光学系20の残存収差により生ずるOTFの劣化について議論した。以下では、撮像素子35が撮像面に結像した像を電気信号に変換するタイミングとxyステージ40の移動速度とを非同期として、OTFを最大にするための非同期量を求める方法について説明する。
【0057】
本実施形態では、撮像素子35が撮像面に結像した像を電気信号に変換するタイミングを固定とし、xyステージ40の移動速度を変えることにより、撮像素子35が撮像面に結像した像を電気信号に変換するタイミングとxyステージ40の移動速度とを非同期にしている。同期している状態(xyステージ40の移動速度がvのとき)に得られるOTFは上記の(31)式から求められる。そこで、xyステージ40の移動速度を、以下の(32)式で示したように、vからδvだけ変化させた速度v′に変えたときのOTFについて考察する
【数32】
Figure 0003986801
【0058】
上記(32)式を(30)式に代入し、xyステージ40の速度をv′としたときに得られるOTF′(μ,ν)は以下の(33)式で表される。尚、このとき、Yq=β・v・tqを用いた。
【数33】
Figure 0003986801
ここで、上記(33)式は、非走査方向(X方向)及び走査方向(Y方向)のOTFをともに含んでおり、走査方向(Y方向)のみのOTFY′を抜き出すと以下の(34)式で表される。
【数34】
Figure 0003986801
【0059】
上記の(34)式において、δvを最適に選ぶことによりOTFY′をより1(最大)に近い値にすることができる。以上から本実施形態では、以下の(35)式の値が最大となるように、式中のδvを求めている。
【数35】
Figure 0003986801
上記(35)式は、歪曲収差がないとしたときの写像光学系20の倍率β、画素のY方向の位置に応じたY方向の歪曲収差の量δyq、撮像素子35の各画素に設けられたシャッタが開状態にある時間Δt、画素のY方向の位置q、撮像素子35が撮像面に結像した像を電気信号に変換するタイミングとxyステージ40の移動速度とを非同期にするときのステージ40の速度の変化分δv、及び試料4に形成されたパターンの空間周波数ν、更にはApqを含んでなる式である。この式に於いて、倍率β、歪曲収差の量δyq、及びシャッタが開状態にある時間Δtは装置によって決まってしまう。よって、Y方向の歪曲収差の影響による解像度の低下を防止するためには、試料4に形成されたパターンのピッチに応じてδvを決定する必要がある。
【0060】
以上、本発明の一実施形態による表面状態観察装置において、OTFを最大にする方法、つまり解像度の低下を防止する方法について説明したが、次に、上記方法を用いて求めた方法により求めたステージの移動速度でステージを移動させて、撮像素子35が撮像面に結像した像を電気信号に変換するタイミングとxyステージ40の移動速度とを非同期にしたときに得られるOTFと、撮像素子35が撮像面に結像した像を電気信号に変換するタイミングとxyステージ40の移動速度とを非同期にしたときに得られるOTFとのシミュレーション結果を説明する。
【0061】
シミュレーション結果を説明する準備として、本実施形態で想定している歪曲収差について説明する。写像光学系20により歪曲収差の発生する様子は異なるが、本実施形態の表面状態観察装置のように狭い視野を観察する写像光学系20は、一般的に低次の成分が支配的になる。このため、ここでは、三次以下の歪曲収差を考える。また、写像光学系20が光軸に対して回転対称に構成されており、このために歪曲収差も光軸に回転対称であるとする。いま、図9に示すように、試料4の表面において、写像光学系20の光軸との交点から以下の(36)式で示した距離rにある点が写像光学系20の歪曲収差により撮像面35aでは光軸からRの位置に結像するとする。図9は、光軸からrにある距離の点と歪曲収差の影響により、この点が結像する位置Rとの関係を示す図である。
【数36】
Figure 0003986801
【0062】
ここで、三次までの歪曲収差を考えると、上記rとRとの関係は以下の(37)式で表される。
【数37】
Figure 0003986801
また、上記r及びRをベクトル成分で表し、その関係を表記すると以下の(38)式になる。尚、以下の(38)式では、Rの座標を(X,Y)、rの座標を(x、y)としている。
【数38】
Figure 0003986801
更に、上記(37)式の両辺を二乗して、r2について解くと以下の(39)式になる
【数39】
Figure 0003986801
上記(39)式を(38)式に代入し、(β3/β1)≪1を考慮して、(β3/β1)の二次以上を無視すると、以下の(40)式となる。
【数40】
Figure 0003986801
【0063】
上記(40)式と(12)式とを比較すると、三次までの歪曲収差を考慮した場合には、(12)式中のβ、Dx(X,Y)、Dy(X,Y)は以下の(41)式で表される。
【数41】
Figure 0003986801
また、|A|についても、上記(41)式を(15)式に代入すると、以下の(42)式となる。
【数42】
Figure 0003986801
以下に示すシミュレーションでは、(41)式中のβ、Dx(X,Y)、Dy(X,Y)及び(42)式中の|A|を用いて、OTFの評価を行っている。尚、撮像素子35の走査方向(Y方向)の大きさを8.2mm、非走査方向(X方向)の大きさを38.5mm、撮像素子35が備える画素のX方向及びY方向のピッチを共に16μmとしている。
【0064】
まず、比較のために撮像素子35が撮像面に結像した像を電気信号に変換するタイミングとxyステージ40の移動速度とが同期している状態をシミュレートする。図10は、撮像素子35が撮像面に結像した像を電気信号に変換するタイミングとxyステージ40の移動速度とが同期している状態において得られたシミュレーション結果である。尚、このシミュレーションは、撮像素子35の最周辺において0.4%の歪曲収差が生じているとしている。図10中の符号C10を付した曲線は撮像面35aの周辺において得られるX方向のMTF曲線であり、符号C11を付した曲線は撮像面35aの中心位置において得られるY方向のMTF曲線であり、符号C12を付した曲線は撮像面35aの周辺において得られるY方向のMTF曲線である。
【0065】
また、図11は、写像光学系20の歪曲収差により生ずる撮像素子35の撮像面35a上における像の画素に対するずれ量を示す図である。図11において、符号D10を付した曲線は撮像面35aの周辺におけるX方向の像のずれ量を示しており、符号D11を付した曲線は撮像面35aの中心におけるY方向の像のずれ量を示しており、符号D12を付した曲線は撮像面35aの周辺におけるY方向の像のずれ量を示している。図10及び図11から分かるように、走査方向(Y方向)に直交する非走査方向(X方向)の歪曲収差の影響よりも、走査方向(Y方向)のMTFが悪化している。ここで、撮像素子35が撮像面に結像した像を電気信号に変換するタイミングとxyステージ40の移動速度とが同期している状態においては、前述した(31)式において、tq=Yq/vなる関係があるため、X方向のOTFX(μ,ν)及びY方向のOTFY(X,Y)は以下の(43)式となる。
【数43】
Figure 0003986801
【0066】
上記(43)式を参照すると、何れもqについて和をとっているが、これは撮像素子35が備える各画素の信号をY方向に加算することを意味する。しかしながら、(43)式中のδxpyqの値が大きくとも、これらの値がqに関して一定ならばOTFの劣化は生じないことになる。OTFの劣化を引き起こすのは、(43)式中のδxpyqの位置による差である。ここで、図11中の符号D10を付した曲線がδxpを示しており、符号D11又は符号D12を付した曲線がδyqを示している。
【0067】
ここで、図10と図11との関連について考えてみると、図11に示したように、δxpの値(曲線D10の値)はδyqの値(曲線D11又は曲線D12の値)よりも大きい。しかしながら、図10をみると撮像面35aの中心位置において得られるX方向のMTF曲線を示す曲線C10の劣化はほとんど無い。一方、図11中に示したようにδyqの値(曲線D11又は曲線D12の値)そのものは小さい。しかしながら、δxpの最大値と最小値との差(曲線D10の差)は3μm程度であるのに対し、例えば符号D12を付した曲線の最大値と最小値との差は32μm程度と極めて大きい。その差の結果が図10に反映されており、撮像面35aの周辺において得られるY方向のMTF曲線である曲線C12が悪化している。
【0068】
次に、本実施形態のように、撮像素子35が撮像面に結像した像を電気信号に変換するタイミングとxyステージ40の移動速度とを非同期にした場合についてシミュレートする。図12は、撮像面に結像した像を撮像素子35が電気信号に変換するタイミングとxyステージ40の移動速度とを非同期にした状態において得られたシミュレーション結果である。尚、このシミュレーションは、撮像素子35の最周辺において0.4%の歪曲収差が生じているとしており、また、(34)式において、δvを最適に選んでいる。図12中の符号C20を付した曲線は撮像面35aの周辺において得られるX方向のMTF曲線であり、符号C21を付した曲線は撮像面35aの中心位置において得られるY方向のMTF曲線であり、符号C22を付した曲線は撮像面35aの周辺において得られるY方向のMTF曲線である。
【0069】
また、図13は、撮像面に結像した像を撮像素子35が電気信号に変換するタイミングとxyステージ40の移動速度とを非同期にした状態において、写像光学系20の歪曲収差により生ずる撮像素子35の撮像面35a上における像の画素に対するずれ量を示す図である。図13において、符号D20を付した曲線は撮像面35a上におけるX方向の像のずれ量を示しており、符号D21を付した曲線は撮像面35aの中心におけるY方向の像のずれ量を示しており、符号D22を付した曲線は撮像面35aの周辺におけるY方向の像のずれ量を示している。
【0070】
図13を参照すると分かるように、試料4に形成されたパターンの空間周波数に応じて、(35)式に示される値が最大となるδvを求めてステージ40の速度を設定することにより、撮像素子35が撮像面に結像した像を電気信号に変換するタイミングとxyステージ40の移動速度との非同期量を制御すると、符号D21を付した曲線で示されるように、撮像面35aの中心におけるY方向の像のずれ量の差は大きくなる。しかしながら、符号D22を付した曲線で示されるように撮像面35aの周辺におけるY方向の像のずれ量の差は図11中に示した曲線D12と比較すると小さくなる。また、図13において符号D22を付して示す撮像面35aの周辺におけるY方向の像のずれ量を示す曲線の差が小さくなったことに伴って、撮像面35aの周辺において得られるY方向のMTF曲線(図12中のMTF曲線C22)の悪化が改善されていることがわかる。
【0071】
以上、本発明の一実施形態による表面状態観察装置の構成及び本発明の特徴部分である、非同期量の制御方法について説明したが、次に上記構成における本発明の一実施形態による表面状態観察装置の観察時における動作について説明する。まず、観察対象の試料4をローダ(図示省略)上に載置すると、試料4はローダによって図1に示したチャンバ3内に搬送される。試料4がチャンバ3内に搬入されるとxyステージ40上に載置され、主制御系37は駆動装置43を介してxyステージ40を駆動して、試料4を計測範囲に移動する。次に、ユーザは、入力装置45を操作して、試料4に形成されているパターンにのピッチを入力する。
【0072】
入力装置45からパターンのピッチが入力されると、主制御系37は記憶装置44から写像光学系20に歪曲収差量δyp、写像光学系20の倍率β、撮像素子35に設けられているシャッタが開状態にある時間Δt、及び撮像素子35の行方向及び列方向の画素数等を読み出し、前述した(35)式を最大にするようなδv(これは、本発明にいう非同期量に相当する)を算出する。ここで、図14に示した試料4の表面状態を観察する場合を考える。図14は、表面状態の観察を行う際の動作を説明するための図である。ここで、試料4の斜線を付した観察対象領域4aを観察する場合について考える。
【0073】
観察にあたり、主制御系37はまず図示せぬZセンサの計測結果に基づいて制御信号を写像光学系制御部39へ出力して第2光学系20の倍率を調整し、試料4から放出される二次電子ビームB2の焦点位置を電子ビーム検出器30の検出面上に設定する。そして、主制御系37は熱電子放出型電子銃10に対して電子の放出を開始させ、照明光学系11、イー・クロス・ビー23、開口絞りAS、第1アライナ22、及びカソードレンズ21を介して照明用ビームB1を試料4に照射するとともに、駆動装置43を介してxyステージ40を上述した処理で求めたδvを考慮した一定速度v+δvで図14中Y軸方向と平行な方向(図14中符号dを付して示した方向)へ移動させる。試料4に照明用ビームB1を照射することにより、試料4の物体面から発生する二次電子ビームB2は写像光学系20で集光され、その像は電子ビーム検出器30の検出面に結像する。電子ビーム検出器30から放出された光、即ち試料4の光学像はリレーレンズ34を透過して画素が写像光学系20の歪曲収差に応じて配列された撮像素子35の撮像面に結像する。撮像素子35の結像面に結像した光学像は、撮像素子35によって画素信号に光電変換される。
【0074】
図14において、符号50を付した領域が撮像素子35で撮像される領域であるとし、領域50中の符号R1を付した線状の領域を図2に示したCCD画素列R1が撮像し、符号R256を付した線状の領域をCCD画素列R256が撮像するとする。図14に示した状態から観察を開始したとすると、観察対象領域4aの座標(X1,Y1)から(X1024,Y1)までの光学像が、撮像素子35をなすTDIアレイCCDのCCD画素列R1において光電変換されて、電荷が蓄積される。試料4が−Y軸方向に移動することにより、撮像素子35によって撮像される領域50が符号dを付した方向に移動し、xyステージ40が速度vで移動していると仮定したときに領域50が1CCD画素列分だけ移動した時間が経過すると、主制御系37から撮像素子35へ垂直クロック信号が1つ送出される。
【0075】
垂直クロック信号が送出されてくると、撮像素子35のCCD画素列R1に蓄積されていた電荷は、CCD画素列R2に転送される。尚垂直クロック信号が送出されてくる前にCCD画素列R1で撮像されていた光学像は、写像光学系20の歪曲収差及びステージ40の移動速度v+δvに応じてCCD画素列R2の位置からずれた位置に移動する。写像光学系20に歪曲収差がなく、且つxyステージ40が速度vで移動している場合には、CCD画素列R2は、垂直クロック信号が送出されてくる前にCCD画素列R1で撮像されていた光学像と同様の光学像を、次の垂直クロック信号が送出されてくるまで撮像することになる。しかしながら、実際には写像光学系20の歪曲収差のために光学像の位置がずれてしまう。本実施形態ではこの位置ずれを緩和するために、xyステージ40の移動速度をv+δvとして各CCD画素が光学像を電気信号に変換するタイミングと、xyステージ40の移動速度(ひいては、撮像素子35の撮像面上における光学像の移動速度)とを非同期にしている。
【0076】
以下同様にして、CCD画素列R1によって撮像される領域50の中のR1を付した線状の部分が(X1,Y256)から(X1024,Y256)までの位置に達すると撮像は終了し、(X1,Y1)から(X1024,Y1)までの試料画像が、コントロールユニット36を介して初めて主制御系37へ出力され始める。次に送出されてくる垂直クロック信号からは、(X1,Y2)から(X1024,Y2)までの試料画像が主制御系37へ出力され、以下順々に画像が主制御系37に取得されて観察が行われる。
【0077】
以上説明したように、本発明の一実施形態による表面状態観察装置によれば、照明用ビームB1を試料4に照射して得られる二次電子ビームB2が写像光学系20の光学特性に起因して撮像素子35の撮像面35a上において位置ずれを生じていても、撮像素子35の各画素が撮像面に結像した光学像を電気信号に変換するタイミングとxyステージ40の移動速度とを非同期にしているため、撮像面上の光学像の走査方向(Y方向)の位置ずれ量を緩和することによりOTFの悪化を改善することができ、その結果として分解能を向上させることができる。また、本実施形態によれば、撮像素子35として用いているのは検出感度の高いTDIアレイCCDであり、TDIアレイCCDを用いて上述の方法により分解能を向上させることができれば、検出信号の強度不足なく短時間で高分解能の観察を行うことができるという効果がある。
【0078】
以上、本発明の一実施形態による表面状態観察装置について説明したが、本発明は上記実施形態に制限されることなく本発明の範囲内で自由に変更が可能である。例えば、上述した一実施形態及び他の実施形態では、照明用ビームとして照明用ビームB1を用い、照明用ビームB1を試料4に照射して得られる二次電子、反射電子、及び後方散乱電子の少なくとも1つを含む二次電子ビームB2を蛍光板32で光電変換し、変換された光学像を撮像素子35で撮像する場合を例に挙げたが、例えば電子ビームの代わりにイオンビームを用いても良く、可視領域の光を試料4に照射して得られる光学像を直接撮像素子35で撮像するようにしても良い。この場合においては、写像光学系20が光学レンズを含んで構成されるが、写像光学系20の歪曲収差を完全に補正するために写像光学系20を構成する光学レンズの数を増加させる必要がないため、装置の大型化を招かずに高分解能で観察することができる。照明用ビームとして光を用いた場合には、二次ビームは光を物体表面に照射して得られる反射光である。
【0079】
また、上記実施形態においては、イー・クロス・ビー23を用いて照明用ビームB1を偏向させて試料4に照射し、試料4から発生した二次電子ビームB2を直進させる場合について説明した。しかしながら、本発明はこれに限られず、照明用ビームB1を直進させて、二次電子ビームB2を偏向させる電磁プリズムを用いても良い。更に、本実施形態は線源からの電子ビームにて試料の物体面を照明し像面ヘ結像する、いわゆる面から面への写像投影光学系を備えているが、観察装置及び検査装置の単体装置としてではなく、半導体露光装置等にも簡単に応用することができる。
【0080】
更に、上記実施形態では、入力手段として入力装置45を備え、試料4に形成されたパターンのピッチを入力するようにしていたが、予め測定する試料4に形成されているパターンをハードディスク等の外部記憶装置に入力しておき、その内容を読み出してステージ40の移動速度を算出するようにしても良い。また、上記実施形態では、xyステージ40を移動させていたが、試料4を載置するステージを固定にし、照明用ビームB1を試料4に照射して得られる二次ビームを、偏向させる偏向装置を設けて検出面又は撮像面に結像した像を検出面又は撮像面に対して相対的に移動させるようにしてもよい。更にまた、上記実施形態では試料4のxy座標系の位置に関わらずxyステージ40を一定の速度v+δvで移動させていたが、写像光学系20の歪曲収差に応じてxyステージ40の移動速度を可変する制御を行っても良い。
【0081】
次に、本発明の一実施形態によるマイクロデバイスの製造方法について説明する。図15は、マイクロデバイス(ICやLSI等の半導体チップ、液晶パネル、CCD、薄膜磁気ヘッド、マイクロマシン等)の製造例のフローチャートを示す図である。図15に示すように、まず、ステップS10(設計ステップ)において、マイクロデバイスの機能・性能設計(例えば、半導体デバイスの回路設計等)を行い、その機能を実現するためのパターン設計を行う。引き続き、ステップS11(マスク製作ステップ)において、設計した回路パターンを形成したマスク(レチクル)を製作する。一方、ステップS12(ウェハ製造ステップ)において、シリコン等の材料を用いてウェハを製造する。
【0082】
次に、ステップS13(ウェハ処理ステップ)において、ステップS10〜ステップS12で用意したマスクとウェハを使用して、後述するように、リソグラフィ技術等によってウェハ上に実際の回路等を形成する。次いで、ステップS14(デバイス組立ステップ)において、ステップS13で処理されたウェハを用いてデバイス組立を行う。このステップS14には、ダイシング工程、ボンティング工程、及びパッケージング工程(チップ封入)等の工程が必要に応じて含まれる。最後に、ステップS15(検査ステップ)において、ステップS14で作製されたマイクロデバイスの動作確認テスト、耐久性テスト等の検査を行う。このステップS15において、前述した本発明の一実施形態による表面状態観察装置によって、マイクロデバイスの表面状態が観察される。こうした工程を経た後にマイクロデバイスが完成し、これが出荷される。尚、図15に示したフローチャートでは、ステップS14を経た後に、本発明の一実施形態による表面状態観察装置によってマイクロデバイスの表面状態を観察している場合を例示しているが、ステップS14のデバイスを組み立てる前に、ステップS13を経ることにより処理が終了したウェハの表面状態を適宜観察してもよい。
【0083】
【発明の効果】
以上、説明したように、本発明によれば、写像光学系の光学特性に応じて生ずる検出面上での光学像の位置ずれ量に応じて、撮像手段が検出面に結像した像を電気信号に変換するタイミングと検出面上における像の移動速度とを非同期にするのみならず、その非同期の量を制御するようにしているため、写像光学系の歪曲収差による解像度の低下を防止することができ、その結果として写像光学系に歪曲収差が残存していても高分解能で観察することができる。
【図面の簡単な説明】
【図1】 本発明の一実施形態による表面状態観察装置の構成を示す図である。
【図2】 撮像素子35としてのTDIアレイCCDの構成例を示す機能ブロック図である。
【図3】 本発明の一実施形態による表面状態観察装置の照明用ビームB1の軌道を示す図である。
【図4】 本発明の一実施形態による表面状態観察装置の二次電子ビームB2の軌道を示す図である。
【図5】 本発明の一実施形態による表面状態観察装置が備えるイー・クロス・ビー23の構成及び動作原理を説明するための図である。
【図6】 試料4の表面に設定されたxy座標系を撮像素子35の撮像面に設定されたXY座標系を示す図である。
【図7】 撮像素子35が備える画素の配列の一例を示す図である。
【図8】 Y方向の位置が画素の中心に設定された感度特性関数g(X)の一例を示す図である。
【図9】 光軸からrにある距離の点と歪曲収差の影響により、この点が結像する位置Rとの関係を示す図である。
【図10】 撮像素子35が撮像面に結像した像を電気信号に変換するタイミングとxyステージ40の移動速度とが同期している状態において得られたシミュレーション結果である。
【図11】 写像光学系20の歪曲収差により生ずる撮像素子35の撮像面35a上における像の画素に対するずれ量を示す図である。
【図12】 撮像面に結像した像を撮像素子35が電気信号に変換するタイミングとxyステージ40の移動速度とを非同期にした状態において得られたシミュレーション結果である。
【図13】 撮像面に結像した像を撮像素子35が電気信号に変換するタイミングとxyステージ40の移動速度とを非同期にした状態において、写像光学系20の歪曲収差により生ずる撮像素子35の撮像面35a上における像の画素に対するずれ量を示す図である。
【図14】 表面状態の観察を行う際の動作を説明するための図である。
【図15】 マイクロデバイスの製造工程の一例示すフローチャートである。
【図16】 歪曲収差の一例を示す図である。
【図17】 歪曲収差が生じている像をTDIアレイCCDで検出した場合の検出精度の悪化を説明する図である。
【図18】 歪曲収差が生じている像をTDIアレイCCDで検出した場合のスキャン方向の検出精度の悪化を説明する図である。
【符号の説明】
4 試料(物体)
11 照明光学系
20 写像光学系
30 電子ビーム検出器(撮像手段)
32 蛍光板(変換手段)
34 リレーレンズ(撮像手段)
35 撮像素子(撮像手段)
37 主制御系(制御手段、算出装置)
40 xyステージ(ステージ)
44 記憶装置(記憶手段)
45 入力装置(入力手段)
B1 照明用ビーム
B2 二次電子ビーム(二次ビーム)[0001]
BACKGROUND OF THE INVENTION
The present invention irradiates an object with a charged particle beam such as an electron beam or an ion beam or an electromagnetic wave such as light or X-ray as an illumination beam, and a secondary beam (secondary electron) obtained by irradiating the object with the illumination beam. , Reflected electron, backscattered light, reflected light) to observe and inspect the surface state of an object, and a surface state observation apparatus and method, and a semiconductor element observed using the surface state observation apparatus and method The present invention also relates to a method of manufacturing a microdevice, which includes a step of observing the surface of the microdevice using the surface state observation apparatus and method.
[0002]
[Prior art]
A semiconductor element is manufactured by forming a fine pattern on the surface of a semiconductor substrate by using a planar technology, but the pattern is miniaturized and highly integrated due to a demand for miniaturization of the semiconductor element. A charged particle beam microscope using charged particles such as an electron beam (electron beam) is used for observing the surface state of the semiconductor element and performing defect inspection. A microscope that has been generally known as a charged particle microscope and is frequently used is a scanning electron microscope (SEM). The scanning electron microscope irradiates a point on the surface of an object with an electron beam, detects secondary electrons, reflected electrons, and backscattered electrons generated from the point irradiated with the electron beam, and irradiates the object with such an operation. An image of the object surface is formed by performing scanning while relatively scanning the electron beam. The scanning electron microscope has a problem that it takes a relatively long time for observation because it is necessary to scan the electron beam over the entire region to be observed.
[0003]
In recent years, a mapping electron microscope has been devised as an apparatus for solving this problem. This mapping electron microscope irradiates a charged particle beam such as an electron beam or an ion beam or an electromagnetic wave such as light or X-ray in a planar manner on the observation surface of the object, secondary electrons generated from the surface of the object, reflected electrons, This is a device that observes the surface of an object by accelerating and focusing backscattered electrons, enlarging and projecting the image by an electron optical system, forming it on the imaging surface, and converting the electron intensity distribution into a light intensity distribution. . A mapping electron microscope for irradiating an object with an electron beam is disclosed in, for example, Japanese Patent Application Laid-Open Nos. 10-197462 and 11-64256.
[0004]
In the mapping type electron microscope, a control method at the time of observation differs depending on whether a sensor such as a CCD (Charge Coupled Device) provided in the electron optical system is a one-dimensional sensor or a two-dimensional sensor. A mapping electron microscope equipped with a one-dimensional sensor has a control method for obtaining a light intensity distribution sequentially while moving the stage on which the object to be observed is placed at a constant speed and scanning the image of the object with respect to the sensor. Basic. On the other hand, a mapping electron microscope equipped with a two-dimensional sensor is an operation in which a stage on which an object is placed is moved by a certain distance and imaged by the sensor, and then the stage is further moved by a certain distance and imaged by the sensor. That is, a control method for obtaining the light intensity distribution by step-and-repeat of the stage is fundamental.
[0005]
A mapping electron microscope provided with a one-dimensional sensor has the following advantages compared to a mapping electron microscope provided with a two-dimensional sensor. First, since the field of view of an electron optical system that expands secondary electrons, reflected electrons, and backscattered electrons generated from the surface of an object may be narrower than that provided with a two-dimensional sensor, electrons that take aberration correction into consideration There is an advantage that the design / manufacturing cost of the optical system can be reduced. Second, even when observing a wide range, there is an advantage that stage control can be simplified because it is only necessary to move the stage at a constant speed. For these reasons, the mapping electron microscope often includes a one-dimensional sensor.
[0006]
Incidentally, a mapping electron microscope disclosed in Japanese Patent Application Laid-Open No. 10-197462 has been devised as a microscope developed from a mapping electron microscope provided with a one-dimensional sensor having the above characteristics. In this mapping type electron microscope, an object to be observed is placed on a stage, and a two-dimensional image formed on an imaging surface while moving the stage is converted into a TDI (Time-Delay-Integration) array CCD ( It is detected by Charge Coupled Device). Here, the configuration of the TDI array CCD will be briefly described as follows. The TDI array CCD has a plurality of rows (for example, 256 rows) and a plurality of columns (for example, 1024 columns). Pixels are arranged at intersections between the rows and columns, and are stored in the pixels arranged in the rows. In this configuration, the generated charges are transferred to adjacent rows for each column. In other words, the TDI array CCD can be considered as a line sensor for the number of rows having a length for the number of columns. Therefore, if the charge transfer timing and the stage movement timing in the TDI array CCD are synchronized, the same signal is sequentially integrated every time the charge is transferred, so that the detection sensitivity can be improved.
[0007]
[Problems to be solved by the invention]
By the way, the charge transfer timing in the TDI array CCD is fixed, and in order to obtain a high-resolution observation result, the stage movement timing (moving speed) is controlled with high accuracy to match the charge transfer timing in the TDI array CCD. There is a need. In addition, in order to accurately inspect the surface state of an object, aberrations of the mapping optical system that focuses secondary electrons, reflected electrons, and backscattered electrons from the object surface to form an image on the imaging surface, in particular, distortion aberration. It is necessary to suppress as much as possible. FIG. 16 is a diagram illustrating an example of distortion. Now, as shown in FIG. 16A, when the lattice shape is arranged on the object surface (for example, the surface of the object to be observed), when the mapping optical system has a negative distortion, the image is displayed. An image formed on a surface (for example, an imaging surface) is deformed into a barrel shape as shown in FIG. When such a deformed image is picked up by the CCD, the surface of the object is observed in a state where an error corresponding to the deformation has occurred.
[0008]
Further, when the image shown in FIG. 16B is picked up by the TDI array CCD, the detection accuracy further deteriorates due to the configuration of the TDI array CCD. The cause will be described below. FIG. 17 is a diagram for explaining deterioration in detection accuracy when an image in which distortion is generated is detected by a TDI array CCD. For the sake of easy understanding, it is assumed that there is a point light source on the observation surface on the object. When observing with a TDI array CCD, since the stage is moved as described above, the trajectory tr1 of the point light source on the object surface (observation surface) is linear as shown in FIG. When there is no distortion in the mapping optical system, the locus of the point light source image on the image plane is also linear.
[0009]
However, when distortion occurs in the mapping optical system, the image formed on the image plane is deformed as shown in FIG. 16B, so that when the point light source moves on the object plane, the image plane In FIG. 17B, the locus of the image of the point light source is not a straight line, but becomes an arc-shaped curved locus tr2, as shown in FIG. When such a trajectory tr2 of the arcuate curve is detected by the TDI array CCD, in the rows r1 and r3 located at the end of the TDI array CCD, it is observed by pixels in the jth column (j is a natural number), and the center of the TDI array CCD is observed. In row r2 located in the part, detection is performed with pixels in the i-th column (i is a natural number satisfying i <j) (this relationship is reversed on the right side in the figure). As described above, since the TDI array CCD sequentially transfers the accumulated charges to adjacent rows, the image of the point light source on the object plane is the width of the interval Δx between the i-th column and the j-th column on the image plane. Obsessed and observed. As described above, when an optical image having distortion is detected by the TDI array CCD, the image is deteriorated.
[0010]
Assuming that there is no distortion in the scanning direction (Y direction in FIG. 17), the image of the point light source on the object surface is sequentially observed by different pixels arranged in the same column at regular time intervals. Since the time interval at which the light source is observed and the charge transfer timing of the TDI array CCD are synchronized, the point light source in which the signal intensity is finally integrated from the TDI array CCD by the number of pixels arranged in the same column Is output. However, if distortion occurs in the mapping optical system, the moving speed of the point light source image on the TDI array CCD changes according to the distortion even if the moving speed of the point light source on the object surface is constant. The moving speed of the image of the point light source and the charge transfer timing of the TDI array CCD are different, and as a result, the shape of the point light source extending in the Y direction according to distortion is observed (exactly X Since there is also distortion in the direction, a circular or elliptical image is observed).
[0011]
As described above, when an image through the mapping optical system in which distortion is generated is to be observed with the TDI array CCD, a blurred image is obtained in both the X direction and the Y direction, and the resolution is lowered. As shown in FIG. 17B, an image blurred by Δx in the X direction is obtained, but an image blurred by 2 · Δy at the maximum is obtained in the scanning direction as shown in FIG. FIG. 18 is a diagram for explaining deterioration in detection accuracy in the scanning direction when an image with distortion is detected by a TDI array CCD. As shown in FIG. 18, with respect to the scanning direction (Y direction), pixels arranged in the same column are an image distorted in the + Y direction (an image protruding in the + Y direction) and an image distorted in the −Y direction. Since both (an image protruding in the −Y direction) are detected, the resolution in the scan direction is lower than the resolution in the X direction shown in FIG. Therefore, in order to improve the overall resolution, it is first necessary to prevent a decrease in resolution in the Y direction (scan direction) as much as possible.
[0012]
The present invention has been made in view of the above circumstances, and a surface state observation apparatus and method capable of observing with high resolution even when distortion aberration remains in the mapping optical system, and the surface state observation An object of the present invention is to provide a semiconductor device observed using the apparatus and method, and a method of manufacturing a microdevice including a step of observing the surface of the microdevice using the surface state observation apparatus and method.
[0013]
[Means for Solving the Problems]
  In order to solve the above problems, a surface state observation apparatus according to a first aspect of the present invention includes an illumination optical system that irradiates an illumination beam on the surface of an object to be observed, and the illumination beam on the object surface. A mapping optical system that forms an image of a secondary beam obtained by irradiation on a predetermined detection surface, an image formed on the detection surface is converted into an electric signal, and the electric signal is converted to an image of the image on the detection surface. An imaging unit that outputs an accumulated signal while being transferred in the moving direction, and a conversion timing of the imaging unit and a detection surface on the detection surface according to an amount of positional deviation of the image caused by an optical characteristic of the mapping optical system Control means for controlling an asynchronous amount with respect to the moving speed of the image, the control means having an optical transfer function obtained from a signal output from the imaging means at a pitch of a pattern formed on the object. According to the sky of the statue It is characterized by controlling the asynchronous amount so as to maximize the frequency.
  According to the present invention, the timing at which the imaging means converts the image formed on the detection surface into an electric signal and detection according to the positional deviation amount of the optical image on the detection surface that occurs according to the optical characteristics of the mapping optical system. Not only is the movement speed of the image on the surface asynchronous, but the amount of the asynchronous movement is controlled, so that it is possible to prevent a reduction in resolution due to distortion in the mapping optical system. Even if distortion remains in the optical system, it can be observed with high resolution.
  The surface state observation apparatus according to the second aspect of the present invention is the surface state observation apparatus according to the first aspect, further comprising a stage configured to be movable with the object placed thereon, wherein the control means The asynchronous amount between the conversion timing of the imaging means and the moving speed of the image on the detection surface is controlled by making the moving speed of the stage variable according to the amount of positional deviation of the image. Yes.
  The surface state observation apparatus according to a third aspect of the present invention is the surface state observation apparatus according to the first aspect, wherein the control means is configured to perform the imaging in a state where the moving speed of the image on the detection surface is constant. The asynchronous amount is controlled so that an optical transfer function obtained from a signal output from the means becomes maximum at a spatial frequency of the image corresponding to a pitch of a pattern formed on the object.
  The surface state observation device according to a fourth aspect of the present invention is the surface state observation device according to the third aspect, wherein the spatial frequency is a spatial frequency in the moving direction of the image on the detection surface. It is said.
  The surface state observation apparatus according to the fifth aspect of the present invention is the surface state observation apparatus according to the third aspect or the fourth aspect, wherein the mapping optics obtained in advance from a design value of the mapping optical system or from an actual measurement value. Storage means for storing the optical characteristics of the system, input means for inputting the pitch of the pattern formed on the object, optical characteristics of the mapping optical system stored in the storage means, and the input from the input means Calculating means for calculating an asynchronous amount of the image with respect to the conversion timing based on a pattern pitch.
  The surface state observation apparatus according to the sixth aspect of the present invention is the surface state observation apparatus according to any one of the first to fifth aspects, wherein the imaging means is two-dimensionally equidistant on the detection surface. And the conversion timing of each pixel is the same.
  Further, a surface state observation apparatus according to a seventh aspect of the present invention is obtained by irradiating an illumination optical system for irradiating an illumination beam onto the surface of an object to be observed, and irradiating the object beam with the illumination beam. A mapping optical system that forms an image of the next beam on a predetermined detection surface, and an image formed on the detection surface is converted into an electric signal, and the electric signal is transferred in the moving direction of the image on the detection surface. An imaging unit that outputs an integrated signal, and a conversion timing of the imaging unit and a moving speed of the image on the detection surface according to an amount of positional deviation of the image caused by optical characteristics of the mapping optical system. Control means for controlling the asynchronous amount of the image, and the positional deviation of the image caused by the optical characteristics of the mapping optical system is a positional deviation due to distortion aberration remaining in the mapping optical system. .
  The surface state observation apparatus according to an eighth aspect of the present invention is the surface state observation apparatus according to any one of the first to seventh aspects, wherein the illumination beam is a charged particle beam, and the secondary beam Is characterized in that it is at least one of secondary electrons, reflected electrons, and backscattered electrons generated by irradiating the object with the charged particle beam.
  A surface state observation apparatus according to a ninth aspect of the present invention is the surface state observation apparatus according to the eighth aspect, wherein the imaging means converts an image formed on the detection surface by the mapping optical system into an optical image. Conversion means for converting is provided, and an optical image converted by the conversion means is photoelectrically converted into the electric signal.
  In order to solve the above-described problems, the surface state observation method of the present invention provides a secondary beam obtained by irradiating an illumination beam on the surface of an object to be observed on a predetermined detection surface via a mapping optical system. The image formed and converted into an electric signal while moving the image formed on the detection surface, and the signal obtained by integrating the electric signal while transferring the electric signal in the moving direction of the image on the detection surface. In the surface state observation method for observing the surface state of an object, an image is formed on the detection surface in accordance with a displacement amount caused by distortion aberration remaining in the mapping optical system caused by the optical characteristics of the mapping optical system. Controlling an asynchronous amount between the conversion timing of an image into an electric signal and the moving speed of the image on the detection surface.
  Furthermore, in order to solve the said subject, the manufacturing method of the microdevice of this invention uses the surface state observation apparatus or the said surface state observation method in any one of the said 1st viewpoint to the 9th viewpoint. It includes the step of observing the surface of the device.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an apparatus and method for observing a surface state and a method for manufacturing a semiconductor element and a micro device according to an embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a diagram showing a configuration of a surface state observation apparatus according to an embodiment of the present invention. The surface state observation apparatus according to the present embodiment mainly detects a primary column 1 for accelerating an electron beam to a sample and a secondary electron beam generated when the sample is irradiated with an electron beam by an electron beam detector 30. It is composed of a secondary column 2 for focusing on a surface and a chamber 3 for accommodating a sample (object) 4 to be observed. The optical axis of the primary column 1 is set obliquely with respect to the vertical direction, and the optical axis of the secondary column 2 is set substantially vertical. Therefore, the illumination beam B1 is incident on the secondary column 2 from the oblique direction from the primary column 1. The primary column 1, the secondary column 2, and the chamber 3 are connected to an evacuation system (not shown), and are evacuated by a vacuum pump such as a turbo pump provided in the evacuation system. Maintained.
[0015]
A thermionic emission electron gun 10 is provided inside the primary column 1, and an illumination optical system 11 is disposed on the optical axis of the illumination beam B 1 emitted from the thermionic emission electron gun 10. Here, as a chip of the thermoelectron emission type electron gun 10, it is preferable that a large current can be taken out by a rectangular cathode, for example. The illumination optical system 11 includes a field stop FS1, irradiation lenses 12, 13, and 14, aligners 15 and 16, a scan aligner 17, an aperture 18, and the like. Here, the irradiation lenses 12, 13, and 14 are electronic lenses, and for example, a circular lens, a quadrupole lens, an octupole lens, or the like is used. The convergence characteristics of the irradiation lenses 12, 13, and 14 included in the illumination optical system 11 with respect to the illumination beam B1 are changed by changing the applied voltage. The irradiation lenses 12, 13, and 14 may be rotationally symmetric lenses called unipotential lenses or Einzel lenses.
[0016]
A mapping optical system 20 is disposed in the secondary column 2. The mapping optical system 20 is for converging the secondary electron beam B2 as a secondary beam generated when the illumination beam B1 is irradiated on the sample 4 to form an image on the detection surface of the electron beam detector 30. Cathode lens 21, first aligner 22, aperture stop AS, e-cross bee 23, stigmator 24, imaging lens front group 25, second aligner 26, stigmator 27, field of view in order from the sample 4 side vertically upward A stop FS2, an imaging lens rear group 28, and a third aligner 29 are arranged.
[0017]
The field stop FS2 provided in the mapping optical system 20 is set in a positional relationship conjugate with the object plane of the sample 4 with respect to the cathode lens 21 and the imaging lens front group 25. The imaging lens front group 25 and the imaging lens rear group 28 of the mapping optical system 20 are electronic lenses, and for example, a circular lens, a quadrupole lens, an octupole lens, or the like is used. The cathode lens 21, the imaging lens front group 25, and the imaging lens rear group 28 may be rotationally symmetric lenses called unipotential lenses or Einzel lenses. Further, the convergence characteristics of the cathode lens 21, the imaging lens front group 25, and the imaging lens rear group 28 included in the mapping optical system 20 with respect to the secondary electron beam B2, that is, the focal position of the secondary electron beam B2, is determined by the applied voltage. It changes by changing. Further, the deflection characteristic and the convergence characteristic of the e-cross bee 23 with respect to the illumination beam B1 and the secondary electron beam B2 are changed by changing the applied voltage or current.
[0018]
Further, an electron beam detector 30 is disposed in the vertical upward direction of the third aligner 29 provided in the mapping optical system 20. A secondary electron beam B2 emitted when the sample 4 is irradiated with the electron beam B1 is formed on the detection surface of the electron beam detector 30 by the mapping optical system 20. Here, the electron beam detector 30 includes an MCP (Micro Channel Plate) 31 for amplifying electrons, and a fluorescent plate as conversion means for converting an image formed on the detection surface of the electron beam detector 30 into an optical image. 32 and a vacuum window 33 for emitting light converted by the fluorescent screen to the outside of the secondary column 2 kept in a vacuum state. The light emitted from the electron beam detector 30, that is, the optical image of the sample 4 is transmitted through the relay lens 34, and the imaging device 35 of a TDI (Time-Delay-Integration) array CCD (Charge Coupled Device). Is incident on the imaging surface. The electron beam detector 30, the relay lens 34, and the image pickup device 35 correspond to the image pickup means in the present invention. In addition, since the detection surface of the electron beam detector 30 is optically conjugate with the detection surface of the electron beam detector 30 by the relay lens 34, hereinafter, the detection surface of the electron beam detector 30 is simply referred to as the detection surface. Both the surface and the imaging surface of the imaging device 35 are meant.
[0019]
Here, the configuration of the image sensor 35 will be described. FIG. 2 is a functional block diagram showing a configuration example of a TDI array CCD as the image sensor 35. The TDI array CCD shown in FIG. 2 has a line-shaped CCD pixel array by arranging 1024 pixels C1 to C1024 in the horizontal direction (X-axis direction in FIG. 2), and further in the vertical direction (FIG. 2 in the Y-axis direction), and 256 CCD pixel rows R1 to R256 are arranged. The CCD pixels are arranged at equal intervals in the row direction and the column direction, and the timing for converting the image formed on the imaging surface by each CCD pixel is set to be the same. Note that the interval in which the pixels are arranged in the row direction may be different from the interval in which the pixels are arranged in the column direction. The accumulated charges on the pixels arranged in each of the CCD pixel rows R1 to R256 are transferred by one CCD pixel row in the vertical direction at a time by one vertical clock signal supplied from the outside.
[0020]
Among images formed on the imaging surface of the image sensor 35, an image captured by the CCD pixel array R1 at a certain time moves in the vertical direction by one CCD pixel array, and a vertical clock signal is given in synchronization therewith. The pixel signals accumulated in each pixel of the CCD pixel row R1 are transferred to the CCD pixel row R2. In the CCD pixel row R2, since the same image as the image taken in the CCD pixel row R1 is picked up before the vertical clock signal is given, the charge of the image accumulated in the CCD pixel row R2 is doubled. Subsequently, when the image further moves in the vertical direction by one CCD pixel column and a synchronization clock signal is given, the accumulated image is transferred to the CCD pixel column R3, where three times the image charge is accumulated. When the transfer and imaging of the charge to the CCD pixel row R256 are repeated following the movement of the image in order, the result of accumulating 256 times the charge first accumulated in the CCD pixel row R1 is horizontal. The pixel signal is output serially from the output register HR. Here, the pixels included in the imaging device 35 are arranged at equal intervals in the horizontal direction (X-axis direction in FIG. 2) and the vertical direction (Y-axis direction in FIG. 2).
[0021]
A control unit 36 is connected to the image sensor 35. The control unit 36 serially reads out pixel signals output from the image sensor 35 and sequentially outputs them to the main control system 37. The main control system 37 performs image processing such as template matching on the pixel signal output from the control unit 36 to determine the presence or absence of a defect in the sample 4. The main control system 37 outputs control signals to the illumination optical system control unit 38 and the mapping optical system control unit 39 to control the optical characteristics of the illumination optical system 11 and the mapping optical system 20 and to control the electromagnetic wave of the e-cross bee 23. Boundary control is performed. If the image signal output from the control unit 36 to the main control system 37 is displayed on a display device such as a CRT (Cathod Ray Tube), the image of the sample 4 is displayed on the display device.
[0022]
Next, the configuration in the chamber 3 will be described. Inside the chamber 3, an xy stage 40 configured to be movable in an xy plane set substantially parallel to a horizontal plane in a state where the sample 4 is placed is disposed. An L-shaped movable mirror 41 is attached to one end on the xy stage 40, and a laser interferometer 42 is disposed at a position facing the mirror surface of the movable mirror 41. Although shown in a simplified manner in FIG. 1, the movable mirror 41 includes a plane mirror having a reflecting surface perpendicular to the x axis and a plane mirror having a reflecting surface perpendicular to the y axis. The laser interferometer 42 includes two x-axis laser interferometers that irradiate the moving mirror 41 with a laser beam along the x-axis and a y-axis laser that irradiates the movable mirror 41 with a laser beam along the y-axis. The x coordinate and the y coordinate of the xy stage 40 are measured by one laser interferometer for the x axis and one laser interferometer for the y axis. Further, the rotation angle of the xy stage 40 in the xy plane is measured based on the difference between the measurement values of the two x-axis laser interferometers.
[0023]
The measurement result of the laser interferometer 42 is output to the main control system 37. The main control system 37 outputs a control signal to the driving device 43 based on the measurement result, and controls the position of the xy stage 40 in the xy plane. To do. Although not shown in the drawing, in addition to the xy stage 40, a z stage that can change the position of the sample 4 in the z-axis direction (vertical direction) and a tilt that controls the inclination of the object surface of the sample 4 with respect to the xy plane. It is preferable to provide a stage.
[0024]
In addition to the above-described configuration, the surface state observation apparatus according to the present embodiment includes a storage device 44 as a storage unit that stores a distortion aberration amount of the mapping optical system 20 obtained in advance from a design value of the mapping optical system 20 or an actual measurement value, and a sample. 4 is provided with an input device 45 as input means for inputting the pitch of the pattern formed in the pattern 4. The storage device 45 is realized by an external storage device such as a hard disk, and the input device 45 is realized by a keyboard and a mouse. Note that the storage device 44 does not store only the amount of distortion of the mapping optical system 20, but also information about the magnification of the mapping optical system 20 and the image sensor 35 (for example, the shutter provided in the image sensor 35 is in an open state). A certain time and the number of pixels in the row direction and the column direction) are stored.
[0025]
The pitch of the pattern input from the input device 45 is output to the main control system 37, and the main control system 37 detects the detection surface (and thus imaging) according to the distortion amount of the mapping optical system 20 based on the value from the input device 45. The moving speed of the stage 20 is calculated so as not to reduce the resolution reduction caused by the image shift amount generated on the imaging surface of the element 35 as much as possible. Details of this calculation method will be described later. The main control system 37 corresponds to the control means and calculation means referred to in the present invention.
[0026]
The schematic configuration of the surface state observation apparatus according to the embodiment of the present invention has been described above. Next, the trajectories of the illumination beam B1 and the secondary electron beam B2 of the surface state observation apparatus according to the embodiment of the present invention will be described in detail. explain. FIG. 3 is a diagram showing the trajectory of the illumination beam B1 of the surface state observation apparatus according to the embodiment of the present invention. In FIG. 3, in order to facilitate understanding, illustration of some of the members included in the illumination optical system 11 is omitted. The illumination beam B1 emitted from the thermionic emission electron gun 10 is focused and diverged by the influence of the electric field formed by the irradiation lenses 12, 13, and 14, as shown in FIG. Here, when the major axis direction of the rectangular chip of the thermionic emission electron gun 10 is set to the a-axis direction and the minor axis direction is set to the b-axis direction, the rectangular cathode is emitted to the cross section in the a-axis direction. The electron trajectory is denoted by the symbol P in FIG.aThe trajectory of electrons emitted in the cross section in the b-axis direction of the rectangular cathode is denoted by the symbol P in FIG.bIt becomes the orbit shown with.
[0027]
After being affected by the electric field by the irradiation lenses 12, 13, and 14, the illumination beam B1 enters the e-cross bee 23 from an oblique direction. When the illumination beam B1 enters the e-cross bee 23, its optical path is deflected in a direction substantially parallel to the vertical direction. The illumination beam B1 deflected by the e-cross beam 23 reaches the aperture stop AS, and forms a crossover image of the thermionic emission electron gun 10 at this position. The illumination beam B1 that has passed through the aperture stop AS passes through the first aligner 22 and is then subjected to the lens action by the cathode lens 21 to cause Koehler illumination of the sample 4.
[0028]
When the sample 4 is irradiated with the illumination beam B1, the sample 4 includes secondary electrons, reflected electrons, and backscattered electrons having a distribution according to the surface shape, material distribution, potential change, and the like of the sample 4. An electron beam B2 is generated. Among these, the secondary electron beam B2 mainly composed of secondary electrons becomes an observation electron beam. The initial energy of the secondary electron beam B2 is low, about 0.5 to 2 eV. Next, the trajectory of the secondary electron beam B2 generated from the sample 4 will be described. FIG. 4 is a diagram showing the trajectory of the secondary electron beam B2 of the surface state observation apparatus according to the embodiment of the present invention. In FIG. 4, some members of the mapping optical system 20 are not shown for easy understanding.
[0029]
The secondary electron beam B2 emitted from the sample 4 sequentially passes through the cathode lens 21, the first aligner 22, the aperture stop AS, and the e-cross bee 23 included in the mapping optical system 20. When the secondary electron beam B2 passes through the e-cross bee 23, it is converged by the imaging lens front group 25 and forms an image of the sample 4 at the position of the field stop FS2. The secondary electron beam B2 that has passed through the field stop FS2 is converged again by the imaging lens rear group 28, and an enlarged image of the object surface of the sample 4 is formed on the detection surface of the electron beam detector 30. At this time, when distortion aberration remains in the mapping optical system 20, the image formed on the detection surface reflects the distortion aberration. When the secondary electron beam B2 enters the electron beam detector 30, the number of electrons is first amplified by the MCP 31, and then enters the fluorescent plate 32 to be converted into photons. The optical image converted by the fluorescent plate 32 forms an image on the imaging surface of the image sensor 35 via the relay lens 34. At this time, since the size of the image of the sample 4 on the fluorescent plate 32 is larger than the image pickup surface of the image pickup device 35, the relay lens 34 is set to reduce the optical image converted by the fluorescent plate 32 at a predetermined magnification. .
[0030]
Next, the e-cross bee 23 provided in the surface state observation apparatus according to the embodiment of the present invention will be described in detail. FIG. 5 is a diagram for explaining the configuration and operation principle of the e-cross bee 23 provided in the surface state observation device according to the embodiment of the present invention. FIG. 5A is a perspective view showing the configuration of the e-cross bee 23. As shown in FIG. 5A, after the illumination beam B 1 emitted from the thermionic emission electron gun 10 is converged by the lens action by the illumination optical system 11 and enters the e-cross bee 23. The orbit (optical path) is bent by the deflection action of the e-cross bee 23. This is because, as shown in FIG. 5B, when an electron of charge q (illumination beam B1) travels in the + z direction at a velocity v in an electric field E and a magnetic field B orthogonal to each other, the −x direction. Force F by electric field acting onE(= QE) and force F by magnetic fieldBThis is to receive the resultant force with (= qvB). Thereby, the trajectory of the illumination beam B1 is bent in the zx plane.
[0031]
On the other hand, the secondary electron beam B2 generated from the sample 4 irradiated with the illumination beam B1 is subjected to the lens action by the cathode lens 21, passes through the aperture stop AS arranged at the focal position of the cathode lens 21, and is -After entering the cross bee 23, go straight through the e-cross bee 23. This is due to the following reason. As shown in FIG. 5C, when an electron of charge q (secondary electron beam B2) travels in a −z direction at a velocity v in an electric field E and a magnetic field B orthogonal to each other, Force F by working electric fieldEAnd the force F caused by the magnetic field acting in the + x directionBReceive the combined power of. At this time, the force F by the electric fieldEAnd force F by magnetic fieldBAre set to be equal (E = vB), that is, to satisfy the Vienna condition. Therefore, the force F due to the electric fieldEAnd force F by magnetic fieldBAnd the apparent force received by the secondary electron beam B2 is zero, and the secondary electron beam B2 travels straight through the e-cross bee 23. As described above, the e-cross bee 23 has a function as a so-called electromagnetic prism that selects the optical path of the passing electron beam.
[0032]
The configuration of the surface state observation device according to the embodiment of the present invention has been described above. The conventional general surface state observation apparatus moves the xy stage 40 in a certain direction (this book) in synchronization with the timing for converting the image formed on the imaging surface of the image sensor 35 into an electrical signal and the timing for transferring the converted electrical signal. In the embodiment, the scanning is basically performed at a constant speed in the y direction). However, in the surface state observation apparatus according to the embodiment of the present invention, in order to improve the resolution, the timing at which the imaging element 35 converts the image formed on the imaging surface into an electrical signal, and the moving speed of the xy stage 40 (and eventually) The moving speed of the xy stage 40 is controlled so that the moving speed of the image on the detection surface becomes asynchronous.
[0033]
More specifically, in the present embodiment, the moving speed of the xy stage 40 is controlled so that the OTF (Optical Transfer Function) is maximized. Here, OTF is a concept for evaluating the image transmission performance of an optical system such as the imaging characteristics of a lens. In short, an image of an object having a spatial frequency f on the object surface is formed on the image plane by the optical system. It is the spatial frequency characteristic of the image obtained when it is made to do.
[0034]
The OTF is a function of the spatial frequency on the imaging surface of the image sensor 35 and has a distribution. In this embodiment, the OTF has a spatial frequency on the imaging surface corresponding to the pitch of the pattern formed on the sample 4. The moving speed of the xy stage 40 is controlled so that the OTF is maximized. Here, the decrease in resolution due to the distortion of the mapping optical system 20 is more remarkable in the scanning direction (y direction) than in the non-scanning direction (x direction). Therefore, even when OTF is considered, the xy stage 40 is set so that the OTF at the spatial frequency in the direction corresponding to the pitch in the y direction (Y direction on the imaging surface of the imaging device 35 (see FIG. 2)) is maximized. The movement speed is controlled. Hereinafter, an example of a method for controlling the moving speed of the xy stage 40 will be described in detail.
[0035]
Now, the coordinate system shown in FIG. 6 is set. FIG. 6 is a diagram illustrating an XY coordinate system in which the xy coordinate system set on the surface of the sample 4 is set on the imaging surface of the image sensor 35. In FIG. 6, reference numeral 35a denotes an imaging surface. In the following description, when the timing at which the image sensor 35 converts an image formed on the imaging surface 35a into an electrical signal and the moving speed of the xy stage 40 are synchronized, [1] the mapping optical system 20 is distorted. A signal obtained from the image sensor 35 when there is no aberration is obtained, [2] a signal obtained from the image sensor 35 when the distortion of the mapping optical system 20 is taken into account, and [3] from the image sensor 35. Obtain the OTF of the resulting signal. Finally, [4] the moving speed of the xy stage 40 that maximizes the OTF is obtained. Note that in the case of [4], the timing at which the image sensor 35 converts the image formed on the imaging surface into an electrical signal and the moving speed of the xy stage 40 are asynchronous.
[0036]
[1] A signal obtained from the image sensor 35 when it is assumed that the mapping optical system 20 has no distortion.
Assuming that the mapping optical system 20 has no distortion, assuming that the magnification of the mapping optical system 20 is β (here, generally β> 1), the xy coordinate system and the XY coordinate system shown in FIG. Is expressed by the following equation (1).
[Expression 1]
Figure 0003986801
Assuming that the pattern formed on the sample 4 is O (x, y), this pattern O (x, y) can be expressed using the XY coordinate system from the above equation (1). If the moving speed in the y direction is v, it is expressed by the following equation (2).
[Expression 2]
Figure 0003986801
[0037]
Next, a pixel signal output from the image sensor 35 will be considered. First, a signal output from one pixel among a plurality of pixels included in the image sensor 35 will be considered. FIG. 7 is a diagram illustrating an example of an array of pixels included in the image sensor 35. Now, as shown in FIG. 7, the X-direction pixels of the image sensor 35 are the first to m-th m pixels, the Y-direction pixels are the first to n-th n pixels, and the X-direction pixels Consider the output from the p (1 ≦ p ≦ m) th pixel and the q (1 ≦ q ≦ n) th pixel in the Y direction (the hatched pixel in FIG. 7). Further, it is assumed that the sensitivity characteristics of the respective pixels are all equal, and this sensitivity characteristic is represented by a function g (X, Y). FIG. 8 is a diagram illustrating an example of the sensitivity characteristic function g (X) in which the position in the Y direction is set at the center of the pixel. As shown in FIG. 8, the sensitivity characteristic function g (X) is a function having a value only in the pixel aperture. Note that the sensitivity characteristic function g (Y) is also a function having a value only in the opening as in FIG.
[0038]
Here, if a part of the pattern image formed on the sample 4 at the time t is on the target pixel, the signal g ′ (Xp, Yq, T) is expressed by the following equation (3) using the sensitivity characteristic function g (X, Y). In the present specification, when the integration range is not explicitly specified in the integration range in the mathematical formula, the integration is performed from −∞ to ∞.
[Equation 3]
Figure 0003986801
By the way, the image pickup device 35 is provided with a shutter for each pixel, and converts an optical image of a pattern into an electric signal only when the shutter is open. Therefore, let Δt be the time during which the shutter is open, and consider the function Ω (t) shown in the following equation (4).
[Expression 4]
Figure 0003986801
The function Ω (t) expressed by the above equation (4) has a value “1” only during Δt when the shutter is in the open state, and has a value “0” during the time when the other shutters are in the closed state. It is a function. Therefore, the time t after considering the shutterkThe signal g ″ (Xp, Yq, Tk) Is expressed by the following equation (5).
[Equation 5]
Figure 0003986801
[0039]
Next, consider a signal that considers all the pixels of the image sensor 35. As described above, the image sensor 35 integrates and outputs the signals converted by the pixels arranged in the Y-axis direction. Here, since the timing when the image sensor 35 converts the image formed on the imaging surface into an electrical signal and the moving speed of the xy stage 40 are synchronized, the Y coordinate can be expressed by time. . Consider a case where an image of an arbitrary point P on the sample 4 is moving in the Y direction on the imaging surface 35a of the imaging device 35. Note that in this case, the image of the point P moves on the same column of the image sensor 35.
[0040]
If the time at which the image of the point P crosses (passes through) the row arranged at the center of the imaging surface 35a is T, the pixel at the position shifted by q pixels from the row in the Y direction is the point P. The time when the image passes is T + tqIt becomes. Tq= (Yq/ Β) / v. For this reason, at time T, the signal s (Xp, T) is expressed by the following equation (6).
[Formula 6]
Figure 0003986801
Signal s (X) output from the image sensor 35 shown in the above equation (6)p, T) has a discrete value in the X direction, which is inconvenient to handle in analyzing OTF described later. For this reason, when transformed into the equation S (X, T) using the continuous variable X, the following equation (7) is obtained.
[Expression 7]
Figure 0003986801
Δ (X−X) on the right side in the equation (7)p) Is a Dirac δ function. The above expression (7) is an expression showing a signal output from the image sensor 35 when the mapping optical system 20 has no distortion.
[0041]
[2] Signal obtained from the image sensor 35 when the distortion of the mapping optical system 20 is taken into consideration
In the above [1], the case where there is no distortion with the magnification β of the mapping optical system 20 as a constant was considered. In this case, an image obtained by enlarging or reducing the pattern formed on the sample 4 is formed on the imaging surface 35 a of the imaging element 35. However, when the mapping optical system 20 has distortion, the image on the imaging surface 35a is distorted. This image distortion can be interpreted as a local magnification variation of the mapping optical system 20. Therefore, the distortion is captured assuming that the magnification of the mapping optical system 20 differs according to the position in the xy coordinates, and the above-described equation (1) is expressed by the following equation (8).
[Equation 8]
Figure 0003986801
As described above, if the magnification of the mapping optical system 20 differs depending on the position in the xy coordinates, the magnification β in the above equation (8).x, ΒyIs a function of x and y, but the magnification βx, ΒyAs a function of X and Y, the result is the same. Therefore, in consideration of facilitating the following handling, in the above equation (8), the magnification βx, ΒyIs a function of X and Y.
[0042]
When the relationship between the xy coordinate system and the XY coordinate system is the relationship shown in the above equation (8), the image formed on the imaging surface of the image sensor 35 solves the equation (8) for each of x and y. Substituting this equation into the equation O (x, y) indicating the pattern on the sample 4, and further considering the moving speed v in the y direction of the xy stage 40, the following equation (9) is obtained.
[Equation 9]
Figure 0003986801
A signal s output from the image sensor 35 when the distortion of the mapping optical system 20 is taken into account.d(Xp, T) is obtained by substituting the formula O (X / β, Y / β−v · t) in the formula (5) for the formula (9) into the formula (6) below. It is obtained according to the formula.
[Expression 10]
Figure 0003986801
Finally, as in the case of [1] above, the following equation (11) is obtained by transforming into an equation using a continuous variable X in order to facilitate handling in analyzing the OTF described later.
## EQU11 ##
Figure 0003986801
[0043]
[3] Calculation of OTF of signal obtained from image sensor 35
Hereinafter, the OTF of the signal obtained from the image sensor 35 can be obtained by performing Fourier transform on the signal output from the image sensor 35 represented by the above equations (10) and (11). However, it is normally designed so that the distortion aberration of the mapping optical system 20 is minimized. Therefore, in the following, the equation is simplified assuming that the distortion is small, and then the OTF is calculated.
[0044]
Simplification of formula (a)
Since the distortion of the mapping optical system 20 is small, the magnification β shown in the equation (8)x(X, Y), βy(X, Y) is considered to be very close to the constant magnification β used in [1]. For this reason, the magnification βx(X, Y), βy(X, Y) is represented by the following equation (12).
[Expression 12]
Figure 0003986801
Here, D in the above equation (12)x(X, Y), Dy(X, Y) is Dx(X, Y) << 1, Dy(X, Y) << 1.
[0045]
Next, the magnification shown in the above equation (12), βx(X, Y), βy(X, Y) is applied to the equation (10). Here, the variable conversion shown in the following equation (13) is performed. In the following formula, the magnification β is used for simplification of the formula.x(X, Y), βy(X, Y) to βx, ΒyRespectively.
[Formula 13]
Figure 0003986801
In the variable conversion shown in the equation (13), the value of the X coordinate and the value of the Y coordinate that define the position of the image on the imaging surface 35a shown in the equation (9) are converted into variables X ′ and Y ′, respectively. Therefore, a coordinate system (X ′, Y ′) that moves with the movement of the image that moves on the imaging surface 35a of the image sensor 35 is set. Note that L in the equation (13) indicates an offset amount (distance) in the Y direction between the origin of the X′Y ′ coordinate system and the qth pixel. When the variable conversion shown in the above equation (10) is performed, the integral element dXdYdt in the equation (10) becomes dXdYdt = (1 / | A |) dX′dY′dL. Here, A is represented by the following equation (14).
[Expression 14]
Figure 0003986801
[0046]
Here, when | A | is calculated, the following equation (15) is obtained.
[Expression 15]
Figure 0003986801
In deriving equation (15), equation (12) is used and Dx(X, Y), DyThe second and higher order terms of (X, Y) are ignored. Each equation in equation (13) is solved for t, X, and Y and substituted into equation (10), equation (12) is substituted into equation (10), and dXdYdt = (1 / | A | ) When the expression (10) is expressed using the relationship dX′dY′dL, the following expression (16) is obtained.
[Expression 16]
Figure 0003986801
[0047]
By the way, as described above, the function g indicating the sensitivity characteristic of each pixel included in the image sensor 35 is a function having a value only within the aperture of the pixel. Therefore, also in the above equation (16), the sensitivity function g is Dx(X, Y), DyAssuming that (X, Y) is extremely small, it has a value only in a very close region where the following expression (17) holds for the p-th pixel in the X direction and the q-th pixel in the Y direction. become.
[Expression 17]
Figure 0003986801
Further, D in the value of the X coordinate of the sensitivity function g in the above equation (16)xAs for (X, Y) · X ′, the second and subsequent items can be ignored when expanded around the coordinates (X ′, Y ′) where the above equation (17) is established. ).
[Expression 18]
Figure 0003986801
[0048]
Similarly, D in the value of the X coordinate of the sensitivity function in the above equation (16)y(X, Y) · (Y ′ + L−v · tq) Can also be approximated by the following equation (19).
[Equation 19]
Figure 0003986801
Further, for the same reason, | A (X, Y) | can be approximated as the following equation (20).
[Expression 20]
Figure 0003986801
[0049]
Substituting the above approximate expressions (18) to (20) into expression (16) yields the following expression (21).
[Expression 21]
Figure 0003986801
This equation (21) represents an approximate value of a signal output from the image sensor 35 when the mapping optical system 20 has distortion.
[0050]
(B) Fourier component of signal
Next, when there is residual aberration in the mapping optical system 20, the signal S output from the image sensor 35.dConsider the Fourier component of (X, T). Now, signal SdFS Fourier transform of (X, T)dAssuming (μ, ν), this equation is expressed by the following equation (22).
[Expression 22]
Figure 0003986801
Here, as can be seen by referring to the equation (11), the equation Sd(X, T) is a comb function (comb function) and an expression sdSince it is a product of (X, T), its Fourier transform isdFourier transform of (X, T), comb function, and formula FSdThis is a convolution of (μ, ν). Thus, the expression sdThe Fourier transform of (X, T) is FsdIf (μ, ν), then the formula FSd(Μ, ν) can be modified as shown in the following equation (23).
[Expression 23]
Figure 0003986801
[0051]
Referring to equation (23) above, equation FSd(Μ, ν) is the expression sdAs can be seen from the Fourier transform of Therefore, the expression sdConsider. Here, paying attention to the above equation (21), the region where the sensitivity function g included in the equation has a value is a very narrow region as described above. In addition, regarding the expression O indicating the pattern formed on the sample 4, a very fine pattern is considered when discussing the resolution. Therefore, the region where the function O has a value is also a very narrow region. Therefore, the above equation (21) is also an equation having a value only in a limited region. In such a limited region, it is considered that the amount of change in distortion in the X direction is small. That is, D in the above equation (21)x(Xp, Yq) ・ (Xp/ Β) and Dy(Xp, Yq) ・ (Xp/ Β) is assumed to be small, and with respect to the X direction, the same value is assumed for all the pixels arranged in the p-th column, and the coordinates in the Y direction are Depends only on. In the equation (24), δxp, ΔypNote that is not a δ function.
[Expression 24]
Figure 0003986801
Also, | A (Xp, XqFor the same reason,) | is regarded as a constant in the X direction, and is approximated as in equation (25).
[Expression 25]
Figure 0003986801
[0052]
Using the approximation shown in the above equations (24) and (25), the equation sd(Xp, T) is simplified. Now, the function G shown in the following equation (26)qDefine (X, Y).
[Equation 26]
Figure 0003986801
This function GqWhen (21) is expressed using (X, Y), the following (27) is obtained. In the equation (27), d indicates the pixel pitch.
[Expression 27]
Figure 0003986801
Here, as shown in the equation (27), the equation sd(X, T) is the function GqIt is expressed in the form of a convolution of (X, Y) and a function O (X ′, Y ′), and further a convolution with Ω (T). Where function GqIn other words, it is an expression indicating the sensitivity of each pixel provided in the image sensor 35, and the function O (X ′, Y ′) is an expression indicating the pattern image of the sample 4 formed on the imaging surface, and Ω (T) is an expression indicating the shutter speed of each pixel.
[0053]
When the Fourier transform of the above equation (27) is obtained, the following equation (28) is obtained. In the equation (28), FΩ is the Fourier transform of the equation Ω, and FO is the Fourier transform of the equation O.
[Expression 28]
Figure 0003986801
[0054]
Furthermore, if the Fourier transform of the sensitivity function g is Fg, the function G shown in the equation (26)qThe Fourier transform of (X, Y) is given by the following equation (29).
[Expression 29]
Figure 0003986801
Therefore, when the above equation (29) is substituted into the above equation (28) and the Fourier transform of the point image is considered as OTF, the OTF is expressed by the following equation (30).
[30]
Figure 0003986801
[0055]
In (30) above, the part shown in the following equation (31) relates to the distortion of the mapping optical system 20.
[31]
Figure 0003986801
The above equation (31) represents the OTF when distortion aberration exists in the mapping optical system 20.
[0056]
[4] Movement speed of xy stage 40 that maximizes OTF
In the above discussions [2] and [3], in the state where the timing at which the image sensor 35 converts the image formed on the imaging surface into an electrical signal and the moving speed of the xy stage 40 are synchronized, the mapping optical system The degradation of OTF caused by 20 residual aberrations was discussed. Hereinafter, a method of obtaining an asynchronous amount for maximizing the OTF with the timing at which the image formed by the imaging element 35 is converted into an electrical signal and the moving speed of the xy stage 40 being asynchronous will be described.
[0057]
In the present embodiment, the timing at which the image sensor 35 converts an image formed on the image pickup surface into an electrical signal is fixed, and the moving speed of the xy stage 40 is changed to change the image formed on the image pickup surface 35. The timing for converting to an electrical signal and the moving speed of the xy stage 40 are asynchronous. The OTF obtained in the synchronized state (when the movement speed of the xy stage 40 is v) can be obtained from the above equation (31). Therefore, consider the OTF when the moving speed of the xy stage 40 is changed from v to a speed v ′ changed by δv as shown in the following equation (32).
[Expression 32]
Figure 0003986801
[0058]
Substituting the above equation (32) into the equation (30) and setting the velocity of the xy stage 40 to v ′, OTF ′ (μ, ν) obtained by the following equation (33). At this time, Yq= Β ・ v ・ tqWas used.
[Expression 33]
Figure 0003986801
Here, the above expression (33) includes both OTFs in the non-scanning direction (X direction) and the scanning direction (Y direction), and only in the scanning direction (Y direction).YWhen ′ is extracted, it is expressed by the following equation (34).
[Expression 34]
Figure 0003986801
[0059]
In the above equation (34), by selecting δv optimally, OTFY′ Can be made closer to 1 (maximum). From the above, in the present embodiment, δv in the equation is obtained so that the value of the following equation (35) is maximized.
[Expression 35]
Figure 0003986801
The above equation (35) is the amount of distortion β in the Y direction according to the magnification β of the mapping optical system 20 and the position of the pixel in the Y direction when there is no distortion.yqThe time Δt during which the shutter provided in each pixel of the image sensor 35 is open, the position q of the pixel in the Y direction, the timing at which the image formed on the imaging surface by the image sensor 35 is converted into an electrical signal, and the xy stage 40 A change δv of the speed of the stage 40 when the movement speed of the pattern is made asynchronous, the spatial frequency ν of the pattern formed on the sample 4, and ApqIs an expression comprising In this equation, the magnification β, the amount of distortion δyqAnd the time Δt during which the shutter is open is determined by the apparatus. Therefore, in order to prevent a decrease in resolution due to the influence of distortion in the Y direction, it is necessary to determine δv according to the pitch of the pattern formed on the sample 4.
[0060]
As described above, in the surface state observation apparatus according to the embodiment of the present invention, the method for maximizing the OTF, that is, the method for preventing the decrease in the resolution has been described. Next, the stage obtained by the method obtained by using the above method The OTF obtained when the stage is moved at a moving speed and the timing at which the image sensor 35 converts the image formed on the imaging surface into an electrical signal and the moving speed of the xy stage 40 are asynchronous, and the image sensor 35. A simulation result of OTF obtained when the image formed on the imaging surface is converted into an electrical signal and the movement speed of the xy stage 40 is asynchronous will be described.
[0061]
As preparation for explaining the simulation result, the distortion assumed in this embodiment will be described. Although how the distortion aberration is generated varies depending on the mapping optical system 20, generally, in the mapping optical system 20 that observes a narrow field of view as in the surface state observation apparatus of the present embodiment, lower order components are dominant. For this reason, distortion of the third order or less is considered here. Further, it is assumed that the mapping optical system 20 is configured to be rotationally symmetric with respect to the optical axis, and therefore distortion is also rotationally symmetric with respect to the optical axis. Now, as shown in FIG. 9, on the surface of the sample 4, a point at a distance r represented by the following expression (36) from the intersection with the optical axis of the mapping optical system 20 is imaged by the distortion aberration of the mapping optical system 20. It is assumed that an image is formed on the surface 35a at a position R from the optical axis. FIG. 9 is a diagram showing a relationship between a point at a distance r from the optical axis and a position R at which this point forms an image due to the influence of distortion.
[Expression 36]
Figure 0003986801
[0062]
Here, considering the distortion aberration up to the third order, the relationship between r and R is expressed by the following equation (37).
[Expression 37]
Figure 0003986801
Further, when r and R are represented by vector components and their relationship is expressed, the following equation (38) is obtained. In the following equation (38), the coordinates of R are (X, Y) and the coordinates of r are (x, y).
[Formula 38]
Figure 0003986801
Furthermore, the both sides of the above equation (37) are squared and r2Solve for (39)
[39]
Figure 0003986801
Substituting the above equation (39) into equation (38), (βThree/ Β1) ≪ Considering 1, (βThree/ Β1If the second or higher order of) is ignored, the following equation (40) is obtained.
[Formula 40]
Figure 0003986801
[0063]
Comparing the above equation (40) and equation (12), when distortion up to the third order is considered, β, D in equation (12)x(X, Y), Dy(X, Y) is expressed by the following equation (41).
[Expression 41]
Figure 0003986801
Also for | A |, if the above equation (41) is substituted into equation (15), the following equation (42) is obtained.
[Expression 42]
Figure 0003986801
In the simulation shown below, β and D in the equation (41)x(X, Y), DyOTF is evaluated using | A | in the formulas (X, Y) and (42). The size of the image sensor 35 in the scanning direction (Y direction) is 8.2 mm, the size in the non-scanning direction (X direction) is 38.5 mm, and the pitches of the pixels included in the image sensor 35 in the X direction and Y direction are set. Both are 16 μm.
[0064]
First, for comparison, a state in which the timing at which the image sensor 35 converts an image formed on the imaging surface into an electric signal and the moving speed of the xy stage 40 are synchronized is simulated. FIG. 10 is a simulation result obtained in a state where the timing at which the image sensor 35 converts an image formed on the imaging surface into an electric signal and the moving speed of the xy stage 40 are synchronized. In this simulation, it is assumed that a distortion of 0.4% occurs in the outermost periphery of the image sensor 35. 10 is an MTF curve in the X direction obtained at the periphery of the imaging surface 35a, and the curve denoted by C11 is an MTF curve in the Y direction obtained at the center position of the imaging surface 35a. A curve denoted by reference numeral C12 is an MTF curve in the Y direction obtained around the imaging surface 35a.
[0065]
FIG. 11 is a diagram showing a shift amount of the image on the image pickup surface 35a of the image pickup element 35 caused by distortion of the mapping optical system 20 with respect to the pixels. In FIG. 11, the curve denoted by reference numeral D10 indicates the amount of deviation of the image in the X direction around the imaging surface 35a, and the curve denoted by reference numeral D11 indicates the amount of displacement of the image in the Y direction at the center of the imaging surface 35a. The curve with the symbol D12 indicates the amount of image shift in the Y direction around the imaging surface 35a. As can be seen from FIGS. 10 and 11, the MTF in the scanning direction (Y direction) is worse than the influence of distortion in the non-scanning direction (X direction) orthogonal to the scanning direction (Y direction). Here, in the state where the timing at which the image sensor 35 converts the image formed on the imaging surface into an electric signal and the moving speed of the xy stage 40 are synchronized, in the above-described equation (31), tq= Yq/ V relationship, so OTF in the X directionX(Μ, ν) and Y direction OTFY(X, Y) becomes the following equation (43).
[Expression 43]
Figure 0003986801
[0066]
Referring to the above equation (43), the sum is taken for q, which means that the signals of the respective pixels included in the image sensor 35 are added in the Y direction. However, δ in equation (43)xp, δyqEven if the value of is large, if these values are constant with respect to q, the OTF will not deteriorate. It is δ in the equation (43) that causes the OTF to deteriorate.xp, δyqIt is the difference by the position of. Here, the curve with the symbol D10 in FIG.xp, And the curve with reference D11 or D12 is δyqIs shown.
[0067]
Now, considering the relationship between FIG. 10 and FIG. 11, as shown in FIG.xpThe value of (curve D10) is δyq(Value of curve D11 or curve D12). However, when FIG. 10 is seen, there is almost no deterioration of the curve C10 which shows the MTF curve of the X direction obtained in the center position of the imaging surface 35a. On the other hand, as shown in FIG.yq(The value of the curve D11 or the curve D12) itself is small. However, δxpThe difference between the maximum value and the minimum value (difference between the curve D10) is about 3 μm, whereas the difference between the maximum value and the minimum value of the curve denoted by reference sign D12 is as large as about 32 μm. The result of the difference is reflected in FIG. 10, and the curve C12 that is the MTF curve in the Y direction obtained around the imaging surface 35a is deteriorated.
[0068]
Next, as in this embodiment, a case is simulated in which the timing at which the image sensor 35 converts the image formed on the imaging surface into an electrical signal and the movement speed of the xy stage 40 are asynchronous. FIG. 12 is a simulation result obtained in a state where the timing at which the image sensor 35 converts the image formed on the imaging surface into an electrical signal and the moving speed of the xy stage 40 are asynchronous. In this simulation, it is assumed that a distortion of 0.4% occurs in the outermost periphery of the image sensor 35, and δv is optimally selected in the equation (34). In FIG. 12, the curve with reference C20 is an MTF curve in the X direction obtained around the imaging surface 35a, and the curve with reference C21 is an MTF curve in the Y direction obtained at the center position of the imaging surface 35a. A curve with a symbol C22 is an MTF curve in the Y direction obtained around the imaging surface 35a.
[0069]
FIG. 13 shows an image pickup device that is caused by distortion of the mapping optical system 20 in a state where the timing at which the image pickup device 35 converts the image formed on the image pickup surface into an electric signal and the moving speed of the xy stage 40 are asynchronous. It is a figure which shows the deviation | shift amount with respect to the pixel of the image on the imaging surface 35a of 35. In FIG. 13, the curve denoted by reference sign D20 indicates the amount of image shift in the X direction on the image pickup surface 35a, and the curve indicated by reference sign D21 indicates the amount of image shift in the Y direction at the center of the image pickup surface 35a. The curve with the symbol D22 indicates the amount of image shift in the Y direction around the imaging surface 35a.
[0070]
As can be seen from FIG. 13, imaging is performed by obtaining δv that maximizes the value shown in the equation (35) according to the spatial frequency of the pattern formed on the sample 4 and setting the speed of the stage 40. When the asynchronous amount between the timing at which the element 35 converts the image formed on the imaging surface into an electric signal and the moving speed of the xy stage 40 is controlled, as shown by the curve with the reference symbol D21, the center of the imaging surface 35a is obtained. The difference in image shift amount in the Y direction becomes large. However, as shown by the curve with the symbol D22, the difference in the image shift amount in the Y direction around the imaging surface 35a is smaller than the curve D12 shown in FIG. In addition, the Y-direction obtained in the periphery of the imaging surface 35a is reduced in accordance with the decrease in the difference in the curve indicating the shift amount of the image in the Y-direction in the periphery of the imaging surface 35a indicated by reference numeral D22 in FIG. It can be seen that the deterioration of the MTF curve (MTF curve C22 in FIG. 12) is improved.
[0071]
As described above, the configuration of the surface state observation apparatus according to the embodiment of the present invention and the asynchronous amount control method which is a characteristic part of the present invention have been described. Next, the surface state observation apparatus according to the embodiment of the present invention having the above configuration will be described. The operation during observation will be described. First, when the sample 4 to be observed is placed on a loader (not shown), the sample 4 is transported into the chamber 3 shown in FIG. 1 by the loader. When the sample 4 is carried into the chamber 3, it is placed on the xy stage 40, and the main control system 37 drives the xy stage 40 via the driving device 43 to move the sample 4 to the measurement range. Next, the user operates the input device 45 to input the pitch to the pattern formed on the sample 4.
[0072]
When the pattern pitch is input from the input device 45, the main control system 37 sends the distortion aberration amount δ from the storage device 44 to the mapping optical system 20.ypThen, the magnification β of the mapping optical system 20, the time Δt during which the shutter provided in the image sensor 35 is open, the number of pixels in the row direction and the column direction of the image sensor 35, etc. are read out, and the above-described equation (35) is obtained. Δv that maximizes (this corresponds to the asynchronous amount in the present invention) is calculated. Here, the case where the surface state of the sample 4 shown in FIG. 14 is observed is considered. FIG. 14 is a diagram for explaining the operation when observing the surface state. Here, consider the case of observing the observation target region 4a of the sample 4 with diagonal lines.
[0073]
In the observation, the main control system 37 first outputs a control signal to the mapping optical system control unit 39 based on the measurement result of a Z sensor (not shown) to adjust the magnification of the second optical system 20 and is emitted from the sample 4. The focal position of the secondary electron beam B2 is set on the detection surface of the electron beam detector 30. Then, the main control system 37 causes the thermoelectron emission electron gun 10 to start emitting electrons, and the illumination optical system 11, the e-cross bee 23, the aperture stop AS, the first aligner 22, and the cathode lens 21. 14 irradiates the sample 4 with the illumination beam B1, and the xy stage 40 through the driving device 43 at a constant speed v + δv in consideration of δv obtained by the above-described processing, in a direction parallel to the Y-axis direction in FIG. 14 in the direction indicated by reference numeral d. By irradiating the specimen 4 with the illumination beam B1, the secondary electron beam B2 generated from the object plane of the specimen 4 is condensed by the mapping optical system 20, and the image is formed on the detection plane of the electron beam detector 30. To do. The light emitted from the electron beam detector 30, that is, the optical image of the sample 4 passes through the relay lens 34 and forms an image on the imaging surface of the imaging device 35 in which the pixels are arranged according to the distortion aberration of the mapping optical system 20. . The optical image formed on the imaging surface of the image sensor 35 is photoelectrically converted into a pixel signal by the image sensor 35.
[0074]
In FIG. 14, it is assumed that an area denoted by reference numeral 50 is an area imaged by the image sensor 35, and a linear area denoted by reference numeral R <b> 1 in the area 50 is imaged by the CCD pixel row R <b> 1 illustrated in FIG. It is assumed that the CCD pixel row R256 images a linear region denoted by reference numeral R256. If the observation is started from the state shown in FIG. 14, the optical image from the coordinates (X1, Y1) to (X1024, Y1) of the observation target region 4a is the CCD pixel row R1 of the TDI array CCD that forms the image sensor 35. In the case of photoelectric conversion, charges are accumulated. When the sample 4 moves in the −Y-axis direction, the region 50 imaged by the image sensor 35 moves in the direction indicated by the symbol d, and the region when the xy stage 40 is moved at the speed v. When the time that 50 has moved by one CCD pixel row has elapsed, one vertical clock signal is sent from the main control system 37 to the image sensor 35.
[0075]
When the vertical clock signal is transmitted, the charges accumulated in the CCD pixel row R1 of the image sensor 35 are transferred to the CCD pixel row R2. The optical image picked up by the CCD pixel row R1 before the vertical clock signal is sent is shifted from the position of the CCD pixel row R2 according to the distortion aberration of the mapping optical system 20 and the moving speed v + δv of the stage 40. Move to position. When there is no distortion in the mapping optical system 20 and the xy stage 40 moves at the speed v, the CCD pixel row R2 is imaged by the CCD pixel row R1 before the vertical clock signal is sent out. An optical image similar to the optical image is captured until the next vertical clock signal is sent. However, the position of the optical image is actually shifted due to the distortion of the mapping optical system 20. In this embodiment, in order to alleviate this positional shift, the moving speed of the xy stage 40 is set to v + δv, the timing at which each CCD pixel converts an optical image into an electrical signal, and the moving speed of the xy stage 40 (and thus the image sensor 35). The movement speed of the optical image on the imaging surface is asynchronous.
[0076]
Similarly, when the linear portion with R1 in the region 50 imaged by the CCD pixel row R1 reaches the position from (X1, Y256) to (X1024, Y256), the imaging is terminated. Sample images from (X1, Y1) to (X1024, Y1) begin to be output to the main control system 37 through the control unit 36 for the first time. Next, from the vertical clock signal sent out, sample images from (X1, Y2) to (X1024, Y2) are output to the main control system 37, and the images are sequentially acquired by the main control system 37. Observations are made.
[0077]
As described above, according to the surface state observation apparatus according to the embodiment of the present invention, the secondary electron beam B2 obtained by irradiating the sample 4 with the illumination beam B1 is caused by the optical characteristics of the mapping optical system 20. Thus, even when a positional deviation occurs on the imaging surface 35a of the imaging device 35, the timing at which each pixel of the imaging device 35 converts the optical image formed on the imaging surface into an electrical signal and the moving speed of the xy stage 40 are asynchronous. Therefore, the deterioration of the OTF can be improved by reducing the amount of positional deviation in the scanning direction (Y direction) of the optical image on the imaging surface, and as a result, the resolution can be improved. Further, according to the present embodiment, a TDI array CCD with high detection sensitivity is used as the image sensor 35. If the resolution can be improved by the above-described method using the TDI array CCD, the intensity of the detection signal There is an effect that high-resolution observation can be performed in a short time without lack.
[0078]
The surface state observation apparatus according to one embodiment of the present invention has been described above. However, the present invention is not limited to the above embodiment, and can be freely changed within the scope of the present invention. For example, in the above-described embodiment and other embodiments, the illumination beam B1 is used as the illumination beam, and secondary electrons, reflected electrons, and backscattered electrons obtained by irradiating the sample 4 with the illumination beam B1 are used. Although the case where the secondary electron beam B2 including at least one is photoelectrically converted by the fluorescent plate 32 and the converted optical image is picked up by the image pickup device 35 has been described as an example, for example, an ion beam may be used instead of the electron beam Alternatively, an optical image obtained by irradiating the sample 4 with light in the visible region may be directly captured by the image sensor 35. In this case, the mapping optical system 20 includes an optical lens. However, in order to completely correct the distortion of the mapping optical system 20, it is necessary to increase the number of optical lenses constituting the mapping optical system 20. Therefore, it is possible to observe with high resolution without increasing the size of the apparatus. When light is used as the illumination beam, the secondary beam is reflected light obtained by irradiating the object surface with light.
[0079]
In the above-described embodiment, the case where the illumination beam B1 is deflected using the e-cross bee 23 to irradiate the sample 4 and the secondary electron beam B2 generated from the sample 4 is caused to travel straight has been described. However, the present invention is not limited to this, and an electromagnetic prism that linearly moves the illumination beam B1 and deflects the secondary electron beam B2 may be used. Furthermore, this embodiment includes a so-called plane-to-plane projection optical system that illuminates the object surface of the sample with an electron beam from a radiation source and forms an image on the image plane. It can be easily applied not only as a single device but also to a semiconductor exposure device.
[0080]
Furthermore, in the above embodiment, the input device 45 is provided as an input means, and the pitch of the pattern formed on the sample 4 is input. However, the pattern formed on the sample 4 to be measured in advance is externally connected to a hard disk or the like. The movement speed of the stage 40 may be calculated by inputting the data into a storage device and reading the contents. In the above-described embodiment, the xy stage 40 is moved. However, a deflection apparatus that fixes the stage on which the sample 4 is placed and deflects the secondary beam obtained by irradiating the sample 4 with the illumination beam B1. The image formed on the detection surface or the imaging surface may be moved relative to the detection surface or the imaging surface. Furthermore, in the above embodiment, the xy stage 40 is moved at a constant speed v + δv regardless of the position of the sample 4 in the xy coordinate system, but the moving speed of the xy stage 40 is set according to the distortion aberration of the mapping optical system 20. Variable control may be performed.
[0081]
Next, a method for manufacturing a microdevice according to an embodiment of the present invention will be described. FIG. 15 is a flowchart illustrating a manufacturing example of a micro device (a semiconductor chip such as an IC or LSI, a liquid crystal panel, a CCD, a thin film magnetic head, a micro machine, or the like). As shown in FIG. 15, first, in step S10 (design step), a function / performance design (for example, circuit design of a semiconductor device) of a micro device is performed, and a pattern design for realizing the function is performed. Subsequently, in step S11 (mask manufacturing step), a mask (reticle) on which the designed circuit pattern is formed is manufactured. On the other hand, in step S12 (wafer manufacturing step), a wafer is manufactured using a material such as silicon.
[0082]
Next, in step S13 (wafer processing step), as will be described later, an actual circuit or the like is formed on the wafer using lithography and the like using the mask and wafer prepared in steps S10 to S12. Next, in step S14 (device assembly step), device assembly is performed using the wafer processed in step S13. This step S14 includes processes such as a dicing process, a bonding process, and a packaging process (chip encapsulation) as necessary. Finally, in step S15 (inspection step), inspections such as an operation confirmation test and a durability test of the microdevice manufactured in step S14 are performed. In step S15, the surface state of the microdevice is observed by the surface state observation apparatus according to the embodiment of the present invention described above. After these steps, the microdevice is completed and shipped. The flow chart shown in FIG. 15 illustrates the case where the surface state of the microdevice is observed by the surface state observation apparatus according to the embodiment of the present invention after step S14. Before assembling, the surface state of the wafer that has been processed through step S13 may be appropriately observed.
[0083]
【The invention's effect】
As described above, according to the present invention, the image formed by the imaging unit on the detection surface is electrically converted according to the amount of positional deviation of the optical image on the detection surface that occurs according to the optical characteristics of the mapping optical system. Not only makes the timing of signal conversion and the moving speed of the image on the detection surface asynchronous, but also controls the amount of that asynchronous, thus preventing resolution degradation due to distortion in the mapping optical system. As a result, even if distortion aberration remains in the mapping optical system, it can be observed with high resolution.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a surface state observation apparatus according to an embodiment of the present invention.
FIG. 2 is a functional block diagram illustrating a configuration example of a TDI array CCD as an image sensor 35. FIG.
FIG. 3 is a diagram showing a trajectory of an illumination beam B1 of the surface state observation device according to the embodiment of the present invention.
FIG. 4 is a diagram showing a trajectory of a secondary electron beam B2 of the surface state observation apparatus according to the embodiment of the present invention.
FIG. 5 is a diagram for explaining the configuration and operation principle of an e-cross bee 23 provided in the surface state observation device according to the embodiment of the present invention.
6 is a diagram illustrating an XY coordinate system in which an xy coordinate system set on the surface of a sample 4 is set on the imaging surface of the imaging device 35. FIG.
7 is a diagram illustrating an example of an array of pixels provided in the image sensor 35. FIG.
FIG. 8 is a diagram illustrating an example of a sensitivity characteristic function g (X) in which the position in the Y direction is set at the center of a pixel.
FIG. 9 is a diagram showing a relationship between a point at a distance r from the optical axis and a position R at which this point forms an image due to the influence of distortion.
FIG. 10 is a simulation result obtained in a state where the timing at which the image sensor 35 converts an image formed on the imaging surface into an electric signal and the moving speed of the xy stage 40 are synchronized.
FIG. 11 is a diagram showing a shift amount of an image with respect to a pixel on an imaging surface 35a of an imaging element 35 caused by distortion of the mapping optical system 20.
12 is a simulation result obtained in a state where the timing at which the image sensor 35 converts an image formed on the imaging surface into an electrical signal and the moving speed of the xy stage 40 are asynchronous. FIG.
FIG. 13 shows a state in which the imaging device 35 is caused by distortion of the mapping optical system 20 in a state where the timing at which the imaging device 35 converts the image formed on the imaging surface into an electrical signal and the moving speed of the xy stage 40 are asynchronous. It is a figure which shows the deviation | shift amount with respect to the pixel of the image on the imaging surface 35a.
FIG. 14 is a diagram for explaining an operation when observing a surface state;
FIG. 15 is a flowchart showing an example of a microdevice manufacturing process.
FIG. 16 is a diagram illustrating an example of distortion.
FIG. 17 is a diagram for explaining deterioration in detection accuracy when an image in which distortion is generated is detected by a TDI array CCD.
FIG. 18 is a diagram for explaining deterioration in detection accuracy in the scanning direction when an image in which distortion is generated is detected by a TDI array CCD.
[Explanation of symbols]
4 Sample (object)
11 Illumination optical system
20 Mapping optics
30 Electron beam detector (imaging means)
32 Fluorescent screen (conversion means)
34 Relay lens (imaging means)
35 Imaging device (imaging means)
37 Main control system (control means, calculation device)
40 xy stage (stage)
44 Storage device (storage means)
45 Input device (input means)
B1 Beam for illumination
B2 Secondary electron beam (secondary beam)

Claims (11)

観察対象の物体の表面上に照明用ビームを照射する照明光学系と、
前記照明用ビームを前記物体表面に照射して得られる二次ビームを所定の検出面上に結像させる写像光学系と、
前記検出面に結像した像を電気信号に変換し、当該電気信号を前記検出面上における前記像の移動方向に転送しつつ積算した信号を出力する撮像手段と、
前記写像光学系の光学特性に起因して生ずる前記像の位置ずれ量に応じて、前記撮像手段の変換タイミングと前記検出面上の前記像の移動速度との非同期量を制御する制御手段とを備え、
該制御手段は、前記撮像手段から出力される信号から求められる光学的伝達関数が、前記物体に形成されたパターンのピッチに応じた前記像の空間周波数において最大となるように前記非同期量を制御することを特徴とする表面状態観察装置。
An illumination optical system for irradiating an illumination beam on the surface of the object to be observed;
A mapping optical system that forms an image of a secondary beam obtained by irradiating the object surface with the illumination beam on a predetermined detection surface;
Imaging means for converting an image formed on the detection surface into an electrical signal, and outputting an integrated signal while transferring the electrical signal in the moving direction of the image on the detection surface;
Control means for controlling an asynchronous amount between the conversion timing of the imaging means and the moving speed of the image on the detection surface in accordance with the amount of positional deviation of the image caused by the optical characteristics of the mapping optical system. Prepared,
The control unit controls the asynchronous amount so that an optical transfer function obtained from a signal output from the imaging unit is maximized at a spatial frequency of the image corresponding to a pitch of a pattern formed on the object. A surface state observation device.
前記物体を載置した状態で移動可能に構成されたステージを更に備え、
前記制御手段は、前記像の位置ずれ量に応じて前記ステージの移動速度を可変にすることにより、前記撮像手段の変換タイミングと前記検出面上の前記像の移動速度との非同期量を制御することを特徴とする請求項1記載の表面状態観察装置。
A stage configured to be movable with the object placed thereon;
The control unit controls an asynchronous amount between the conversion timing of the imaging unit and the moving speed of the image on the detection surface by making the moving speed of the stage variable according to the amount of positional deviation of the image. The surface state observation apparatus according to claim 1.
前記制御手段は、前記検出面上の像の移動速度を一定とした状態で、前記撮像手段から出力される信号から求められる光学的伝達関数が、前記物体に形成されたパターンのピッチに応じた前記像の空間周波数において最大となるように前記非同期量を制御することを特徴とする請求項1記載の表面状態観察装置。  In the state where the moving speed of the image on the detection surface is constant, the control means has an optical transfer function obtained from a signal output from the imaging means in accordance with a pitch of a pattern formed on the object. 2. The surface state observation apparatus according to claim 1, wherein the asynchronous amount is controlled so as to be maximum at a spatial frequency of the image. 前記空間周波数は、前記検出面上の前記像の移動方向における空間周波数であることを特徴とする請求項3記載の表面状態観察装置。  The surface state observation apparatus according to claim 3, wherein the spatial frequency is a spatial frequency in a moving direction of the image on the detection surface. 前記写像光学系の設計値から又は実測値から予め求めた前記写像光学系の光学特性を記憶する記憶手段と、
前記物体に形成されたパターンのピッチを入力する入力手段と、
前記記憶手段に記憶された前記写像光学系の光学特性及び前記入力手段から入力された前記パターンのピッチに基づいて前記変換タイミングに対する前記像の非同期量を算出する算出手段と
を備えることを特徴とする請求項3又は請求項4記載の表面状態観察装置。
Storage means for storing optical characteristics of the mapping optical system obtained in advance from design values of the mapping optical system or from measured values;
Input means for inputting a pitch of a pattern formed on the object;
Calculation means for calculating an asynchronous amount of the image with respect to the conversion timing based on the optical characteristics of the mapping optical system stored in the storage means and the pitch of the pattern input from the input means. The surface state observation apparatus of Claim 3 or Claim 4 to do.
前記撮像手段は、前記検出面において二次元的に等間隔で配列された複数の画素を有し、各画素における前記変換タイミングは同一であることを特徴とする請求項1から請求項5の何れか一項に記載の表面状態観察装置。  6. The imaging device according to claim 1, wherein the imaging unit has a plurality of pixels arranged at equal intervals two-dimensionally on the detection surface, and the conversion timing in each pixel is the same. The surface state observation apparatus according to claim 1. 観察対象の物体の表面上に照明用ビームを照射する照明光学系と、
前記照明用ビームを前記物体表面に照射して得られる二次ビームを所定の検出面上に結像させる写像光学系と、
前記検出面に結像した像を電気信号に変換し、当該電気信号を前記検出面上における前記像の移動方向に転送しつつ積算した信号を出力する撮像手段と、
前記写像光学系の光学特性に起因して生ずる前記像の位置ずれ量に応じて、前記撮像手段の変換タイミングと前記検出面上の前記像の移動速度との非同期量を制御する制御手段とを備え、
前記写像光学系の光学特性に起因して生ずる前記像の位置ずれは、前記写像光学系に残存する歪曲収差による位置ずれであることを特徴とする表面状態観察装置。
An illumination optical system for irradiating an illumination beam on the surface of the object to be observed;
A mapping optical system that forms an image of a secondary beam obtained by irradiating the object surface with the illumination beam on a predetermined detection surface;
Imaging means for converting an image formed on the detection surface into an electrical signal, and outputting an integrated signal while transferring the electrical signal in the moving direction of the image on the detection surface;
Control means for controlling an asynchronous amount between the conversion timing of the imaging means and the moving speed of the image on the detection surface in accordance with the amount of positional deviation of the image caused by the optical characteristics of the mapping optical system. Prepared,
The surface state observing apparatus according to claim 1, wherein the positional deviation of the image caused by the optical characteristics of the mapping optical system is a positional deviation due to distortion aberration remaining in the mapping optical system.
前記照明用ビームは荷電粒子線であり、
前記二次ビームは、前記荷電粒子線を前記物体に照射して生ずる二次電子、反射電子、及び後方散乱電子の少なくとも1つであることを特徴とする請求項1から請求項7の何れか一項に記載の表面状態観察装置。
The illumination beam is a charged particle beam;
8. The secondary beam according to claim 1, wherein the secondary beam is at least one of secondary electrons, reflected electrons, and backscattered electrons generated by irradiating the object with the charged particle beam. The surface state observation apparatus according to one item.
前記撮像手段は、前記写像光学系によって前記検出面に結像された像を光学像に変換する変換手段を備え、当該変換手段で変換された光学像を光電変換して前記電気信号に変換することを特徴とする請求項8記載の表面状態観察装置。  The imaging means includes conversion means for converting an image formed on the detection surface by the mapping optical system into an optical image, and photoelectrically converts the optical image converted by the conversion means into the electrical signal. The surface state observation apparatus according to claim 8. 観察対象の物体の表面上に照明用ビームを照射して得られる二次ビームを写像光学系を介して所定の検出面上に結像させ、当該検出面に結像した像を移動させつつ電気信号に変換し、当該電気信号を前記検出面上における前記像の移動方向に転送しつつ積算して得られる信号を用いて前記物体の表面の状態を観察する表面状態観察方法において、
前記写像光学系の光学特性に起因して生ずる該写像光学系に残存する歪曲収差による位置ずれ量に応じて、前記検出面に結像した像の電気信号への変換タイミングと前記検出面上の前記像の移動速度との非同期量を制御することを特徴とする表面状態観察方法。
A secondary beam obtained by irradiating the surface of the object to be observed with the illumination beam is imaged on a predetermined detection surface via the mapping optical system, and the image formed on the detection surface is moved while the image is moved. In the surface state observation method for observing the state of the surface of the object using a signal obtained by converting the signal and integrating the electric signal while transferring the electric signal in the moving direction of the image on the detection surface,
According to the amount of displacement caused by distortion aberration remaining in the mapping optical system caused by the optical characteristics of the mapping optical system, the conversion timing of the image formed on the detection surface to an electrical signal and the detection surface A method for observing a surface state, characterized by controlling an asynchronous amount with respect to a moving speed of the image.
請求項1から請求項9の何れか一項に記載の表面状態観察装置又は請求項10記載の表面状態観察方法を用いてマイクロデバイスの表面を観察する工程を含むことを特徴とするマイクロデバイスの製造方法。A step of observing the surface of a microdevice using the surface state observation apparatus according to any one of claims 1 to 9 or the surface state observation method according to claim 10. Production method.
JP2001345215A 2001-11-09 2001-11-09 Surface state observation apparatus and method, and semiconductor device and microdevice manufacturing method Expired - Lifetime JP3986801B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001345215A JP3986801B2 (en) 2001-11-09 2001-11-09 Surface state observation apparatus and method, and semiconductor device and microdevice manufacturing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001345215A JP3986801B2 (en) 2001-11-09 2001-11-09 Surface state observation apparatus and method, and semiconductor device and microdevice manufacturing method

Publications (2)

Publication Number Publication Date
JP2003151481A JP2003151481A (en) 2003-05-23
JP3986801B2 true JP3986801B2 (en) 2007-10-03

Family

ID=19158594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001345215A Expired - Lifetime JP3986801B2 (en) 2001-11-09 2001-11-09 Surface state observation apparatus and method, and semiconductor device and microdevice manufacturing method

Country Status (1)

Country Link
JP (1) JP3986801B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4578875B2 (en) * 2004-07-16 2010-11-10 株式会社荏原製作所 Mapping electron microscope
CN112119297A (en) 2018-05-30 2020-12-22 株式会社日立高新技术 Wafer inspection apparatus and wafer inspection method

Also Published As

Publication number Publication date
JP2003151481A (en) 2003-05-23

Similar Documents

Publication Publication Date Title
US6479819B1 (en) Object observation apparatus and object observation
US6184526B1 (en) Apparatus and method for inspecting predetermined region on surface of specimen using electron beam
US7526143B2 (en) Imaging method
KR101279028B1 (en) Electron beam apparatus
TW202013417A (en) Multiple electron beam image acquisition apparatus and multiple electron beam image acquisition method
JP2019039808A (en) Pattern inspection device and pattern inspection method
CN109298001A (en) Electron beam imaging module, Electron-beam measuring equipment and its image-pickup method
JP2021077229A (en) Pattern inspection device and pattern inspection method
JP2008041890A (en) Measuring method for multi-charge-particle beam, exposure apparatus, and device manufacturing method
JP3687243B2 (en) Pattern inspection device
JP2002033068A (en) Device and method of inspecting failure of charged particle beam
JP4277334B2 (en) Observation apparatus and adjustment method thereof
US6670602B1 (en) Scanning device and scanning method
JP3713864B2 (en) Pattern inspection device
JPH11345585A (en) Device and method using electron beam
JP3986801B2 (en) Surface state observation apparatus and method, and semiconductor device and microdevice manufacturing method
JP4310824B2 (en) Electron beam inspection device
JPH11242943A (en) Inspection device
JPH10255709A (en) Image inspection device
JP3943832B2 (en) Substrate inspection apparatus and control method thereof
JP4042185B2 (en) Pattern inspection device
JP4332922B2 (en) Inspection device
JP2002208369A (en) Surface state observastion device
JP4505674B2 (en) Pattern inspection method
JP3926621B2 (en) Charged particle beam optics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041028

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070711

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3986801

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100720

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100720

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130720

Year of fee payment: 6

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130720

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term