JP6147879B2 - Overlay measuring device - Google Patents

Overlay measuring device Download PDF

Info

Publication number
JP6147879B2
JP6147879B2 JP2016016835A JP2016016835A JP6147879B2 JP 6147879 B2 JP6147879 B2 JP 6147879B2 JP 2016016835 A JP2016016835 A JP 2016016835A JP 2016016835 A JP2016016835 A JP 2016016835A JP 6147879 B2 JP6147879 B2 JP 6147879B2
Authority
JP
Japan
Prior art keywords
image
overlay
circuit pattern
exposure
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016016835A
Other languages
Japanese (ja)
Other versions
JP2016145825A (en
Inventor
原田 実
実 原田
亮 中垣
亮 中垣
文彦 福永
文彦 福永
高木 裕治
裕治 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi High Tech Corp
Original Assignee
Hitachi High Technologies Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi High Technologies Corp filed Critical Hitachi High Technologies Corp
Priority to JP2016016835A priority Critical patent/JP6147879B2/en
Publication of JP2016145825A publication Critical patent/JP2016145825A/en
Application granted granted Critical
Publication of JP6147879B2 publication Critical patent/JP6147879B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Length-Measuring Devices Using Wave Or Particle Radiation (AREA)

Description

本発明はオーバーレイ計測方法、計測装置、走査型電子顕微鏡およびGUIに関するものであって、より詳細には荷電粒子顕微鏡を用いて撮像した画像を用いてオーバーレイを計測する方法および装置に関するものである。   The present invention relates to an overlay measurement method, a measurement apparatus, a scanning electron microscope, and a GUI, and more particularly to a method and apparatus for measuring an overlay using an image captured using a charged particle microscope.

一般的に半導体製品は、動作に必要な回路パターンを形成するために複数回の露光工程が必要である。例えば、複数層の回路パターンからなる半導体製品の製造では、各層の回路パターンを形成するための露光工程のほか、各層を接続するホールを形成するための露光工程が必要となる。また、近年では微細な回路パターンを密度高く形成するためにダブルパターニングが行われている。   In general, a semiconductor product requires a plurality of exposure steps in order to form a circuit pattern necessary for operation. For example, in the manufacture of a semiconductor product composed of a plurality of circuit patterns, an exposure process for forming holes connecting the layers is required in addition to an exposure process for forming circuit patterns of the layers. In recent years, double patterning has been performed to form fine circuit patterns with high density.

半導体製造においては、複数回の露光工程により形成される回路パターンの位置を許容される範囲内に合わせることが重要となる。許容範囲内に収まらない場合、適切な電気特性が得られず、歩留まりが低下する。そのため、露光間の回路パターンの合わせずれ(オーバーレイ)を計測し、露光装置にフィードバックする事が行われている。   In semiconductor manufacturing, it is important to adjust the position of a circuit pattern formed by a plurality of exposure processes within an allowable range. If it does not fall within the allowable range, appropriate electrical characteristics cannot be obtained and the yield decreases. Therefore, a circuit pattern misalignment (overlay) between exposures is measured and fed back to the exposure apparatus.

オーバーレイ計測を行うための方法として、ウェハ上に計測用の回路パターンを形成し、光学顕微鏡を用いて計測用パターンの画像を撮像し、画像から得られる信号波形からオーバーレイ計測を行う方法がUS7181057(特許文献1)に記載されている。計測用パターンは数十μm程度の大きさが必要であるため、半導体ダイ周辺のスクライブライン上に形成されるのが一般的である。そのため、実際のデバイスの回路パターン(実パターン)が形成される場所におけるオーバーレイを直接計測することはできず、補間などにより推定する必要がある。しかし、近年の半導体プロセスの微細化に伴い、オーバーレイの許容範囲も小さくなっており、必要な計測精度を得ることが困難となっている。   As a method for performing overlay measurement, US Pat. No. 7,181,557 (hereinafter referred to as US Pat. No. 7,718,157) forms a circuit pattern for measurement on a wafer, takes an image of the pattern for measurement using an optical microscope, and performs overlay measurement from a signal waveform obtained from the image. Patent Document 1). Since the measurement pattern needs to have a size of about several tens of μm, it is generally formed on a scribe line around the semiconductor die. Therefore, it is not possible to directly measure an overlay at a place where a circuit pattern (actual pattern) of an actual device is formed, and it is necessary to estimate by an interpolation or the like. However, with the recent miniaturization of semiconductor processes, the allowable range of overlay has also been reduced, making it difficult to obtain the required measurement accuracy.

走査型電子顕微鏡を用いて実パターンの画像を撮像し、オーバーレイを計測する手法が特開2006−351888(特許文献2)および特開2011−142321(特許文献3)に記載されている。特許文献2には撮像画像から抽出された回路パターンの輪郭情報と、半導体製品の設計情報(CADデータ)を比較することによりオーバーレイを計測する手法が記載されている。また、特許文献3では第1の露光により形成される回路パターンと、第2の露光により形成される回路パターンの相対的位置を算出し、相対的位置をCADデータより得られる基準値と比較することによりオーバーレイを計測する手法が記載されている。   Japanese Patent Application Laid-Open No. 2006-351888 (Patent Document 2) and Japanese Patent Application Laid-Open No. 2011-142321 (Patent Document 3) describe a method of capturing an image of a real pattern using a scanning electron microscope and measuring an overlay. Patent Document 2 describes a method of measuring an overlay by comparing contour information of a circuit pattern extracted from a captured image with design information (CAD data) of a semiconductor product. In Patent Document 3, the relative position between the circuit pattern formed by the first exposure and the circuit pattern formed by the second exposure is calculated, and the relative position is compared with a reference value obtained from CAD data. A method for measuring the overlay is described.

US7181057US7181857 特開2006−351888号公報JP 2006-351888 A 特開2011−142321号公報JP 2011-142321 A

前述のとおり、前記特許文献1に記載のオーバーレイ計測手法では実パターン上におけるオーバーレイを計測することが不可能である。この問題を解決する方法として前記特許文献2および特許文献3には実パターンを撮像した画像を用いてオーバーレイを計測する手法が記載されている。しかし、特許文献2に記載のオーバーレイ計測手法は、CADデータが必要となる。一般的に半導体製品のCADデータは数GBにおよび、準備や取扱いなどに労力を要する。また、ウェハ上に形成される回路パターン形状とCADデータ内の回路パターン形状は乖離しているのが一般的であるため、乖離が大きい場合には正しいオーバーレイを計測することが困難と予想される。また、特許文献3に記載のオーバーレイ計測は、回路パターンの相対位置を算出しており、回路パターンの形成不良などにより回路パターンの一部が消失した場合などに正しいオーバーレイを算出不可能と予想される。
また、算出された相対位置を基準値と比較する必要があり、基準値を予めCADデータなどを用いて算出しておく必要がある。
As described above, the overlay measurement method described in Patent Document 1 cannot measure the overlay on the actual pattern. As a method for solving this problem, Patent Document 2 and Patent Document 3 describe a method of measuring an overlay using an image obtained by capturing an actual pattern. However, the overlay measurement method described in Patent Document 2 requires CAD data. Generally, the CAD data of a semiconductor product is several GB, and requires labor for preparation and handling. In addition, since the circuit pattern shape formed on the wafer and the circuit pattern shape in the CAD data are generally different, it is expected that it is difficult to measure a correct overlay when the difference is large. . In addition, the overlay measurement described in Patent Document 3 calculates the relative position of the circuit pattern, and it is expected that a correct overlay cannot be calculated when a part of the circuit pattern disappears due to a defective formation of the circuit pattern. The
Further, it is necessary to compare the calculated relative position with a reference value, and the reference value needs to be calculated in advance using CAD data or the like.

以上のように、先行技術では簡便かつ頑健にオーバーレイを計測することが困難である。そこで本発明は、CADデータを必要とせず簡便かつ頑健にオーバーレイを計測するオーバーレイ計測方法および計測装置を提供する。   As described above, it is difficult to measure the overlay simply and robustly in the prior art. Therefore, the present invention provides an overlay measurement method and a measurement apparatus that easily and robustly measure overlay without requiring CAD data.

上記課題を解決するために、例えば特許請求の範囲に記載の構成を採用する。   In order to solve the above problems, for example, the configuration described in the claims is adopted.

本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、半導体デバイスの複数の領域の画像を撮像する撮像ステップと、前記撮像ステップにて撮像された複数の撮像画像から基準画像を設定する基準画像設定ステップと、前記基準画像設定ステップにて設定した基準画像と前記撮像ステップにて撮像された該複数の撮像画像の差異を定量化する差異定量化ステップと、前記差異定量化ステップにて定量化した差異をもとにオーバーレイを算出するオーバーレイ算出ステップを備えることを特徴とする。   The present application includes a plurality of means for solving the above-described problems. To give an example, an imaging step for capturing images of a plurality of regions of a semiconductor device, and a plurality of captured images captured in the imaging step. A reference image setting step for setting a reference image, a difference quantification step for quantifying a difference between the reference image set in the reference image setting step and the plurality of captured images captured in the imaging step, and the difference An overlay calculation step of calculating an overlay based on the difference quantified in the quantification step is provided.

本発明によれば、撮像画像以外のCADデータの取扱いや相対位置の基準値の入力などを不要とし、簡便かつ頑健に実パターン上におけるオーバーレイを計測するオーバーレイ計測方法および計測装置を提供することができる。   According to the present invention, it is possible to provide an overlay measurement method and a measurement apparatus that easily and robustly measure an overlay on an actual pattern without requiring handling of CAD data other than a captured image and inputting a reference value of a relative position. it can.

上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。   Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.

本発明に係るオーバーレイ計測装置を備えた走査型電子顕微鏡(SEM)の構成図である。It is a block diagram of the scanning electron microscope (SEM) provided with the overlay measuring apparatus which concerns on this invention. 本発明に係るオーバーレイ計測装置の制御部記憶部および演算部の構成図である。It is a block diagram of the control part memory | storage part and calculating part of the overlay measuring device which concerns on this invention. チップ座標系とウェハ座標系を表した図である。It is a figure showing a chip coordinate system and a wafer coordinate system. 計測するオーバーレイに関する説明図である。It is explanatory drawing regarding the overlay to measure. オーバーレイ計測対象の画像と断面構造の例を表した図である。It is a figure showing the example of an overlay measurement object image, and a cross-sectional structure. 本発明に係るオーバーレイ計測方法のフローを表した図である。It is a figure showing the flow of the overlay measurement method which concerns on this invention. 本発明に係る画像撮像処理のフローを表した図である。It is a figure showing the flow of the image pick-up process concerning this invention. 本発明に係る画像差異定量化部とオーバーレイ算出部の構成を表した図である。It is a figure showing the structure of the image difference quantification part and overlay calculation part which concern on this invention. 基準画像と被計測画像の差異を定量化する処理フローである。It is a processing flow which quantifies the difference of a reference | standard image and a to-be-measured image. オーバーレイ計測対象の画像例である。It is an example of an image of overlay measurement object. 基準画像と被計測画像の差異を定量化する処理の途中結果を表した図である。It is a figure showing the intermediate result of the process which quantifies the difference of a reference | standard image and a to-be-measured image. 基準画像と被計測画像の差異を定量化する処理の途中結果を表した図である。It is a figure showing the intermediate result of the process which quantifies the difference of a reference | standard image and a to-be-measured image. 画像から回路パターン領域を認識する処理フローである。It is a processing flow for recognizing a circuit pattern region from an image. 画像のヒストグラムの例である。It is an example of the histogram of an image. 計測座標を設定するインターフェースの一例を表した図である。It is a figure showing an example of the interface which sets a measurement coordinate. 計測条件を設定するインターフェースの一例を表した図である。It is a figure showing an example of the interface which sets measurement conditions. 計測結果を表示するインターフェースの一例を表した図である。It is a figure showing an example of the interface which displays a measurement result. 本発明に係る画像差異定量化部の構成を表した図である。It is a figure showing the structure of the image difference quantification part which concerns on this invention. 本発明に係る基準画像と被計測画像の差異を定量化する処理フローである。It is a processing flow which quantifies the difference of the reference | standard image which concerns on this invention, and a to-be-measured image. 基準画像と被計測画像の差異を定量化する処理の途中結果を表した図である。It is a figure showing the intermediate result of the process which quantifies the difference of a reference | standard image and a to-be-measured image. 回路パターン領域を指定するインターフェースの一例を表した図である。It is a figure showing an example of the interface which designates a circuit pattern area. 本発明に係るオーバーレイ計測装置の記憶部および演算部の構成図である。It is a block diagram of the memory | storage part and calculating part of the overlay measuring device which concerns on this invention. 本発明に係る画像差異定量化部とオーバーレイ算出部の構成を表した図である。It is a figure showing the structure of the image difference quantification part and overlay calculation part which concern on this invention. 本発明に係る基準画像と被計測画像の差異を定量化する処理フローである。It is a processing flow which quantifies the difference of the reference | standard image which concerns on this invention, and a to-be-measured image. 回帰モデルの一例を表した図である。It is a figure showing an example of the regression model. 回帰モデルを作成する処理フローである。It is a processing flow which creates a regression model. 回帰モデル作成に用いる画像を取得する処理フローである。It is a processing flow which acquires the image used for regression model creation. 本発明に係る回帰モデル算出部の構成図である。It is a block diagram of the regression model calculation part which concerns on this invention. 差異部の特徴量をオーバーレイの関係をプロットした結果例である。It is an example of the result of having plotted the relationship of the overlay of the feature-value of a difference part. 計測結果を表示するインターフェースの一例を表した図である。It is a figure showing an example of the interface which displays a measurement result. 本発明に係るオーバーレイ計測処理のフローを表した図である。It is a figure showing the flow of the overlay measurement process which concerns on this invention. 処理パラメータを調整するインターフェースの一例を表した図である。It is a figure showing an example of the interface which adjusts a processing parameter.

以下に、本発明に関わるオーバーレイ計測装置および計測方法について説明する。本実施例ではオーバーレイ計測手段を備えた走査型電子顕微鏡(SEM)で撮像した画像を用いてオーバーレイ計測を行う場合を対象に説明するが、本発明に関わる撮像装置はSEM以外でも良く、イオンなどの荷電粒子線を用いた撮像装置でも良い。   The overlay measuring apparatus and measuring method according to the present invention will be described below. In this embodiment, a case where overlay measurement is performed using an image captured by a scanning electron microscope (SEM) provided with an overlay measurement means will be described. However, the imaging apparatus according to the present invention may be other than SEM, such as ions. An imaging apparatus using charged particle beams may be used.

図1は本発明に係るオーバーレイ計測装置を備えた走査型電子顕微鏡(SEM)の構成図を表しており、被検査対象物の画像の撮像を行うSEM101と、全体の制御を行う制御部102、画像撮像結果などを磁気ディスクや半導体メモリなどに記憶する記憶部103、プログラムに従い演算を行う演算部104、装置に接続された外部の記憶媒体との間で情報の入出力を行う外部記憶媒体入出力部105、ユーザとの情報の入出力を制御するユーザインターフェース部106、ネットワークを介して他の装置などと通信を行うネットワークインターフェース部107を備えてなる。
また、ユーザインターフェース部106には、キーボードやマウス、ディスプレイなどから構成される入出力端末113が接続されている。
SEM101は、試料ウェハ108を搭載する可動ステージ109、試料ウェハ108に電子ビームを照射するため電子源110、試料ウェハから発生した2次電子や反射電子などを検出する検出器111の他、電子ビームを試料上に収束させる電子レンズ(図示せず)や、電子ビームを試料ウェハ上で走査するための偏向器(図示せず)や、検出器111からの信号をデジタル変換してデジタル画像を生成する画像生成部112等を備えて構成される。なお、これらはバス114を介して接続され、相互に情報をやり取りすることが可能である。
FIG. 1 is a block diagram of a scanning electron microscope (SEM) provided with an overlay measuring apparatus according to the present invention, and includes an SEM 101 that captures an image of an object to be inspected, and a control unit 102 that performs overall control. A storage unit 103 that stores image pickup results in a magnetic disk or semiconductor memory, a calculation unit 104 that performs calculations according to a program, and an external storage medium that inputs and outputs information to and from an external storage medium connected to the device An output unit 105, a user interface unit 106 that controls input / output of information with a user, and a network interface unit 107 that communicates with other devices via a network are provided.
The user interface unit 106 is connected to an input / output terminal 113 including a keyboard, a mouse, a display, and the like.
The SEM 101 includes a movable stage 109 on which the sample wafer 108 is mounted, an electron source 110 for irradiating the sample wafer 108 with an electron beam, a detector 111 that detects secondary electrons and reflected electrons generated from the sample wafer, and an electron beam. A digital image is generated by digitally converting a signal from an electron lens (not shown) that converges on the sample, a deflector (not shown) for scanning an electron beam on the sample wafer, and the detector 111 The image generating unit 112 and the like are configured. These are connected via the bus 114 and can exchange information with each other.

図2は、図1に示した本発明に係るオーバーレイ計測装置を備えた走査型電子顕微鏡(SEM)の制御部102、記憶部103および演算部104の詳細な構成を示す図である。   FIG. 2 is a diagram showing a detailed configuration of the control unit 102, the storage unit 103, and the calculation unit 104 of the scanning electron microscope (SEM) provided with the overlay measuring apparatus according to the present invention shown in FIG.

制御部102は、ウェハの搬送を制御するウェハ搬送制御部201、ステージの制御を行うステージ制御部202、電子ビームの照射位置を制御するビームシフト制御部203、電子ビームの走査を制御するビームスキャン制御部204を備えてなる。
記憶部103は、取得された画像データを記憶する画像記憶部205、撮像条件(例えば、加速電圧やプローブ電流、加算フレーム数、撮像視野サイズなど)や処理パラメータなどを記憶するレシピ記憶部206、計測する箇所の座標を記憶する計測座標記憶部207を備えてなる。
演算部104は、撮像画像をもとに基準画像を合成する基準画像合成部208、基準画像と被計測画像の差異を定量化する画像差異定量化部209、オーバーレイを算出するオーバーレイ算出部210、画像処理部211を備えてなる。
なお、208〜210は各演算を行うように設計されたハードウェアとして構成されても良いほか、ソフトウェアとして実装され汎用的な演算装置(例えばCPUやGPUなど)を用いて実行されるように構成されていても良い。
The control unit 102 includes a wafer transfer control unit 201 that controls wafer transfer, a stage control unit 202 that controls the stage, a beam shift control unit 203 that controls the irradiation position of the electron beam, and a beam scan that controls scanning of the electron beam. A control unit 204 is provided.
The storage unit 103 stores an image storage unit 205 that stores acquired image data, a recipe storage unit 206 that stores imaging conditions (for example, acceleration voltage, probe current, number of added frames, imaging field size, and the like), processing parameters, and the like. A measurement coordinate storage unit 207 that stores the coordinates of the location to be measured is provided.
The calculation unit 104 includes a reference image synthesis unit 208 that synthesizes a reference image based on a captured image, an image difference quantification unit 209 that quantifies a difference between the reference image and the measured image, an overlay calculation unit 210 that calculates an overlay, An image processing unit 211 is provided.
Note that 208 to 210 may be configured as hardware designed to perform each calculation, or configured to be implemented as software and executed using a general-purpose arithmetic device (for example, a CPU or a GPU). May be.

次に、指定された座標の画像を取得するための方法を説明する。まず、計測対象となるウェハ108は、ウェハ搬送制御部201の制御によりロボットアームが動作しステージ109の上に設置される。つぎに、撮像視野がビーム照射範囲内に含まれるようにステージ制御部202によりステージ109が移動される。この時、ステージの移動誤差を吸収するため、ステージ位置の計測が行われ、ビームシフト制御部203により移動誤差を打ち消す様にビーム照射位置の調整が行われる。電子ビームは電子源110から照射され、ビームスキャン制御部204により撮像視野内において走査される。ビームの照射によりウェハから生じる2次電子や反射電子は検出器111により検出され、画像生成部112を通してデジタル画像化される。撮像された画像は撮像条件や撮像日時などの付帯情報とともに画像記憶部205に記憶される。   Next, a method for acquiring an image of designated coordinates will be described. First, the wafer 108 to be measured is placed on the stage 109 with the robot arm operating under the control of the wafer transfer control unit 201. Next, the stage 109 is moved by the stage control unit 202 so that the imaging field of view is included in the beam irradiation range. At this time, in order to absorb the movement error of the stage, the stage position is measured and the beam irradiation position is adjusted by the beam shift control unit 203 so as to cancel the movement error. The electron beam is irradiated from the electron source 110 and scanned within the imaging field by the beam scan control unit 204. Secondary electrons and reflected electrons generated from the wafer by beam irradiation are detected by the detector 111 and converted into a digital image through the image generator 112. The captured image is stored in the image storage unit 205 together with supplementary information such as an imaging condition and an imaging date and time.

ここで、本発明によるオーバーレイ計測の入力のひとつとなる計測座標について説明する。図3は、半導体ウェハ上のチップ301座標系とウェハ302座標系を表した図である。
チップ座標系とはチップ上の一点を原点とした座標系であり、ウェハ座標系とはウェハ上の一点を原点とした座標系である。通常、ウェハにはチップが複数レイアウトされており、位置(u、v)にあるチップにおける、チップ座標(cx、cy)とウェハ座標(x、y)の関係は数1で表されるため、相互の変換は容易に行える。ただし、W、Hは1チップの幅と高さ、o、oはx座標とy座標のオフセットを表す。
そのため、ユーザはオーバーレイ計測対象のチップ座標と、計測対象チップを指定すれば良い。例えば、チップ座標をn点、計測対象チップをm箇所指定した場合、計測座標はn×m点得られる。本実施例に係るオーバーレイ計測手法は同一のチップ座標をもつ画像を1グループとして扱う。画像をグルーピングするため、画像撮像時において画像の付帯情報としてチップ座標ごとに割り当てた位置IDを付与する(先ほどの例で言えば、位置ID:1〜n)
Here, the measurement coordinates that are one of the inputs of overlay measurement according to the present invention will be described. FIG. 3 is a diagram showing a chip 301 coordinate system and a wafer 302 coordinate system on a semiconductor wafer.
The chip coordinate system is a coordinate system with one point on the chip as the origin, and the wafer coordinate system is a coordinate system with one point on the wafer as the origin. Usually, a plurality of chips are laid out on the wafer, and the relationship between the chip coordinates (cx, cy) and the wafer coordinates (x, y) in the chip at the position (u, v) is expressed by Equation 1. Mutual conversion is easy. However, W, H are 1 chip width and height, o x, o y represents the offset of the x and y coordinates.
Therefore, the user only has to specify the chip coordinates of the overlay measurement target and the measurement target chip. For example, if n chip coordinates are specified and m measurement target chips are specified, n × m measurement coordinates are obtained. The overlay measurement method according to the present embodiment treats images having the same chip coordinates as one group. In order to group the images, a position ID assigned to each chip coordinate is given as image auxiliary information at the time of image capturing (in the above example, position IDs: 1 to n).

(数1)
x =u × W + cx + ox、 y = v × H + cy + oy
(Equation 1)
x = u × W + cx + ox, y = v × H + cy + oy

図4は、計測するオーバーレイに関する説明図である。図4を用いて、本発明で計測するオーバーレイについて説明する。
SEM画像401は402に示す断面形状を持つ回路パターンを撮像したSEM画像の模式図である。本例の回路パターンは下地403の上に第1の露光により回路パターン404が形成された後、第2の露光により回路パターン405が形成されている。
SEM画像406は半導体ウエハ上のSEM画像401とは異なる箇所を撮像したものである。同様に、下地408の上に第1の露光により回路パターン409が形成された後、第2の露光により回路パターン410が形成されている。
ただし、SEM画像406を撮像した箇所においては、SEM画像401を撮像した箇所と比較し、第2の露光により形成される回路パターン410がx方向にdx(412)ずれている様子を表している。本実施例に係る手法では、任意の画像(例えばSEM画像401)を基準画像、任意の画像(例えばSEM画像406)を被計測画像とした場合に、被計測画像における回路パターンの形成位置と、基準画像における回路パターンの形成位置との差異を、各露光により形成される回路パターンごとに独立に定量化することによりオーバーレイを計測する。
図4は、第1の露光により形成された回路パターンを基準パターンとして第2の露光におけるオーバーレイを計測した例を表しているが、第2の露光により形成された回路パターンを基準パターンとしても良い。この場合は、ずれ量の大きさは変わらないが、算出される値の正負の符号が反転する。なお、ここでの第nの露光とはn回目の露光とは限らず、単に露光工程の違いを表すインデックスであり、以降nを露光インデックスと記載する。また、「露光により形成される回路パターン」とは、露光工程のみにより形成される回路パターンに限定されるわけではなく、露光工程後のエッチング工程なども含めて形成される回路パターンを指す。
FIG. 4 is an explanatory diagram regarding the overlay to be measured. The overlay measured by the present invention will be described with reference to FIG.
An SEM image 401 is a schematic diagram of an SEM image obtained by imaging a circuit pattern having a cross-sectional shape indicated by 402. In the circuit pattern of this example, after the circuit pattern 404 is formed on the base 403 by the first exposure, the circuit pattern 405 is formed by the second exposure.
The SEM image 406 is obtained by imaging a portion different from the SEM image 401 on the semiconductor wafer. Similarly, after the circuit pattern 409 is formed on the base 408 by the first exposure, the circuit pattern 410 is formed by the second exposure.
However, in the part where the SEM image 406 is captured, the circuit pattern 410 formed by the second exposure is shifted by dx (412) in the x direction compared to the part where the SEM image 401 is captured. . In the method according to the present embodiment, when an arbitrary image (for example, SEM image 401) is a reference image and an arbitrary image (for example, SEM image 406) is a measured image, the circuit pattern formation position in the measured image, The overlay is measured by quantifying the difference from the formation position of the circuit pattern in the reference image independently for each circuit pattern formed by each exposure.
FIG. 4 shows an example in which the overlay in the second exposure is measured using the circuit pattern formed by the first exposure as a reference pattern, but the circuit pattern formed by the second exposure may be used as the reference pattern. . In this case, the magnitude of the shift amount does not change, but the sign of the calculated value is inverted. The n-th exposure here is not limited to the n-th exposure, but is simply an index representing a difference in the exposure process, and n is hereinafter referred to as an exposure index. The “circuit pattern formed by exposure” is not limited to the circuit pattern formed only by the exposure process, and indicates a circuit pattern formed including an etching process after the exposure process.

図5は、オーバーレイ計測対象の画像と断面構造の例を表した図である。図4に示した以外のオーバーレイ計測対象の例を示す。
501〜505はSEM画像と断面構造を模式的に表したものである。
501は、第1の露光により形成された回路パターン506と、第2の露光により形成された回路パターン507が積層されている様子を表している。
502も同様に、第1の露光により形成された回路パターン508と、第2の露光により形成された回路パターン509が積層されている様子を表している。
また、503は第1の露光により形成された回路パターン510の上に、膜511と第2の露光により形成された回路パターン512が積層されている様子を表している。このように第1の露光により形成された回路パターンの上に膜が積層されている場合においてもSEMの加速電圧を調整することで第1の露光により形成された回路パターン510の形状を観察することが可能である。
FIG. 5 is a diagram illustrating an example of an overlay measurement target image and a cross-sectional structure. An example of an overlay measurement target other than that shown in FIG. 4 is shown.
Reference numerals 501 to 505 schematically represent SEM images and cross-sectional structures.
Reference numeral 501 denotes a state in which the circuit pattern 506 formed by the first exposure and the circuit pattern 507 formed by the second exposure are stacked.
Similarly, reference numeral 502 denotes a state in which the circuit pattern 508 formed by the first exposure and the circuit pattern 509 formed by the second exposure are stacked.
Reference numeral 503 denotes a state in which the film 511 and the circuit pattern 512 formed by the second exposure are stacked on the circuit pattern 510 formed by the first exposure. Thus, even when the film is laminated on the circuit pattern formed by the first exposure, the shape of the circuit pattern 510 formed by the first exposure is observed by adjusting the acceleration voltage of the SEM. It is possible.

504はダブルパターニングにより形成された回路パターンを表している。ダブルパターニングは第1の露光により回路パターン513を形成し、第2の露光により回路パターン514を形成することで回路パターンを密度高く形成する技術である。
505はホール工程の画像を表しており、第2の露光により形成された回路パターン516の開口部から、第1の露光により形成された回路パターン515が観察されている様子を表している。
いずれの場合においても、第1の露光により形成される回路パターンと、第2の露光により形成される回路パターンのオーバーレイ計測が重要である。なお、本実施例によってオーバーレイ計測可能となる回路パターンの構造はこれらに限ったものではない。例えば、計3回の露光により形成される回路パターンが観察される画像においては、各露光間におけるオーバーレイを計測することが可能である。
Reference numeral 504 denotes a circuit pattern formed by double patterning. Double patterning is a technique for forming a circuit pattern with high density by forming a circuit pattern 513 by first exposure and forming a circuit pattern 514 by second exposure.
Reference numeral 505 denotes an image of the hole process, and shows a state in which the circuit pattern 515 formed by the first exposure is observed from the opening of the circuit pattern 516 formed by the second exposure.
In either case, overlay measurement of the circuit pattern formed by the first exposure and the circuit pattern formed by the second exposure is important. Note that the structure of the circuit pattern that enables overlay measurement according to the present embodiment is not limited to these. For example, in an image in which a circuit pattern formed by a total of three exposures is observed, the overlay between each exposure can be measured.

図6は、本発明に係るオーバーレイ計測方法のフロー図、図7は、本発明に係るオーバーレイ計測方法のフローにおける被計測画像の画像撮像処理ステップ(S601)の詳細なフロー図である。
まず、計測箇所の画像(被計測画像)を図7に示したフローに従って取得する(S601)。被計測画像の取得後、位置IDごとに処理を行うため、同一の位置IDをもつ画像を抽出する(S602)。なお、位置IDごとの処理順序は任意に設定されても良いし、ユーザが指定した位置IDの画像のみについて処理するようにしても良い。抽出された画像はチップ座標が同じため、同様の回路パターンが撮像されている。これらの被計測画像をもとに基準画像を設定する(S603)。基準画像は被計測画像の中からユーザが選択しても良いし、基準画像合成部208を用いて被計測画像から基準画像を合成しても良い。合成する方法としては例えば、画像の位置合わせをした後、対応する画素の平均濃淡値を合成画像の濃淡値とすれば良い。また、基準画像設定時に、基準パターンの露光インデックスを指定しても良い。
基準画像設定後、被計測画像と基準画像の差異を定量化し(S604)、定量化結果をもとにオーバーレイを算出する(S605)。以上の処理S604〜S605をすべての抽出画像について完了するまで繰り返し行う(S606)。そして、処理S602〜S606を対象の位置IDについて完了するまで繰り返し行う(S607)。以降において処理S601とS604、S605の詳細について説明する。
FIG. 6 is a flowchart of the overlay measurement method according to the present invention, and FIG. 7 is a detailed flowchart of the image capturing process step (S601) of the measured image in the flow of the overlay measurement method according to the present invention.
First, an image of the measurement location (image to be measured) is acquired according to the flow shown in FIG. 7 (S601). After obtaining the image to be measured, in order to perform processing for each position ID, images having the same position ID are extracted (S602). Note that the processing order for each position ID may be set arbitrarily, or only the image of the position ID specified by the user may be processed. Since the extracted image has the same chip coordinates, a similar circuit pattern is captured. A reference image is set based on these measured images (S603). The reference image may be selected by the user from the measured image, or the reference image may be synthesized from the measured image using the reference image synthesis unit 208. For example, after the images are aligned, the average gray value of the corresponding pixels may be used as the gray value of the synthesized image. Further, the exposure index of the reference pattern may be specified when setting the reference image.
After setting the reference image, the difference between the image to be measured and the reference image is quantified (S604), and an overlay is calculated based on the quantification result (S605). The above processes S604 to S605 are repeated until completion for all the extracted images (S606). And it repeats until it completes process S602-S606 about target position ID (S607). Hereinafter, details of the processes S601, S604, and S605 will be described.

図7を用いて被計測画像の取得処理(S601)について説明する。
まず、計測対象のウェハ108をステージ109上にロードし(S701)、ウェハに対応したレシピをレシピ記憶部206から読み込む(S702)。次に、計測座標を計測座標記憶部207から読み込む(S703)。座標読み込み後(もしくは並行して)、ウェハアライメントを行う(S704)。ウェハアライメント後、前述の方法によりSEM101を制御し、指定した座標の画像を撮像する(S705)。この時、撮像した画像には位置IDを付帯情報として付与する。全ての撮像が完了するまで繰り返し行い(S706)、最後にウェハをアンロード(S707)する。
The measurement image acquisition process (S601) will be described with reference to FIG.
First, the wafer 108 to be measured is loaded on the stage 109 (S701), and a recipe corresponding to the wafer is read from the recipe storage unit 206 (S702). Next, the measurement coordinates are read from the measurement coordinate storage unit 207 (S703). After reading the coordinates (or in parallel), wafer alignment is performed (S704). After the wafer alignment, the SEM 101 is controlled by the above-described method, and an image of the designated coordinates is taken (S705). At this time, the position ID is given to the captured image as supplementary information. It repeats until all the imaging is completed (S706), and finally unloads the wafer (S707).

次に、図9乃至12を用いて、被計測画像と基準画像の差異を定量化する処理(S604)について説明する。図9は基準画像と被計測画像の差異を定量化する処理フローの説明図、図10はオーバーレイ計測対象の画像例、図11および図12は基準画像と被計測画像の差異を定量化する処理の途中結果を表した図である。
本処理は画像差異定量化部209を用いて行われる。図8の801は本実施例に係る画像差異定量化部の構成を示したものであり、図2の209に対応する。また、図9は画像差異定量化部209を用いて基準画像と被計測画像の差異を定量化する処理のフローである。本処理では基準画像を入力802、被計測画像を入力803とする。以降、説明のための画像例として図10に示した基準画像1001と被計測画像1002を用いる。
Next, the process (S604) for quantifying the difference between the image to be measured and the reference image will be described with reference to FIGS. FIG. 9 is an explanatory diagram of a processing flow for quantifying the difference between the reference image and the image to be measured, FIG. 10 is an example of an overlay measurement target image, and FIGS. 11 and 12 are processes for quantifying the difference between the reference image and the image to be measured. FIG.
This process is performed using the image difference quantification unit 209. 801 in FIG. 8 shows the configuration of the image difference quantifying unit according to the present embodiment, and corresponds to 209 in FIG. FIG. 9 is a flow of processing for quantifying the difference between the reference image and the image to be measured using the image difference quantification unit 209. In this process, the reference image is input 802 and the image to be measured is input 803. Hereinafter, the reference image 1001 and the measured image 1002 shown in FIG. 10 are used as image examples for explanation.

まず、回路パターン領域認識部804を用いて、基準画像を対象に各露光により形成される回路パターン領域を認識する(S901)。図11は処理結果例を示したものであり、画像1101は基準画像1001の回路パターン領域を認識した結果例である。次に、濃淡値抽出部805を用いて、回路パターン領域の認識結果をもとに、基準画像から第p以降の露光により形成される回路パターン領域の濃淡値を抽出した画像BU(806)を作成し(S902)、基準画像から第p−1以前の露光により形成される回路パターン領域の濃淡値を抽出した画像BL(807)を作成する(S903)。画像BUと画像BLの例をそれぞれ画像1102と画像1103に示す。
被計測画像についても同様に回路パターン領域の認識を行い(S905)、被計測画像から第p以降の露光により形成される回路パターン領域の濃淡値を抽出した画像TU(808)を作成し(S905)、被計測画像から第p−1以前の露光により形成される回路パターン領域の濃淡値を抽出した画像TL(809)を作成する(S906)。なお、pはユーザから指定されるパラメータであり、回路パターンを露光インデックスで分割する際のしきい値である。例えば、p=3とすると第3以降の露光により形成される回路パターンと、第2以前の露光により形成される回路パターンのオーバーレイが計測される。
被計測画像における回路パターン領域の認識結果例を画像1104に、画像TUと画像TLの例をそれぞれ画像1105と画像1106に示す。次に、テンプレートマッチング部810を用いて、画像BU(806)と画像TU(808)の位置合わせを行い、x方向のずれ量dux(812)と、y方向のずれ量duy(813)を出力する(S907)。同様に、画像BL(807)と画像TL(809)の位置合わせを行い、x方向のずれ量dlx(814)とy方向のずれ量dly(815)を出力する(S908)。
First, the circuit pattern area recognition unit 804 is used to recognize a circuit pattern area formed by each exposure for the reference image (S901). FIG. 11 shows an example of processing results, and an image 1101 is an example of a result of recognizing a circuit pattern region of the reference image 1001. Next, using the gray value extraction unit 805, an image BU (806) obtained by extracting the gray value of the circuit pattern area formed by the p-th and subsequent exposures from the reference image based on the recognition result of the circuit pattern area. An image BL (807) is created (S903), in which the gray value of the circuit pattern region formed by the exposure before the p-1th is extracted from the reference image (S903). Examples of the image BU and the image BL are shown in an image 1102 and an image 1103, respectively.
The circuit pattern region is similarly recognized for the image to be measured (S905), and an image TU (808) is generated by extracting the gray value of the circuit pattern region formed by the pth and subsequent exposures from the image to be measured (S905). ), An image TL (809) obtained by extracting the gray value of the circuit pattern region formed by the exposure before the p-1th from the image to be measured is created (S906). Note that p is a parameter designated by the user, and is a threshold value when the circuit pattern is divided by the exposure index. For example, when p = 3, the overlay of the circuit pattern formed by the third and subsequent exposures and the circuit pattern formed by the second and previous exposures is measured.
An example of the recognition result of the circuit pattern region in the measured image is shown in an image 1104, and examples of the image TU and the image TL are shown in an image 1105 and an image 1106, respectively. Next, alignment of the image BU (806) and the image TU (808) is performed using the template matching unit 810, and a deviation amount dux (812) in the x direction and a deviation amount duy (813) in the y direction are output. (S907). Similarly, the image BL (807) and the image TL (809) are aligned, and the shift amount dlx (814) in the x direction and the shift amount dly (815) in the y direction are output (S908).

図12はテンプレートマッチングの結果例を示しており、ずれ量duxとduyはそれぞれ1203と1204、ずれ量dlxとdlyはそれぞれ1207と1208に対応する。なお、メモリセル部のように同じ形状の回路パターンが繰り返し形成されている場合においては、マッチングする箇所が複数存在する。そのため、画像BUと画像TUのテンプレートマッチングと、画像BLと画像TLのテンプレートマッチングを独立に行うと不整合が発生する場合がある。この問題を解決するためには、テンプレートマッチング部819を用いて基準画像と被計測画像を大まかに位置合わせしておき、そのマッチング位置820を中心に、テンプレートマッチング部810にてテンプレートマッチングをするようにすればよい。   FIG. 12 shows an example of the result of template matching. The shift amounts dux and duy correspond to 1203 and 1204, respectively, and the shift amounts dlx and dly correspond to 1207 and 1208, respectively. When a circuit pattern having the same shape is repeatedly formed as in the memory cell portion, there are a plurality of matching portions. Therefore, inconsistency may occur when template matching between the image BU and the image TU and template matching between the image BL and the image TL are performed independently. In order to solve this problem, the template matching unit 819 is used to roughly align the reference image and the image to be measured, and the template matching unit 810 performs template matching around the matching position 820. You can do it.

以上は、pを基準に回路パターン領域を2グループに分割する方法を示したが、第1〜mの露光パターンについて独立に良品画像と被計測画像間での位置ずれ量を算出しても良い。   The above has shown the method of dividing the circuit pattern region into two groups based on p. However, the positional deviation amount between the non-defective image and the image to be measured may be calculated independently for the first to m exposure patterns. .

次に、オーバーレイ算出処理(S605)について説明する。本処理はオーバーレイ算出部210を用いて行われる。図8のオーバーレイ算出部811は図2の本実施例に係るオーバーレイ算出部210の構成を示したものである。本処理の入力は画像差異定量化部の出力である第p以降の露光により形成された回路パターンのずれ量(dux812、duy814)と、第p−1以前の露光により形成された回路パターンのずれ量(dlx813、dly815)である。本処理では減算部816を用いて数2によりx方向のオーバーレイdx(817)を算出し、数3によりy方向のオーバーレイdy(818)を算出する。なお、以上は第p−1以前の露光により形成される回路パターンを基準パターンとした場合の計算方法であり、第p以降の露光により形成される回路パターンを基準パターンとする場合には、数2、数3により算出された値の正負を反転させれば良い。
(数2)
dx=dux−dlx
(数3)
dy=duy−dly
ここで、回路パターン領域認識部804における認識処理について説明する。半導体製造工程は多数の工程から成り立っており、工程や製品の違いにより取得される画像の外観は様々である。回路パターン領域を認識するにあたり、最も処理が容易なのは、回路パターン領域の濃淡値が回路パターンを形成した露光工程ごとに異なる場合である。例えば第1の露光により形成される回路パターンと第2の露光により形成される回路パターンの材料が異なる場合、発生する2次電子数や反射電子数が異なるため濃淡値に違いが生じる。
また、第2の露光により形成される回路パターンが第1の露光により形成される回路パターンの上に積層されている場合などは、発生した2次電子や反射電子の検出率の違いにより濃淡値に違いが生じる場合がある。
Next, the overlay calculation process (S605) will be described. This process is performed using the overlay calculation unit 210. An overlay calculation unit 811 in FIG. 8 shows the configuration of the overlay calculation unit 210 according to the present embodiment in FIG. The input of this process is the shift amount (dux 812, duy 814) of the circuit pattern formed by the pth and subsequent exposures, which is the output of the image difference quantification unit, and the shift of the circuit pattern formed by the exposure before the p-1th. Quantity (dlx813, dly815). In this process, the subtraction unit 816 is used to calculate the overlay dx (817) in the x direction using Equation 2, and the overlay dy (818) in the y direction is calculated using Equation 3. The above is a calculation method when the circuit pattern formed by the exposure before the p-1th is used as the reference pattern. When the circuit pattern formed by the exposure after the pth is used as the reference pattern, the calculation method is several. What is necessary is just to invert the value of the value calculated by 2 and Formula 3.
(Equation 2)
dx = dux−dlx
(Equation 3)
dy = duy-dly
Here, the recognition processing in the circuit pattern region recognition unit 804 will be described. The semiconductor manufacturing process is composed of a number of processes, and the appearance of images acquired by differences in processes and products varies. When recognizing the circuit pattern area, the easiest process is when the gray value of the circuit pattern area differs for each exposure process in which the circuit pattern is formed. For example, when the circuit pattern formed by the first exposure is different from the material of the circuit pattern formed by the second exposure, the gray value is different because the number of secondary electrons and the number of reflected electrons generated are different.
Further, when the circuit pattern formed by the second exposure is stacked on the circuit pattern formed by the first exposure, etc., the gray level value varies depending on the detection rate of the generated secondary electrons and reflected electrons. There may be differences.

図13は回路パターン領域の濃淡値が回路パターンを形成した露光工程ごとに異なる画像を対象とした認識処理のフローである。まず、画像に対してノイズ除去などの前処理を行う(S1301)。次に、画像のヒストグラムを作成する(S1302)。作成したヒストグラムにおいては図14に示すように、露光インデックスに応じた複数の分布が混在して観察される。このヒストグラムから各分布を分離するしきい値を算出する(S1303)。次に、画像中の各画素について濃淡しきい値を適用し、画素ごとに露光インデックスを認識する(S1304)。各画素に独立にしきい値を適用した後では、ノイズなどの影響により微小な誤認識領域が発生する場合がある。そこで、膨張・縮退処理などを行い領域を整形する(S1305)。
なお、回路パターン領域の認識手法は図13に示した方法に限らない。例えば、画像からエッジを検出し、エッジに囲まれる閉領域について外観特徴を定量化し、外観特徴から各閉領域の露光インデックスを認識しても良い。
FIG. 13 is a flow of recognition processing for an image in which the grayscale value of the circuit pattern region is different for each exposure process in which the circuit pattern is formed. First, preprocessing such as noise removal is performed on the image (S1301). Next, an image histogram is created (S1302). In the created histogram, as shown in FIG. 14, a plurality of distributions corresponding to the exposure index are observed together. A threshold for separating each distribution is calculated from the histogram (S1303). Next, a grayscale threshold is applied to each pixel in the image, and an exposure index is recognized for each pixel (S1304). After a threshold value is independently applied to each pixel, a minute misrecognition region may occur due to the influence of noise or the like. Therefore, the region is shaped by performing expansion / reduction processing (S1305).
The circuit pattern region recognition method is not limited to the method shown in FIG. For example, the edge may be detected from the image, the appearance feature may be quantified for the closed region surrounded by the edge, and the exposure index of each closed region may be recognized from the appearance feature.

次に、テンプレートマッチング部810、819における処理について説明する。本処理では2枚の画像のずれ量を変化させながら、2画像の重複領域における画像濃淡の一致度を評価し、画像の一致度が最大となった時のずれ量を出力する。一致度の評価値としては正規化相互相関値を用いても良いし、差の二乗和などを用いても良い。   Next, processing in the template matching units 810 and 819 will be described. In this process, the degree of coincidence of image density in the overlapping region of two images is evaluated while changing the amount of deviation between the two images, and the amount of deviation when the degree of coincidence of the images is maximized is output. As the evaluation value of the degree of coincidence, a normalized cross correlation value may be used, or a sum of squares of differences may be used.

以降では本発明に係るユーザインターフェースに関して説明する。   Hereinafter, the user interface according to the present invention will be described.

図15は計測座標を設定するインターフェースの一例を表した図である。
本インターフェースでは、登録されているチップ座標一覧を表示するインターフェース1501、新たなチップ座標を登録するインターフェースを呼び出すボタン1502、登録されたチップ座標を修正するインターフェースを呼び出すボタン1503、登録されたチップ座標を削除するボタン1504を備える。また、計測対象のチップを選択するインターフェース1505、登録された計測座標の画像とそれに関連した情報を表示するインターフェース1506、撮像する計測座標の一覧を表示するインターフェース1507を備える。また、以前に登録した計測座標の一覧を読み込むボタン1509、登録した計測座標の一覧に名前をつけて保存するボタン1510を備える。
FIG. 15 is a diagram illustrating an example of an interface for setting measurement coordinates.
In this interface, an interface 1501 for displaying a list of registered chip coordinates, a button 1502 for calling an interface for registering a new chip coordinate, a button 1503 for calling an interface for correcting a registered chip coordinate, and a registered chip coordinate. A delete button 1504 is provided. Further, an interface 1505 for selecting a measurement target chip, an interface 1506 for displaying an image of registered measurement coordinates and information related thereto, and an interface 1507 for displaying a list of measurement coordinates to be imaged are provided. Further, a button 1509 for reading a list of previously registered measurement coordinates and a button 1510 for naming and saving the list of registered measurement coordinates are provided.

本実施例にかかるオーバーレイ計測条件を設定するためのインターフェースの一例を説明する。
図16は、計測条件を設定するインターフェースの一例を表した図である。
本インターフェースには取得した画像の一覧を表示するインターフェース1601、画像を撮像したチップの位置を表示するインターフェース1602、選択された画像を基準画像として設定するボタン1603、インターフェース1601において選択された複数枚の画像もしくは撮像した全ての画像から基準画像を合成する処理を呼び出すボタン1604、設定した基準画像を画像記憶部205に記憶するボタン1605、画像記憶部205から画像を読み込み基準画像として設定するボタン1606を備える。また、処理パラメータを設定するボタン1607、撮像した被計測画像に対して前述の処理S602〜S607を実行するボタン1608を備える。
An example of an interface for setting overlay measurement conditions according to the present embodiment will be described.
FIG. 16 is a diagram illustrating an example of an interface for setting measurement conditions.
This interface includes an interface 1601 for displaying a list of acquired images, an interface 1602 for displaying the position of the chip that has captured the image, a button 1603 for setting the selected image as a reference image, and a plurality of images selected by the interface 1601. A button 1604 for calling a process for synthesizing a reference image from an image or all captured images, a button 1605 for storing the set reference image in the image storage unit 205, and a button 1606 for reading an image from the image storage unit 205 and setting it as a reference image Prepare. Further, a button 1607 for setting a processing parameter and a button 1608 for executing the above-described processing S602 to S607 on the measured image to be measured are provided.

図17は、本実施例に係るオーバーレイ計測結果を表示するためのインターフェースの一例を示す図である。
本インターフェースはオーバーレイ計測結果をウェハ上に重ねて表示するインターフェース1701、オーバーレイの大きさについてヒストグラムを表示するインターフェース1702、ウェハマップやヒストグラムに表示する計測結果を指定するインターフェース1703を備える。また、画像を確認するインターフェースとして、基準画像と被計測画像を並べて表示するインターフェース1704、基準画像と被計測画像の位置を指定された基準で合わせた上で重ねて表示するインターフェース1705を備える。
FIG. 17 is a diagram illustrating an example of an interface for displaying the overlay measurement result according to the present embodiment.
This interface includes an interface 1701 for displaying an overlay measurement result on a wafer, an interface 1702 for displaying a histogram regarding the size of the overlay, and an interface 1703 for designating a measurement result to be displayed on a wafer map or histogram. In addition, as an interface for confirming the image, an interface 1704 for displaying the reference image and the measured image side by side, and an interface 1705 for displaying the reference image and the measured image in a superimposed manner after matching the positions of the reference image and the measured image with a designated reference are provided.

図32は本実施例に係る処理のパラメータを調整するためのインターフェースの一例を示す図である。
本インターフェースは基準画像と回路パターン領域の認識結果を表示するインターフェース3201、画像中に観察される露光インデックスの最大値や回路パターンを露光インデックスで分割する際のしきい値p、基準パターンの露光インデックスを指定するインターフェース3202を備える。
FIG. 32 is a diagram illustrating an example of an interface for adjusting processing parameters according to the present embodiment.
This interface is an interface 3201 for displaying the recognition result of the reference image and the circuit pattern area, the maximum value of the exposure index observed in the image, the threshold p when dividing the circuit pattern by the exposure index, and the exposure index of the reference pattern Is provided with an interface 3202.

以上説明したように、基準画像と被計測画像間における回路パターンの位置ずれ量を、各露光により形成される回路パターンごとに定量化し、各露光により形成される回路パターンごとに算出された位置ずれ量の差分を算出することで、実パターンにおいてオーバーレイを計測可能となる。そのため、特許文献1に記載の方法のように、オーバーレイ計測用の専用パターンをウェハ上に形成する必要がない。また、本実施例に記載の方法によれば、特許文献2に記載の方法のようにCADデータを扱う必要がなく、簡便にオーバーレイを計測することが可能となる。また、テンプレートマッチングにより基準画像と被計測画像の位置合わせを行っており、特許文献3に記載の方法のように座標の相対ベクトルを比較する方法に比べ、形成不良などによる回路パターンの変形などに対して頑健である。   As described above, the amount of positional deviation of the circuit pattern between the reference image and the image to be measured is quantified for each circuit pattern formed by each exposure, and the positional deviation calculated for each circuit pattern formed by each exposure. By calculating the amount difference, overlay can be measured in the actual pattern. Therefore, unlike the method described in Patent Document 1, it is not necessary to form a dedicated pattern for overlay measurement on the wafer. Further, according to the method described in the present embodiment, it is not necessary to handle CAD data unlike the method described in Patent Document 2, and it is possible to easily measure the overlay. In addition, the reference image and the image to be measured are aligned by template matching. Compared to the method of comparing relative vectors of coordinates as in the method described in Patent Document 3, the circuit pattern is deformed due to defective formation or the like. Robust against it.

実施例1では基準画像と被計測画像のそれぞれについて回路パターン領域を認識し、各露光により形成される回路パターンごとに位置ずれ量を定量化し、オーバーレイを計測する手法について述べた。実施例2では、基準画像についてのみ回路パターン領域を認識し、各露光により形成される回路パターンごとに位置ずれ量を定量化し、オーバーレイを計測する手法について述べる。   In the first embodiment, the method of recognizing the circuit pattern region for each of the reference image and the image to be measured, quantifying the amount of displacement for each circuit pattern formed by each exposure, and measuring the overlay has been described. In the second embodiment, a technique for recognizing a circuit pattern region only for a reference image, quantifying a positional deviation amount for each circuit pattern formed by each exposure, and measuring an overlay will be described.

本実施例に係る装置構成は実施例1で示した図1および図2と同様である。また、計測フローも図6および図7と同様である。また、インターフェースに関しても図15および図16、図17と同様のものを備える。異なるのは、画像差異定量化部209(図8の801に対応)の構成と、画像差異定量化処理のフローである。以降においては、図18乃至21を用いて実施例1と異なる部分についてのみ説明する。   The apparatus configuration according to the present embodiment is the same as that shown in FIGS. 1 and 2 shown in the first embodiment. Also, the measurement flow is the same as in FIGS. The interface is the same as that shown in FIGS. 15, 16, and 17. The difference is the configuration of the image difference quantification unit 209 (corresponding to 801 in FIG. 8) and the flow of the image difference quantification process. Hereinafter, only parts different from the first embodiment will be described with reference to FIGS.

図18は本発明に係る画像差異定量化部の構成を表した図、図19は本発明に係る基準画像と被計測画像の差異を定量化する処理フロー、図20は基準画像と被計測画像の差異を定量化する処理の途中結果を表した図、図21は回路パターン領域を指定するインターフェースの一例を表した図である。   18 is a diagram showing the configuration of the image difference quantifying unit according to the present invention, FIG. 19 is a processing flow for quantifying the difference between the reference image and the measured image according to the present invention, and FIG. 20 is the reference image and the measured image. FIG. 21 is a diagram showing an example of an interface for designating a circuit pattern region.

前述のように実施例2に係るオーバーレイ計測手法は基準画像と被計測画像の差異を定量化する方法が実施例1と異なる。実施例2に係る画像差異定量化部209の構成を図18に、処理のフローを図19に示す。本処理では基準画像を入力1801、被計測画像を入力1802とする。まず、回路パターン領域認識部1803を用いて基準画像を対象に各露光により形成される回路パターン領域を認識する(S1901)。次に、濃淡値抽出部1804を用いて、回路パターン領域の認識結果をもとに、基準画像から第p以降の露光により形成される回路パターン領域の濃淡値を抽出した画像BU(1805)を作成し(S1902)、基準画像から第p−1以前の露光により形成される回路パターン領域の濃淡値を抽出した画像BL(1806)を作成する(S1903)。なお、pは回路パターンを露光インデックスで分割する際のしきい値であり、ユーザから指定されたり、または予め定めたパラメータであってもよい。濃淡値抽出後、テンプレートマッチング部1807を用いて、画像BU(1805)と被計測画像(1802)の位置合わせを行い、x方向のずれ量dux(1808)と、y方向のずれ量duy(1809)を出力する(S1904)。同様に、画像BL(1806)と被計測画像(1802)の位置合わせを行い、x方向のずれ量dlx(1810)とy方向のずれ量dly(1811)を出力する(S1905)。本処理について図20に示す処理結果例を用いて補足する。画像2001は基準画像、画像2002は被計測画像の例を模式的に表した図である。なお画像は図4に示したように第1の露光により形成された回路パターンの上に、第2の露光により形成された回路パターンが積層されて形成されている構造を撮像したものとする。画像2003、2004はp=2としたときの画像BUと画像BLを表した図である。画像2005は被計測画像(2002)と画像BU(2003)をテンプレートマッチングにより位置合わせした結果を表した図であり、ずれ量duxとduyはそれぞれ2006と2007に対応する。画像2008は被計測画像(2002)と画像BL(2004)をテンプレートマッチングにより位置合わせした結果を表した図である。このとき、被計測画像(2002)には第p以降の露光により形成された回路パターン領域の濃淡も含まれるため、画像の濃淡が一致しない領域2009が発生する場合がある。しかし、本領域が占める割合が小さい場合には正しく位置合わせを行うことが可能であり、ずれ量dlxとdlyは2010と2011となる。   As described above, the overlay measurement method according to the second embodiment is different from the first embodiment in the method for quantifying the difference between the reference image and the measured image. FIG. 18 shows the configuration of the image difference quantification unit 209 according to the second embodiment, and FIG. 19 shows the processing flow. In this process, the reference image is input 1801 and the image to be measured is input 1802. First, a circuit pattern area recognition unit 1803 is used to recognize a circuit pattern area formed by each exposure for a reference image (S1901). Next, using the gray value extraction unit 1804, an image BU (1805) obtained by extracting the gray value of the circuit pattern region formed by the p-th and subsequent exposures from the reference image based on the recognition result of the circuit pattern region. An image BL (1806) is created (S1903), and the gray value of the circuit pattern area formed by the exposure before the p-1th is extracted from the reference image (S1903). Note that p is a threshold value when the circuit pattern is divided by the exposure index, and may be designated by the user or a predetermined parameter. After the gray value extraction, the template matching unit 1807 is used to align the image BU (1805) and the image to be measured (1802), the x-direction deviation amount dux (1808), and the y-direction deviation amount duy (1809). ) Is output (S1904). Similarly, the image BL (1806) and the image to be measured (1802) are aligned, and the shift amount dlx (1810) in the x direction and the shift amount dly (1811) in the y direction are output (S1905). This process will be supplemented by using a processing result example shown in FIG. An image 2001 is a diagram schematically illustrating an example of a reference image, and an image 2002 is an example of an image to be measured. The image is an image of a structure in which the circuit pattern formed by the second exposure is laminated on the circuit pattern formed by the first exposure as shown in FIG. Images 2003 and 2004 are images showing an image BU and an image BL when p = 2. An image 2005 is a diagram showing the result of aligning the image to be measured (2002) and the image BU (2003) by template matching. The shift amounts dux and duy correspond to 2006 and 2007, respectively. An image 2008 is a diagram showing a result of positioning the measured image (2002) and the image BL (2004) by template matching. At this time, since the image to be measured (2002) includes the density of the circuit pattern area formed by the p-th and subsequent exposures, an area 2009 in which the density of the image does not match may occur. However, when the ratio occupied by this area is small, alignment can be performed correctly, and the shift amounts dlx and dly are 2010 and 2011, respectively.

本実施例においては被計測画像から回路パターン領域の認識を行わない。また、基準画像の回路パターン領域の認識は、複数枚の被計測画像を処理する度に行う必要はなく、認識した結果を画像記憶部205に記憶しておき、必要に応じて読み込むようにしても良い。これにより、回路パターン領域の認識にかかる時間を削減でき、計測時間を短縮することが可能である。   In this embodiment, the circuit pattern area is not recognized from the image to be measured. The circuit pattern area of the reference image need not be recognized every time a plurality of measured images are processed, and the recognized result is stored in the image storage unit 205 and is read as necessary. Also good. As a result, the time required for recognizing the circuit pattern region can be reduced, and the measurement time can be shortened.

また、基準画像の回路パターン領域の認識を自動で行う必要はなく、ユーザが各露光により形成される回路パターンの領域を指定するようにしても良い。領域を指定するためのインターフェースの一例を図21に示す。本インターフェースでは、S603において設定された基準画像を表示するインターフェース2101と、領域情報の追加や削除を行うインターフェース2102、領域を定義するための各種ツールボタン2103から構成される。これにより、例えばダブルパターニングのように第1と第2の露光により形成される回路パターンの外観が類似しており、回路パターン認識処理により弁別が困難な場合においても対応可能となる。   Further, it is not necessary to automatically recognize the circuit pattern area of the reference image, and the user may designate the area of the circuit pattern formed by each exposure. An example of an interface for designating an area is shown in FIG. This interface includes an interface 2101 for displaying the reference image set in S603, an interface 2102 for adding and deleting area information, and various tool buttons 2103 for defining areas. Thereby, for example, the appearance of the circuit pattern formed by the first and second exposures is similar, such as double patterning, and it is possible to cope with the case where discrimination is difficult by the circuit pattern recognition process.

以上説明した方法および装置構成によれば、実施例1で説明した効果に加え、オーバーレイを高速に計測することが可能となる。   According to the method and apparatus configuration described above, in addition to the effects described in the first embodiment, it is possible to measure the overlay at high speed.

実施例1および2では基準画像と被計測画像から回路パターン領域を認識し、各露光により形成される回路パターンごとに位置ずれ量を定量化し、オーバーレイを計測する手法について述べた。実施例3では、基準画像と被計測画像の画像濃淡値に関する差異を定量化し、オーバーレイを計測する手法について述べる。 この方法は画像の撮像視野を広くすることで、画素サイズが大きくなり、回路パターン領域を自動認識するのが困難な場合に有効である。   In the first and second embodiments, the method of recognizing the circuit pattern region from the reference image and the image to be measured, quantifying the displacement amount for each circuit pattern formed by each exposure, and measuring the overlay is described. In the third embodiment, a method for quantifying the difference between the image grayscale values of the reference image and the measured image and measuring the overlay will be described. This method is effective when the image field of view of the image is widened to increase the pixel size and it is difficult to automatically recognize the circuit pattern region.

本実施例に係る装置構成は図1と同様である。また、計測フローも図6および図7と同様である。また、インターフェースに関しても図15および図16と同様のものを備える。実施例1と比較し、画像差異定量化部209の構成とオーバーレイ算出部210の構成、および被計測画像と基準画像の差異を定量化する処理(S604)とオーバーレイ算出処理(S605)のフローが異なる。以降においては、図22乃至30を用いて実施例1と異なる部分についてのみ説明する。   The apparatus configuration according to this embodiment is the same as that shown in FIG. Also, the measurement flow is the same as in FIGS. Further, the same interface as that shown in FIGS. 15 and 16 is provided. Compared with the first embodiment, the configuration of the image difference quantification unit 209 and the overlay calculation unit 210, and the flow of the process of quantifying the difference between the image to be measured and the reference image (S604) and the overlay calculation process (S605) are as follows. Different. Hereinafter, only parts different from the first embodiment will be described with reference to FIGS.

図22は本発明に係るオーバーレイ計測装置の記憶部103および演算部104の構成図、図23は本発明に係る画像差異定量化部とオーバーレイ算出部の構成を表した図、図24は本発明に係る基準画像と被計測画像の差異を定量化する処理フロー(S604)である。   FIG. 22 is a configuration diagram of the storage unit 103 and the calculation unit 104 of the overlay measurement apparatus according to the present invention, FIG. 23 is a diagram showing the configuration of the image difference quantification unit and the overlay calculation unit according to the present invention, and FIG. It is a processing flow (S604) which quantifies the difference of the reference | standard image which concerns on, and a to-be-measured image.

図22のオーバーレイ計測装置の記憶部103および演算部104は、実施例1に記載の構成に加え、回帰モデル記憶部2201と回帰モデル算出部2202を備える。   22 includes a regression model storage unit 2201 and a regression model calculation unit 2202 in addition to the configuration described in the first embodiment.

図24で示す基準画像と被計測画像の差異を定量化する処理(S604)は、基準画像を入力2302、被計測画像を入力2303とする。まず、差異部検出部2304を用いて、基準画像との比較検査により被計測画像から差異部を検出する(S2401)。比較検査の方法としては例えば、基準画像と被計測画像を位置合わせした後に濃淡値の差を算出し、差の値が一定値以上となる画素からなる領域を差異部として検出すれば良い。差異部検出後、差異部特徴量算出部2305を用いて、差異部の外観特徴を定量化する(S2402)。特徴としては例えば、差異部の面積や、円形度、濃淡値の平均値、基準画像と被計測画像の平均濃淡差などを定量化する。次に差異部フィルタリング部2306を用いて、抽出された差異部の中から指定された条件に一致する特徴をもつ差異部のみを抽出する(S2403)。最後に、特徴量集計部2307を用いて、処理S2403において抽出された差異部の特徴量を集計する(S2404)。集計する方法としては例えば、複数の差異部から得られる特徴量の平均を算出しても良いし、最大値や最小値などを算出しても良い。   In the process of quantifying the difference between the reference image and the image to be measured shown in FIG. 24 (S604), the reference image is input 2302 and the image to be measured is input 2303. First, using the difference detection unit 2304, a difference is detected from the image to be measured by comparison inspection with the reference image (S2401). As a comparative inspection method, for example, after the reference image and the image to be measured are aligned, the difference between the gray values is calculated, and an area composed of pixels in which the difference value is a certain value or more is detected as the difference portion. After the difference portion is detected, the appearance feature of the difference portion is quantified using the difference portion feature amount calculation portion 2305 (S2402). As the features, for example, the area of the difference portion, the circularity, the average value of the gradation values, the average gradation difference between the reference image and the image to be measured are quantified. Next, the difference filtering unit 2306 is used to extract only the difference having characteristics that match the specified condition from the extracted difference (S2403). Finally, using the feature amount totaling unit 2307, the feature amounts of the different portions extracted in step S2403 are totaled (S2404). As a method of aggregation, for example, an average of feature amounts obtained from a plurality of different parts may be calculated, or a maximum value, a minimum value, or the like may be calculated.

本実施例にかかるオーバーレイ算出部2308を用いたオーバーレイ算出処理(S605)について説明する。オーバーレイ算出部2308の構成を図23に示す。本処理は被計測画像から検出された差異部から算出した特徴量2309を入力とする。本処理は回帰モデル代入部2310を用いて、後述する方法により事前に求めた回帰モデルに特徴量を代入し、x方向のオーバーレイ2311およびy方向のオーバーレイ2312を算出する。   An overlay calculation process (S605) using the overlay calculation unit 2308 according to the present embodiment will be described. The configuration of the overlay calculation unit 2308 is shown in FIG. In this processing, the feature quantity 2309 calculated from the difference portion detected from the image to be measured is input. In this processing, the regression model substitution unit 2310 is used to substitute a feature amount into a regression model obtained in advance by a method to be described later, thereby calculating an overlay 2311 in the x direction and an overlay 2312 in the y direction.

図25に差異部面積fとX方向のオーバーレイ(dx)との関係を示す回帰モデルの一例を示す。特徴量2309を回帰モデル2501のfに代入することでx方向のオーバーレイ2311が算出される。なお、ここではX方向のオーバーレイに関する回帰モデルを示したが、Y方向のオーバーレイに関する回帰モデルを用いればY方向のオーバーレイ2312を算出可能となる。   FIG. 25 shows an example of a regression model showing the relationship between the difference area f and the overlay (dx) in the X direction. An overlay 2311 in the x direction is calculated by substituting the feature quantity 2309 into f of the regression model 2501. Here, the regression model related to the X-direction overlay is shown, but if the regression model related to the Y-direction overlay is used, the Y-direction overlay 2312 can be calculated.

次に、回帰モデルの作成方法について説明する。   Next, a method for creating a regression model will be described.

図26は回帰モデル作成処理のフロー、図27は回帰モデル作成のための画像撮像フロー、図28は本発明に係る回帰モデル算出部2202の構成を示す図である。
以降、図26に沿って処理の手順を説明する。まず、図27に示した画像撮像フローに従って、計測座標を第1と第2の画素サイズで撮像した画像を取得する(S2601)。
このとき、第1の画素サイズは第2の画素サイズよりも大きいものとする。次に、基準画像の設定を行う(S2602)。基準画像は被計測画像の中からユーザが選択しても良いし、基準画像合成部208を用いて被計測画像から基準像を合成しても良い。次に、第1の画素サイズの画像を用いて差異部の特徴量を算出する(S2603)。また、第2の画素サイズの画像を用いてオーバーレイを計測する(S2604)。以上の処理S2603とS2604を全ての画像について完了するまで繰り返し実行する(S2605)。次に、回帰分析により回帰モデルを作成する(S2606)。以降において、処理S2601とS2603、S2604、S2606の詳細を説明する。
26 is a flow of regression model creation processing, FIG. 27 is an image capture flow for creating a regression model, and FIG. 28 is a diagram showing a configuration of the regression model calculation unit 2202 according to the present invention.
Hereinafter, the processing procedure will be described with reference to FIG. First, in accordance with the image capturing flow shown in FIG. 27, an image obtained by capturing measurement coordinates with the first and second pixel sizes is acquired (S2601).
At this time, the first pixel size is larger than the second pixel size. Next, a reference image is set (S2602). The reference image may be selected by the user from the measured image, or the reference image may be synthesized from the measured image using the reference image synthesis unit 208. Next, the feature amount of the difference portion is calculated using the image having the first pixel size (S2603). Further, overlay is measured using an image of the second pixel size (S2604). The above processes S2603 and S2604 are repeated until all the images are completed (S2605). Next, a regression model is created by regression analysis (S2606). Hereinafter, the details of the processes S2601, S2603, S2604, and S2606 will be described.

第1と第2の画素サイズで被計測画像を取得する処理(S2601)の詳細について、図27の処理フローを用いて説明する。
まず、計測対象のウェハ108をステージ109上にロードし(S2701)、ウェハに対応したレシピをレシピ記憶部206から読み込む(S2702)。次に、計測座標を計測座標記憶部207から読み込む(S2703)。座標読み込み後(もしくは並行して)、ウェハアライメントを行う(S2704)。ウェハアライメント後、SEM101を制御し、指定した座標について第1の画素サイズで画像を撮像する(S2705)。次に、同じ座標について第2の画素サイズで画像を撮像する(S2706)。この時、撮像した各画像には位置IDを付帯情報として付与する。全ての撮像が完了するまで繰り返し行い(S2707)、最後にウェハをアンロード(S2708)する。なお、第1の画素サイズは第2の画素サイズよりも大きいものとする。また、画素サイズを変えるためには、画素のサンプリングピッチを変えても良いし、撮像視野の大きさを変えても良い。
Details of the process (S2601) of acquiring the measured image with the first and second pixel sizes will be described with reference to the process flow of FIG.
First, the wafer 108 to be measured is loaded on the stage 109 (S2701), and a recipe corresponding to the wafer is read from the recipe storage unit 206 (S2702). Next, the measurement coordinates are read from the measurement coordinate storage unit 207 (S2703). After reading the coordinates (or in parallel), wafer alignment is performed (S2704). After the wafer alignment, the SEM 101 is controlled to capture an image with the first pixel size at the designated coordinates (S2705). Next, an image is picked up with the second pixel size for the same coordinates (S2706). At this time, the position ID is given as supplementary information to each captured image. It repeats until all the imaging is completed (S2707), and finally unloads the wafer (S2708). Note that the first pixel size is larger than the second pixel size. In order to change the pixel size, the sampling pitch of the pixels may be changed or the size of the imaging field of view may be changed.

次に、第1の画素サイズの画像を用いて差異部の特徴量を算出する処理(S2603)および第2の画素サイズの画像を用いてオーバーレイを計測する処理(S2604)の詳細について説明する。
第1の画素サイズの画像を用いて差異部の特徴量を算出する処理(S2603)は、第1画像差異定量化部2805を用いて行われる。第1画像差異定量化部2805は図23に示した画像差異定量化部2301と同様の構成であり、処理手順は図24に示したフローと同様である。第2の画素サイズの画像を用いてオーバーレイを計測する処理(S2604)は、第2画像差異定量化部2806とオーバーレイ算出部2807を用いて行われる。第2画像差異定量化部2806は実施例1で示した画像差異定量化部(図8の801)と同様の構成であり、処理手順は実施例1で示した図9のフローと同様である。また、オーバーレイ算出部2807は実施例1で示したオーバーレイ算出部(図8の811)と同様の構成であり、処理手順は実施例1で示した手順と同様である。
Next, the details of the process of calculating the feature amount of the difference portion using the image of the first pixel size (S2603) and the process of measuring the overlay using the image of the second pixel size (S2604) will be described.
The process (S2603) of calculating the feature amount of the difference part using the image of the first pixel size is performed using the first image difference quantification part 2805. The first image difference quantification unit 2805 has the same configuration as the image difference quantification unit 2301 shown in FIG. 23, and the processing procedure is the same as the flow shown in FIG. The process of measuring the overlay using the image of the second pixel size (S2604) is performed using the second image difference quantification unit 2806 and the overlay calculation unit 2807. The second image difference quantification unit 2806 has the same configuration as the image difference quantification unit (801 in FIG. 8) shown in the first embodiment, and the processing procedure is the same as the flow of FIG. 9 shown in the first embodiment. . The overlay calculation unit 2807 has the same configuration as the overlay calculation unit (811 in FIG. 8) shown in the first embodiment, and the processing procedure is the same as the procedure shown in the first embodiment.

次に、回帰分析により回帰モデルを作成する処理(S2606)の詳細について説明する。回帰分析処理(S2606)は回帰分析部2811を用いて行われる。回帰分析部2811は第1画像差異定量化部2805が出力した差異部の特徴量2808と、第2画像差異定量化部が出力したX方向のオーバーレイ2809と、Y方向のオーバーレイ2810を入力とする。図29は複数の計測座標における、差異部の特徴量2808とX方向のオーバーレイ2809の算出結果をプロットとした例である。回帰分析部2811では差異部の特徴量を説明変数、オーバーレイを目的変数とし、両者の関係を表す回帰モデル(数式)を回帰分析により算出する。回帰分析の手法としては最小二乗法などを用いれば良い。また、使用する特徴量は一種類でなくともよく、例えば差異部面積と平均濃淡値を用いて、重回帰分析をしても良い。以上により、回帰モデル算出部2202はX方向のオーバーレイに関する回帰モデル2812と、Y方向のオーバーレイに関する回帰モデル2813を出力する。   Next, details of the process of creating a regression model by regression analysis (S2606) will be described. The regression analysis process (S2606) is performed using the regression analysis unit 2811. The regression analysis unit 2811 receives the feature value 2808 of the difference portion output from the first image difference quantification unit 2805, the overlay 2809 in the X direction output from the second image difference quantification unit, and the overlay 2810 in the Y direction. . FIG. 29 is an example in which the calculation result of the feature amount 2808 of the difference portion and the overlay 2809 in the X direction at a plurality of measurement coordinates is plotted. The regression analysis unit 2811 calculates the regression model (formula) representing the relationship between the feature quantity of the difference part as the explanatory variable and the overlay as the objective variable by regression analysis. A least square method or the like may be used as a regression analysis method. Further, the feature amount to be used may not be one type, and for example, multiple regression analysis may be performed using the difference area and the average gray value. As described above, the regression model calculation unit 2202 outputs the regression model 2812 related to the X-direction overlay and the regression model 2813 related to the Y-direction overlay.

なお、第2画像差異定量化部2806の構成は、実施例2で示した画像差異定量化部(図18)と同様の構成であっても良い。また、回帰分析部2811の入力となるオーバーレイは、画像から手動で算出したものでも良いし、CD−SEMなどの他の計測装置で計測した結果でも良い。   The configuration of the second image difference quantification unit 2806 may be the same as that of the image difference quantification unit (FIG. 18) shown in the second embodiment. In addition, the overlay serving as an input of the regression analysis unit 2811 may be manually calculated from an image, or may be a result of measurement using another measurement device such as a CD-SEM.

本実施例に係るオーバーレイ計測結果を表示するためのインターフェースの一例を図30に示す。本インターフェースはオーバーレイ計測結果をウェハ上に重ねて表示するインターフェース3001、オーバーレイの大きさについてヒストグラムを表示するインターフェース3002、ウェハマップやヒストグラムに表示する計測結果を指定するインターフェース3003を備える。また、基準画像と被計測画像および差異部検出結果を並べて表示するインターフェース3004、算出した回帰モデルを表示するインターフェース3005を備える。   FIG. 30 shows an example of an interface for displaying the overlay measurement result according to the present embodiment. This interface includes an interface 3001 for displaying overlay measurement results on a wafer, an interface 3002 for displaying a histogram on the size of the overlay, and an interface 3003 for designating measurement results to be displayed on a wafer map or histogram. Further, an interface 3004 for displaying the reference image, the measured image, and the difference detection result side by side, and an interface 3005 for displaying the calculated regression model are provided.

以上説明したように、基準画像と被計測画像の差異を差異部により検出し、差異部の特徴を特徴量として定量化し、特徴量を事前に求めた回帰モデルに当てはめることで、実パターンにおいてオーバーレイを計測可能となる。本方法は、画素サイズが大きく、回路パターン領域を高精度かつ頑健に認識することが困難な場合においてもオーバーレイを計測可能である。これにより広い視野を撮像した画像からもオーバーレイを計測可能となり、単位時間当たりの計測領域を広くすることができる。   As described above, the difference between the reference image and the image to be measured is detected by the difference part, the feature of the difference part is quantified as the feature quantity, and the feature quantity is applied to the regression model obtained in advance, so that the overlay in the actual pattern Can be measured. This method can measure the overlay even when the pixel size is large and it is difficult to recognize the circuit pattern region with high accuracy and robustness. As a result, overlay can be measured even from an image obtained by imaging a wide field of view, and the measurement area per unit time can be widened.

実施例1および2では基準画像と被計測画像から回路パターン領域を認識し、各露光により形成される回路パターンごとに位置ずれ量を定量化し、オーバーレイを計測する手法について述べた。また、実施例3では、基準画像と被計測画像の差異を差異部の特徴量として定量化し、オーバーレイを計測する手法について述べた。実施例4では、前述の実施例を組み合わせることにより、単位時間当たりの計測領域を広くしつつ、高精度にオーバーレイを計測する手法について述べる。   In the first and second embodiments, the method of recognizing the circuit pattern region from the reference image and the image to be measured, quantifying the displacement amount for each circuit pattern formed by each exposure, and measuring the overlay is described. In the third embodiment, the method of quantifying the difference between the reference image and the image to be measured as the feature amount of the difference portion and measuring the overlay has been described. In the fourth embodiment, a method for measuring overlay with high accuracy while widening the measurement area per unit time by combining the above-described embodiments will be described.

本実施例にかかる装置構成は図1および図22と同様である。本実施例におけるオーバーレイ計測処理のフローを図31を用いて説明する。図31は、本発明に係るオーバーレイ計測処理のフローを表した図である。
まず、計測対象のウェハ108をステージ109上にロードし(S3101)、ウェハに対応したレシピをレシピ記憶部206から読み込む(S3102)。次に、事前に作成した回帰モデルを回帰モデル記憶部2201から読み込む(S3103)。次に、事前に設定された基準画像を画像記憶部205から読み込む(S3104)。次に、計測座標を計測座標記憶部207から読み込む(S3105)。座標読み込み後(もしくは並行して)、ウェハアライメントを行う(S3106)。ウェハアライメント後、SEM101を制御し、指定した座標について第1の画素サイズで画像を撮像する(S3107)。次に、第1の画素サイズの画像に対して、実施例3で示した画像差異定量化部2301を用いて、図24に示した処理手順により、被計測画像と基準画像の差異を定量化する(S3108)。次に、実施例3で示したオーバーレイ算出部2308を用いてオーバーレイの算出を行う(S3109)。次に処理S3109において算出したオーバーレイを、あらかじめ設定されたしきい値と比較する(S3110)。算出したオーバーレイがしきい値よりも大きかった場合、SEM101を制御し、指定した計測座標について第2の画素サイズで画像を撮像する(S3111)。次に、第2の画素サイズの画像に対して、実施例1で示した画像差異定量化部801を用いて、図9に示した処理手順により、被計測画像と基準画像の差異を定量化する(S3112)。次に、実施例1で示したオーバーレイ算出部811を用いてオーバーレイの算出を行う(S3113)。以上の処理S3107〜S3113を全ての計測座標点に対して完了するまで繰り返し実行する(S3114)。最後にウェハをアンロードする(S3115)。
The apparatus configuration according to this embodiment is the same as that shown in FIGS. The flow of overlay measurement processing in the present embodiment will be described with reference to FIG. FIG. 31 is a diagram showing the flow of overlay measurement processing according to the present invention.
First, the wafer 108 to be measured is loaded on the stage 109 (S3101), and a recipe corresponding to the wafer is read from the recipe storage unit 206 (S3102). Next, the regression model created in advance is read from the regression model storage unit 2201 (S3103). Next, a preset reference image is read from the image storage unit 205 (S3104). Next, the measurement coordinates are read from the measurement coordinate storage unit 207 (S3105). After reading the coordinates (or in parallel), wafer alignment is performed (S3106). After the wafer alignment, the SEM 101 is controlled to capture an image with the first pixel size at the designated coordinates (S3107). Next, the difference between the image to be measured and the reference image is quantified using the image difference quantification unit 2301 shown in the third embodiment and the processing procedure shown in FIG. 24 for the first pixel size image. (S3108). Next, overlay calculation is performed using the overlay calculation unit 2308 shown in the third embodiment (S3109). Next, the overlay calculated in step S3109 is compared with a preset threshold value (S3110). When the calculated overlay is larger than the threshold value, the SEM 101 is controlled to capture an image with the second pixel size for the designated measurement coordinate (S3111). Next, the difference between the image to be measured and the reference image is quantified using the image difference quantification unit 801 shown in the first embodiment and the processing procedure shown in FIG. 9 for the second pixel size image. (S3112). Next, overlay calculation is performed using the overlay calculation unit 811 shown in the first embodiment (S3113). The above processes S3107 to S3113 are repeatedly executed until completion for all measurement coordinate points (S3114). Finally, the wafer is unloaded (S3115).

以上説明した方法によれば、撮像視野が広い第1の画素サイズの画像を用いてオーバーレイを計測することで、単位時間あたりの計測領域を広くすることが可能である。また、第1の画素サイズの画像から計測されたオーバーレイがしきい値より大きく、より高精度な計測が必要とされる場合に、第2の画素サイズの画像を用いることで高精度にオーバーレイを計測可能である。   According to the method described above, it is possible to widen the measurement area per unit time by measuring the overlay using the image of the first pixel size having a wide imaging field of view. In addition, when the overlay measured from the image of the first pixel size is larger than the threshold value and more accurate measurement is required, the overlay of the second pixel size is used with high accuracy. It can be measured.

101・・・走査型電子顕微鏡(SEM)、112・・・画像生成部、207・・・計測座標記憶部、208・・・基準画像合成部、209・・・画像差異定量化部、210・・・オーバーレイ算出部、412・・・オーバーレイ、S601・・・被検査画像を取得するステップ、S603・・・基準画像設定ステップ、S604・・・被計測画像と基準画像の差異を定量化するステップ、S605・・・オーバーレイ算出ステップ、801・・・画像差異定量化部の構成例、811・・・オーバーレイ算出部の構成例、S901・・・基準画像の回路パターン領域を認識するステップ、S902・・・画像BUを作成するステップ、S903・・・画像BLを作成するステップ、S904・・・被計測画像の回路パターン領域を認識するステップ、S905・・・画像TUを作成するステップ、S906・・・画像TLを作成するステップ、S907・・・位置ずれ量(dux、duy)を算出するステップ、S908・・・位置ずれ量(dlx、dly)を算出するステップ、1203・・・duxの一例、1204・・・duyの一例、1207・・・dlxの一例、1208・・・dlyの一例、2201・・・回帰モデル記憶部、2202・・・回帰モデル算出部、2301・・・画像差異定量化部、2304・・・差異部検出部、2305・・・差異部特徴量算出部、2308・・・オーバーレイ算出部、2310・・・回帰モデル代入部、S2401・・・差異部を検出するステップ、S2402・・・差異部の特徴量を算出するステップ、2501・・・回帰モデルの一例、S2603・・・第1の画素サイズの画像を用いて差異部の特徴量を算出するステップ、S2604・・・第2の画素サイズの画像を用いてオーバーレイを計測するステップ、S2606・・・第2の画素サイズの画像を用いてオーバーレイを計測するステップ、S2705・・・第1の画素サイズで計測座標の画像を撮像するステップ、S2706・・・第2の画素サイズで計測座標の画像を撮像するステップ、2805・・・第1の画素サイズの画像を用いて差異部の特徴量を算出する手段、2806・・・第2の画素サイズの画像を用いてオーバーレイを計測する手段、2811・・・差異部の特徴量とオーバーレイの回帰モデルを作成する手段、S3109・・・第1の画素サイズの画像からオーバーレイを計測するステップ、S3110・・・第1の画素サイズの画像から算出したオーバーレイをしきい値と比較するステップ、S3111・・・第2の画素サイズで計測座標の画像を撮像するステップ、S3113・・・第2の画素サイズの画像からオーバーレイを計測するステップ DESCRIPTION OF SYMBOLS 101 ... Scanning electron microscope (SEM), 112 ... Image generation part, 207 ... Measurement coordinate memory | storage part, 208 ... Reference | standard image synthetic | combination part, 209 ... Image difference quantification part, 210. .. Overlay calculation unit, 412... Overlay, S601... Step for acquiring inspection image, S603... Reference image setting step, S604... Quantifying difference between image to be measured and reference image , S605 ... overlay calculation step, 801 ... configuration example of image difference quantification unit, 811 ... configuration example of overlay calculation unit, S901 ... step of recognizing circuit pattern region of reference image, S902 ..Step of creating image BU, S903... Step of creating image BL, S904... Step for recognizing circuit pattern region of image to be measured S905... Step for creating image TU, S906... Step for creating image TL, S907... Step for calculating misregistration amount (dux, duy), S908. dlx, dly) calculating step 1203 ... example of dux, 1204 ... example of duy, 1207 ... example of dlx, 1208 ... example of dly, 2201 ... regression model storage unit, 2202 ... Regression model calculation unit, 2301 ... Image difference quantification unit, 2304 ... Difference detection unit, 2305 ... Difference feature quantity calculation unit, 2308 ... Overlay calculation unit, 2310 ... Regression model substitution unit, S2401 ... Step for detecting a difference portion, S2402 ... Step for calculating a feature amount of the difference portion, 2501 ... Regression model One example, S2603... Calculating the feature amount of the difference using an image of the first pixel size, S2604... Measuring the overlay using an image of the second pixel size, S2606. A step of measuring an overlay using an image of the second pixel size, S2705... A step of capturing an image of measurement coordinates with the first pixel size, S2706... An image of measurement coordinates with the second pixel size. 2805... Means for calculating the feature amount of the difference portion using the image of the first pixel size, 2806... Means for measuring the overlay using the image of the second pixel size, 2811 ... means for creating a regression model of the feature quantity and overlay of the difference part, S3109 ... step for measuring the overlay from the image of the first pixel size. , S3110... Comparing the overlay calculated from the image of the first pixel size with a threshold, S3111... Capturing the image of the measurement coordinates with the second pixel size, S3113. Measuring overlay from an image of pixel size 2

Claims (4)

複数回の露光工程により回路パターンが形成されている半導体デバイスのオーバーレイを計測する装置であって、
該半導体デバイスの複数の領域の画像を撮像する撮像部と、
前記撮像部にて撮像された複数の撮像画像のうち、該半導体デバイスに形成された第1〜第mの露光による回路パターン領域を各々認識する回路パターン認識部を有し、
第1および第2のグループの2つのグループに回路パターンを分割するための回路パターンの露光インデックスを指定する入力部を有し、
前記第1および第2のグループに属する回路パターンの間で生じたオーバーレイを計測することを特徴とするオーバーレイ計測装置。
An apparatus for measuring an overlay of a semiconductor device on which a circuit pattern is formed by a plurality of exposure processes,
An imaging unit that captures images of a plurality of regions of the semiconductor device;
A circuit pattern recognition unit for recognizing each of the circuit pattern regions formed by the first to m-th exposures formed on the semiconductor device among the plurality of captured images captured by the imaging unit;
An input unit for designating an exposure index of a circuit pattern for dividing the circuit pattern into two groups of the first and second groups;
An overlay measuring apparatus for measuring an overlay generated between circuit patterns belonging to the first and second groups.
請求項1に記載のオーバーレイ計測装置において、
前記露光インデックスを指定する入力部は、前記2つのグループに分割する露光インデックスのしきい値を入力する部位を有することを特徴とするオーバーレイ計測装置。
The overlay measurement apparatus according to claim 1,
The overlay measurement apparatus, wherein the input unit for designating the exposure index has a part for inputting a threshold value of an exposure index to be divided into the two groups.
請求項2に記載のオーバーレイ計測装置において、
前記しきい値を入力する部位から露光インデックスのしきい値pを取得し、
前記撮像画像から第p以降の露光により形成された回路パターン領域の濃淡値を抽出した第1の画像と、第p−1以前の露光により形成された回路パターン領域の濃淡値を抽出した第2の画像を作成する濃淡値抽出部を有することを特徴とするオーバーレイ計測装置。
The overlay measurement apparatus according to claim 2,
An exposure index threshold value p is obtained from a portion where the threshold value is input,
A first image obtained by extracting the gray value of the circuit pattern area formed by the exposure after the pth from the captured image, and a second image obtained by extracting the gray value of the circuit pattern area formed by the exposure before the p-1th. An overlay measuring apparatus having a gray value extraction unit for creating an image of the above.
請求項2に記載のオーバーレイ計測装置において、
撮像撮像部にて撮像された複数の撮像画像から基準画像を設定する基準画像設定部を有し、
前記しきい値を入力する部位から露光インデックスのしきい値pを取得し、
前記基準画像設定部にて設定された基準画像から第p以降の露光により形成された回路パターン領域の濃淡値を抽出した第1の画像と、第p−1以前の露光により形成された回路パターン領域の濃淡値を抽出した第2の画像を作成し、
被計測画像から第p以降の露光により形成された回路パターン領域の濃淡値を抽出した第3の画像と、第p−1以前の露光により形成された回路パターン領域の濃淡値を抽出した第4の画像を作成し、
さらに,該第1の画像と該第3の画像の位置ずれ量(dux,duy)と,該第2の画像と該第4の画像の位置ずれ量を(dlx,dly)を算出し、
該duxと該dlxの差分をx方向のオーバーレイdx、該duyと該dlyの差分をy方向のオーバーレイdyとして算出することを特徴とするオーバーレイ計測装置。
The overlay measurement apparatus according to claim 2,
A reference image setting unit for setting a reference image from a plurality of captured images captured by the imaging unit;
An exposure index threshold value p is obtained from a portion where the threshold value is input,
A first image obtained by extracting the gray value of the circuit pattern area formed by the p-th and subsequent exposures from the reference image set by the reference image setting unit, and a circuit pattern formed by the exposure before the p-1th exposure Create a second image that extracts the shade value of the region,
A third image obtained by extracting the gray value of the circuit pattern area formed by the exposure after the pth from the image to be measured, and a fourth image obtained by extracting the gray value of the circuit pattern area formed by the exposure before the p-1th. Create an image of
Further, a positional deviation amount (dux, duy) between the first image and the third image, and a positional deviation amount between the second image and the fourth image are calculated (dlx, dly).
An overlay measuring apparatus that calculates a difference between the dux and the dlx as an overlay dx in the x direction and a difference between the duy and the dly as an overlay dy in the y direction.
JP2016016835A 2016-02-01 2016-02-01 Overlay measuring device Active JP6147879B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016016835A JP6147879B2 (en) 2016-02-01 2016-02-01 Overlay measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016016835A JP6147879B2 (en) 2016-02-01 2016-02-01 Overlay measuring device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014214971A Division JP5879419B2 (en) 2014-10-22 2014-10-22 Overlay measuring device

Publications (2)

Publication Number Publication Date
JP2016145825A JP2016145825A (en) 2016-08-12
JP6147879B2 true JP6147879B2 (en) 2017-06-14

Family

ID=56686017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016016835A Active JP6147879B2 (en) 2016-02-01 2016-02-01 Overlay measuring device

Country Status (1)

Country Link
JP (1) JP6147879B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7068833B1 (en) * 2000-08-30 2006-06-27 Kla-Tencor Corporation Overlay marks, methods of overlay mark design and methods of overlay measurements
JP4585926B2 (en) * 2005-06-17 2010-11-24 株式会社日立ハイテクノロジーズ PATTERN LAYER DATA GENERATION DEVICE, PATTERN LAYER DATA GENERATION SYSTEM USING THE SAME, SEMICONDUCTOR PATTERN DISPLAY DEVICE, PATTERN LAYER DATA GENERATION METHOD, AND COMPUTER PROGRAM
JP4988274B2 (en) * 2006-08-31 2012-08-01 株式会社日立ハイテクノロジーズ Pattern deviation measuring method and pattern measuring apparatus
JP5357725B2 (en) * 2009-12-03 2013-12-04 株式会社日立ハイテクノロジーズ Defect inspection method and defect inspection apparatus
JP5313939B2 (en) * 2010-02-09 2013-10-09 株式会社日立ハイテクノロジーズ Pattern inspection method, pattern inspection program, electronic device inspection system

Also Published As

Publication number Publication date
JP2016145825A (en) 2016-08-12

Similar Documents

Publication Publication Date Title
JP5640027B2 (en) Overlay measurement method, measurement apparatus, scanning electron microscope, and GUI
US10937146B2 (en) Image evaluation method and image evaluation device
JP5604067B2 (en) Matching template creation method and template creation device
US8045789B2 (en) Method and apparatus for inspecting defect of pattern formed on semiconductor device
JP5444092B2 (en) Inspection method and apparatus
JP4585926B2 (en) PATTERN LAYER DATA GENERATION DEVICE, PATTERN LAYER DATA GENERATION SYSTEM USING THE SAME, SEMICONDUCTOR PATTERN DISPLAY DEVICE, PATTERN LAYER DATA GENERATION METHOD, AND COMPUTER PROGRAM
KR101828124B1 (en) Pattern evaluation method and pattern evaluation device
JP5065943B2 (en) Manufacturing process monitoring system
US20130010100A1 (en) Image generating method and device using scanning charged particle microscope, sample observation method, and observing device
US20050281454A1 (en) Image processing apparatus, image processing method, exposure apparatus, and device manufacturing method
CN108369915B (en) Reduce the noise examined in the bare die caused near registration and design
KR20130108413A (en) Charged particle beam apparatus
US20150012243A1 (en) Semiconductor Evaluation Device and Computer Program
JP2015099054A (en) Overlay measuring method and overlay measuring apparatus
KR101992550B1 (en) Exposure condition evaluation device
JP6147879B2 (en) Overlay measuring device
JP5879419B2 (en) Overlay measuring device
US10937628B2 (en) Charged particle beam device
US20230052350A1 (en) Defect inspecting system and defect inspecting method
JP4969635B2 (en) Pattern layer data generation method and pattern layer data generation apparatus
JP5993781B2 (en) Measuring method and measuring device
KR20240143595A (en) Training SEM(Scanning Electron Microscopy) image selection method and SEM equipment alignment method using the same

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161110

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170120

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170517

R150 Certificate of patent or registration of utility model

Ref document number: 6147879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350