JP2020052025A - Pattern inspection device and reference image creation method - Google Patents

Pattern inspection device and reference image creation method Download PDF

Info

Publication number
JP2020052025A
JP2020052025A JP2018184856A JP2018184856A JP2020052025A JP 2020052025 A JP2020052025 A JP 2020052025A JP 2018184856 A JP2018184856 A JP 2018184856A JP 2018184856 A JP2018184856 A JP 2018184856A JP 2020052025 A JP2020052025 A JP 2020052025A
Authority
JP
Japan
Prior art keywords
image
pattern
data
design
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018184856A
Other languages
Japanese (ja)
Other versions
JP7144262B2 (en
Inventor
研太 佐川
Kenta Sagawa
研太 佐川
磯村 育直
Ikunao Isomura
育直 磯村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nuflare Technology Inc
Original Assignee
Nuflare Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nuflare Technology Inc filed Critical Nuflare Technology Inc
Priority to JP2018184856A priority Critical patent/JP7144262B2/en
Publication of JP2020052025A publication Critical patent/JP2020052025A/en
Application granted granted Critical
Publication of JP7144262B2 publication Critical patent/JP7144262B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

PURPOSE: To provide an inspection device capable of improving accuracy of filter processing.CONSTITUTION: A pattern inspection device includes: an optical image acquisition section for acquiring an optical image of a patterned sample to be inspected; a design image creation section for creating a design image by performing image development of design pattern data to be a base of pattern formation of the sample to be inspected; a conversion section for converting the design image into frequency data; an extraction section for extracting data of a part of a frequency band out of the frequency data; an inverse conversion section for inversely converting the extracted data of the part of frequency band and generating a space area image; a coefficient calculation section for calculating a coefficient of a filter function for filter processing of the design image using at least a part of space area image, a corresponding part of the optical image, and a corresponding part of the design image; a reference image creation section for creating a reference image by filter processing of the design image using the coefficient; and a comparison section for comparing the optical image with the reference image for each pixel.SELECTED DRAWING: Figure 2

Description

本発明は、パターン検査装置及び参照画像の作成方法に関する。例えば、半導体製造に用いる試料となる物体のパターン欠陥を検査するパターン検査技術に関し、半導体素子や液晶ディスプレイ(LCD)を製作するときに使用されるフォトマスクの極めて小さなパターンの欠陥を検査する手法に関する。   The present invention relates to a pattern inspection apparatus and a method for creating a reference image. For example, the present invention relates to a pattern inspection technology for inspecting a pattern defect of an object serving as a sample used in semiconductor manufacturing, and relates to a method for inspecting an extremely small pattern defect of a photomask used when manufacturing a semiconductor element or a liquid crystal display (LCD). .

近年、大規模集積回路(LSI)の高集積化及び大容量化に伴い、半導体素子に要求される回路線幅はますます狭くなってきている。これらの半導体素子は、回路パターンが形成された原画パターン(マスク或いはレチクルともいう。以下、マスクと総称する)を用いて、いわゆるステッパと呼ばれる縮小投影露光装置でウェハ上にパターンを露光転写して回路形成することにより製造される。よって、かかる微細な回路パターンをウェハに転写するためのマスクの製造には、微細な回路パターンを描画することができる電子ビームを用いたパターン描画装置を用いる。かかるパターン描画装置を用いてウェハに直接パターン回路を描画することもある。或いは、電子ビーム以外にもレーザビームを用いて描画するレーザビーム描画装置の開発が試みられている。   2. Description of the Related Art In recent years, circuit line widths required for semiconductor devices have become increasingly smaller with the increase in integration and capacity of large-scale integrated circuits (LSIs). These semiconductor elements are formed by exposing and transferring a pattern onto a wafer using a reduction projection exposure apparatus called a stepper, using an original pattern on which a circuit pattern is formed (also referred to as a mask or a reticle; hereinafter, collectively referred to as a mask). It is manufactured by forming a circuit. Therefore, in manufacturing a mask for transferring such a fine circuit pattern onto a wafer, a pattern drawing apparatus using an electron beam capable of drawing a fine circuit pattern is used. A pattern circuit may be directly drawn on a wafer using such a pattern drawing apparatus. Alternatively, development of a laser beam drawing apparatus that draws using a laser beam other than the electron beam has been attempted.

そして、多大な製造コストのかかるLSIの製造にとって、歩留まりの向上は欠かせない。しかし、1ギガビット級のDRAM(ランダムアクセスメモリ)に代表されるように、LSIを構成するパターンは、サブミクロンからナノメータのオーダーになろうとしている。歩留まりを低下させる大きな要因の一つとして、半導体ウェハ上に超微細パターンをフォトリソグラフィ技術で露光、転写する際に使用されるマスクのパターン欠陥があげられる。近年、半導体ウェハ上に形成されるLSIパターン寸法の微細化に伴って、パターン欠陥として検出しなければならない寸法も極めて小さいものとなっている。そのため、LSI製造に使用される転写用マスクの欠陥を検査するパターン検査装置の高精度化が必要とされている。   In addition, for the production of LSIs that require a large production cost, improvement of the yield is indispensable. However, as typified by a 1 gigabit DRAM (random access memory), the pattern forming the LSI is going to be on the order of submicron to nanometer. One of the major factors that reduce the yield is a pattern defect of a mask used when exposing and transferring an ultrafine pattern on a semiconductor wafer by photolithography. In recent years, with the miniaturization of LSI pattern dimensions formed on semiconductor wafers, the dimensions that must be detected as pattern defects have become extremely small. Therefore, it is necessary to improve the accuracy of a pattern inspection apparatus for inspecting a defect of a transfer mask used in LSI manufacturing.

検査手法としては、拡大光学系を用いてリソグラフィマスク等の試料上に形成されているパターンを所定の倍率で撮像した光学画像と、設計データ、あるいは試料上の同一パターンを撮像した光学画像と比較することにより検査を行う方法が知られている。例えば、パターン検査方法として、パターン設計されたCADデータを描画装置が入力するための装置入力フォーマットに変換した描画データ(設計パターンデータ)を検査装置に入力して、これをベースに参照画像を生成して、参照画像とパターンを撮像した測定データとなる光学画像とを比較する「die to database(ダイ−データベース)検査」がある。かかる検査装置における検査方法では、試料はステージ上に載置され、ステージが動くことによって光束が試料上を走査し、検査が行われる。試料には、光源及び照明光学系によって光束が照射される。試料を透過あるいは反射した光は光学系を介して、センサ上に結像される。センサで撮像された画像は測定データとして比較回路へ送られる。比較回路では、画像同士の位置合わせの後、測定データと参照データとを適切なアルゴリズムに従って比較し、一致しない場合には、パターン欠陥有りと判定する。   As an inspection method, an optical image obtained by imaging a pattern formed on a sample such as a lithography mask using a magnifying optical system at a predetermined magnification is compared with design data or an optical image obtained by imaging the same pattern on the sample. A method of performing an inspection by performing the inspection is known. For example, as a pattern inspection method, drawing data (design pattern data) obtained by converting pattern-designed CAD data into a device input format for a drawing device to input is input to an inspection device, and a reference image is generated based on the data. Then, there is a “die-to-database (die-database) inspection” for comparing a reference image with an optical image serving as measurement data obtained by capturing a pattern. In the inspection method in such an inspection apparatus, a sample is placed on a stage, and a light beam scans over the sample as the stage moves, thereby performing an inspection. The sample is irradiated with a light beam by a light source and an illumination optical system. Light transmitted or reflected by the sample is imaged on a sensor via an optical system. The image captured by the sensor is sent to a comparison circuit as measurement data. After the alignment of the images, the comparison circuit compares the measured data with the reference data according to an appropriate algorithm, and if they do not match, determines that there is a pattern defect.

試料から撮像された光学画像の画素データは、撮像に使用される光学系の解像特性等によってフィルタが作用した状態、言い換えれば連続変化するアナログ状態にあるため、画像強度(濃淡値)がデジタル値の設計画像とは異なっている。そのため、ダイ−データベース検査では、設計画像にフィルタ処理を施して、測定データに近づけた参照画像を作成の上で比較処理を実施することが行われる。昨今のパターンの微細化に伴う検査精度の向上が求められる中、検査精度の向上を図るためには、かかるフィルタ処理の精度を向上させることが有効である。   The pixel data of the optical image picked up from the sample is in a state in which a filter is applied due to the resolution characteristics of the optical system used for the image pickup, in other words, in a continuously changing analog state. The value is different from the design image. Therefore, in the die-database inspection, a comparison process is performed after applying a filter process to a design image to create a reference image close to measurement data. While the improvement in inspection accuracy accompanying the recent miniaturization of patterns is required, it is effective to improve the accuracy of such filter processing in order to improve the inspection accuracy.

ここで、フィルタ処理の精度を向上させるには、マスク基板上に形成されたパターンの全形状を網羅することが理想的ではあるが、処理時間等の観点から全形状を網羅することは困難である。そのため、一部のパターンを用いてフィルタ関数の係数が演算される。一方、半導体ウェハ上に形成されるLSIパターン寸法の微細化に伴って、リソグラフィマージンの向上や近接効果による寸法誤差の補正を行うための補助パターン(SRAF:Sub Resolution Assist Featureパターン、及び/或いはOPC:optical proximity correctionパターン)が必要となる。そのため、マスク基板上には多彩な複雑形状のパターンが混在することになる。作成される参照画像内のうち補助パターン部分は、回路を構成するメインパターン(実回路パターン)に比べて、測定画像との一致度が低くなる傾向にある。その結果、マスク基板のパターン欠陥検査において、出来の悪い補助パターンだけではなく、出来の良い補助パターンについても欠陥と判定される疑似欠陥を発生させてしまうという問題があった。そのため、出来の良い補助パターンについては欠陥と判定されない参照画像を作成することが求められている。測定画像と参照画像との一致度を高めるためには、疑似欠陥となる一致度が低いパターンを含めた領域を用いてフィルタ関数の係数が演算されることが求められる。しかしながら、かかる一致度が低いパターンを含めた領域を設計データから選択的に抽出することが困難であるといった問題があった。   Here, in order to improve the accuracy of the filtering process, it is ideal to cover all the shapes of the pattern formed on the mask substrate, but it is difficult to cover all the shapes from the viewpoint of processing time and the like. is there. Therefore, the coefficients of the filter function are calculated using some of the patterns. On the other hand, an auxiliary pattern (SRAF: Sub Resolution Assist Feature pattern and / or OPC) for improving a lithography margin and correcting a dimensional error due to a proximity effect with miniaturization of an LSI pattern dimension formed on a semiconductor wafer. : Optical proximity correction pattern). Therefore, various complicated-shaped patterns are mixed on the mask substrate. The auxiliary pattern portion in the created reference image tends to have a lower degree of coincidence with the measured image than the main pattern (actual circuit pattern) constituting the circuit. As a result, in the pattern defect inspection of the mask substrate, there is a problem that not only the poorly formed auxiliary patterns but also the well-formed auxiliary patterns generate pseudo defects that are determined to be defective. Therefore, it is required to create a reference image that is not determined to be a defect for a good auxiliary pattern. In order to increase the degree of coincidence between the measurement image and the reference image, it is required that the coefficient of the filter function be calculated using an area including a pattern having a low degree of coincidence that becomes a pseudo defect. However, there is a problem that it is difficult to selectively extract a region including such a pattern with a low degree of coincidence from the design data.

ここで、補助パターン近傍での検査感度を緩くすることで、出来の良い補助パターンの疑似欠陥だけでなく、出来の悪い補助パターンを含めて欠陥数を減少させることが検討されてきた(例えば、特許文献1参照)。しかしながら、かかる手法では、出来の悪い補助パターンを排除しつつ、出来の良い補助パターンについては欠陥と判定されない参照画像を作成することは困難である。   Here, it has been studied to reduce the number of defects including not only poorly-formed auxiliary patterns but also poorly-formed auxiliary patterns by loosening the inspection sensitivity in the vicinity of the auxiliary pattern (for example, Patent Document 1). However, with such a technique, it is difficult to create a reference image in which a poorly formed auxiliary pattern is not determined to be a defect while excluding poorly formed auxiliary patterns.

特開2007−071629号公報JP 2007-071629 A

そこで、本発明は、フィルタ処理の精度を向上させることが可能な検査装置および参照画像の作成方法を提供する。   Therefore, the present invention provides an inspection apparatus and a reference image creation method capable of improving the accuracy of filter processing.

本発明の一態様のパターン検査装置は、
パターン形成された被検査試料の光学画像を取得する光学画像取得部と、
被検査試料のパターン形成の基となる設計パターンデータを画像展開して設計画像を作成する設計画像作成部と、
設計画像を周波数データに変換する変換部と、
周波数データのうち、一部の周波数帯のデータを抽出する抽出部と、
抽出された一部の周波数帯のデータを逆変換して、空間領域画像を生成する逆変換部と、
空間領域画像の少なくとも一部と、光学画像の対応する一部と、設計画像の対応する一部とを用いて、設計画像をフィルタ処理するためのフィルタ関数の係数を演算する係数演算部と、
係数を用いて、設計画像をフィルタ処理して参照画像を作成する参照画像作成部と、
画素毎に光学画像と参照画像とを比較する比較部と、
を備えたことを特徴とする。
A pattern inspection apparatus according to one embodiment of the present invention includes:
An optical image acquisition unit that acquires an optical image of a pattern-formed inspection sample,
A design image creating unit that creates a design image by developing design pattern data that is the basis of pattern formation of a sample to be inspected,
A conversion unit that converts a design image into frequency data,
An extracting unit that extracts data of some frequency bands from the frequency data;
An inverse transform unit that inversely transforms the extracted data of some of the frequency bands to generate a spatial domain image;
At least a part of the spatial domain image, a corresponding part of the optical image, and a corresponding part of the design image, using a coefficient calculation unit that calculates a filter function coefficient for filtering the design image,
A reference image creating unit that creates a reference image by filtering the design image using the coefficient,
A comparison unit that compares the optical image and the reference image for each pixel,
It is characterized by having.

また、抽出部は、一部の周波数帯のデータとして、実回路パターンよりも線幅が細い、実回路パターンの形成を補助する補助パターンに対応する周波数帯のデータを抽出すると好適である。   Further, it is preferable that the extraction unit extracts, as data of a part of the frequency band, data of a frequency band having a line width smaller than that of the actual circuit pattern and corresponding to an auxiliary pattern for assisting the formation of the actual circuit pattern.

また、変換部は、設計画像のデータに対してフーリエ変換処理を行うことによって設計画像を周波数データに変換すると好適である。   Preferably, the conversion unit converts the design image into frequency data by performing a Fourier transform process on the data of the design image.

また、空間領域画像のうち、対応する光学画像と設計画像との画素値の差分が閾値を超える画素を含む小領域が前記係数の演算に用いられると好適である。   Further, it is preferable that, of the spatial region image, a small region including a pixel whose pixel value difference between the corresponding optical image and the design image exceeds a threshold value is used for the calculation of the coefficient.

本発明の一態様の参照画像の作成方法は、
パターン形成された被検査試料の光学画像を取得する工程と、
被検査試料のパターン形成の基となる設計パターンデータを画像展開して設計画像を作成する工程と、
設計画像を周波数データに変換する工程と、
周波数データのうち、一部の周波数帯のデータを抽出する工程と、
抽出された一部の周波数帯のデータを逆変換して、空間領域画像を生成する工程と、
空間領域画像の少なくとも一部と、光学画像の対応する一部と、設計画像の対応する一部とを用いて、設計画像をフィルタ処理するためのフィルタ関数の係数を演算する工程と、
係数を用いて、設計画像をフィルタ処理して参照画像を作成する工程と、
を備えたことを特徴とする。
A method for creating a reference image according to one embodiment of the present invention includes:
A step of obtaining an optical image of the pattern-formed inspection sample,
A step of developing a design image by developing the design pattern data that is the basis of the pattern formation of the sample to be inspected,
Converting the design image into frequency data;
Extracting frequency band data from the frequency data;
Inversely converting the extracted data of some of the frequency bands to generate a spatial domain image,
Using at least a part of the spatial domain image, a corresponding part of the optical image, and a corresponding part of the design image, calculating a coefficient of a filter function for filtering the design image,
Using the coefficients to filter the design image to create a reference image;
It is characterized by having.

本発明によれば、フィルタ処理の精度を向上させることができる。よって、高精度な参照画像を作成できる。その結果、検査精度を向上させることができる。   ADVANTAGE OF THE INVENTION According to this invention, the precision of a filter process can be improved. Therefore, a highly accurate reference image can be created. As a result, the inspection accuracy can be improved.

実施の形態1におけるパターン検査装置の構成を示す構成図である。1 is a configuration diagram illustrating a configuration of a pattern inspection device according to a first embodiment. 実施の形態1における学習点領域データ作成回路の内部構成を示すブロック図である。FIG. 3 is a block diagram showing an internal configuration of a learning point area data creation circuit according to the first embodiment. 実施の形態1における検査領域を説明するための概念図である。FIG. 3 is a conceptual diagram for describing an inspection area according to the first embodiment. 実施の形態1におけるパターン検査方法の要部工程の一部を示すフローチャート図である。FIG. 4 is a flowchart showing a part of a main step of the pattern inspection method in the first embodiment; 実施の形態1における学習点の一例を示す図である。9 is a diagram illustrating an example of a learning point in Embodiment 1. [FIG. 実施の形態1における学習点領域画像の一例を示す図である。9 is a diagram illustrating an example of a learning point region image according to Embodiment 1. FIG. 実施の形態1におけるフィルタ関数の係数を演算する手法の一例を説明するための図である。6 is a diagram for describing an example of a method of calculating coefficients of a filter function according to Embodiment 1. [FIG. 実施の形態1におけるフィルタ処理を説明するための図である。FIG. 5 is a diagram for describing a filtering process according to the first embodiment. 実施の形態1における周波数データ変換の仕方を説明するための図である。FIG. 3 is a diagram for describing a method of frequency data conversion according to the first embodiment. 実施の形態1における周波数とスペクトル強度との関係の一例を示す図である。9 is a diagram illustrating an example of a relationship between frequency and spectrum intensity according to Embodiment 1. [FIG. 実施の形態1における一部の周波数帯のデータから得られる空間領域画像の一例を示す図である。FIG. 3 is a diagram showing an example of a spatial domain image obtained from data of a part of the frequency bands in the first embodiment. 実施の形態1における比較回路の内部構成の一例を示す構成図である。FIG. 3 is a configuration diagram illustrating an example of an internal configuration of a comparison circuit according to the first embodiment; 実施の形態1におけるパターン検査方法の要部工程の残部を示すフローチャート図である。FIG. 5 is a flowchart showing the remaining part of the main steps of the pattern inspection method according to the first embodiment;

実施の形態1.
図1は、実施の形態1におけるパターン検査装置の構成を示す構成図である。図1において、試料、例えばマスクに形成されたパターンの欠陥を検査する検査装置100は、光学画像取得機構150、及び制御系回路160(制御部)を備えている。
Embodiment 1 FIG.
FIG. 1 is a configuration diagram showing a configuration of the pattern inspection apparatus according to the first embodiment. In FIG. 1, an inspection apparatus 100 for inspecting a defect of a pattern formed on a sample, for example, a mask, includes an optical image acquisition mechanism 150 and a control system circuit 160 (control unit).

光学画像取得機構150は、光源103、照明光学系170、移動可能に配置されたXYθテーブル102、拡大光学系104、フォトダイオードアレイ105(センサの一例)、センサ回路106、ストライプパターンメモリ123、及びレーザ測長システム122を有している。XYθテーブル102上には、試料101が配置されている。試料101として、例えば、ウェハにパターンを転写する露光用のフォトマスクが含まれる。また、このフォトマスクには、検査対象となる複数の図形パターンによって構成されたパターンが形成されている。試料101は、例えば、パターン形成面を下側に向けてXYθテーブル102に配置される。また、試料101には、回路を構成するメインパターン(実回路パターン)の他に、メインパターンよりも線幅が細い、メインパターンの形成を補助する補助パターン(SRAFパターン、及び/或いはOPCパターン)が形成されている。   The optical image acquisition mechanism 150 includes a light source 103, an illumination optical system 170, a movable XYθ table 102, an enlargement optical system 104, a photodiode array 105 (an example of a sensor), a sensor circuit 106, a stripe pattern memory 123, and It has a laser length measurement system 122. The sample 101 is arranged on the XYθ table 102. The sample 101 includes, for example, an exposure photomask for transferring a pattern to a wafer. Further, a pattern constituted by a plurality of graphic patterns to be inspected is formed on the photomask. The sample 101 is placed on the XYθ table 102 with the pattern forming surface facing downward, for example. In addition to the main pattern (actual circuit pattern) constituting the circuit, an auxiliary pattern (SRAF pattern and / or OPC pattern) having a smaller line width than the main pattern and assisting the formation of the main pattern is provided on the sample 101. Are formed.

制御系回路160では、検査装置100全体を制御する制御計算機110が、バス120を介して、位置回路107、比較回路108、展開回路111、参照回路112、オートローダ制御回路113、テーブル制御回路114、係数演算回路140、学習点領域データ作成回路142、磁気ディスク装置109、磁気テープ装置115、フレシキブルディスク装置(FD)116、CRT117、パターンモニタ118、及びプリンタ119に接続されている。また、センサ回路106は、ストライプパターンメモリ123に接続され、ストライプパターンメモリ123は、比較回路108に接続されている。また、XYθテーブル102は、X軸モータ、Y軸モータ、θ軸モータにより駆動される。XYθテーブル102は、ステージの一例となる。   In the control system circuit 160, a control computer 110 that controls the entire inspection apparatus 100 includes a position circuit 107, a comparison circuit 108, a development circuit 111, a reference circuit 112, an autoloader control circuit 113, a table control circuit 114 via a bus 120. It is connected to a coefficient calculation circuit 140, a learning point area data creation circuit 142, a magnetic disk device 109, a magnetic tape device 115, a flexible disk device (FD) 116, a CRT 117, a pattern monitor 118, and a printer 119. Further, the sensor circuit 106 is connected to the stripe pattern memory 123, and the stripe pattern memory 123 is connected to the comparison circuit 108. The XYθ table 102 is driven by an X-axis motor, a Y-axis motor, and a θ-axis motor. Table 102 is an example of a stage.

検査装置100では、光源103、XYθテーブル102、照明光学系170、拡大光学系104、フォトダイオードアレイ105、及びセンサ回路106により高倍率の検査光学系が構成されている。また、XYθテーブル102は、制御計算機110の制御の下にテーブル制御回路114により駆動される。X方向、Y方向、θ方向に駆動する3軸(X−Y−θ)モータの様な駆動系によって移動可能となっている。これらの、Xモータ、Yモータ、θモータは、例えばステップモータを用いることができる。XYθテーブル102は、XYθ各軸のモータによって水平方向及び回転方向に移動可能である。そして、XYθテーブル102上に配置された試料101の移動位置はレーザ測長システム122により測定され、位置回路107に供給される。   In the inspection apparatus 100, a light source 103, an XYθ table 102, an illumination optical system 170, a magnifying optical system 104, a photodiode array 105, and a sensor circuit 106 constitute a high-magnification inspection optical system. Table 102 is driven by table control circuit 114 under the control of control computer 110. It can be moved by a driving system such as a three-axis (XY-θ) motor that drives in the X, Y, and θ directions. As the X motor, the Y motor, and the θ motor, for example, a step motor can be used. The XYθ table 102 can be moved in the horizontal and rotational directions by motors for each axis of XYθ. Then, the moving position of the sample 101 placed on the XYθ table 102 is measured by the laser length measuring system 122 and supplied to the position circuit 107.

被検査試料101のパターン形成の基となる設計パターンデータ(描画データ)が検査装置100の外部から入力され、磁気ディスク装置109に格納される。   Design pattern data (drawing data) that is a basis for forming a pattern of the sample to be inspected 101 is input from outside the inspection apparatus 100 and stored in the magnetic disk device 109.

ここで、図1では、実施の形態1を説明する上で必要な構成部分について記載している。検査装置100にとって、通常、必要なその他の構成が含まれても構わないことは言うまでもない。   Here, FIG. 1 illustrates components necessary for describing the first embodiment. Needless to say, the inspection apparatus 100 may normally include other necessary components.

図2は、実施の形態1における学習点領域データ作成回路の内部構成を示すブロック図である。図2において、学習点領域データ作成回路142内には、磁気ディスク装置等の記憶装置73,75,76,79,80,81,87、学習点設定部70、フレーム選択部71、設計画像作成部72、分割部74、抽出部77、抽出部78、差分演算部82、判定部83、周波数データ変換部84、バンドデータ抽出部85、逆変換部86、差分演算部88、抽出部89、抽出部90、及び選択部91が配置される。学習点設定部70、フレーム選択部71、設計画像作成部72、分割部74、抽出部77、抽出部78、差分演算部82、判定部83、周波数データ変換部84、バンドデータ抽出部85、逆変換部86、差分演算部88、抽出部89、抽出部90、及び選択部91といった各「〜部」は、処理回路を有する。かかる処理回路は、例えば、電気回路、コンピュータ、プロセッサ、回路基板、量子回路、或いは、半導体装置を含む。各「〜部」は、共通する処理回路(同じ処理回路)を用いても良いし、或いは異なる処理回路(別々の処理回路)を用いても良い。学習点設定部70、フレーム選択部71、設計画像作成部72、分割部74、抽出部77、抽出部78、差分演算部82、判定部83、周波数データ変換部84、バンドデータ抽出部85、逆変換部86、差分演算部88、抽出部89、抽出部90、及び選択部91に入出力される情報および演算中の情報は図示しないメモリにその都度格納される。   FIG. 2 is a block diagram showing an internal configuration of the learning point area data creation circuit according to the first embodiment. 2, the learning point area data creation circuit 142 includes storage devices 73, 75, 76, 79, 80, 81, 87 such as magnetic disk devices, a learning point setting unit 70, a frame selection unit 71, and a design image creation. Unit 72, division unit 74, extraction unit 77, extraction unit 78, difference calculation unit 82, determination unit 83, frequency data conversion unit 84, band data extraction unit 85, inverse conversion unit 86, difference calculation unit 88, extraction unit 89, An extraction unit 90 and a selection unit 91 are arranged. Learning point setting section 70, frame selection section 71, design image creation section 72, division section 74, extraction section 77, extraction section 78, difference calculation section 82, determination section 83, frequency data conversion section 84, band data extraction section 85, Each of the “-units” such as the inverse conversion unit 86, the difference calculation unit 88, the extraction unit 89, the extraction unit 90, and the selection unit 91 has a processing circuit. Such a processing circuit includes, for example, an electric circuit, a computer, a processor, a circuit board, a quantum circuit, or a semiconductor device. Each of the units may use a common processing circuit (the same processing circuit) or different processing circuits (separate processing circuits). Learning point setting section 70, frame selection section 71, design image creation section 72, division section 74, extraction section 77, extraction section 78, difference calculation section 82, determination section 83, frequency data conversion section 84, band data extraction section 85, Information input / output to / from the inverse conversion unit 86, the difference calculation unit 88, the extraction unit 89, the extraction unit 90, and the selection unit 91 and the information being calculated are stored in a memory (not shown) each time.

図3は、実施の形態1における検査領域を説明するための概念図である。試料101の検査領域10(検査領域全体)は、図3に示すように、例えばY方向に向かって、スキャン幅Wの短冊状の複数の検査ストライプ20に仮想的に分割される。そして、検査装置100では、検査ストライプ20毎に画像(ストライプ領域画像)を取得していく。検査ストライプ20の各々に対して、レーザ光を用いて、当該ストライプ領域の長手方向(X方向)に向かって当該ストライプ領域内に配置される図形パターンの画像を撮像する。XYθテーブル102の移動によってフォトダイオードアレイ105が相対的にX方向に連続移動しながら光学画像が取得される。フォトダイオードアレイ105では、図3に示されるようなスキャン幅Wの光学画像を連続的に撮像する。言い換えれば、センサの一例となるフォトダイオードアレイ105は、XYθテーブル102(ステージ)と相対移動しながら、検査光を用いて試料101に形成されたパターンの光学画像を撮像する。実施の形態1では、1つの検査ストライプ20における光学画像を撮像した後、Y方向に次の検査ストライプ20の位置まで移動して今度は逆方向に移動しながら同様にスキャン幅Wの光学画像を連続的に撮像する。すなわち、往路と復路で逆方向に向かうフォワード(FWD)−バックフォワード(BWD)の方向で撮像を繰り返す。   FIG. 3 is a conceptual diagram for describing an inspection area according to the first embodiment. As shown in FIG. 3, the inspection area 10 (the entire inspection area) of the sample 101 is virtually divided into a plurality of strip-shaped inspection stripes 20 having a scan width W, for example, in the Y direction. Then, the inspection apparatus 100 acquires an image (stripe region image) for each inspection stripe 20. For each of the inspection stripes 20, an image of a graphic pattern arranged in the stripe region is captured in the longitudinal direction (X direction) of the stripe region using laser light. The optical image is obtained while the photodiode array 105 is relatively continuously moved in the X direction by the movement of the XYθ table 102. The photodiode array 105 continuously captures an optical image having a scan width W as shown in FIG. In other words, the photodiode array 105, which is an example of the sensor, captures an optical image of the pattern formed on the sample 101 using the inspection light while relatively moving with respect to the XYθ table 102 (stage). In the first embodiment, after capturing an optical image of one inspection stripe 20, the optical image having the scan width W is similarly moved while moving in the Y direction to the position of the next inspection stripe 20 and in the opposite direction. Image continuously. That is, imaging is repeated in the forward (FWD) -back forward (BWD) direction heading in the opposite direction on the outward path and the return path.

ここで、撮像の方向は、フォワード(FWD)−バックフォワード(BWD)の繰り返しに限るものではない。一方の方向から撮像してもよい。例えば、FWD−FWDの繰り返しでもよい。或いは、BWD−BWDの繰り返しでもよい。   Here, the imaging direction is not limited to repetition of forward (FWD) -backforward (BWD). The image may be taken from one direction. For example, repetition of FWD-FWD may be used. Alternatively, BWD-BWD may be repeated.

ここで、試料101から撮像される光学画像の画素データは、撮像に使用される光学系の解像特性等によってフィルタが作用した状態、言い換えれば連続変化するアナログ状態にあるため、画像強度(濃淡値)がデジタル値の後述する展開画像(設計画像)とは異なっている。そのため、展開画像にフィルタ処理を施して、測定画像データに近づけた上で比較処理を実施する。そのためには、試料101の検査処理の実施に先だって、まずかかるフィルタ処理を行うためのフィルタ関数の係数を演算する必要がある。しかし、リソグラフィマージンの向上や近接効果による寸法誤差の補正を行うべく配置したウェハ上には解像されない補助パターン(SRAFパターン、及び/或いはOPCパターン)は、回路を構成するメインパターン(複数の図形パターン)に比べて、参照画像を作成した場合における一致度が低くなる傾向にある。その結果、試料101のパターン欠陥検査において、出来の良い補助パターンについても欠陥と判定される疑似欠陥を発生させてしまうという問題があった。そのため、出来の良い補助パターンについては欠陥と判定されない参照画像を作成することが求められている。しかし、従来の手法では、設計データから展開画像から参照画像を作成するためのフィルタ関数の係数を求める際に用いる学習パターンを確率的に抽出するために、一致度が低くなる個所の選択が困難であった。そこで、実施の形態1では、一致度が低くなる個所が、学習パターン(学習点)に確実に含まれるように抽出する。   Here, the pixel data of the optical image picked up from the sample 101 is in a state where a filter is actuated due to the resolution characteristics of the optical system used for the image pickup, in other words, in an analog state that changes continuously, so that the image intensity (shading) Value) is different from a later-described developed image (design image) of a digital value. Therefore, a filter process is performed on the developed image so as to approach the measured image data and then perform the comparison process. For this purpose, it is necessary to first calculate the coefficients of a filter function for performing such a filtering process before the inspection process of the sample 101 is performed. However, an auxiliary pattern (SRAF pattern and / or OPC pattern) which is not resolved on a wafer arranged to improve a lithography margin or correct a dimensional error due to a proximity effect is a main pattern (a plurality of patterns) constituting a circuit. Pattern), the degree of coincidence in the case of creating a reference image tends to be lower. As a result, in the pattern defect inspection of the sample 101, there is a problem that a pseudo defect that is determined to be a defect is generated even for a well-formed auxiliary pattern. Therefore, it is required to create a reference image that is not determined to be a defect for a good auxiliary pattern. However, in the conventional method, it is difficult to select a location where the degree of coincidence is low because a learning pattern used for obtaining a filter function coefficient for creating a reference image from a developed image from design data is probabilistically extracted. Met. Therefore, in the first embodiment, a portion where the degree of coincidence is low is extracted so as to be surely included in the learning pattern (learning point).

図4は、実施の形態1におけるパターン検査方法の要部工程の一部を示すフローチャート図である。実施の形態1におけるパターン検査方法の要部工程のうち、図4に示す一連の工程は、参照画像作成用のフィルタ関数の係数演算方法の工程を含む。図4において、実施の形態1におけるパターン検査方法の要部工程の一部は、学習点設定工程(S102)と、フレーム選択工程(S104)と、設計画像作成工程(S106)と、ストライプ画像取得工程(S108)と、フレーム分割工程(S110)と、学習点領域設計画像抽出工程(S112)と、学習点領域光学画像抽出工程(S114)と、フィルタ係数演算工程(S116)と、参照画像作成工程(S118)と、差分演算工程(S120)と、判定工程(S122)と、周波数データ変換工程(S124)と、バンドデータ抽出工程(S126)と、逆変換工程(S128)と、学習点領域設計画像抽出工程(S132)と、学習点領域光学画像抽出工程(S134)と、差分演算工程(S136)と、選択工程(S138)と、いう一連の工程を実施する。   FIG. 4 is a flowchart showing a part of main steps of the pattern inspection method according to the first embodiment. Among the main steps of the pattern inspection method according to the first embodiment, a series of steps shown in FIG. 4 include steps of a coefficient calculation method of a filter function for creating a reference image. In FIG. 4, some of the main steps of the pattern inspection method according to the first embodiment include a learning point setting step (S102), a frame selection step (S104), a design image creation step (S106), and a stripe image acquisition. Step (S108), frame division step (S110), learning point area design image extraction step (S112), learning point area optical image extraction step (S114), filter coefficient calculation step (S116), and reference image creation Step (S118), difference calculation step (S120), determination step (S122), frequency data conversion step (S124), band data extraction step (S126), inverse conversion step (S128), learning point area A design image extracting step (S132), a learning point area optical image extracting step (S134), a difference calculating step (S136), and a selecting step (S138). When, performing a series of steps referred to.

学習点設定工程(S102)として、学習点設定部70は、設計データから展開画像から参照画像を作成するためのフィルタ関数の係数を求める際に用いる学習パターンを抽出するための学習点を設定する。   In the learning point setting step (S102), the learning point setting unit 70 sets a learning point for extracting a learning pattern used for obtaining a filter function coefficient for creating a reference image from a developed image from the design data. .

図5は、実施の形態1における学習点の一例を示す図である。図5(a)の例では、パターンエッジを学習点の一例として示している。図5(b)の例では、パターンコーナー部を学習点の一例として示している。ここでは、パターンサイズについては設定していない。   FIG. 5 is a diagram illustrating an example of a learning point according to the first embodiment. In the example of FIG. 5A, a pattern edge is shown as an example of a learning point. In the example of FIG. 5B, a pattern corner is shown as an example of a learning point. Here, the pattern size is not set.

フレーム選択工程(S104)として、フレーム選択部71は、試料101の検査領域10の中から学習点を含む学習点領域を抽出するフレーム領域30を選択する。フレーム領域30の選択は、任意に行われても良い。或いは、ユーザが、試料101に形成されたパターンレイアウトの中から、メインパターンと共に補助パターンが配置される大まかな領域を指定して、フレーム選択部71は、指定された大まかな領域の中からフレーム領域30を任意に選択しても良い。或いは、ユーザが、試料101に形成されたパターンレイアウトの中から、メインパターンと共に補助パターンが配置されるフレーム領域30を指定して、フレーム選択部71は、指定されたフレーム領域30を選択しても良い。ここで、フレーム領域30は、図3に示すように、検査ストライプ20をx方向に所定のサイズ(例えば、スキャン幅Wと同じ幅)で分割した領域である。例えば、1024×1024画素(或いは、例えば、512×512画素)の領域に相当する。実施の形態1において、フレーム選択部71は、数個(例えば、3〜7個)のフレーム領域30を選択する。   In the frame selection step (S104), the frame selection unit 71 selects the frame area 30 from which the learning point area including the learning point is extracted from the inspection area 10 of the sample 101. The selection of the frame region 30 may be arbitrarily performed. Alternatively, the user designates a rough area in which the auxiliary pattern is arranged together with the main pattern from the pattern layout formed on the sample 101, and the frame selecting unit 71 selects a frame from the designated rough area. The region 30 may be arbitrarily selected. Alternatively, the user designates a frame region 30 in which the auxiliary pattern is arranged together with the main pattern from the pattern layout formed on the sample 101, and the frame selecting section 71 selects the designated frame region 30 and Is also good. Here, as shown in FIG. 3, the frame area 30 is an area obtained by dividing the inspection stripe 20 in the x direction by a predetermined size (for example, the same width as the scan width W). For example, it corresponds to a region of 1024 × 1024 pixels (or, for example, 512 × 512 pixels). In the first embodiment, the frame selection unit 71 selects several (for example, 3 to 7) frame regions 30.

設計画像作成工程(S106)として、設計画像作成部72は、選択されたフレーム領域30の設計画像を作成するように展開回路111を制御する。展開回路111(設計画像作成部の一例)は、被検査試料101のパターン形成の基となる設計パターンデータに基づいて画像展開して設計画像(展開画像)を作成する。具体的には、磁気ディスク装置109から制御計算機110を通して設計データを読み出し、選択されたフレーム領域30の設計データに定義された各図形パターンを2値ないしは多値のイメージデータに変換(画像展開)して設計画像(展開画像)を作成する。   In the design image creation step (S106), the design image creation unit 72 controls the expansion circuit 111 to create a design image of the selected frame region 30. The development circuit 111 (an example of a design image creation unit) develops an image based on design pattern data on which the pattern of the sample to be inspected 101 is formed to create a design image (development image). Specifically, the design data is read from the magnetic disk device 109 through the control computer 110, and each graphic pattern defined in the design data of the selected frame area 30 is converted into binary or multi-valued image data (image development). To create a design image (expanded image).

ここで、設計パターンデータに定義される図形は、例えば長方形や三角形を基本図形としたもので、例えば、図形の基準位置における座標(x、y)、及び辺の長さ、長方形や三角形等の図形種を区別する識別子となる図形コードといった情報で各パターン図形の形、大きさ、位置等を定義した図形データ(ベクトルデータ)が格納されている。   Here, the figure defined in the design pattern data is, for example, a rectangle or triangle as a basic figure. For example, the coordinates (x, y) at the reference position of the figure, the length of the side, the rectangle or triangle, etc. Graphic data (vector data) defining the shape, size, position, etc. of each pattern graphic is stored with information such as a graphic code as an identifier for distinguishing the graphic type.

かかる図形データとなる設計パターンの情報が展開回路111に入力されると図形ごとのデータにまで展開し、その図形データの図形形状を示す図形コード、図形寸法などを解釈する。そして、所定の量子化寸法のグリッドを単位とするマス目内に配置されるパターンとして2値ないしは多値の設計画像データを展開し、出力する。言い換えれば、設計データを読み込み、検査領域を所定の寸法を単位とするマス目として仮想分割してできたマス目毎に設計パターンにおける図形が占める占有率を演算し、nビットの占有率データを出力する。例えば、1つのマス目を1画素として設定すると好適である。そして、1画素に1/2(=1/256)の分解能を持たせるとすると、画素内に配置されている図形の領域分だけ1/256の小領域を割り付けて画素内の占有率を演算する。そして、画素毎に8ビットの占有率データの設計画像を作成する。設計画像は、その位置を示すデータと共に学習点領域データ作成回路142に送られる。学習点領域データ作成回路142内に出力された設計画像(展開画像)のデータは、記憶装置76に格納される。 When the information of the design pattern as the graphic data is input to the expansion circuit 111, the data is expanded to data for each graphic, and a graphic code indicating the graphic shape of the graphic data, a graphic size, and the like are interpreted. Then, binary or multi-valued design image data is developed and output as a pattern arranged in a grid having a grid of a predetermined quantization size as a unit. In other words, the design data is read, and the occupation ratio of the figure in the design pattern is calculated for each of the squares formed by virtually dividing the inspection area as a unit having a predetermined dimension as a unit. Output. For example, it is preferable to set one square as one pixel. Assuming that one pixel has a resolution of 1/2 8 (= 1/256), a small area of 1/256 is allocated to the area of the figure arranged in the pixel, and the occupation ratio in the pixel is reduced. Calculate. Then, a design image of 8-bit occupancy data is created for each pixel. The design image is sent to the learning point area data creation circuit 142 together with data indicating the position. The data of the design image (expanded image) output to the learning point area data creation circuit 142 is stored in the storage device 76.

ストライプ画像取得工程(S108)として、光学画像取得機構150は、パターン形成された被検査試料101の光学画像を取得する。ここでは、制御計算機110による制御のもと光学画像取得機構150は、試料101となるフォトマスクの検査領域10のうち、選択されたフレーム領域30を含む検査ストライプ20の光学画像を取得する。具体的には、以下のように動作する。   In the stripe image obtaining step (S108), the optical image obtaining mechanism 150 obtains an optical image of the pattern-formed test sample 101. Here, under the control of the control computer 110, the optical image acquisition mechanism 150 acquires an optical image of the inspection stripe 20 including the selected frame region 30 in the inspection region 10 of the photomask serving as the sample 101. Specifically, it operates as follows.

まず、選択されたフレーム領域30を含む検査ストライプ20が撮像可能な位置にXYθテーブル102を移動させる。試料101に形成されたパターンには、適切な光源103から、検査光となる紫外域以下の波長のレーザ光(例えば、DUV光)が照明光学系170を介して照射される。試料101を透過した光は拡大光学系104を介して、フォトダイオードアレイ105(センサの一例)に光学像として結像し、入射する。フォトダイオードアレイ105として、例えば、TDI(タイム・ディレイ・インテグレーション)センサ等を用いると好適である。   First, the XYθ table 102 is moved to a position where the inspection stripe 20 including the selected frame region 30 can be imaged. The pattern formed on the sample 101 is irradiated with laser light (for example, DUV light) having a wavelength equal to or shorter than the ultraviolet region serving as inspection light from the appropriate light source 103 via the illumination optical system 170. The light transmitted through the sample 101 forms an optical image on a photodiode array 105 (an example of a sensor) via a magnifying optical system 104 and enters the photodiode array 105. As the photodiode array 105, for example, a TDI (time delay integration) sensor or the like is preferably used.

フォトダイオードアレイ105上に結像されたパターンの像は、フォトダイオードアレイ105の各受光素子によって光電変換され、更にセンサ回路106によってA/D(アナログ・デジタル)変換される。そして、ストライプパターンメモリ123に、測定対象の検査ストライプ20の画素データが格納される。かかる画素データ(ストライプ領域画像)を撮像する際、フォトダイオードアレイ105のダイナミックレンジは、例えば、照明光の光量が60%入射する場合を最大階調とするダイナミックレンジを用いる。その後、ストライプ領域画像は、位置回路107から出力されたXYθテーブル102上におけるフォトマスク101の位置を示すデータと共に学習点領域データ作成回路142に送られる。測定データ(画素データ)は例えば8ビットの符号なしデータであり、各画素の明るさの階調(光量)を表現している。学習点領域データ作成回路142内に出力されたストライプ領域画像(ストライプデータ)は、記憶装置73に格納される。   The image of the pattern formed on the photodiode array 105 is photoelectrically converted by each light receiving element of the photodiode array 105 and further A / D (analog / digital) converted by the sensor circuit 106. Then, the pixel data of the inspection stripe 20 to be measured is stored in the stripe pattern memory 123. When capturing such pixel data (striped region image), the dynamic range of the photodiode array 105 is, for example, a dynamic range that maximizes the gradation when the amount of illumination light is 60% incident. Thereafter, the stripe area image is sent to the learning point area data creation circuit 142 together with data indicating the position of the photomask 101 on the XYθ table 102 output from the position circuit 107. The measurement data (pixel data) is, for example, 8-bit unsigned data, and expresses the brightness gradation (light amount) of each pixel. The stripe area image (stripe data) output to the learning point area data creation circuit 142 is stored in the storage device 73.

フレーム分割工程(S110)として、分割部74は、記憶装置73からストライプ領域画像を読み出し、ストライプ領域画像を分割することによって、選択されたフレーム領域30のフレーム画像を切り出す。生成されたフレーム画像は、記憶装置75に格納される。   In the frame dividing step (S110), the dividing unit 74 reads out the stripe region image from the storage device 73, and cuts out the frame image of the selected frame region 30 by dividing the stripe region image. The generated frame image is stored in the storage device 75.

学習点領域設計画像抽出工程(S112)として、抽出部77は、記憶装置76から選択されたフレーム領域30の設計画像を読み出し、設計画像の中から学習点領域設計画像を抽出する。   In the learning point area design image extracting step (S112), the extraction unit 77 reads the design image of the selected frame area 30 from the storage device 76, and extracts a learning point area design image from the design images.

図6は、実施の形態1における学習点領域画像の一例を示す図である。図6において、選択されたフレーム領域30の設計画像の中から、設定された学習点を探索する。そして、探索された学習点を含む学習点領域32の学習点領域設計画像を抽出する。学習点領域32は、探索された学習点を中心とするL1×L1のサイズで構成される。例えば、31画素×31画素の領域で構成される。L2×L2(例えば、1024×1024画素)のサイズのフレーム領域30の設計画像の中から、L1×L1(例えば、31×31画素)のサイズの学習点領域32の学習点領域設計画像を抽出する。設定された学習点の内容によるが、上述したように、学習点としてパターンエッジ個所やコーナー個所を設定する場合、1つの設計画像の中から例えば数1000個所の学習点領域32の学習点領域設計画像を抽出する。抽出された学習点領域設計画像は、記憶装置79に格納される。   FIG. 6 is a diagram illustrating an example of a learning point region image according to the first embodiment. In FIG. 6, a set learning point is searched from the design image of the selected frame area 30. Then, a learning point area design image of the learning point area 32 including the searched learning points is extracted. The learning point area 32 has a size of L1 × L1 centered on the searched learning point. For example, it is composed of an area of 31 pixels × 31 pixels. A learning point area design image of a learning point area 32 of L1 × L1 (for example, 31 × 31 pixels) is extracted from a design image of a frame area 30 of L2 × L2 (for example, 1024 × 1024 pixels). I do. Depending on the contents of the set learning points, as described above, when setting pattern edge points and corner points as learning points, learning point area design of learning point areas 32 of, for example, several thousand points from one design image is performed. Extract the image. The extracted learning point region design image is stored in the storage device 79.

学習点領域光学画像抽出工程(S114)として、抽出部78は、記憶装置75から選択されたフレーム領域30のフレーム画像(光学画像)を読み出し、フレーム画像の中から学習点領域光学画像を抽出する。具体的には、抽出部78は、選択されたフレーム領域30のフレーム画像(光学画像)の中から、抽出された学習点領域設計画像に対応する学習点領域32の学習点領域光学画像を抽出する。学習点領域設計画像と同様、1つのフレーム画像の中から例えば数1000個所の学習点領域32の学習点領域光学画像を抽出する。抽出された学習点領域光学画像は、記憶装置80に格納される。   In the learning point area optical image extracting step (S114), the extraction unit 78 reads the frame image (optical image) of the selected frame area 30 from the storage device 75, and extracts the learning point area optical image from the frame images. . Specifically, the extraction unit 78 extracts the learning point area optical image of the learning point area 32 corresponding to the extracted learning point area design image from the frame image (optical image) of the selected frame area 30. I do. As in the case of the learning point area design image, for example, a learning point area optical image of several thousand learning point areas 32 is extracted from one frame image. The extracted learning point region optical image is stored in the storage device 80.

ここで、上述したように、学習点として、パターン形状のうちの特徴部分が設定されるも、パターンのサイズが設定される訳ではないので、抽出される学習点領域設計画像及び学習点領域光学画像内のパターンが、メインパターンなのか、補助パターンなのかはわからない。よって、一致度が低くなる傾向のある補助パターンが都合よく選択されたかどうかはこの時点ではわからない。   Here, as described above, although the characteristic part of the pattern shape is set as the learning point, the size of the pattern is not set, so the learning point area design image and the learning point area optical It is not known whether the pattern in the image is a main pattern or an auxiliary pattern. Therefore, it is not known at this time whether or not an auxiliary pattern that tends to have a low degree of coincidence has been conveniently selected.

フィルタ係数演算工程(S116)として、係数演算回路140(係数演算部)は、記憶装置79から学習点領域設計画像を読み出し、記憶装置80から学習点領域光学画像を読み出す。そして、係数演算回路140は、学習点領域設計画像(設計画像の一部)と学習点領域光学画像(光学画像の一部)とを用いて、設計画像をフィルタ処理するためのフィルタ関数の係数を演算する。   In the filter coefficient calculation step (S116), the coefficient calculation circuit 140 (coefficient calculation unit) reads the learning point region design image from the storage device 79 and reads the learning point region optical image from the storage device 80. The coefficient calculation circuit 140 uses the learning point region design image (part of the design image) and the learning point region optical image (part of the optical image) to filter coefficients of the filter function for filtering the design image. Is calculated.

図7は、実施の形態1におけるフィルタ関数の係数を演算する手法の一例を説明するための図である。例えば、図7(a)に示すように、学習点領域32の画素数よりも少ない(2k+1)×(2k+1)個の要素で構成される未知の係数行列a(m,n)(係数の一例)を求める。例えば、31×31画素で構成される学習点領域32の画像に対して、15×15の係数行列a(m,n)を求める。学習点領域設計画像の注目画素d(i,j)を中心にして、(2k+1)×(2k+1)画素の画素と係数行列a(m,n)との積の和が注目画素d(i,j)に対応する学習点領域光学画像の注目画素r(i,j)により近づく係数行列a(m,n)を求める。かかる関係式(1)を以下に示す。   FIG. 7 is a diagram for explaining an example of a method of calculating coefficients of a filter function according to the first embodiment. For example, as shown in FIG. 7A, an unknown coefficient matrix a (m, n) (an example of a coefficient) composed of (2k + 1) × (2k + 1) elements smaller than the number of pixels in the learning point region 32 ). For example, a 15 × 15 coefficient matrix a (m, n) is obtained for an image of the learning point area 32 composed of 31 × 31 pixels. With the pixel of interest d (i, j) in the learning point region design image as the center, the sum of the product of the pixel of (2k + 1) × (2k + 1) and the coefficient matrix a (m, n) is the pixel of interest d (i, j). A coefficient matrix a (m, n) closer to the target pixel r (i, j) of the learning point area optical image corresponding to j) is obtained. The relational expression (1) is shown below.

Figure 2020052025
Figure 2020052025

図7(b)に示すように、注目画素を学習点領域32内で移動させながら、その都度、関係式(1)を演算する。そして、学習点領域32内のすべての画素についてそれぞれ得られた、未知の係数行列a(m,n)を用いて定義された関係式(1)を最も満足させる係数行列a(m,n)を求める。係数行列a(m,n)の要素数(2k+1)×(2k+1)は、適宜設定すればよい。少ないと精度が劣化し、多すぎると演算時間が長くなる。また、注目画素が学習点領域32内を移動する際、端部に近いと端部側の周囲の画素が必要分存在しない場合もあるが、かかる場合には値が得られる周囲画素及び画素数Nで演算すればよい。なお、学習点領域32は、学習点を中心にして領域構成されているので、学習点が端部にはならないように構成されている。上述したように、学習点領域設計画像は、1つの設定画像から例えば数1000個所抽出されるので、かかる場合には数1000個に学習点領域設計画像の画素数を乗じた値の数の関係式(1)を最も満足させる係数行列a(m,n)を求めることになる。   As shown in FIG. 7B, the relational expression (1) is calculated each time the pixel of interest is moved in the learning point area 32. Then, the coefficient matrix a (m, n) that most satisfies the relational expression (1) defined using the unknown coefficient matrix a (m, n) obtained for each of all the pixels in the learning point region 32. Ask for. The number of elements (2k + 1) × (2k + 1) of the coefficient matrix a (m, n) may be set as appropriate. If the amount is small, the accuracy is deteriorated, and if the amount is too large, the calculation time is long. When the target pixel moves in the learning point area 32, there may be a case where the necessary pixels around the end side do not exist as necessary if the pixel is close to the end. What is necessary is just to calculate by N. Since the learning point area 32 is formed around the learning point, the learning point is configured so that the learning point does not become an end. As described above, since several thousands of learning point region design images are extracted from one set image, for example, in such a case, the relationship between the number of values obtained by multiplying several thousand by the number of pixels of the learning point region design image is obtained. A coefficient matrix a (m, n) that most satisfies Expression (1) is obtained.

以上のようにして得られた係数行列a(m,n)(係数の一例)は参照回路112に出力され、フィルタ関数の係数として設定される。次に、得られた係数行列a(m,n)(係数の一例)が、適正かどうかを確認する。   The coefficient matrix a (m, n) (an example of a coefficient) obtained as described above is output to the reference circuit 112 and set as a coefficient of the filter function. Next, it is confirmed whether the obtained coefficient matrix a (m, n) (an example of a coefficient) is appropriate.

参照画像作成工程(S118)として、参照回路112(参照画像作成部)は、得られた係数行列a(m,n)を用いて、設計画像をフィルタ処理して参照画像を作成する。使用する設計画像は、学習点領域設計画像の抽出に使用した画像を流用すればよい。使用する設計画像は、1つであってもよいし、複数であっても構わない。   In the reference image creation step (S118), the reference circuit 112 (reference image creation unit) creates a reference image by filtering the design image using the obtained coefficient matrix a (m, n). The image used for extracting the learning point region design image may be used as the design image to be used. One or more design images may be used.

図8は、実施の形態1におけるフィルタ処理を説明するための図である。センサ回路106から得られた光学画像としての測定データは、拡大光学系104の解像特性やフォトダイオードアレイ105のアパーチャ効果等によってフィルタが作用した状態、言い換えれば連続変化するアナログ状態にあるため、画像強度(濃淡値)がデジタル値の設計側のイメージデータである基準設計画像データにもフィルタ処理を施すことにより、測定データに合わせることができる。このようにしてフレーム画像(光学画像)と比較する参照画像を作成する。作成された参照画像は学習点領域データ作成回路142に出力され、学習点領域データ作成回路142内に出力された参照画像は、記憶装置81に格納される。   FIG. 8 is a diagram for describing the filtering process according to the first embodiment. Since the measurement data as an optical image obtained from the sensor circuit 106 is in a state where a filter is actuated due to the resolution characteristics of the magnifying optical system 104 and the aperture effect of the photodiode array 105, in other words, it is in an analog state that changes continuously, By applying a filtering process to the reference design image data, which is image data on the design side of which the image intensity (shade value) is a digital value, it is possible to match with the measurement data. In this way, a reference image to be compared with the frame image (optical image) is created. The created reference image is output to the learning point area data creation circuit 142, and the reference image output to the learning point area data creation circuit 142 is stored in the storage device 81.

差分演算工程(S120)として、差分演算部82は、作成された参照画像内のパターン全体と、対応するフレーム画像内のパターン全体との一致度を演算する。具体的には、差分演算部82は、記憶装置81から参照画像を読み出し、記憶装置75から対応するフレーム画像を読み出す。そして、差分演算部82は、参照画像の各画素値と、フレーム画像のそれぞれ対応する画素値との差分を演算する。   In the difference calculation step (S120), the difference calculation unit 82 calculates the degree of coincidence between the entire pattern in the created reference image and the entire pattern in the corresponding frame image. Specifically, the difference calculation unit 82 reads a reference image from the storage device 81 and reads a corresponding frame image from the storage device 75. Then, the difference calculator 82 calculates a difference between each pixel value of the reference image and a corresponding pixel value of the frame image.

判定工程(S122)として、判定部83は、演算されたすべての画素の差分値のうち、最大値を示す最大差分値が閾値Thより大きいかどうかを判定する。最大差分値が閾値Thより大きくない場合には、適正な係数として、そのまま使用される。かかる場合には、抽出された学習点領域設計画像に、メインパターンの他、一致度が低くなる補助パターンが偶然にも含まれていたことになる。最大差分値が閾値Thより大きい場合には、一致度が低くなる補助パターンを含む学習点領域設計画像が抽出されなかったことになる。そこで、実施の形態1では、一致度が低くなる個所が、学習パターン(学習点)に確実に含まれるように抽出する。   In the determination step (S122), the determination unit 83 determines whether the maximum difference value indicating the maximum value among the calculated difference values of all the pixels is larger than the threshold value Th. If the maximum difference value is not greater than the threshold Th, it is used as it is as an appropriate coefficient. In such a case, the extracted learning point area design image accidentally includes an auxiliary pattern having a low degree of coincidence in addition to the main pattern. If the maximum difference value is larger than the threshold value Th, it means that the learning point area design image including the auxiliary pattern having the low matching degree has not been extracted. Therefore, in the first embodiment, a portion where the degree of coincidence is low is extracted so as to be surely included in the learning pattern (learning point).

周波数データ変換工程(S124)として、周波数データ変換部84(変換部)は、設計画像を周波数データに変換する。使用する設計画像は、学習点領域設計画像の抽出に使用した画像を流用すればよい。使用する設計画像は、1つであってもよいし、複数であっても構わない。周波数データ変換部84は、設計画像のデータに対してフーリエ変換処理を行うことによって設計画像を周波数データに変換する。設計画像は、たとえばパターンの長さが定義できる空間領域内の画像である。かかる空間領域内の画像に対して、周波数領域への変換を行う。   In the frequency data conversion step (S124), the frequency data conversion unit 84 (the conversion unit) converts the design image into frequency data. The image used for extracting the learning point region design image may be used as the design image to be used. One or more design images may be used. The frequency data conversion unit 84 converts the design image into frequency data by performing a Fourier transform process on the data of the design image. The design image is, for example, an image in a spatial region where the length of the pattern can be defined. An image in such a spatial domain is transformed into a frequency domain.

図9は、実施の形態1における周波数データ変換の仕方を説明するための図である。図9の例では、設計画像内にサイズの異なる複数の図形パターンが配置される。図9の例では、便宜上、数個の図形パターンしか示されていないが、実際には、通常、多数の図形パターンが配置されている。かかる設計画像に対して、例えば画素単位でy方向に移動した各位置でx方向に走査した値にフーリエ変換を行う。同様に、例えば画素単位でx方向に移動した各位置でy方向に走査した値にフーリエ変換を行う。かかる処理により、例えば長さを変換した周波数の関数(スペクトル)を演算する。   FIG. 9 is a diagram for explaining a method of frequency data conversion according to the first embodiment. In the example of FIG. 9, a plurality of graphic patterns having different sizes are arranged in the design image. In the example of FIG. 9, only a few graphic patterns are shown for the sake of convenience, but actually, a large number of graphic patterns are usually arranged. For this design image, for example, a Fourier transform is performed on the value scanned in the x direction at each position moved in the y direction in pixel units. Similarly, a Fourier transform is performed on the value scanned in the y direction at each position moved in the x direction, for example, in pixel units. By this processing, for example, a function (spectrum) of the frequency whose length has been converted is calculated.

図10は、実施の形態1における周波数とスペクトル強度との関係の一例を示す図である。図10において、縦軸にスペクトル強度を示し、横軸に周波数を示す。複数の図形パターンが配置された設計画像を周波数データに変換すると、図10に示すように、低周波数側から高周波数側に向かって徐々にスペクトル強度が小さくなり、収束する。その他、図示は省略するが、スペクトル強度が小さくなる過程で、複数の小さなピークが発生する場合もある。図10に示す周波数とスペクトル強度との関係において、周波数帯(バンド)毎に示されるスペクトル強度にはそれぞれ特徴がある。言い換えれば、周波数帯(バンド)毎に示されるスペクトル強度に対応する図形パターンはそのサイズが異なる。よって、メインパターンとは異なり、ウェハへのパターン転写の際、解像されない程度のサイズに形成される補助パターンは、特定の周波数帯(バンド)に示されるスペクトル強度に対応する。   FIG. 10 is a diagram illustrating an example of a relationship between frequency and spectrum intensity according to the first embodiment. In FIG. 10, the vertical axis indicates the spectrum intensity, and the horizontal axis indicates the frequency. When a design image on which a plurality of graphic patterns are arranged is converted into frequency data, as shown in FIG. 10, the spectrum intensity gradually decreases from the low frequency side to the high frequency side and converges. In addition, although not shown, a plurality of small peaks may occur in the process of decreasing the spectrum intensity. In the relationship between the frequency and the spectrum intensity shown in FIG. 10, the spectrum intensity shown for each frequency band (band) has a characteristic. In other words, the size of the graphic pattern corresponding to the spectrum intensity indicated for each frequency band (band) is different. Therefore, unlike the main pattern, the auxiliary pattern formed to a size that is not resolved when the pattern is transferred to the wafer corresponds to the spectrum intensity shown in the specific frequency band.

バンドデータ抽出工程(S126)として、バンドデータ抽出部85(抽出部)は、周波数データのうち、一部の周波数帯Δのデータを抽出する。バンドデータ抽出部85は、一部の周波数帯のデータとして、メインパターン(実回路パターン)よりも線幅が細い、メインパターンの形成を補助する補助パターンに対応する周波数帯のデータを抽出する。言い換えれば、一致度が低くなる補助パターンに対応する周波数帯(バンド)Δのデータを抽出する。例えば、F3の周波数帯のデータを抽出する。補助パターンのサイズに対応する周波数帯がいずれの帯域なのかは予めシミュレーション等により求めておけばよい。図10に示すF1〜F5の各周波数帯Δの幅は、例えば数10Hz程度(例えば50Hz)に設定すると好適である。また、抽出対象となる周波数帯(バンド)は、1つ周波数帯に限るものではなく、複数の周波数帯であっても構わない。なお、メインパターンは、低周波数の帯域に対応すると想定されるが、高周波数の帯域にも、メインパターンに対応する周波数のn倍高調波(nは2以上の整数)が含まれる場合があるので、これらを含む帯域(例えば、図10に示すF1及びF5)は、抽出対象から外すと好適である。   In the band data extraction step (S126), the band data extraction unit 85 (extraction unit) extracts data of a part of the frequency band Δ from the frequency data. The band data extraction unit 85 extracts, as data of a part of the frequency band, data of a frequency band having a line width smaller than that of the main pattern (actual circuit pattern) and corresponding to an auxiliary pattern for assisting the formation of the main pattern. In other words, the data of the frequency band (band) Δ corresponding to the auxiliary pattern having the low matching degree is extracted. For example, data of the frequency band of F3 is extracted. Which frequency band corresponds to the size of the auxiliary pattern may be determined in advance by simulation or the like. The width of each frequency band Δ of F1 to F5 shown in FIG. 10 is preferably set to, for example, about several tens of Hz (for example, 50 Hz). The frequency band (band) to be extracted is not limited to one frequency band, but may be a plurality of frequency bands. The main pattern is assumed to correspond to a low-frequency band, but the high-frequency band may include an n-th harmonic (n is an integer of 2 or more) of the frequency corresponding to the main pattern. Therefore, it is preferable that bands including these (for example, F1 and F5 shown in FIG. 10) are excluded from extraction targets.

逆変換工程(S128)として、逆変換部86は、抽出された一部の周波数帯のデータを逆変換して、空間領域画像を生成する。逆変換部86は、設計画像の周波数データに対してフーリエ変換処理の逆変換処理を行うことによって周波数領域から空間領域の画像に変換する。変換された空間領域画像は記憶装置87に格納される。   In the inverse transform step (S128), the inverse transform unit 86 inversely transforms the extracted data of a part of the frequency band to generate a spatial domain image. The inverse transform unit 86 performs an inverse transform process of the Fourier transform process on the frequency data of the design image, thereby converting the frequency domain image into the spatial domain image. The converted space area image is stored in the storage device 87.

図11は、実施の形態1における一部の周波数帯のデータから得られる空間領域画像の一例を示す図である。ここでは、便宜上、設計画像と同様のサイズに設定されると好適である。一部の周波数帯のデータから得られる図形パターンは、解像されない程度のサイズに形成される補助パターンを含む、メインパターンに対してサイズが小さい図形パターンになるので、空間領域画像は、かかるサイズが小さい図形パターンにより構成されることになる。   FIG. 11 is a diagram illustrating an example of a spatial domain image obtained from data of a part of the frequency bands according to the first embodiment. Here, for convenience, it is preferable to set the same size as the design image. Since the graphic pattern obtained from the data of some frequency bands is a graphic pattern smaller in size than the main pattern, including the auxiliary pattern formed to a size that is not resolved, the spatial area image is Is constituted by a small figure pattern.

学習点領域設計画像抽出工程(S132)として、抽出部89は、記憶装置87から逆変換により生成された空間領域画像を読み出す。そして、抽出部89は、空間領域画像の中から設定された学習点を探索する。そして、探索された学習点を含む学習点領域32の学習点領域設計画像を抽出する。学習点領域32は、探索された学習点を中心とするL1×L1のサイズで構成される。例えば、31画素×31画素の領域で構成される。抽出の仕方は学習点領域設計画像抽出工程(S112)と同様で構わない。ここでは、一致度が低くなる補助パターンが選択的に配置された空間領域画像の中から学習点領域設計画像を抽出する。よって、一致度が低くなる補助パターンを含む学習点領域設計画像を選択的に抽出することができる。空間領域画像内に補助パターンが複数配置されている場合、複数の学習点領域設計画像が抽出され得る。   In the learning point area design image extraction step (S132), the extraction unit 89 reads the spatial area image generated by the inverse transformation from the storage device 87. Then, the extraction unit 89 searches for the set learning point from the space area image. Then, a learning point area design image of the learning point area 32 including the searched learning points is extracted. The learning point area 32 has a size of L1 × L1 centered on the searched learning point. For example, it is composed of an area of 31 pixels × 31 pixels. The method of extraction may be the same as in the learning point area design image extraction step (S112). Here, a learning point area design image is extracted from a spatial area image in which auxiliary patterns having a low degree of coincidence are selectively arranged. Therefore, it is possible to selectively extract the learning point region design image including the auxiliary pattern having the low matching degree. When a plurality of auxiliary patterns are arranged in the space area image, a plurality of learning point area design images can be extracted.

学習点領域光学画像抽出工程(S134)として、抽出部90は、当該空間領域画像に対応するフレーム画像(光学画像)の中から、空間領域画像から抽出された学習点領域設計画像に対応する学習点領域32の学習点領域光学画像を抽出する。複数の学習点領域設計画像が抽出される場合、同様に複数の学習点領域光学画像が抽出されることは言うまでもない。   In the learning point region optical image extraction step (S134), the extraction unit 90 performs learning corresponding to the learning point region design image extracted from the spatial region image from among the frame images (optical images) corresponding to the spatial region image. A learning point area optical image of the point area 32 is extracted. When a plurality of learning point region design images are extracted, it goes without saying that a plurality of learning point region optical images are similarly extracted.

差分演算工程(S136)として、差分演算部88は、抽出された一部の周波数帯のデータに対応する空間領域画像から抽出された学習点領域に対応する学習点領域設計画像の各画素値と学習点領域光学画像のそれぞれ対応する画素値との差分を演算する。   In the difference calculation step (S136), the difference calculation unit 88 calculates each pixel value of the learning point area design image corresponding to the learning point area extracted from the spatial area image corresponding to the extracted partial frequency band data. The difference between the corresponding pixel value of the learning point area optical image and the corresponding pixel value is calculated.

選択工程(S138)として、選択部91は、空間領域画像から抽出された学習点領域に対応する少なくとも1つの学習点領域設計画像の中から、学習点領域設計画像と学習点領域光学画像との各画素値の差分値の最大値が閾値Thを超える学習点領域設計画像を選択する。選択された学習点領域設計画像は、記憶装置79に格納される。同様に、選択された学習点領域設計画像に対応する学習点領域光学画像は、記憶装置80に格納される。もしも、差分値の最大値が閾値Thを超える学習点領域設計画像が抽出されていない場合には、選択対象なしと判定すればよい。空間領域画像から抽出された学習点領域に対応する設計画像と光学画像を比較することで一致度が低い(差分が大きい)SRAFやOPC部分を選択的に学習点領域に追加できる。   In the selection step (S138), the selection unit 91 selects a learning point region design image and a learning point region optical image from at least one learning point region design image corresponding to the learning point region extracted from the spatial region image. A learning point area design image in which the maximum difference value between the pixel values exceeds the threshold Th is selected. The selected learning point area design image is stored in the storage device 79. Similarly, the learning point area optical image corresponding to the selected learning point area design image is stored in the storage device 80. If the learning point area design image in which the maximum value of the difference value exceeds the threshold value Th is not extracted, it may be determined that there is no selection target. By comparing the design image and the optical image corresponding to the learning point region extracted from the spatial region image, the SRAF or OPC portion having a low degree of coincidence (a large difference) can be selectively added to the learning point region.

そして、フィルタ係数演算工程(S116)に戻り、係数演算回路140(係数演算部)は、空間領域画像の少なくとも一部と、フレーム画像(光学画像)の対応する一部と、設計画像の対応する一部とを用いて、設計画像をフィルタ処理するためのフィルタ関数の係数を演算する。具体的には、係数演算回路140は、新たに抽出された補助パターンを含む学習点領域設計画像(設計画像の一部)が追加された複数の学習点領域設計画像(設計画像の一部)と、新たに抽出された補助パターンを含む学習点領域光学画像(光学画像の一部)が追加された複数の学習点領域光学画像(光学画像の一部)とを用いて、設計画像をフィルタ処理するためのフィルタ関数の係数を演算する。フィルタ関数の係数の演算は設計画像と対応する光学画像で行い、逆変換した空間領域画像はその補助に使う。特定周波数帯を逆変換することで、SRAFやOPCを強調した空間領域画像が生成でき、空間領域画像から学習点領域を抽出して対応する光学画像と設計画像を使って係数を求める。   Then, returning to the filter coefficient calculation step (S116), the coefficient calculation circuit 140 (coefficient calculation unit) corresponds to at least a part of the spatial domain image, a corresponding part of the frame image (optical image), and a corresponding part of the design image. The coefficients of the filter function for filtering the design image are calculated using the part. Specifically, the coefficient calculation circuit 140 generates a plurality of learning point region design images (parts of the design image) to which learning point region design images (parts of the design image) including the newly extracted auxiliary patterns are added. And a plurality of learning point region optical images (part of the optical image) to which the learning point region optical image (part of the optical image) including the newly extracted auxiliary pattern is added, and the design image is filtered. Calculate the coefficients of the filter function to be processed. The calculation of the coefficients of the filter function is performed on the design image and the corresponding optical image, and the inversely transformed spatial domain image is used to assist it. By inverting the specific frequency band, a spatial domain image in which SRAF and OPC are emphasized can be generated. A learning point region is extracted from the spatial domain image, and a coefficient is obtained using the corresponding optical image and design image.

そして、判定工程(S122)において最大差分値が閾値Thより大きくなくなるまでフィルタ係数演算工程(S116)から学習点領域光学画像抽出工程(S134)までの各工程を繰り返す。或いは、予め設定した最大繰り返し回数まで繰り返す。繰り返すことで、フィルタ係数の最適化をさらに進めることができる。   Then, in the determination step (S122), each step from the filter coefficient calculation step (S116) to the learning point area optical image extraction step (S134) is repeated until the maximum difference value does not become larger than the threshold value Th. Alternatively, the process is repeated up to a preset maximum number of repetitions. By repeating, optimization of the filter coefficient can be further advanced.

以上のように、実施の形態1によれば、一致度が低くなる補助パターンが、フィルタ係数演算のための学習点として確実に含まれるようにできる。その結果、得られるフィルタ係数の精度を向上できる。   As described above, according to the first embodiment, it is possible to reliably include an auxiliary pattern having a low degree of coincidence as a learning point for calculating a filter coefficient. As a result, the accuracy of the obtained filter coefficient can be improved.

図12は、実施の形態1における比較回路の内部構成の一例を示す構成図である。図12において、比較回路108内には、磁気ディスク装置等の記憶装置50,52,56、フレーム分割部54、位置合わせ部58、及び比較処理部59が配置されている。フレーム分割部54、位置合わせ部58、及び比較処理部59といった各「〜部」は、処理回路を有する。かかる処理回路は、例えば、電気回路、コンピュータ、プロセッサ、回路基板、量子回路、或いは、半導体装置を含む。各「〜部」は、共通する処理回路(同じ処理回路)を用いても良いし、或いは異なる処理回路(別々の処理回路)を用いても良い。フレーム分割部54、位置合わせ部58、及び比較処理部59に入出力される情報および演算中の情報は図示しないメモリにその都度格納される。   FIG. 12 is a configuration diagram illustrating an example of an internal configuration of the comparison circuit according to the first embodiment. 12, storage devices 50, 52, and 56 such as magnetic disk devices, a frame division unit 54, a positioning unit 58, and a comparison processing unit 59 are arranged in a comparison circuit 108. Each of the “-units” such as the frame division unit 54, the positioning unit 58, and the comparison processing unit 59 has a processing circuit. Such a processing circuit includes, for example, an electric circuit, a computer, a processor, a circuit board, a quantum circuit, or a semiconductor device. Each of the units may use a common processing circuit (the same processing circuit) or different processing circuits (separate processing circuits). Information input to and output from the frame division unit 54, the positioning unit 58, and the comparison processing unit 59 and information being calculated are stored in a memory (not shown) each time.

図13は、実施の形態1におけるパターン検査方法の要部工程の残部を示すフローチャート図である。実施の形態1におけるパターン検査方法の要部工程のうち、図4に示す一連の工程に続く工程を示している。図13において、実施の形態1におけるパターン検査方法の要部工程の残部は、光学画像取得工程(S202)と、フレーム分割工程(S204)と、展開画像作成工程(S206)と、参照画像作成工程(S208)と、位置合わせ工程(S210)と、比較工程(S212)と、いう一連の工程を実施する。   FIG. 13 is a flowchart showing the remaining part of the main steps of the pattern inspection method according to the first embodiment. 5 shows a step following a series of steps shown in FIG. 4 among main steps of the pattern inspection method in the first embodiment. In FIG. 13, the remaining main steps of the pattern inspection method according to the first embodiment include an optical image acquisition step (S202), a frame division step (S204), a developed image creation step (S206), and a reference image creation step. A series of steps of (S208), an alignment step (S210), and a comparison step (S212) are performed.

光学画像取得工程(S202)として、光学画像取得機構150は、試料101となるフォトマスクの光学画像を取得する。ストライプ画像の取得方法は、上述した内容と同様である。但し、ここでは、図3に示すように順にストライプ画像を取得していく。そして、検査ストライプ20毎にストライプパターンメモリ123に画素データが格納される。その後、ストライプ領域画像は、位置回路107から出力されたXYθテーブル102上におけるフォトマスク101の位置を示すデータと共に比較回路108に送られる。測定データ(画素データ)は例えば8ビットの符号なしデータであり、各画素の明るさの階調(光量)を表現している。比較回路108内に出力されたストライプ領域画像は、記憶装置50に格納される。   In the optical image obtaining step (S202), the optical image obtaining mechanism 150 obtains an optical image of a photomask serving as the sample 101. The method of acquiring the stripe image is the same as the above. However, here, stripe images are sequentially acquired as shown in FIG. Then, pixel data is stored in the stripe pattern memory 123 for each inspection stripe 20. Thereafter, the stripe region image is sent to the comparison circuit 108 together with data indicating the position of the photomask 101 on the XYθ table 102 output from the position circuit 107. The measurement data (pixel data) is, for example, 8-bit unsigned data, and expresses the brightness gradation (light amount) of each pixel. The stripe region image output to the comparison circuit 108 is stored in the storage device 50.

フレーム分割工程(S204)として、比較回路108内では、フレーム分割部54が、検査ストライプ20毎にx方向に所定のサイズ(例えば、スキャン幅Wと同じ幅)で、ストライプ領域画像(光学画像)をフレーム領域30毎の複数のフレーム画像(光学画像)に分割する。例えば、1024×1024画素(或いは、例えば、512×512画素)のフレーム画像に分割する。言い換えれば、検査ストライプ20毎のストライプ領域画像をそれぞれ検査ストライプ20の幅と同様の幅、例えば、スキャン幅Wで複数のフレーム画像(光学画像)に分割する。かかる処理により、複数のフレーム領域30に応じた複数のフレーム画像(光学画像)が取得される。複数のフレーム画像は、記憶装置56に格納される。以上により、検査のために比較される一方の画像(測定された画像)データが生成される。   In the frame division step (S204), in the comparison circuit 108, the frame division unit 54 has a stripe region image (optical image) of a predetermined size (for example, the same width as the scan width W) in the x direction for each inspection stripe 20. Is divided into a plurality of frame images (optical images) for each frame region 30. For example, the image is divided into frame images of 1024 × 1024 pixels (or, for example, 512 × 512 pixels). In other words, the stripe region image for each inspection stripe 20 is divided into a plurality of frame images (optical images) with a width similar to the width of the inspection stripe 20, for example, a scan width W. Through this processing, a plurality of frame images (optical images) corresponding to the plurality of frame regions 30 are obtained. The plurality of frame images are stored in the storage device 56. As described above, one image (measured image) data to be compared for the inspection is generated.

展開画像作成工程(S206)として、展開回路111(設計画像作成部)は、被検査試料101のパターン形成の基となる設計パターンデータに基づいて画像展開して設計画像(展開画像)を作成する。具体的には、展開回路111は、磁気ディスク装置109から制御計算機110を通して設計データを読み出し、読み出された設計データに定義された各フレーム領域の各図形パターンを2値ないしは多値のイメージデータに変換する。そして、画素毎に8ビットの占有率データの設計画像を作成する。設計画像(展開画像)のデータ(イメージデータ)は参照回路112に出力される。   In the developed image creating step (S206), the developing circuit 111 (design image creating unit) develops an image based on the design pattern data on which the pattern of the sample to be inspected 101 is formed to create a design image (developed image). . Specifically, the expansion circuit 111 reads the design data from the magnetic disk device 109 through the control computer 110, and converts each figure pattern defined in the read design data into a binary or multivalued image data. Convert to Then, a design image of 8-bit occupancy data is created for each pixel. The data (image data) of the design image (expanded image) is output to the reference circuit 112.

参照画像作成工程(S208)として、参照回路112(参照画像作成部)は、演算されたフィルタ係数が定義されたフィルタ関数を用いて、複数のフレーム領域30(小領域)の複数のフレーム画像(光学画像)のいずれかと対比するための複数の参照画像を作成する。言い換えれば、設定された係数行列a(i,j)(フィルタ係数の一例)を用いて、各フレーム領域30の設計画像(展開画像)をフィルタ処理して参照画像を作成する。作成された各フレーム領域30の参照画像は比較回路108に出力され、比較回路108内に出力された参照画像は、記憶装置52に格納される。   In the reference image creation step (S208), the reference circuit 112 (reference image creation unit) uses a filter function in which the calculated filter coefficients are defined, and a plurality of frame images (a small area) of the plurality of frame areas 30 (small areas). Optical images) are created. In other words, using the set coefficient matrix a (i, j) (an example of a filter coefficient), the design image (developed image) of each frame region 30 is filtered to create a reference image. The created reference image of each frame region 30 is output to the comparison circuit 108, and the reference image output to the comparison circuit 108 is stored in the storage device 52.

位置合わせ工程(S210)として、位置合わせ部62は、比較対象となるフレーム画像(光学画像)を記憶装置56から読み出し、同様に比較対象となる参照画像を記憶装置52から読み出す。そして、所定のアルゴリズムで位置合わせを行う。例えば、最小2乗法を用いて位置合わせを行う。   In the positioning step (S210), the positioning unit 62 reads the frame image (optical image) to be compared from the storage device 56, and similarly reads the reference image to be compared from the storage device 52. Then, positioning is performed by a predetermined algorithm. For example, alignment is performed using the least squares method.

比較工程(S212)として、比較処理部59(比較部)は、複数のフレーム領域30(小領域)のフレーム領域毎に、当該フレーム領域30のフレーム画像(光学画像)と当該フレーム画像に対応する参照画像とを画素毎に比較して、パターンの欠陥を検査する。比較処理部59は、所定の判定条件に従って画素毎に両者を比較し、例えば形状欠陥といった欠陥の有無を判定する。判定条件としては、例えば、所定のアルゴリズムに従って画素毎に両者を比較し、欠陥の有無を判定する。そして、比較結果が出力される。比較結果は、磁気ディスク装置109、磁気テープ装置115、フレキシブルディスク装置(FD)116、CRT117、若しくはパターンモニタ118に出力される。或いはプリンタ119から出力されればよい。   In the comparison step (S212), the comparison processing unit 59 (comparing unit) corresponds to the frame image (optical image) of the frame region 30 and the frame image for each of the plurality of frame regions 30 (small regions). The pattern is inspected for defects by comparing the reference image with each pixel. The comparison processing unit 59 compares the two for each pixel according to a predetermined determination condition, and determines whether or not there is a defect such as a shape defect. As a determination condition, for example, the two are compared for each pixel according to a predetermined algorithm, and the presence or absence of a defect is determined. Then, the comparison result is output. The comparison result is output to the magnetic disk device 109, magnetic tape device 115, flexible disk device (FD) 116, CRT 117, or pattern monitor 118. Alternatively, it may be output from the printer 119.

以上のように、実施の形態1では、フィルタ係数の最適値(或いは、従来の手法よりも適した値)を求めることができ、フィルタ処理の精度を向上させることができる。よって、高精度な参照画像を作成できる。これにより、一致度が低くなる補助パターンのうち、出来の良い補助パターンについては欠陥と判定されない、或いは判定される可能性を低減させた参照画像を作成できる。その結果、高精度なパターン欠陥検査ができ、検査精度を向上させることができる。   As described above, in the first embodiment, the optimum value of the filter coefficient (or a value more suitable than the conventional method) can be obtained, and the accuracy of the filter processing can be improved. Therefore, a highly accurate reference image can be created. This makes it possible to create a reference image in which, among auxiliary patterns having a low degree of coincidence, a well-formed auxiliary pattern is not determined as a defect or the possibility of being determined is reduced. As a result, highly accurate pattern defect inspection can be performed, and inspection accuracy can be improved.

以上、具体例を参照しつつ実施の形態について説明した。しかし、本発明は、これらの具体例に限定されるものではない。例えば、実施の形態では、照明光学系170として、透過光を用いた透過照明光学系を示したが、これに限るものではない。例えば、反射光を用いた反射照明光学系であってもよい。或いは、透過照明光学系と反射照明光学系とを組み合わせて、透過光と反射光を同時に用いてもよい。   The embodiment has been described with reference to the specific examples. However, the present invention is not limited to these specific examples. For example, in the embodiment, the transmitted illumination optical system using transmitted light is shown as the illumination optical system 170, but the present invention is not limited to this. For example, a reflection illumination optical system using reflected light may be used. Alternatively, the transmitted light and the reflected light may be used simultaneously by combining the transmitted illumination optical system and the reflected illumination optical system.

また、装置構成や制御手法等、本発明の説明に直接必要しない部分等については記載を省略したが、必要とされる装置構成や制御手法を適宜選択して用いることができる。例えば、検査装置100を制御する制御部構成については、記載を省略したが、必要とされる制御部構成を適宜選択して用いることは言うまでもない。   In addition, although description is omitted for parts that are not directly necessary for the description of the present invention, such as the device configuration and the control method, the required device configuration and control method can be appropriately selected and used. For example, the description of the control unit configuration that controls the inspection apparatus 100 is omitted, but it goes without saying that the required control unit configuration is appropriately selected and used.

その他、本発明の要素を具備し、当業者が適宜設計変更しうる全てのパターン検査装置、及びパターン検査方法は、本発明の範囲に包含される。   In addition, all pattern inspection apparatuses and pattern inspection methods which include the elements of the present invention and whose design can be appropriately changed by those skilled in the art are included in the scope of the present invention.

10 検査領域
20 検査ストライプ
30 フレーム領域
32 学習点領域
50,52,56 記憶装置
54 フレーム分割部
58 位置合わせ部
59 比較処理部
73,75,76,79,80,81,87 記憶装置
70 学習点設定部
71 フレーム選択部
72 設計画像作成部
74 分割部
77,78 抽出部
82 差分演算部
83 判定部
84 周波数データ変換部
85 バンドデータ抽出部
86 逆変換部
88 差分演算部
89 抽出部
89,90 抽出部
91 選択部
100 検査装置
101 試料
102 XYθテーブル
103 光源
104 拡大光学系
105 フォトダイオードアレイ
106 センサ回路
107 位置回路
108 比較回路
109 磁気ディスク装置
110 制御計算機
111 展開回路
112 参照回路
113 オートローダ制御回路
114 テーブル制御回路
115 磁気テープ装置
116 FD
117 CRT
118 パターンモニタ
119 プリンタ
120 バス
122 レーザ測長システム
123 ストライプパターンメモリ
140 係数演算回路
142 学習点領域データ作成回路
150 光学画像取得機構
160 制御系回路
170 照明光学系
Reference Signs List 10 inspection area 20 inspection stripe 30 frame area 32 learning point area 50, 52, 56 storage unit 54 frame division unit 58 positioning unit 59 comparison processing unit 73, 75, 76, 79, 80, 81, 87 storage unit 70 learning point Setting unit 71 frame selection unit 72 design image creation unit 74 division units 77 and 78 extraction unit 82 difference calculation unit 83 determination unit 84 frequency data conversion unit 85 band data extraction unit 86 inverse conversion unit 88 difference calculation unit 89 extraction units 89 and 90 Extraction unit 91 Selection unit 100 Inspection device 101 Sample 102 XYθ table 103 Light source 104 Magnifying optical system 105 Photodiode array 106 Sensor circuit 107 Position circuit 108 Comparison circuit 109 Magnetic disk drive 110 Control computer 111 Expansion circuit 112 Reference circuit 113 Autoloader control circuit 114 Table control times Road 115 Magnetic tape unit 116 FD
117 CRT
118 Pattern monitor 119 Printer 120 Bus 122 Laser length measurement system 123 Stripe pattern memory 140 Coefficient operation circuit 142 Learning point area data creation circuit 150 Optical image acquisition mechanism 160 Control system circuit 170 Illumination optical system

Claims (5)

パターン形成された被検査試料の光学画像を取得する光学画像取得機構と、
前記被検査試料のパターン形成の基となる設計パターンデータを画像展開して設計画像を作成する設計画像作成部と、
前記設計画像を周波数データに変換する変換部と、
前記周波数データのうち、一部の周波数帯のデータを抽出する抽出部と、
抽出された前記一部の周波数帯のデータを逆変換して、空間領域画像を生成する逆変換部と、
前記空間領域画像の少なくとも一部と、前記光学画像の対応する一部と、前記設計画像の対応する一部とを用いて、前記設計画像をフィルタ処理するためのフィルタ関数の係数を演算する係数演算部と、
前記係数を用いて、前記設計画像をフィルタ処理して参照画像を作成する参照画像作成部と、
画素毎に前記光学画像と前記参照画像とを比較する比較部と、
を備えたことを特徴とするパターン検査装置。
An optical image acquisition mechanism for acquiring an optical image of a pattern-formed sample to be inspected,
A design image creating unit that creates a design image by developing a design pattern data based on which a pattern is formed on the sample to be inspected,
A conversion unit that converts the design image into frequency data,
Among the frequency data, an extraction unit that extracts data of some frequency bands,
An inverse transform unit that inversely transforms the extracted data of the partial frequency band to generate a spatial domain image,
Using at least a part of the spatial domain image, a corresponding part of the optical image, and a corresponding part of the design image, a coefficient for calculating a coefficient of a filter function for filtering the design image An operation unit;
A reference image creating unit that creates a reference image by filtering the design image using the coefficient,
A comparison unit that compares the optical image and the reference image for each pixel,
A pattern inspection apparatus comprising:
前記抽出部は、前記一部の周波数帯のデータとして、実回路パターンよりも線幅が細い、前記実回路パターンの形成を補助する補助パターンに対応する周波数帯のデータを抽出することを特徴とする請求項1記載のパターン検査装置。   The extraction unit, as the data of the partial frequency band, is to extract data of a frequency band corresponding to an auxiliary pattern having a smaller line width than an actual circuit pattern and assisting the formation of the actual circuit pattern. The pattern inspection apparatus according to claim 1, wherein 前記変換部は、前記設計画像のデータに対してフーリエ変換処理を行うことによって前記設計画像を前記周波数データに変換することを特徴とする請求項1又は2記載のパターン検査装置。   The pattern inspection apparatus according to claim 1, wherein the conversion unit converts the design image into the frequency data by performing a Fourier transform process on the design image data. 前記空間領域画像のうち、対応する光学画像と設計画像との画素値の差分が閾値を超える画素を含む小領域が前記係数の演算に用いられることを特徴とする請求項1〜3いずれか記載のパターン検査装置。   4. The spatial region image, wherein a small region including a pixel whose pixel value difference between the corresponding optical image and the design image exceeds a threshold value is used for calculating the coefficient. 5. Pattern inspection equipment. パターン形成された被検査試料の光学画像を取得する工程と、
前記被検査試料のパターン形成の基となる設計パターンデータを画像展開して設計画像を作成する工程と、
前記設計画像を周波数データに変換する工程と、
前記周波数データのうち、一部の周波数帯のデータを抽出する工程と、
抽出された前記一部の周波数帯のデータを逆変換して、空間領域画像を生成する工程と、
前記空間領域画像の少なくとも一部と、前記光学画像の対応する一部と、前記設計画像の対応する一部とを用いて、前記設計画像をフィルタ処理するためのフィルタ関数の係数を演算する工程と、
前記係数を用いて、前記設計画像をフィルタ処理して参照画像を作成する工程と、
を備えたことを特徴とする参照画像の作成方法。
A step of obtaining an optical image of the pattern-formed inspection sample,
A step of developing a design pattern data based on the pattern formation of the sample to be inspected to create a design image,
Converting the design image into frequency data,
A step of extracting data of some frequency bands from the frequency data;
Inversely transforming the extracted data of the partial frequency band to generate a spatial domain image,
Calculating a filter function coefficient for filtering the design image using at least a part of the spatial region image, a corresponding part of the optical image, and a corresponding part of the design image; When,
Using the coefficients, filter the design image to create a reference image,
A method for creating a reference image, comprising:
JP2018184856A 2018-09-28 2018-09-28 PATTERN INSPECTION DEVICE AND REFERENCE IMAGE CREATION METHOD Active JP7144262B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018184856A JP7144262B2 (en) 2018-09-28 2018-09-28 PATTERN INSPECTION DEVICE AND REFERENCE IMAGE CREATION METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018184856A JP7144262B2 (en) 2018-09-28 2018-09-28 PATTERN INSPECTION DEVICE AND REFERENCE IMAGE CREATION METHOD

Publications (2)

Publication Number Publication Date
JP2020052025A true JP2020052025A (en) 2020-04-02
JP7144262B2 JP7144262B2 (en) 2022-09-29

Family

ID=69996829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018184856A Active JP7144262B2 (en) 2018-09-28 2018-09-28 PATTERN INSPECTION DEVICE AND REFERENCE IMAGE CREATION METHOD

Country Status (1)

Country Link
JP (1) JP7144262B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024042686A1 (en) * 2022-08-25 2024-02-29 日本電信電話株式会社 Device inspection system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001028060A (en) * 1999-07-15 2001-01-30 Toshiba Corp Method and instrument for fine pattern measurement, and computer-readable recording medium stored with fine pattern measuring program
JP2004516461A (en) * 2000-12-15 2004-06-03 ケイエルエイ−テンコー コーポレイション Method and apparatus for inspecting a substrate
JP2007183135A (en) * 2006-01-05 2007-07-19 Toshiba Corp Method and device for inspecting pattern
JP2017058190A (en) * 2015-09-15 2017-03-23 株式会社ニューフレアテクノロジー Reference data creation method for creating reference image and pattern test equipment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001028060A (en) * 1999-07-15 2001-01-30 Toshiba Corp Method and instrument for fine pattern measurement, and computer-readable recording medium stored with fine pattern measuring program
JP2004516461A (en) * 2000-12-15 2004-06-03 ケイエルエイ−テンコー コーポレイション Method and apparatus for inspecting a substrate
JP2007183135A (en) * 2006-01-05 2007-07-19 Toshiba Corp Method and device for inspecting pattern
JP2017058190A (en) * 2015-09-15 2017-03-23 株式会社ニューフレアテクノロジー Reference data creation method for creating reference image and pattern test equipment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024042686A1 (en) * 2022-08-25 2024-02-29 日本電信電話株式会社 Device inspection system

Also Published As

Publication number Publication date
JP7144262B2 (en) 2022-09-29

Similar Documents

Publication Publication Date Title
JP6637375B2 (en) Pattern inspection method and pattern inspection device
JP5695924B2 (en) Defect estimation apparatus, defect estimation method, inspection apparatus, and inspection method
JP6132658B2 (en) Inspection sensitivity evaluation method
JP4185516B2 (en) Sample inspection apparatus, sample inspection method, and program
US7664308B2 (en) Photomask inspection apparatus comparing optical proximity correction patterns to minimum and maximum limits
JP4323475B2 (en) Sample inspection apparatus, sample inspection method, and program
JP4174536B2 (en) Image correction apparatus, image inspection apparatus, and image correction method
JP2017083270A (en) Inspection method and inspection device
JP2007088375A (en) Sample inspection apparatus, sample inspection method and program
JP4970569B2 (en) Pattern inspection apparatus and pattern inspection method
JP2017053674A (en) Displacement amount measurement method of pattern width dimension and pattern inspection device
JP2007071629A (en) Apparatus for supporting sample inspection device, method for inspecting sample and program
JP2008051617A (en) Image inspection device, image inspection method and recording medium
JP2012251785A (en) Inspection device and inspection method
JP7144262B2 (en) PATTERN INSPECTION DEVICE AND REFERENCE IMAGE CREATION METHOD
JP2017058190A (en) Reference data creation method for creating reference image and pattern test equipment
JP6259642B2 (en) Measuring device
JP2017138250A (en) Pattern line width measurement device and pattern line width measurement method
JP2014206446A (en) Pattern inspection method
JP6255191B2 (en) Inspection apparatus and inspection method
JP4922381B2 (en) Pattern inspection apparatus and pattern inspection method
JP4977123B2 (en) Sample inspection apparatus, sample inspection method, and program
JP4185515B2 (en) Sample inspection method, program, and sample inspection apparatus
JP6533062B2 (en) Pattern inspection method
JP7111496B2 (en) Pattern inspection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220915

R150 Certificate of patent or registration of utility model

Ref document number: 7144262

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150