JP2013053986A - Pattern inspection method and device thereof - Google Patents

Pattern inspection method and device thereof Download PDF

Info

Publication number
JP2013053986A
JP2013053986A JP2011193605A JP2011193605A JP2013053986A JP 2013053986 A JP2013053986 A JP 2013053986A JP 2011193605 A JP2011193605 A JP 2011193605A JP 2011193605 A JP2011193605 A JP 2011193605A JP 2013053986 A JP2013053986 A JP 2013053986A
Authority
JP
Japan
Prior art keywords
image
pattern
design data
inspection
inspection target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011193605A
Other languages
Japanese (ja)
Inventor
Shinya Murakami
慎弥 村上
Chie Shishido
千絵 宍戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi High Tech Corp
Original Assignee
Hitachi High Technologies Corp
Hitachi High Tech Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi High Technologies Corp, Hitachi High Tech Corp filed Critical Hitachi High Technologies Corp
Priority to JP2011193605A priority Critical patent/JP2013053986A/en
Publication of JP2013053986A publication Critical patent/JP2013053986A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a semiconductor pattern inspection device which detects a systematic defect without causing many pieces of misinformation.SOLUTION: A semiconductor pattern inspection device is constituted so as to calculate an identification boundary for identifying misinformation and a defect by using feature quantity extracted from an image obtained by picking up an inspection objet pattern, feature quantity of a part corresponding to the image obtained by picking up the inspection object pattern extracted from a design data image generated from design data, and information on teaching data created by using the image obtained by picking up the inspection object pattern and the design data image, to calculate image feature quantity of an inspection area of the inspection object pattern from the image obtained by picking up the inspection area of the inspection object pattern from the image obtained by picking up the inspection area of the inspection object pattern, to create the design data image from the design data corresponding to the inspection area of the inspection object pattern, to calculate feature quantity of the created design data image, and to detect a defect in the inspection area of the inspection object pattern based on the calculated image feature quantity of the inspection area of the inspection object pattern, the feature quantity of the design data image, and the identification boundary.

Description

本発明は、半導体パターンの検査方法及びその装置に関する。   The present invention relates to a semiconductor pattern inspection method and apparatus.

半導体回路パターンの微細化に伴い、光露光装置の解像度は限界に達し、設計通りのパターンを半導体ウェハ上に形成することが困難になりつつある。半導体ウェハ上に形成されたパターンは、線幅が設計値からずれたり、あるいは、パターン先端に縮退が生じたり、あるいは、パターンの付け根の形状変化といった不良が発生しやすくなる。こうした欠陥は、システマティック欠陥と呼ばれ、全ダイで共通に発生するため、ダイ・ツー・ダイ(die to die)比較と呼ばれる隣接するダイ間での比較を行う方式では検出することが難しい。   With the miniaturization of semiconductor circuit patterns, the resolution of an optical exposure apparatus has reached its limit, and it is becoming difficult to form a designed pattern on a semiconductor wafer. The pattern formed on the semiconductor wafer is liable to have a defect such as a line width deviating from a design value, degeneration at the pattern tip, or a change in the shape of the base of the pattern. Such a defect is called a systematic defect and occurs in common to all the dies. Therefore, it is difficult to detect by a method of comparing adjacent dies called a die-to-die comparison.

一方、特開2011−17705号公報(特許文献1)には、隣接ダイと比較する代わりに、検査対象パターンを、設計データと比較する方法が開示されている。具体的には、検査対象パターンから輪郭線を抽出し、これと、線分もしくは曲線で表現された設計データとを比較して、両者の乖離の程度に応じ、乖離が大きければ欠陥と判定する。設計データとの比較なので、全ダイで共通に発生するシステマティック欠陥であっても、原理的には検出可能である。   On the other hand, Japanese Unexamined Patent Application Publication No. 2011-17705 (Patent Document 1) discloses a method of comparing an inspection target pattern with design data instead of comparing with an adjacent die. Specifically, an outline is extracted from the pattern to be inspected, and this is compared with design data represented by a line segment or a curve. If the deviation is large, it is determined as a defect. . Since it is a comparison with the design data, even systematic defects that occur in common on all dies can be detected in principle.

特開2011−17705号公報JP 2011-17705 A

N. Dalal、 and B. Triggs:”Histograms of Oriented Gradients for Human Detection、” Computer Vision and Pattern Recognition、 Vol. 1、 pp. 886-893(2005)N. Dalal, and B. Triggs: “Histograms of Oriented Gradients for Human Detection,” Computer Vision and Pattern Recognition, Vol. 1, pp. 886-893 (2005) T.Kurita、 and S.Hayamizu、 ”Gesture Recognition using HLAC Features of PARCOR Images and HMM based Recognizer、'' Proc. of Inter. Conf. on Automatic Face and Gesture Recognition : FG'98、 pp.422-427、 1998.T.Kurita, and S.Hayamizu, `` Gesture Recognition using HLAC Features of PARCOR Images and HMM based Recognizer, '' Proc. Of Inter. Conf. On Automatic Face and Gesture Recognition: FG'98, pp.422-427, 1998 . C. M. Bishop:Pattern Recognition and Machine learning (日本語版、 上巻):シュプリンガージャパン、 pp. 185-190(2006)C. M. Bishop: Pattern Recognition and Machine learning (Japanese version, Volume 1): Springer Japan, pp. 185-190 (2006) C. M. Bishop:Pattern Recognition and Machine learning (日本語版、 下巻):シュプリンガージャパン、 pp. 35-55(2006)C. M. Bishop: Pattern Recognition and Machine learning (Japanese edition, second volume): Springer Japan, pp. 35-55 (2006)

ウェハ上に転写されたパターンには、欠陥とはいえない設計データとの形状の乖離(コーナの丸みの違いなど)が多く存在する。前記特許文献1に記載されている発明では、検査対象パターンから抽出した輪郭線と、線分もしくは曲線で表現された設計データとの乖離が大きければ欠陥と判定する方式であるため、上記のような欠陥とはいえない形状の乖離と、システマティック欠陥との判別が難しい。この結果、システマティック欠陥を検出しようとすると、欠陥とはいえない形状の乖離部分も検出され、虚報が多発するという問題があった。   In the pattern transferred on the wafer, there are many shape divergences (such as differences in roundness of corners) from design data that cannot be said to be defects. The invention described in Patent Document 1 is a method for determining a defect if there is a large difference between the contour line extracted from the inspection target pattern and the design data represented by a line segment or curve. It is difficult to discriminate between a discrepancy in shape that cannot be said to be a flaw and a systematic defect. As a result, when a systematic defect is to be detected, there is a problem that a deviation portion of a shape that cannot be said to be a defect is detected, and false information is frequently generated.

本発明は上記した従来技術の課題を解決して、虚報を多発させることなく、システマティック欠陥を検出することを可能にするパターン検査方法及びその装置を提供するものである。   The present invention solves the above-described problems of the prior art and provides a pattern inspection method and apparatus capable of detecting a systematic defect without causing frequent false alarms.

上記した目的を達成するために、本発明では、検査対象パターンを撮像して得た画像と設計データから生成した設計データ画像とを比較することにより検査対象パターンの欠陥をを検出するパターン検査装置を、検査対象パターンを撮像してこの検査対象パターンの画像を取得する撮像手段と、この撮像手段で検査対象パターンを撮像して得た画像から検査対象パターンの画像の特徴量を算出する検査対象パターン画像特徴量算出手段と、設計データから設計データ画像を作成する設計データ画像作成手段と、この設計データ画像作成手段で検査対象パターンの設計データから作成した設計データ画像の特徴量を算出する設計データ画像特徴量算出手段と、撮像手段で検査対象パターンを撮像して取得した検査対象パターンの画像と設計データ画像作成手段で生成した検査対象パターンの設計データ画像とを表示する表示画面を備えた表示手段と、検査対象パターンの画像と検査対象パターンの設計データ画像とが表示された表示手段の画面で指示された検査対象パターンの欠陥の教示画像データを作成して記憶する教示画像データ作成手段と、検査対象パターン画像特徴量算出手段で算出した検査対象パターンの画像の特徴量と設計データ画像特徴量算出手段で算出した設計データ画像の特徴量と教示画像データ作成手段で作成した教示画像データとを用いて検査対象パターンの画像において虚報と欠陥とを識別する識別境界を算出して記憶する識別境界算出手段と、検査対象パターンの検査領域を撮像手段で撮像して得た画像から検査対象パターン画像特徴量算出手段で算出した検査対象パターンの画像の特徴量と、検査対象パターンの検査領域に対応する設計データから設計データ画像作成手段で作成した画像から設計データ画像特徴量算出手段で算出した設計データ画像の特徴量とから識別境界算出手段に記憶した識別境界を用いて検査対象パターンの欠陥を判定する欠陥判定手段とを備えて構成した。   In order to achieve the above object, in the present invention, a pattern inspection apparatus for detecting a defect in an inspection target pattern by comparing an image obtained by imaging the inspection target pattern with a design data image generated from the design data. An imaging unit that captures an inspection target pattern and obtains an image of the inspection target pattern, and an inspection target that calculates a feature amount of the image of the inspection target pattern from an image obtained by imaging the inspection target pattern by the imaging unit Pattern image feature quantity calculating means, design data image creating means for creating a design data image from design data, and design for calculating the feature quantity of the design data image created from the design data of the pattern to be inspected by this design data image creating means Data image feature quantity calculating means, and image and design data of the inspection target pattern obtained by imaging the inspection target pattern with the imaging means Instructions are given on the display means having a display screen for displaying the design data image of the inspection target pattern generated by the image creation means, and on the screen of the display means on which the image of the inspection target pattern and the design data image of the inspection target pattern are displayed The teaching image data creating means for creating and storing the teaching image data of the defect of the inspection target pattern, and the image feature amount and design data image feature amount calculation of the inspection target pattern image calculated by the inspection target pattern image feature amount calculating means Using the feature amount of the design data image calculated by the means and the teaching image data created by the teaching image data creating means to calculate and store the identification boundary for identifying the false alarm and the defect in the image of the inspection target pattern And the inspection target pattern image feature amount calculating means from the image obtained by imaging the inspection area of the inspection target pattern with the imaging means. From the feature amount of the image of the inspection target pattern and the feature amount of the design data image calculated by the design data image feature amount calculation means from the image created by the design data image creation means from the design data corresponding to the inspection area of the inspection target pattern And a defect determination unit that determines the defect of the inspection target pattern using the identification boundary stored in the identification boundary calculation unit.

また上記した目的を達成するために、本発明では、検査対象パターンを撮像して得た画像と設計データから生成した設計データ画像とを比較することにより検査対象パターンの欠陥を検出する方法において、検査対象パターンうちのサンプルパターンを撮像してこのサンプルパターンの画像を取得し、この撮像して取得したサンプルパターンの画像からこのサンプルパターンの画像の特徴量を算出し、サンプルパターンの設計データからサンプルパターンの画像に対応する設計データ画像を作成し、この作成した設計データ画像について算出したサンプルパターンの画像の特徴量に対応する特徴量を算出し、撮像して取得したサンプルパターンの画像と作成した設計データ画像とを用いて欠陥を教示するための教示画像データを作成し、算出したサンプルパターンの画像の特徴量と算出したサンプルパターンの画像の特徴量に対応する設計データ画像の特徴量と作成した教示画像データとを用いてサンプルパターンの画像から欠陥の画像を識別するための識別境界を算出し、検査対象パターンの検査領域を撮像して得た画像から検査対象パターンの検査領域の画像特徴量を算出し、検査対象パターンの検査領域に対応する設計データから設計データ画像を作成してこの作成した設計データ画像の特徴量を算出し、算出した検査対象パターンの検査領域の画像特徴量と設計データ画像の特徴量と算出した識別境界とに基づいて検査対象パターンの検査領域内の欠陥を検出するようにした。   In order to achieve the above object, in the present invention, in a method for detecting defects in an inspection target pattern by comparing an image obtained by imaging the inspection target pattern with a design data image generated from the design data, The sample pattern of the pattern to be inspected is imaged to acquire an image of this sample pattern, the feature amount of the image of this sample pattern is calculated from the image of the sample pattern acquired by acquiring this image, and the sample from the design data of the sample pattern A design data image corresponding to the pattern image is created, a feature amount corresponding to the feature amount of the sample pattern image calculated for the created design data image is calculated, and an image of the sample pattern obtained by imaging is created. Create and calculate teaching image data for teaching defects using design data images For identifying a defect image from a sample pattern image using the feature amount of the design data image corresponding to the calculated feature amount of the sample pattern image and the calculated feature value of the sample pattern image and the created teaching image data The identification boundary is calculated, the image feature amount of the inspection area of the inspection target pattern is calculated from the image obtained by imaging the inspection area of the inspection target pattern, and the design data image is obtained from the design data corresponding to the inspection area of the inspection target pattern. The feature amount of the created design data image is calculated and the inspection region of the inspection target pattern is calculated based on the calculated image feature amount of the inspection region of the inspection target pattern, the feature amount of the design data image, and the calculated identification boundary. Detecting defects inside.

更に上記した目的を達成するために、本発明では、検査対象パターンを撮像して得た画像と設計データから生成した設計データ画像とを比較することにより検査対象パターンの欠陥を検出する方法において、検査対象パターンを撮像して得た画像から抽出した特徴量と設計データから生成した設計データ画像から抽出した検査対象パターンを撮像して得た画像に対応する箇所の特徴量と検査対象パターンを撮像して得た画像と設計データ画像とを用いて作成した教示データの情報を用いて虚報と欠陥とを識別するための識別境界を算出し、この算出した識別境界を記憶し、検査対象パターンの検査領域を撮像して得た画像から検査対象パターンの検査領域の画像特徴量を算出し、検査対象パターンの検査領域に対応する設計データから設計データ画像を作成してこの作成した設計データ画像の特徴量を算出し、算出した検査対象パターンの検査領域の画像特徴量と設計データ画像の特徴量と記憶しておいた識別境界とに基づいて検査対象パターンの検査領域内の欠陥を検出するようにした。   Furthermore, in order to achieve the above-described object, in the present invention, in a method for detecting defects in an inspection target pattern by comparing an image obtained by imaging the inspection target pattern with a design data image generated from the design data, Capturing feature quantities and inspection target patterns corresponding to images obtained by capturing inspection target patterns extracted from design data images generated from design data and feature quantities extracted from inspection target patterns Using the information of the teaching data created using the image obtained in this way and the design data image, the identification boundary for identifying the false alarm and the defect is calculated, the calculated identification boundary is stored, and the inspection target pattern The image feature quantity of the inspection area of the inspection target pattern is calculated from the image obtained by imaging the inspection area, and the design data is calculated from the design data corresponding to the inspection area of the inspection target pattern. And the feature amount of the created design data image is calculated. Based on the image feature amount of the inspection area of the calculated pattern to be inspected, the feature amount of the design data image, and the stored identification boundary A defect in the inspection area of the inspection target pattern is detected.

本発明によれば、予め、欠陥部と正常部を教示し、それに基づき、欠陥と正常を判別する識別境界面を求めるので、虚報を多発させることなく、システマティック欠陥を検出することができる。   According to the present invention, since a defect part and a normal part are taught in advance and an identification boundary surface for discriminating between the defect and the normal is obtained based on the teaching, a systematic defect can be detected without causing many false reports.

本発明の実施例に係る欠陥判定方式の流れを示すフロー図である。It is a flowchart which shows the flow of the defect determination system based on the Example of this invention. 本発明の実施例に係る電子線式パターン検査装置の概略の構成を示すブロック図である。1 is a block diagram showing a schematic configuration of an electron beam pattern inspection apparatus according to an embodiment of the present invention. 本発明の実施例に係る電子線式パターン検査装置の画像処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the image process part of the electron beam type pattern inspection apparatus which concerns on the Example of this invention. 設計データ画像である。It is a design data image. 走査電子顕微鏡(SEM)撮像して取得した実パターン画像である。It is a real pattern image acquired by scanning electron microscope (SEM) imaging. 5×5画素で構成されるオペレータのイメージを示す図である。It is a figure which shows the image of the operator comprised by 5x5 pixel. 図3Cのオペレータと同じサイズの領域を1画素分として構成したオペレータのイメージを示す図である。It is a figure which shows the image of the operator which comprised the area | region of the same size as the operator of FIG. 3C as 1 pixel. 3×3画素で構成されるオペレータのイメージを示す図である。It is a figure which shows the image of the operator comprised by 3x3 pixel. 3×3画素で構成されるオペレータを実パターン画像に重ねて表示した実パターンの画像である。It is the image of the real pattern which displayed the operator comprised by 3x3 pixel superimposed on the real pattern image. 特徴空間上において正常と欠陥の二つの空間に分ける識別境界の概念を示した識別境界の曲面図である。It is a curved surface diagram of the identification boundary showing the concept of the identification boundary divided into two spaces of normal and defective on the feature space. 電子線式パターン検査装置で撮像された画像の帯電の影響を概念的に示したパターンの平面図である。It is the top view of the pattern which showed notionally the influence of the charge of the image imaged with the electron beam type pattern inspection apparatus. 実パターン画像と設計データからGUIによる教示データの作成例を示したGUIの正面図である。It is the front view of GUI which showed the example of preparation of the teaching data by GUI from a real pattern image and design data. 欠陥判定の結果を表示するGUIの例を示したGUIの正面図である。It is the front view of GUI which showed the example of GUI which displays the result of defect determination. 識別境界を求める手法であるLDAとSVMについて説明するグラフである。It is a graph explaining LDA and SVM which are the methods of calculating | requiring an identification boundary. 識別境界を求める手法であるLDAとSVMについて説明するグラフである。It is a graph explaining LDA and SVM which are the methods of calculating | requiring an identification boundary. 設計データ画像である。It is a design data image. 図9Aの設計データ画像に対応する箇所をSEMで撮像して得た実パターンの画像である。It is the image of the real pattern obtained by imaging the location corresponding to the design data image of FIG. 9A with SEM. 設計データ画像と実パターンの画像と教示画像データとを並べて配置した図である。It is the figure which arranged the design data image, the image of the real pattern, and the teaching image data side by side. 設計データ画像と実パターンの画像と教示画像データとを並べて配置した図である。It is the figure which arranged the design data image, the image of the real pattern, and the teaching image data side by side. 設計データ画像と実パターンの画像と教示画像データとを並べて配置した図である。It is the figure which arranged the design data image, the image of the real pattern, and the teaching image data side by side. 欠陥種別毎に教示を行うためのGUIの正面図である。It is a front view of GUI for teaching for each defect type. 特徴ベクトルの分布と1つの直線の識別境界とを示したグラフである。It is the graph which showed the distribution of the feature vector, and the identification boundary of one straight line. 特徴ベクトルの分布と2つの直線の識別境界とを示したグラフである。It is the graph which showed distribution of a feature vector, and an identification boundary of two straight lines. 設計パターン画像である。It is a design pattern image. SEMで撮像して得た実パターンの画像である。It is the image of the real pattern obtained by imaging with SEM. 特徴ベクトルの分布と2つの曲線の識別境界とを示したグラフである。It is the graph which showed distribution of a feature vector, and an identification boundary of two curves. 正常部と欠陥部におけるある特徴ベクトルのヒストグラムを示したグラフである。It is the graph which showed the histogram of a certain feature vector in a normal part and a defective part. 正常と欠陥を識別する際の感度調整を行うためのGUIの正面図である。It is a front view of GUI for performing sensitivity adjustment at the time of identifying normality and a defect. 欠陥判定された画素から後処理で欠陥判定を行う例を示したがそのイメージを示す図である。Although the example which performs defect determination by post-processing from the pixel by which the defect determination was carried out was shown, it is a figure which shows the image. if-then ルールに基づく処理の流れを示すフロー図である。It is a flowchart which shows the flow of the process based on an if-then rule. 特徴量空間上の欠陥判定領域を2本の直線で示した状態を表すグラフである。It is a graph showing the state which showed the defect determination area | region in feature-value space with two straight lines. if-then ルールに基づく処理の流れを示すフロー図である。It is a flowchart which shows the flow of the process based on an if-then rule. 特徴量空間上の欠陥判定領域を4本の直線で示した状態を表すグラフである。It is a graph showing the state which showed the defect determination area | region in feature-value space with four straight lines. 特徴量空間上の欠陥判定領域をax+byの線形和で表したグラフである。It is the graph which represented the defect determination area | region in feature-value space by the linear sum of ax + by. 特徴量空間上の欠陥判定領域を非線形な関数で表したグラフである。It is the graph which represented the defect determination area | region in feature-value space with a nonlinear function. 位置合わせ前の設計データの画像である。It is an image of design data before alignment. 図15Aに対応する位置合わせ前の実画像である。It is the real image before the alignment corresponding to FIG. 15A. 実画像と設計データの位置合わせを行う例を表わすイメージである。It is an image showing the example which aligns a real image and design data. 実画像と設計データの位置合わせを行う際の位置をずらしながら差分の二乗和を算出したグラフである。It is the graph which computed the square sum of a difference, shifting the position at the time of aligning a real image and design data.

以下に本発明を実施するための形態を、図を用いて説明する。   EMBODIMENT OF THE INVENTION Below, the form for implementing this invention is demonstrated using figures.

(1)全体構成
図2Aに本発明に係るパターン検査装置の全体構成を示す。本実施の形態では、検査対象ウェハ212の画像を走査電子顕微鏡(SEM)200によって取得する。走査電子顕微鏡200の電子光学系201は、電子線221を発生させる電子線源203と電子線221を収束させるコンデンサレンズ204と、電子線221をXY方向に偏向する偏向器206と、電子線221を対象基板上に収束させる対物レンズ207を備えている。検査対象ウェハ212を真空で保持する試料室202には、リターディング電圧211が加えられたXYステージ210と、検査対象ウェハ212を外部から試料室に送り込むカセット213を備える。
(1) Overall configuration
FIG. 2A shows the overall configuration of the pattern inspection apparatus according to the present invention. In the present embodiment, an image of the inspection target wafer 212 is acquired by the scanning electron microscope (SEM) 200. The electron optical system 201 of the scanning electron microscope 200 includes an electron beam source 203 that generates an electron beam 221, a condenser lens 204 that converges the electron beam 221, a deflector 206 that deflects the electron beam 221 in the XY directions, and an electron beam 221. Is provided with an objective lens 207 that converges on the target substrate. The sample chamber 202 that holds the inspection target wafer 212 in a vacuum includes an XY stage 210 to which a retarding voltage 211 is applied, and a cassette 213 that sends the inspection target wafer 212 from the outside to the sample chamber.

試料上から発生した2次電子214は、リターディング電圧211に加速され検出器215まで引き上げられる。検出器215によって検出信号がA/D変換機216に送られ、デジタル画像に変換され、記憶装置220に蓄えられる。画像処理部219は、記憶装置220から順次画像を読み出し、設計データとの比較により欠陥検出を行う。検査条件の設定や、検査結果の確認は表示手段218上のGUIにて行う。   The secondary electrons 214 generated from the sample are accelerated to the retarding voltage 211 and pulled up to the detector 215. The detection signal is sent to the A / D converter 216 by the detector 215, converted into a digital image, and stored in the storage device 220. The image processing unit 219 sequentially reads out images from the storage device 220 and performs defect detection by comparison with design data. Setting of inspection conditions and confirmation of inspection results are performed using a GUI on the display means 218.

図2Bに、画像処理部219の詳細な構成を示す。画像処理部219は、設計データから画像を作成する設計データ画像作成部2191、設計データ画像作成部2191で作成した設計データ画像とSEM200で撮像して得た検査対象基板のパターン画像の位置合わせを行う位置合わせ処理部2192と、SEM200で撮像して得た検査対象基板のパターン画像の特徴量を算出する検査対象パターン画像特徴量算出部2193、設計データ画像作成部2191で作成した設計データ画像の特徴量を算出する設計データ画像特徴量算出部2194、検査対象基板のパターン画像から作成された教示画像データを記憶する教示画像データ記憶部2195、欠陥画像と良品画像とを識別するための識別境界を算出する識別境界算出部2196と、識別境界算出部2196で算出した識別境界を用いて検査対象パターン画像特徴量算出部2193で算出した検査対象パターン画像特徴量と設計データ画像特徴量算出部2194で算出した設計データ画像特徴量とから欠陥を判定する欠陥判定部2197とを備えている。   FIG. 2B shows a detailed configuration of the image processing unit 219. The image processing unit 219 aligns the design data image created by the design data image creation unit 2191 and the design data image creation unit 2191 that creates an image from the design data and the pattern image of the inspection target substrate obtained by the SEM 200. An alignment processing unit 2192 for performing, an inspection target pattern image feature amount calculating unit 2193 for calculating a feature amount of a pattern image of an inspection target substrate obtained by imaging with the SEM 200, and a design data image generated by the design data image generating unit 2191 A design data image feature value calculation unit 2194 that calculates feature values, a teaching image data storage unit 2195 that stores teaching image data created from the pattern image of the inspection target substrate, and an identification boundary for identifying defect images and non-defective images The identification boundary calculation unit 2196 for calculating the identification boundary and the identification boundary calculated by the identification boundary calculation unit 2196 are used. A defect determination unit 2197 for determining a defect from the inspection target pattern image feature amount calculated by the inspection target pattern image feature amount calculation unit 2193 and the design data image feature amount calculated by the design data image feature amount calculation unit 2194. Yes.

(2)欠陥検出の全体フロー
図1は、図2Aの画像処理装置219で行われる欠陥検出の全体フローである。本実施例では、検査に先立ち、検査前準備の処理S100として、検査対象ウェハ212のいくつかのサンプリング領域を図2で説明した走査電子顕微鏡200で撮像して取得した少数の実画像11と、この実画像11に対応する設計データ画像12(設計データに基づいて作成した画像)を画像11とピクセル単位で位置合わせを行い(S101)、それぞれのサンプリング領域に含まれるパターンの特徴を表す特徴量を算出し(S102、S103)、これと、欠陥座標が指定された教示データ13とから、正常パターンと欠陥パターンとを識別するルールである識別境界を算出する(S104)。
(2) Overall flow of defect detection
FIG. 1 is an overall flow of defect detection performed by the image processing apparatus 219 of FIG. 2A. In the present embodiment, prior to the inspection, as a pre-inspection preparation process S100, a small number of real images 11 obtained by imaging several sampling regions of the inspection target wafer 212 with the scanning electron microscope 200 described in FIG. A design data image 12 (an image created based on the design data) corresponding to the actual image 11 is aligned with the image 11 in units of pixels (S101), and features representing the features of the patterns included in the respective sampling regions (S102, S103), and from this and the teaching data 13 in which the defect coordinates are designated, an identification boundary that is a rule for discriminating between a normal pattern and a defect pattern is calculated (S104).

検査時の処理S110では、検査対象ウェハ212の検査対象領域の実画像14と、この実画像14に対応する設計データ15を位置合わせを行い(S111)、実画像14と位置合わせ済みの設計データ15を、検査前準備の処理S100のS102、S103における特徴量算出ステップと同様に画像処理をして特徴量を算出し(S112、S113)、これらに対し、検査前準備の処理S100のS104にて算出した識別境界を適用することにより、欠陥判定(S114)を行い、判定の結果を画面上に表示する(S115)。   In the processing S110 at the time of inspection, the actual image 14 of the inspection target area of the inspection target wafer 212 is aligned with the design data 15 corresponding to the actual image 14 (S111), and the design data that has been aligned with the actual image 14 is registered. 15 is subjected to image processing in the same manner as the feature amount calculating step in S102 and S103 of the pre-inspection preparation process S100, and the feature amount is calculated (S112 and S113). In contrast, the process proceeds to S104 of the pre-inspection preparation process S100. Defect determination (S114) is performed by applying the identification boundary calculated in the above, and the determination result is displayed on the screen (S115).

以下、各処理内容(特徴量算出S102、S103、S112、S113、識別境界の算出S104、欠陥判定S114、判定結果表示S115)について詳述する。   Hereinafter, each processing content (feature amount calculation S102, S103, S112, S113, identification boundary calculation S104, defect determination S114, determination result display S115) will be described in detail.

(3)位置合わせ
本実施例では、上述のように、実画像および、設計データからそれぞれのパターンの特徴を表す特徴量を算出し、これらに対して、正常と欠陥を識別するルールを適用することで欠陥判定を行う。
(3) Positioning
In the present embodiment, as described above, feature amounts representing the features of each pattern are calculated from the actual image and design data, and the defect determination is performed by applying a rule for identifying normality and defect to these. Do.

まず始めに、実画像と設計データの位置合わせについて図15A乃至図15Dを用いて説明する。撮像後の実画像と設計データは、普通位置がずれた状態であるため、設計データの位置情報を補正することで実画像との位置を合わせる必要がある。図15Aの設計データ画像1501とそれに対応する図15Bの実画像1502は、座標1503と座標1504が画像データ上において位置が対応しているが、実際に正しいのは座標1503に対して座標は1505である。そこで図15Cに示すように実画像1506に対して、設計データ画像の原点(画像の左上端の座標など)をパス1507に沿ってずらし、実画像と設計データ画像の差の二乗和をそれぞれずらした位置で算出する。図15Dは、軸1510をパス1507の位置、軸1509を差の絶対値の和を取ったときの波形1508のグラフある。この波形において最小値1511のとる時の設計データの位置を元に正しく位置合わせされた座標として補正を行う。   First, alignment between the actual image and the design data will be described with reference to FIGS. 15A to 15D. Since the actual image after the image pickup and the design data are in a state in which the normal position is shifted, it is necessary to align the position with the actual image by correcting the position information of the design data. In the design data image 1501 in FIG. 15A and the corresponding real image 1502 in FIG. 15B, the coordinates 1503 and the coordinates 1504 correspond to the positions on the image data. It is. Therefore, as shown in FIG. 15C, the origin of the design data image (such as the coordinates of the upper left corner of the image) is shifted along the path 1507 with respect to the actual image 1506, and the square sum of the difference between the actual image and the design data image is shifted. Calculate at the selected position. FIG. 15D is a graph of a waveform 1508 when the axis 1510 is the position of the path 1507 and the axis 1509 is the sum of the absolute values of the differences. In this waveform, correction is performed with the coordinates correctly aligned based on the position of the design data when the minimum value 1511 is taken.

(4)特徴量の算出
次に、特徴量の算出方法について述べる。検査対象ウェハ212を走査電子顕微鏡200で撮像して取得した実画像(以下、実パターン画像という)から算出する特徴量(図1のS102とS112に相当)について述べる。
(4) Calculation of feature quantity
Next, a feature amount calculation method will be described. A feature amount (corresponding to S102 and S112 in FIG. 1) calculated from an actual image (hereinafter referred to as an actual pattern image) acquired by imaging the inspection target wafer 212 with the scanning electron microscope 200 will be described.

実パターン画像の特徴量の算出は、実パターン画像の画素ごとに行う。図3Bの実パターン画像302において注目画素304の特徴量を算出することを考える。注目画素304の特徴量は、注目画素304の周辺画素における輝度値を組み合わせることで算出を行う。最終的によい識別境界を得るには、なるべく注目画素周辺のパターン形状の情報をよく表現するような特徴量であり、かつ特徴量の次元数が小さくなることが望ましい。   The feature amount of the actual pattern image is calculated for each pixel of the actual pattern image. Consider calculating the feature amount of the pixel of interest 304 in the actual pattern image 302 of FIG. 3B. The feature amount of the target pixel 304 is calculated by combining the luminance values in the peripheral pixels of the target pixel 304. In order to finally obtain a good identification boundary, it is desirable that the feature quantity represents the pattern shape information around the target pixel as much as possible, and that the number of dimensions of the feature quantity is small.

もっとも単純な特徴量は、図3Cに示したオペレータ305のように注目画素306の周辺画素におけるそれぞれの輝度値をそのまま特徴量にすることである。これは、オペレータサイズ分(図3Cの例では、5画素×5画素)だけ実パターン形状の完全な情報をもっていることになるが、オペレータのサイズを大きくしていくと爆発的に特徴量の次元が増え、形状的な情報としては冗長すぎる。そこで図3Dに示したオペレータ307のような注目画素309よりも十分に大きいオペレータ307と同じサイズの領域をオペレータサイズ308として様々な統計量を算出し、特徴量にするほうがよい。   The simplest feature amount is to make each luminance value in the peripheral pixels of the pixel of interest 306 as a feature amount as it is like the operator 305 shown in FIG. 3C. This has complete information of the actual pattern shape by the size of the operator (5 pixels × 5 pixels in the example of FIG. 3C). However, as the operator size is increased, the dimension of the feature amount explosively increases. And the shape information is too verbose. Therefore, it is better to calculate various statistics using the operator size 308 as an area of the same size as the operator 307 that is sufficiently larger than the target pixel 309 such as the operator 307 shown in FIG.

図3Bの実パターン画像302から求められる統計的な特徴量としては、
(a)オペレータ内の輝度の平均値
(b)モーメント特徴量
(c)HOG(Histograms of Oriented )Gradients)特徴量(非特許文献1参照)
(d)高次局所自己相関特徴量(非特許文献2参照)
などが有効である。
As a statistical feature amount obtained from the actual pattern image 302 of FIG. 3B,
(A) Average brightness value within the operator
(B) Moment feature
(C) HOG (Histograms of Oriented) Gradients) feature quantity (see Non-Patent Document 1)
(D) Higher order local autocorrelation features (see Non-Patent Document 2)
Etc. are effective.

さらに、図3Eに示したオペレータ310のように、注目画素311の近傍において局所的な領域であるセル312の領域をとり、このセル毎に統計的な特徴量をとることで、注目画素回りの広い範囲の形状情報を特徴量として算出することができる。図3Fに、オペレータ315として図3Eに示したオペレータ310を図3Bの実パターン画像302示した注目画素304の周辺に適用した例を示す。この例では、セルのHOG特徴量を算出することでセル316とセル317において垂直方向のエッジ成分が、セル318とセル319において斜め方向のエッジ成分が抽出され、注目画素319(図3Bの注目画素304、図3Eの注目画素311に相当)はラインの角であることが表現される。   Further, like the operator 310 shown in FIG. 3E, a region of the cell 312 which is a local region in the vicinity of the pixel of interest 311 is taken, and a statistical feature amount is taken for each cell. A wide range of shape information can be calculated as a feature amount. FIG. 3F shows an example in which the operator 310 shown in FIG. 3E is applied as the operator 315 to the periphery of the target pixel 304 shown in the actual pattern image 302 of FIG. 3B. In this example, by calculating the HOG feature amount of the cell, the edge component in the vertical direction is extracted in the cells 316 and 317, and the edge component in the oblique direction is extracted in the cells 318 and 319, and the target pixel 319 (the target pixel in FIG. 3B) is extracted. The pixel 304, which corresponds to the pixel of interest 311 in FIG. 3E) is expressed as a line corner.

また図5はSEM画像における帯電の影響を示した図である。一般的にSEM像500を得る時は、電子ビームを501方向にスキャンすることで得られる。そのため、エッジ502が存在する領域のスキャン方向側に帯電の影響による影503が生じる。このような特徴も、オペレータ310で輝度の平均値を算出するなどで表現することができる。   FIG. 5 shows the influence of charging on the SEM image. Generally, when the SEM image 500 is obtained, it is obtained by scanning an electron beam in the direction 501. Therefore, a shadow 503 due to the influence of charging is generated on the scanning direction side of the region where the edge 502 exists. Such a feature can also be expressed by calculating an average luminance value by the operator 310.

次に、設計データ画像301から算出する特徴量(図1のS103、S113で算出する特徴量に相当)について述べる。   Next, feature amounts calculated from the design data image 301 (corresponding to the feature amounts calculated in S103 and S113 in FIG. 1) will be described.

図3Aに示した設計データ画像301からも、実パターン画像302の注目画素304に対応する注目画素303の特徴量を算出する。設計データ画像301からの特徴量は、設計データから図3Aのような輪郭線画像(設計データ画像)を作成し、図3Bの実パターン画像302と同じ特徴量を求めてもよい。   Also from the design data image 301 shown in FIG. 3A, the feature amount of the target pixel 303 corresponding to the target pixel 304 of the actual pattern image 302 is calculated. As the feature amount from the design data image 301, a contour image (design data image) as shown in FIG. 3A may be created from the design data, and the same feature amount as the actual pattern image 302 in FIG. 3B may be obtained.

また、以下のような設計データ専用の特徴量として
(i) 配線構造のベクトル成分
(ii) 配線上であるか否か
(iii) ラインの端点、連結点の関係
などを算出することも効果的である。
In addition, the following design data-specific features
(I) Vector component of wiring structure
(Ii) Whether it is on wiring
(Iii) Relationship between line end points and connection points
It is also effective to calculate the above.

(i)は、設計データの注目画素周辺の配線方向がどちらに伸びているかの度合いである。(ii)は注目画素がパターン配線の上であるかどうかの特徴量を表す。(iii)は配線構造をグラフ構造にした時、エッジの端点と連結点の場所を求め、注目画素周辺にそれがどのように分布しているかの特徴量を表す。   (I) is the degree to which the wiring direction around the target pixel of the design data extends. (Ii) represents a feature amount whether or not the target pixel is on the pattern wiring. (Iii) represents the feature amount of the distribution of the end point of the edge and the location of the connection point when the wiring structure is a graph structure and how it is distributed around the pixel of interest.

(5)識別境界の算出
正常と欠陥を識別するルールである識別境界(図1のS104で算出)の算出方法について述べる。識別境界とはS102とS103で求めた各特徴量を軸とする特徴空間401(図4参照)において正常の空間402と欠陥の空間403に分けるような超曲面(2次元上における曲線)404のことである。正常部の特徴ベクトル405と欠陥部の特徴ベクトル406を識別するルールはそれぞれの特徴量に対して条件式を決めた図14Aの1401の例のようなif−thenルールがもっともシンプルである(xとyは特徴量を表す)。このルールを決定する時は解析的に求めても、しきい値であるA1とB1をユーザに入力してもらってもよい。
(5) Calculation of identification boundary
A method for calculating an identification boundary (calculated in S104 in FIG. 1), which is a rule for identifying normality and defects, will be described. The identification boundary is a hypersurface (a two-dimensional curve) 404 that is divided into a normal space 402 and a defect space 403 in a feature space 401 (see FIG. 4) having the feature amounts obtained in S102 and S103 as axes. That is. The rule for discriminating the feature vector 405 of the normal part and the feature vector 406 of the defective part is the simplest if-then rule such as the example 1401 in FIG. And y represent feature quantities). When determining this rule, it may be obtained analytically or the user may input the threshold values A1 and B1.

図14Bに特徴量空間上の欠陥判定領域を斜線部として1420に示す。黒丸点1421は正常部の画素から得られた特徴ベクトル、黒罰点1422は欠陥部の画素から得られた特徴ベクトルである。判定領域は特徴量の軸に垂直な辺を持つ矩形状の領域で定義される。図14Cの1403のようにif−thenルールを増やすことで図14Dに示したように、識別境界1404の精度を高めることが可能である。しかし、この場合、複雑な境界を矩形の組み合わせで表わすためルールが膨大に増え、ユーザによる調整が困難になる。真の識別境界がxとyで相関を持つ時などは、図14Eに示したように、ax+byの線形和で表現される識別境界の1405や、図14Fに示したように、非線形な関数で表わされる識別境界1406のほうがよりよい境界を求めることができる。   FIG. 14B shows a defect determination area in the feature amount space 1420 as a hatched portion. A black dot 1421 is a feature vector obtained from a normal pixel, and a black penalty point 1422 is a feature vector obtained from a defective pixel. The determination area is defined by a rectangular area having sides perpendicular to the feature amount axis. As shown in FIG. 14D, the accuracy of the identification boundary 1404 can be increased by increasing the if-then rule as indicated by 1403 in FIG. 14C. However, in this case, the complicated boundary is represented by a combination of rectangles, so the number of rules increases and adjustment by the user becomes difficult. When the true identification boundary has a correlation between x and y, as shown in FIG. 14E, the identification boundary 1405 expressed by a linear sum of ax + by or a non-linear function as shown in FIG. 14F A better boundary can be determined for the represented identification boundary 1406.

これらの境界もユーザによるパラメータ調整で求めることは非常に困難であるが、既に正常か欠陥か既知である特徴ベクトルとする教示データから学習を行うことで、正常部の特徴ベクトル405と欠陥部の特徴ベクトル406をもっともよく分けるような境界を求めることが可能である。また、教示データにユーザの意図が反映することができれば、識別境界も意図に沿って引くことが可能となる。   It is very difficult to obtain these boundaries by adjusting the parameters by the user. However, by learning from the teaching data as feature vectors that are already normal or defective, the feature vector 405 of the normal part and the defect part are detected. It is possible to obtain a boundary that best separates the feature vector 406. If the user's intention can be reflected in the teaching data, the identification boundary can be drawn along the intention.

始めに教示データ(図1の13)の作成方法について述べる。
図6は教示データを作成するためのGUI600の例を示す。画像表示部601には、既に位置合わせ済みの実パターンから抽出した輪郭線602(実線)と設計データの輪郭線603(点線)とを表示する。2つの輪郭線602と603とにおいて形状に相違する領域がある時、604、605、606、607、608のような2つの輪郭線で囲まれた領域が生じる。ユーザは領域選択ツール610を選び、画像表示部601に表示される画像から欠陥にしたい領域中の一点をポインティングデバイス616で指定することで、輪郭線602と603とに囲まれた領域を選択することができる。実パターンの輪郭線602が消失している部分は、鉛筆ツール611を選択して輪郭線602と603とに囲まれた領域が閉じるように修正することができる。また誤って抽出された輪郭線や鉛筆ツールで修正をまちがえた部分は消しゴムツール612で消去することができる。
First, a method of creating teaching data (13 in FIG. 1) will be described.
FIG. 6 shows an example of a GUI 600 for creating teaching data. The image display unit 601 displays a contour line 602 (solid line) extracted from the already aligned actual pattern and a design data contour line 603 (dotted line). When there are regions having different shapes in the two contour lines 602 and 603, regions surrounded by two contour lines such as 604, 605, 606, 607, and 608 are generated. The user selects the region selection tool 610, and selects a region surrounded by the contour lines 602 and 603 by designating one point in the region desired to be a defect from the image displayed on the image display unit 601 with the pointing device 616. be able to. The portion where the contour line 602 of the actual pattern disappears can be corrected by selecting the pencil tool 611 so that the region surrounded by the contour lines 602 and 603 is closed. In addition, an erased tool 612 can be used to erase an erroneously extracted contour line or a portion that has been corrected with a pencil tool.

613、614、615はカラー選択ボタンで白613を選択すると欠陥部を指定するモードに、黒614を選択すると正常部を指定するモードに、灰色615を選択するとユーザが欠陥か正常かわからない部分を選択するモードになる。教示画像作成において基本的にクリックされなかった点に関してはすべて正常部と見なす。この画像の場合、604、606、608を欠陥領域と判断し、白い領域を欠陥部、黒い領域を正常部とした教示画像609が作成され、確認することができる。確認後、「LOAD」ボタン621をポインタ616でクリックすると教示画像609が画像処理部219にロードされる。一方、「SAVE」ボタン622をポインタ616でクリックすると、教示画像609は記憶装置220に一時記憶される。   613, 614, and 615 are modes for designating a defective portion when white 613 is selected by a color selection button, a mode for designating a normal portion when black 614 is selected, and a portion where the user does not know whether a defect is normal or not when gray 615 is selected. It becomes the mode to choose. All points that are not clicked in creating the teaching image are regarded as normal parts. In the case of this image, it is determined that 604, 606, and 608 are defective areas, and a teaching image 609 with a white area as a defective portion and a black area as a normal portion can be created and confirmed. After confirmation, when the “LOAD” button 621 is clicked with the pointer 616, the teaching image 609 is loaded into the image processing unit 219. On the other hand, when “SAVE” button 622 is clicked with pointer 616, teaching image 609 is temporarily stored in storage device 220.

図9Aは設計データに基づいて作成されたパターン901の図、図9Bは、設計データに対する正常な実パターン902の画像の例である。ここで実際には図9Cに示すような実パターン画像903が得られたとすると、図9Cに示すような画像の領域905、906が欠陥領域となる欠陥画像907が得られ、識別境界を求める時に使う教示データのセットとして、図9Cのような設計データに基づいて作成されたパターン901と設計データに対する正常な実パターン902の画像と欠陥画像907とを含む画像のセット904を作成することができる。ここで欠陥画像907に含まれる欠陥領域の画像905と906とを、設計データに基づいて作成されたパターン901に対して実パターンのラインが膨張している凸欠陥領域の画像905と設計データに基づいて作成されたパターン901に対して実パターンのラインが縮退している凹欠陥領域の画像906に種類を分けることができる。   FIG. 9A is a diagram of a pattern 901 created based on design data, and FIG. 9B is an example of an image of a normal actual pattern 902 with respect to design data. If an actual pattern image 903 as shown in FIG. 9C is actually obtained, a defect image 907 in which the image areas 905 and 906 shown in FIG. As a set of teaching data to be used, an image set 904 including a pattern 901 created based on design data as shown in FIG. 9C, an image of a normal actual pattern 902 for the design data, and a defect image 907 can be created. . Here, the defect area images 905 and 906 included in the defect image 907 are converted into the convex defect area image 905 and the design data in which the line of the actual pattern is expanded with respect to the pattern 901 created based on the design data. The type can be classified into the image 906 of the concave defect area in which the line of the actual pattern is degenerated with respect to the pattern 901 created based on the pattern 901.

そこで、図9Dに示すように、この凸欠陥領域の画像905だけの教示画像909を設計データに基づいて作成されたパターン901と設計データに対する正常な実パターン902の画像と組合せて教示データセットにした凸欠陥教示データセット908と、図9Eに示すように、凹欠陥領域の画像906だけの教示画像911を設計データに基づいて作成されたパターン901と設計データに対する正常な実パターン902の画像と組合せて教示データセットにした凹欠陥教示データセット910を作成する。その結果、図9Fに示すように、凸欠陥教示データセット908と凹欠陥教示データセット910それぞれで識別境界914を求めることで、欠陥検出と欠陥分類を同時に行うことができる。   Accordingly, as shown in FIG. 9D, a teaching image 909 including only the convex defect region image 905 is combined with a pattern 901 created based on the design data and an image of a normal actual pattern 902 corresponding to the design data into a teaching data set. 9E, and a pattern 901 created based on the design data, and an image of a normal actual pattern 902 corresponding to the design data, as shown in FIG. 9E. A concave defect teaching data set 910 that is combined into a teaching data set is created. As a result, as shown in FIG. 9F, defect detection and defect classification can be performed simultaneously by obtaining the identification boundary 914 from the convex defect teaching data set 908 and the concave defect teaching data set 910, respectively.

図9Fは、図9B、C、Dで説明した画像のセット904、908及び910を一つの画面912上に並べて同時に表示した例を示す図である。この図9Fに示した画面912の例においては、凸欠陥教示データセット908が画面上のチェックボックス916で選択されていて、凸欠陥教示データセット908の識別境界914が特徴空間のグラフ913上に表示された状態を示している。後述するが、これにより判定精度を高める効果や、欠陥種毎にユーザが感度の調整を行うことができるというメリットがある。今回目的とするようなシステマティック欠陥検出では、欠陥種類を凸欠陥、凹欠陥、ブリッジング、ネッキング、ライン幅の膨張、ライン幅の縮退などでわけるとよい。   FIG. 9F is a diagram illustrating an example in which the image sets 904, 908, and 910 described with reference to FIGS. 9B, 9 C, and D are arranged on one screen 912 and displayed simultaneously. In the example of the screen 912 shown in FIG. 9F, the convex defect teaching data set 908 is selected by the check box 916 on the screen, and the identification boundary 914 of the convex defect teaching data set 908 is displayed on the graph 913 in the feature space. The displayed state is shown. As will be described later, this has the advantage of improving the determination accuracy and the advantage that the user can adjust the sensitivity for each defect type. In systematic defect detection as intended this time, the defect types may be divided into convex defects, concave defects, bridging, necking, line width expansion, line width degeneration, and the like.

図9Fの画面912は、これら欠陥種毎に識別平面を求めるときに使うことができるGUIである。
図9Fの画面912に示した915の部分で画像のセット904、908、910などの欠陥種別毎に分けたデータセットを選択することができ、また特徴空間のグラフ913の部分において選択したデータセット(図9Fの例では画像のセット908)の特徴空間上の分布や各特徴量に対するヒストグラム(図示せず)が表示されユーザは確認することができる。画面912上に表示されている「学習」のボタン916をマウスでクリックすることで、選択したデータセットに対する識別境界を求めて特徴空間のグラフ913上に識別境界914を表示することができる。
A screen 912 in FIG. 9F is a GUI that can be used when obtaining an identification plane for each defect type.
A data set divided for each defect type, such as image sets 904, 908, and 910, can be selected in the portion 915 shown in the screen 912 of FIG. 9F, and the data set selected in the portion of the feature space graph 913 The distribution on the feature space of the feature space (image set 908 in the example of FIG. 9F) and a histogram (not shown) for each feature amount are displayed and can be confirmed by the user. By clicking the “learn” button 916 displayed on the screen 912 with the mouse, an identification boundary for the selected data set can be obtained and the identification boundary 914 can be displayed on the graph 913 of the feature space.

識別境界314の算出方法としては、一般的なパターン認識手法である、線形判別手法(以下LDA)、サポートベクターマシン(以下SVM)が適用可能である(非特許文献3、および非特許文献4参照)
図8A及び図8Bを用いてLDAの原理を説明する。判り易くするために、設計データの特徴量805を1次元(縦軸)、実パターンデータの特徴量806を1次元(横軸)として扱う。図8A及び図8B中の803のような罰点は欠陥、804のような黒丸点は正常の特徴ベクトルである。直線801は線形判別分析(以下LDA)によって求められた識別境界である。
As a method for calculating the identification boundary 314, a general pattern recognition method, a linear discrimination method (hereinafter referred to as LDA), or a support vector machine (hereinafter referred to as SVM) can be applied (see Non-Patent Document 3 and Non-Patent Document 4). )
The principle of LDA will be described with reference to FIGS. 8A and 8B. For easy understanding, the feature quantity 805 of the design data is treated as one dimension (vertical axis) and the feature quantity 806 of the actual pattern data is treated as one dimension (horizontal axis). In FIG. 8A and FIG. 8B, a penalty point such as 803 is a defect, and a black dot such as 804 is a normal feature vector. A straight line 801 is an identification boundary obtained by linear discriminant analysis (hereinafter referred to as LDA).

図8A中801は直線で表現されるが、実際の特徴ベクトルは3次元以上を取るので識別境界は超平面になる。直線801を境界にデータを分けることは全特徴ベクトルを特徴量の線形和を求めることで軸807に射影し、しきい値808(直線801に平行な1対の点線で挟まれた範囲)で判別している事と同じである。   In FIG. 8A, 801 is represented by a straight line, but since the actual feature vector takes three or more dimensions, the identification boundary becomes a hyperplane. Dividing the data with the straight line 801 as the boundary projects all feature vectors onto the axis 807 by calculating the linear sum of the feature values, and with a threshold value 808 (a range between a pair of dotted lines parallel to the straight line 801). It is the same as determining.

LDAでは、
射影された正常部の特徴ベクトル集合の分散:σ
欠陥部の特徴ベクトル:
全特徴ベクトルの分散:
とした時に表される
分離度:J=(σ +σ )/σ ・・・(数1)
を最大にするような射影軸を求める。
In LDA,
Variance of projected normal vector feature vector set: σ T 2
Defect feature vector:
Variance of all feature vectors:
Represented when
Degree of separation: J = (σ T 2 + σ N 2 ) / σ A 2 (Equation 1)
Find the projection axis that maximizes.

LDAの特徴として特徴ベクトル集合の統計量から特徴量の線形和によって表現される識別面および識別境界を求めている。そのため特徴ベクトルの数が多くても学習時間が短く、1個の特徴ベクトルに対する正常・欠陥判定の計算時間も短い。またユーザにとってもよく利いている特徴量がどれなのかわかりやすいというメリットがある。   As features of the LDA, an identification surface and an identification boundary expressed by a linear sum of the feature values are obtained from the statistics of the feature vector set. Therefore, even if the number of feature vectors is large, the learning time is short, and the calculation time for normality / defect determination for one feature vector is also short. In addition, there is an advantage that it is easy to understand which feature quantity is often used for the user.

図8Bの曲線802は非線形サポートベクターマシン(以下非線形SVM)によって求められた識別境界である。非線形SVMでは特徴ベクトルを超空間上の点に一度変換し、超空間上の超平面を求めることでデータを分割する。この超平面を図8Bの2次元上で表現すると、802のような曲線になる。識別超平面は超空間上の正常部と欠陥部の特徴ベクトルの間に存在する最も大きなマージン(隙間)を通るような超平面が求められる。2次元上でこのマージンは曲線809と810の間813で表され、サポートベクターと呼ばれる図中の白丸点811と白罰点812の特徴ベクトルによって決定される。非線形SVMもLDAと同じように、本質的には1軸上にベクトルを射影ししきい値により正常欠陥を判定している。   A curve 802 in FIG. 8B is an identification boundary obtained by a non-linear support vector machine (hereinafter, non-linear SVM). In the non-linear SVM, a feature vector is once converted into a point on the superspace, and data is divided by obtaining a hyperplane in the superspace. When this hyperplane is expressed on the two dimensions of FIG. 8B, a curve like 802 is obtained. As the identification hyperplane, a hyperplane that passes through the largest margin (gap) existing between the feature vector of the normal part and the defective part in the superspace is obtained. In two dimensions, this margin is represented by 813 between curves 809 and 810, and is determined by a feature vector of white circle points 811 and white penalty points 812 in the figure called support vectors. Similar to LDA, nonlinear SVM essentially projects a vector on one axis and determines a normal defect based on a threshold value.

SVMの特徴としては、元の特徴量の次元において超曲面上の識別境界を求めるため、理想的な識別境界である図4に示した識別超曲面404に近い識別境界を得ることができ、高い判定精度を持つ。   As a feature of SVM, an identification boundary on the hypersurface is obtained in the dimension of the original feature amount, so that an identification boundary close to the identification hypersurface 404 shown in FIG. Has judgment accuracy.

前述したような図9Cの教示データセット904から特徴ベクトルを計算すると、図10Aのグラフ1001に示すように欠陥部の特徴ベクトル1011が正常部の特徴ベクトル1012を挟んで対角線上に分布することがある。図10Aのグラフにおいて、縦軸は設計データ特徴量を表し、横軸は実パターン画像特徴量を表す。非線形SVMでは図8Bで説明したように曲線状の識別境界をとることができるので、このような特徴ベクトルの分布に対して対応可能であるが。LDAで求める識別境界は直線でしか表せないため、求められる識別境界は図10Aの直線1002のようになり、有効な判別境界を求めるには限界がある。しかし、欠陥種によって学習データを分けることで、図10Bに示すように、直線1003と直線1004の二つの識別境界を引くことができ、正しく判定することが可能となる。図10Bのグラフにおいて、縦軸は設計データ特徴量を表し、横軸は実パターン画像特徴量を表す。   When the feature vector is calculated from the teaching data set 904 of FIG. 9C as described above, the feature vector 1011 of the defective part may be distributed on a diagonal line with the feature vector 1012 of the normal part interposed therebetween as shown in a graph 1001 of FIG. 10A. is there. In the graph of FIG. 10A, the vertical axis represents the design data feature amount, and the horizontal axis represents the actual pattern image feature amount. As described with reference to FIG. 8B, the nonlinear SVM can take a curvilinear identification boundary, and can deal with such a distribution of feature vectors. Since the identification boundary obtained by LDA can be represented only by a straight line, the obtained identification boundary is as shown by the straight line 1002 in FIG. 10A, and there is a limit in obtaining an effective discrimination boundary. However, by dividing the learning data according to the defect type, as shown in FIG. 10B, two identification boundaries of a straight line 1003 and a straight line 1004 can be drawn, and it is possible to make a correct determination. In the graph of FIG. 10B, the vertical axis represents the design data feature amount, and the horizontal axis represents the actual pattern image feature amount.

(6)検査時の処理内容
図1で説明した識別境界算出工程S104で算出された識別境界を用い、検査対象ウェハ212の欠陥検出を行う。
(6) Processing contents during inspection Using the identification boundary calculated in the identification boundary calculation step S104 described in FIG. 1, the defect detection of the inspection target wafer 212 is performed.

検査対象ウェハ212を図2で説明したSEM200で撮像して得た実パターン画像14とその設計データ画像15に対して、S104の識別境界算出工程に用いられた特徴量と同じ特徴量を算出し(S112、S113)、算出して得られた特徴ベクトルに対して識別境界算出工程S104で求められた識別境界で、正常・欠陥の判定を行う(S114)。S112における実パターン画像14の特徴量の算出は、SEMによって実パターン画像14が撮像された後に計算しなくてはならないが、設計データ画像15の特徴量は検査前に算出しておき、記憶装置に事前に保持しておけば検査時の計算時間の削減になる。   For the actual pattern image 14 obtained by imaging the inspection target wafer 212 with the SEM 200 described in FIG. 2 and the design data image 15, the same feature amount as that used in the identification boundary calculation step of S 104 is calculated. (S112, S113) The normality / defect determination is performed on the feature boundary obtained in the discrimination boundary calculation step S104 (S114). The feature amount of the actual pattern image 14 in S112 must be calculated after the actual pattern image 14 is captured by the SEM, but the feature amount of the design data image 15 is calculated before the inspection, and the storage device If it is held in advance, the calculation time during inspection will be reduced.

図11A乃至図11Cは、学習した識別境界から実際に検査対象ウェハの欠陥検出を行う例を示したものである。図11Aは検査対象である設計データ画像1101を示し、図11Bは実パターン画像1102を示す。図11Aの設計データ画像1101と図11Bの実パターン画像1102上の対応する画素1103から求めた特徴ベクトルを図11Cに示したグラフ上の点1108に、画素1104から求められた特徴量ベクトルをグラフ上の点1109に表す。検査前準備段階S100においては正常部の特徴量ベクトル1106や欠陥部の特徴量ベクトル1105などから、SVMによる識別境界1107が求められている。この識別境界1107により、特徴ベクトル1108は正常部として、特徴ベクトル1109は欠陥部として判定される。   FIG. 11A to FIG. 11C show an example of actually detecting the defect of the inspection target wafer from the learned identification boundary. FIG. 11A shows a design data image 1101 to be inspected, and FIG. 11B shows an actual pattern image 1102. A feature vector obtained from the corresponding pixel 1103 on the design data image 1101 in FIG. 11A and a corresponding pattern 1103 on the actual pattern image 1102 in FIG. 11B is represented by a point 1108 on the graph shown in FIG. This is represented by the upper point 1109. In the pre-inspection preparatory stage S100, an identification boundary 1107 by SVM is obtained from the feature quantity vector 1106 of the normal part and the feature quantity vector 1105 of the defective part. Based on the identification boundary 1107, the feature vector 1108 is determined as a normal portion, and the feature vector 1109 is determined as a defective portion.

図13は画素単位の欠陥判定を行ったあとの後処理について説明する図である。画素単位の欠陥判定後に(a)に示すような、欠陥判定で正常と判定された画素を黒、欠陥と判定された画素を白とした画像1301が得られる。この時、欠陥部は領域1306のように欠陥画素が連結して検出されるが、誤判定によって1画素もしくは数画素で連結された1305が同時に得られる。このような極小な領域はノイズとして除去する。具体的には(b)に示すように、欠陥画素に対してモルフォロジー演算などで縮退を行い(画像1302)、(c)に示すように、膨張させることで画像1303のような画像が得られる。
このほかに(d)に示すように、画像1301に対して連結した欠陥画素の領域の長径1307を求め、あるしきい値以上であれば欠陥領域とする方法などがある。
FIG. 13 is a diagram for explaining post-processing after the pixel-by-pixel defect determination. An image 1301 is obtained in which the pixels determined to be normal in the defect determination are black and the pixels determined to be defective are white as shown in FIG. At this time, the defective portion is detected by connecting defective pixels as in a region 1306, but 1305 connected by one pixel or several pixels can be obtained simultaneously by erroneous determination. Such a minimal region is removed as noise. Specifically, as shown in (b), the defective pixel is degenerated by morphological operation or the like (image 1302), and as shown in (c), an image like the image 1303 is obtained by expanding. .
In addition, as shown in (d), there is a method in which the major axis 1307 of the defective pixel region connected to the image 1301 is obtained, and if it is equal to or larger than a certain threshold value, it is determined as a defective region.

最終的に判定された欠陥領域は、図1のS114における判定結果表示においてユーザに確認される。   The finally determined defect area is confirmed by the user in the determination result display in S114 of FIG.

図7はGUI700による判定結果表示の例を示す。表示領域701にはウェハマップが表示され、注目しているダイの位置や、おおまかな欠陥分布の位置を表示する。表示領域702にはダイのマップでが表示され、注目している配線パターンの位置703の表示や大きな欠陥や欠陥頻度の多い領域などを点704にて表示する。表示領域705は欠陥種ごとに発生頻度のヒストグラムを表示する部分である。表示領域706は注目している配線パターンの座標情報や、表示倍率などを表示する部分である。表示領域707は注目している配線パターン領域の設計データ画像7071と実パターン画像7072を表示する部分である。実パターン画像7072上には欠陥判定領域7073〜7076などが線で囲まれ表示される。708は操作パネルで、見たい配線パターンの位置や倍率、欠陥表示の切り替えなどが行える。   FIG. 7 shows an example of determination result display by the GUI 700. A wafer map is displayed in the display area 701, and the position of the target die and the approximate defect distribution position are displayed. In the display area 702, a die map is displayed, and the position 703 of the wiring pattern of interest is displayed, and a large defect or a region with a high defect frequency is displayed as a point 704. A display area 705 is a portion for displaying a histogram of occurrence frequency for each defect type. A display area 706 is a portion that displays coordinate information of a wiring pattern of interest, display magnification, and the like. A display area 707 is a part for displaying a design data image 7071 and an actual pattern image 7072 of the wiring pattern area of interest. On the actual pattern image 7072, defect determination areas 7073 to 7076 and the like are surrounded by lines and displayed. Reference numeral 708 denotes an operation panel which can switch the position and magnification of a wiring pattern to be viewed, defect display, and the like.

(7)欠陥検出感度の調整
図12A及び図12Bでは、欠陥判定の感度調整について説明する。LDAやSVMによって求められた識別境界で欠陥判定を行うことは、特徴ベクトルを図12Aに示したような1201のような1軸上に射影してヒストグラムを求め、しきい値1202によってヒストグラムを2つに分けるという操作をしている。ヒストグラムは欠陥部の山1203と正常部の山1204の2つの山からなる。しきい値1202を矢印1205の方向に移動することで欠陥に対する感度を低減させ、矢印1206の方向に移動することで虚報に対する感度を低減させて虚報の検出率を低減することができる。
(7) Adjustment of defect detection sensitivity
12A and 12B, the sensitivity determination for defect determination will be described. Determining a defect at an identification boundary obtained by LDA or SVM is to project a feature vector onto one axis such as 1201 as shown in FIG. The operation is divided. The histogram consists of two peaks, a defect peak 1203 and a normal peak 1204. By moving the threshold value 1202 in the direction of the arrow 1205, the sensitivity to defects can be reduced, and by moving in the direction of the arrow 1206, the sensitivity to false information can be reduced and the false alarm detection rate can be reduced.

これを利用した欠陥種ごと感度調整の例を、図12BのGUI1207によって示す。欠陥種ごとの学習によって得られた複数の識別境界をもとに特徴ベクトルのヒストグラム1208−1〜3のように欠陥種ごとに表示する。ユーザは、ポインティングデバイス等を利用しスライダ1211を変化させることで欠陥種ごとのしきい値を調整する。調整後の判定結果は実パターン画像1212上に実時間で反映され、欠陥領域1213や1214が表示されたり表示されなくなったりする。ユーザは設計データ画像1211と見比べながら、適切なしきい値に調整を行うことができる。   An example of sensitivity adjustment for each defect type using this is shown by a GUI 1207 in FIG. 12B. Based on a plurality of identification boundaries obtained by learning for each defect type, display is made for each defect type as in the feature vector histograms 1208-1 to 1308-1. The user adjusts the threshold value for each defect type by changing the slider 1211 using a pointing device or the like. The determination result after adjustment is reflected on the actual pattern image 1212 in real time, and the defect areas 1213 and 1214 are displayed or not displayed. The user can adjust to an appropriate threshold while comparing with the design data image 1211.

以上、本発明者によってなされた発明を実施例に基づき具体的に説明したが、本発明は前記実施例に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。   As mentioned above, although the invention made by the present inventor has been specifically described based on the embodiments, it is needless to say that the present invention is not limited to the above embodiments and can be variously modified without departing from the gist thereof. Yes.

200…走査電子顕微鏡 212…検査対象ウェハ 215…検出器 216…A/D変換器 218…表示手段 219…画像処理部 220…記憶装置。   DESCRIPTION OF SYMBOLS 200 ... Scanning electron microscope 212 ... Inspection object wafer 215 ... Detector 216 ... A / D converter 218 ... Display means 219 ... Image processing part 220 ... Memory | storage device.

Claims (15)

検査対象パターンを撮像して得た画像と設計データから生成した設計データ画像とを比較することにより検査対象パターンの欠陥を検出する装置であって、
検査対象パターンを撮像して該検査対象パターンの画像を取得する撮像手段と、
該撮像手段で前記検査対象パターンを撮像して得た画像から該検査対象パターンの画像の特徴量を算出する検査対象パターン画像特徴量算出手段と、
設計データから設計データ画像を作成する設計データ画像作成手段と、
該設計データ画像作成手段で前記検査対象パターンの設計データから作成した該設計データ画像の特徴量を算出する設計データ画像特徴量算出手段と、
前記撮像手段で検査対象パターンを撮像して取得した前記検査対象パターンの画像と前記設計データ画像作成手段で生成した前記検査対象パターンの設計データ画像とを表示する表示画面を備えた表示手段と、
前記検査対象パターンの画像と前記検査対象パターンの設計データ画像とが表示された前記表示手段の画面で指示された前記検査対象パターンの欠陥の教示画像データを作成して記憶する教示画像データ作成手段と、
前記検査対象パターン画像特徴量算出手段で算出した前記検査対象パターンの画像の特徴量と前記設計データ画像特徴量算出手段で算出した前記設計データ画像の特徴量と前記教示画像データ作成手段で作成した教示画像データとを用いて前記検査対象パターンの画像において虚報と欠陥とを識別する識別境界を算出して記憶する識別境界算出手段と、
前記検査対象パターンの検査領域を前記撮像手段で撮像して得た画像から前記検査対象パターン画像特徴量算出手段で算出した前記検査対象パターンの画像の特徴量と、前記検査対象パターンの検査領域に対応する設計データから設計データ画像作成手段で作成した画像から前記設計データ画像特徴量算出手段で算出した前記設計データ画像の特徴量とから前記識別境界算出手段に記憶した前記識別境界を用いて前記検査対象パターンの欠陥を判定する欠陥判定手段と
を備えることを特徴とするパターン検査装置。
An apparatus for detecting defects in an inspection target pattern by comparing an image obtained by imaging an inspection target pattern with a design data image generated from design data,
Imaging means for capturing an inspection target pattern and obtaining an image of the inspection target pattern;
Inspection target pattern image feature quantity calculating means for calculating a feature quantity of the image of the inspection target pattern from an image obtained by imaging the inspection target pattern by the imaging means;
Design data image creation means for creating a design data image from design data;
Design data image feature quantity calculating means for calculating the feature quantity of the design data image created from the design data of the inspection target pattern by the design data image creating means;
Display means comprising a display screen for displaying the image of the inspection target pattern acquired by imaging the inspection target pattern by the imaging means and the design data image of the inspection target pattern generated by the design data image creating means;
Teach image data creation means for creating and storing teaching image data of the defect of the inspection target pattern indicated on the screen of the display means on which the image of the inspection target pattern and the design data image of the inspection target pattern are displayed When,
The inspection target pattern image feature amount calculated by the inspection target pattern image feature amount calculation unit, the design data image feature amount calculation unit calculated by the design data image feature amount calculation unit, and the teaching image data generation unit An identification boundary calculating means for calculating and storing an identification boundary for identifying a false report and a defect in the image of the inspection target pattern using the teaching image data;
The feature amount of the image of the inspection target pattern calculated by the inspection target pattern image feature amount calculating means from the image obtained by imaging the inspection area of the inspection target pattern by the imaging means, and the inspection area of the inspection target pattern Using the identification boundary stored in the identification boundary calculation means from the feature quantity of the design data image calculated by the design data image feature quantity calculation means from the image created by the design data image creation means from the corresponding design data A pattern inspection apparatus comprising: defect determination means for determining a defect of an inspection target pattern.
前記撮像手段が走査型電子顕微鏡であることを特徴とする請求項1記載のパターン検査装置。   The pattern inspection apparatus according to claim 1, wherein the imaging unit is a scanning electron microscope. 前記教示画像データ作成手段は、前記検査対象パターンの画像と前記検査対象パターンの設計データ画像とが重ねて表示された画面上で教示画像データを作成することを特徴とする請求項1記載のパターン検査装置。   2. The pattern according to claim 1, wherein the teaching image data creation means creates teaching image data on a screen on which the image of the inspection target pattern and the design data image of the inspection target pattern are displayed in an overlapping manner. Inspection device. 前記表示手段は更に前記識別境界算出手段で算出した虚報と欠陥とを識別する識別境界に関する情報を表示画面上に表示し、該表示された識別境界に関する情報から前記識別境界を前記表示画面上で調整することが可能な識別境界調整手段を更に備えることを特徴とする請求項1記載のパターン検査装置。   The display means further displays on the display screen information relating to the identification boundary that identifies the false alarm and the defect calculated by the identification boundary calculating means, and the identification boundary is displayed on the display screen from the information relating to the displayed identification boundary. The pattern inspection apparatus according to claim 1, further comprising an identification boundary adjustment unit capable of adjustment. 前記識別境界算出手段は、設計データ画像特徴量と実パターン画像特徴量とで表わされる特徴量空間において、正常部の特徴ベクトルと欠陥部の特徴ベクトルとを識別する識別境界を算出することを特徴とする請求項1記載のパターン検査装置。   The identification boundary calculation means calculates an identification boundary for identifying a feature vector of a normal part and a feature vector of a defective part in a feature quantity space represented by a design data image feature quantity and an actual pattern image feature quantity. The pattern inspection apparatus according to claim 1. 前記識別境界算出手段は、設計データ特徴量と実パターン画像特徴量とで表わされる特徴量空間において、欠陥種に応じた識別境界を算出することを特徴とする請求項1記載のパターン検査装置。   The pattern inspection apparatus according to claim 1, wherein the identification boundary calculation unit calculates an identification boundary corresponding to a defect type in a feature amount space represented by a design data feature amount and an actual pattern image feature amount. 検査対象パターンを撮像して得た画像と設計データから生成した設計データ画像とを比較することにより検査対象パターンの欠陥を検出する方法であって、
検査対象パターンうちのサンプルパターンを撮像して該サンプルパターンの画像を取得し、
該撮像して取得した前記サンプルパターンの画像から該サンプルパターンの画像の特徴量を算出し、
前記サンプルパターンの設計データから前記サンプルパターンの画像に対応する設計データ画像を作成し、
該作成した設計データ画像について前記算出したサンプルパターンの画像の特徴量に対応する特徴量を算出し、
前記撮像して取得した前記サンプルパターンの画像と前記作成した設計データ画像とを用いて欠陥を教示するための教示画像データを作成し、
前記算出したサンプルパターンの画像の特徴量と前記算出したサンプルパターンの画像の特徴量に対応する設計データ画像の特徴量と前記作成した教示画像データとを用いてサンプルパターンの画像から欠陥の画像を識別するための識別境界を算出し、
前記検査対象パターンの検査領域を撮像して得た画像から前記検査対象パターンの検査領域の画像特徴量を算出し、
前記検査対象パターンの検査領域に対応する設計データから設計データ画像を作成して該作成した設計データ画像の特徴量を算出し、
前記算出した前記検査対象パターンの検査領域の画像特徴量と前記設計データ画像の特徴量と前記算出した識別境界とに基づいて前記検査対象パターンの検査領域内の欠陥を検出する
ことを特徴とするパターン検査方法。
A method for detecting defects in an inspection target pattern by comparing an image obtained by imaging an inspection target pattern with a design data image generated from design data,
Capture the sample pattern of the pattern to be inspected to obtain an image of the sample pattern,
Calculating the feature amount of the image of the sample pattern from the image of the sample pattern obtained by capturing the image;
Create a design data image corresponding to the sample pattern image from the sample pattern design data,
Calculating a feature amount corresponding to the feature amount of the image of the calculated sample pattern for the created design data image;
Create teaching image data for teaching defects using the image of the sample pattern acquired by imaging and the created design data image,
Using the calculated feature amount of the sample pattern image, the feature amount of the design data image corresponding to the calculated feature amount of the sample pattern image, and the created teaching image data, a defect image is obtained from the sample pattern image. Calculate the identification boundary for identification,
Calculating an image feature amount of the inspection area of the inspection target pattern from an image obtained by imaging the inspection area of the inspection target pattern;
Create a design data image from design data corresponding to the inspection area of the inspection target pattern and calculate the feature amount of the created design data image,
A defect in the inspection region of the inspection target pattern is detected based on the calculated image feature amount of the inspection region of the inspection target pattern, the feature amount of the design data image, and the calculated identification boundary. Pattern inspection method.
前記撮像して取得した前記サンプルパターンの画像と前記作成した設計データ画像とから欠陥を教示するための教示画像データを作成することを、前記検査対象パターンの画像と前記検査対象パターンの設計データ画像とを重ねて表示した画面上で行うことを特徴とする請求項7記載のパターン検査方法。   Creating teaching image data for teaching a defect from the image of the sample pattern acquired by imaging and the created design data image, the image of the inspection target pattern and the design data image of the inspection target pattern The pattern inspection method according to claim 7, wherein the pattern inspection method is performed on a screen displayed in a superimposed manner. 前記算出した識別境界に関する情報を画面上に表示し、該画面上に表示された識別境界に関する情報から前記識別境界を前記画面上で調整することを特徴とする請求項7記載のパターン検査方法。   8. The pattern inspection method according to claim 7, wherein information on the calculated identification boundary is displayed on a screen, and the identification boundary is adjusted on the screen from information on the identification boundary displayed on the screen. 検査対象パターンを撮像して得た画像と設計データから生成した設計データ画像とを比較することにより検査対象パターンの欠陥を検出する方法であって、
検査対象パターンを撮像して得た画像から抽出した特徴量と設計データから生成した設計データ画像から抽出した前記検査対象パターンを撮像して得た画像に対応する箇所の特徴量と前記検査対象パターンを撮像して得た画像と設計データ画像とを用いて作成した教示データの情報を用いて虚報と欠陥とを識別するための識別境界を算出し、
該算出した識別境界を記憶し、
前記検査対象パターンの検査領域を撮像して得た画像から前記検査対象パターンの検査領域の画像特徴量を算出し、
前記検査対象パターンの検査領域に対応する設計データから設計データ画像を作成して該作成した設計データ画像の特徴量を算出し、
前記算出した前記検査対象パターンの検査領域の画像特徴量と前記設計データ画像の特徴量と前記記憶しておいた識別境界とに基づいて前記検査対象パターンの検査領域内の欠陥を検出する
ことを特徴とするパターン検査方法。
A method for detecting defects in an inspection target pattern by comparing an image obtained by imaging an inspection target pattern with a design data image generated from design data,
The feature quantity extracted from the image obtained by imaging the inspection target pattern and the feature quantity at the location corresponding to the image obtained by imaging the inspection target pattern extracted from the design data image generated from the design data, and the inspection target pattern Using the information of the teaching data created using the image obtained by imaging the image and the design data image, the identification boundary for identifying the false alarm and the defect is calculated,
Storing the calculated identification boundary;
Calculating an image feature amount of the inspection area of the inspection target pattern from an image obtained by imaging the inspection area of the inspection target pattern;
Create a design data image from design data corresponding to the inspection area of the inspection target pattern and calculate the feature amount of the created design data image,
Detecting a defect in the inspection region of the inspection target pattern based on the calculated image feature amount of the inspection region of the inspection target pattern, the feature amount of the design data image, and the stored identification boundary. Characteristic pattern inspection method.
前記教示画像データを、前記検査対象パターンの画像と前記検査対象パターンの設計データ画像とを重ねて表示した画面上で作成することを特徴とする請求項10記載のパターン検査方法。   11. The pattern inspection method according to claim 10, wherein the teaching image data is created on a screen on which the image of the inspection target pattern and the design data image of the inspection target pattern are displayed in an overlapping manner. 前記算出して記憶した識別境界に関する情報を画面上に表示し、該画面上に表示された識別境界に関する情報から前記識別境界を前記画面上で調整し、該調整した識別境界を新たに記憶することを特徴とする請求項10記載のパターン検査方法。   Information on the identification boundary calculated and stored is displayed on the screen, the identification boundary is adjusted on the screen from the information on the identification boundary displayed on the screen, and the adjusted identification boundary is newly stored. The pattern inspection method according to claim 10. 前記サンプルパターンを撮像して得た画像が、SEM画像であることを特徴とする請求項7又は10に記載のパターン検査方法。   The pattern inspection method according to claim 7 or 10, wherein an image obtained by imaging the sample pattern is an SEM image. 前記識別境界を算出することを、設計データ画像特徴量と実パターン画像特徴量とで表わされる特徴量空間において、正常部の特徴ベクトルと欠陥部の特徴ベクトルとを識別するような識別境界を算出することを特徴とする請求項7又は10に記載のパターン検査方法。   The identification boundary is calculated by identifying an identification boundary that distinguishes between a normal part feature vector and a defective part feature vector in a feature amount space represented by a design data image feature amount and an actual pattern image feature amount. The pattern inspection method according to claim 7 or 10, wherein: 前記識別境界を算出することを、設計データ画像特徴量と実パターン画像特徴量とで表わされる特徴量空間において、欠陥種に応じた識別境界を算出することを特徴とする請求項7又は10に記載のパターン検査方法。   11. The method according to claim 7, wherein calculating the identification boundary includes calculating an identification boundary according to a defect type in a feature amount space represented by a design data image feature amount and an actual pattern image feature amount. The pattern inspection method described.
JP2011193605A 2011-09-06 2011-09-06 Pattern inspection method and device thereof Withdrawn JP2013053986A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011193605A JP2013053986A (en) 2011-09-06 2011-09-06 Pattern inspection method and device thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011193605A JP2013053986A (en) 2011-09-06 2011-09-06 Pattern inspection method and device thereof

Publications (1)

Publication Number Publication Date
JP2013053986A true JP2013053986A (en) 2013-03-21

Family

ID=48131099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011193605A Withdrawn JP2013053986A (en) 2011-09-06 2011-09-06 Pattern inspection method and device thereof

Country Status (1)

Country Link
JP (1) JP2013053986A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015109123A1 (en) * 2014-01-16 2015-07-23 Kla-Tencor Corporation Pattern failure discovery by leveraging nominal characteristics of alternating failure modes
KR20190128745A (en) * 2017-04-07 2019-11-18 케이엘에이 코포레이션 Contour based defect detection

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015109123A1 (en) * 2014-01-16 2015-07-23 Kla-Tencor Corporation Pattern failure discovery by leveraging nominal characteristics of alternating failure modes
CN105917455A (en) * 2014-01-16 2016-08-31 科磊股份有限公司 Pattern failure discovery by leveraging nominal characteristics of alternating failure modes
US9536299B2 (en) 2014-01-16 2017-01-03 Kla-Tencor Corp. Pattern failure discovery by leveraging nominal characteristics of alternating failure modes
CN105917455B (en) * 2014-01-16 2018-05-29 科磊股份有限公司 It fails and finds by using the pattern of the alternately nominal characteristic of failure mode
KR20190128745A (en) * 2017-04-07 2019-11-18 케이엘에이 코포레이션 Contour based defect detection
KR102352697B1 (en) * 2017-04-07 2022-01-17 케이엘에이 코포레이션 Contour-based defect detection

Similar Documents

Publication Publication Date Title
US8953868B2 (en) Defect inspection method and defect inspection apparatus
US8885950B2 (en) Pattern matching method and pattern matching apparatus
US8338804B2 (en) Sample dimension inspecting/measuring method and sample dimension inspecting/measuring apparatus
JP5543872B2 (en) Pattern inspection method and pattern inspection apparatus
US8045789B2 (en) Method and apparatus for inspecting defect of pattern formed on semiconductor device
US8577125B2 (en) Method and apparatus for image generation
JP5948138B2 (en) Defect analysis support device, program executed by defect analysis support device, and defect analysis system
US10318805B2 (en) Pattern matching method and apparatus
JP2013098267A (en) Semiconductor pattern inspection device
US7932493B2 (en) Method and system for observing a specimen using a scanning electron microscope
JP4627782B2 (en) Edge detection method and charged particle beam apparatus
US20150060667A1 (en) Charged particle beam apparatus
JP6043735B2 (en) Image evaluation apparatus and pattern shape evaluation apparatus
JP2007120968A (en) Electron beam type dimension measuring device, and dimension measuring method using it
US20110233400A1 (en) Pattern measurement apparatus and pattern measurement method
US20130170757A1 (en) Method for creating template for patternmatching, and image processing apparatus
US11928805B2 (en) Information processing apparatus, information processing method, and storage medium for defect inspection and detection
JP2012093202A (en) Pattern measurement method, pattern measurement apparatus and program using the same
KR101615829B1 (en) Semiconductor inspecting system
JP2013053986A (en) Pattern inspection method and device thereof
JP5022781B2 (en) Pattern defect inspection apparatus and pattern defect inspection method
US11900643B2 (en) Object detection method and object detection system
US20220044390A1 (en) Auto qualification device and auto qualification method
US11087454B2 (en) Defect observation device and defect observation method
Gao et al. Design of an interactive whiteboard system using machine vision

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141202