WO2020250373A1 - 画像処理プログラム、画像処理装置および画像処理方法 - Google Patents

画像処理プログラム、画像処理装置および画像処理方法 Download PDF

Info

Publication number
WO2020250373A1
WO2020250373A1 PCT/JP2019/023447 JP2019023447W WO2020250373A1 WO 2020250373 A1 WO2020250373 A1 WO 2020250373A1 JP 2019023447 W JP2019023447 W JP 2019023447W WO 2020250373 A1 WO2020250373 A1 WO 2020250373A1
Authority
WO
WIPO (PCT)
Prior art keywords
image processing
image
sample
statistic
calculating
Prior art date
Application number
PCT/JP2019/023447
Other languages
English (en)
French (fr)
Inventor
将記 大内
篠田 伸一
康隆 豊田
竜 弓場
新藤 博之
Original Assignee
株式会社日立ハイテク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立ハイテク filed Critical 株式会社日立ハイテク
Priority to US17/596,025 priority Critical patent/US20220318975A1/en
Priority to KR1020217038957A priority patent/KR20220002572A/ko
Priority to JP2021525501A priority patent/JP7162134B2/ja
Priority to PCT/JP2019/023447 priority patent/WO2020250373A1/ja
Priority to CN201980097253.6A priority patent/CN113994368A/zh
Priority to TW112115907A priority patent/TW202333106A/zh
Priority to TW109111264A priority patent/TWI813871B/zh
Publication of WO2020250373A1 publication Critical patent/WO2020250373A1/ja
Priority to JP2022165935A priority patent/JP7427744B2/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/005Statistical coding, e.g. Huffman, run length coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Definitions

  • an inspection using image data the design data of the sample to be inspected and the photographed data obtained by photographing the inspection target are compared.
  • An example of an article is one that inspects a semiconductor circuit.
  • the resolution of optical exposure equipment has reached its limit, and it is becoming difficult to form a circuit pattern as designed on a wafer.
  • the width of the wiring deviates from the design value, the degeneracy occurs at the tip of the pattern, or defects such as shape deformation of the corners and roots of the pattern are likely to occur.
  • These defects are called systematic defects and occur in common on all dies, so they are detected by a method of detecting defects by comparing the die to be inspected with its proximity die (die-to-die inspection). It's difficult.
  • die-to-database inspection there is a method (die-to-database inspection) of detecting defects by comparing a design data image, which is an image of design data such as CAD data, with a die to be inspected instead of a proximity die. Since the die-to-database inspection compares the design data image with the die to be inspected, it is theoretically possible to detect systematic defects that are common to all dies.
  • the feature amount of the sample is calculated based on the reference data such as the design data, and the statistic showing the probability distribution of the value that the input data of the sample can take is calculated from the feature amount.
  • the statistic showing the probability distribution of the value that the input data of the sample can take is calculated from the feature amount.
  • any of the calculation and adjustment of the parameters for the calculated feature amount, the process evaluation using the feature amount, and the inspection of the sample may be performed incidentally.
  • the encoder layer configured to determine the features of the design data image and the brightness value of each pixel based on the variation of the captured image of the inspection target pattern from the feature amount output by the encoder layer. It has a decoder layer configured to generate statistics, and can detect defects in the image area by comparing the statistics on the brightness value obtained from the decoder layer with the captured image of the pattern to be inspected. It includes a characteristic image processing program, an image processing apparatus, and an image processing method. The image processing includes generation of a model composed of an encoder layer and a decoder layer and adjustment of parameters of the model.
  • the normal range of the data indicating the shape or physical properties of the sample is estimated from the reference data based on the correspondence between the reference data such as the design data of the sample and the data indicating the shape or physical properties of the sample. can do.
  • the brightness value of each pixel on the inspection target image is estimated from the design data image using machine learning as a statistic that defines the probability distribution, and the defect of the inspection target image is estimated based on the statistic.
  • the statistic relating to the shape deformation of the circuit pattern is a statistic that defines the probability distribution of the brightness value of each pixel on the captured image, which is obtained from the correspondence between the design data image and the captured image. ..
  • a device and a measurement inspection system equipped with a function for detecting only a defective region by using an inspection target image and a design data image without causing frequent false reports will be described using drawings. More specifically, a device and a system including a scanning electron microscope (Critical Dimension-Scanning Electron Microscope: CD-SEM) for length measurement, which is a kind of measuring device, will be described.
  • CD-SEM Cross-Scanning Electron Microscope
  • a charged particle beam device will be illustrated as a device for forming an image. Further, as one aspect thereof, an example using SEM will be described, but the present invention is not limited to this.
  • a focused ion beam (FIB) device that scans an ion beam on a sample to form an image. May be adopted as a charged particle beam device.
  • FIB focused ion beam
  • an extremely high magnification is required, so it is generally desirable to use an SEM superior to the FIB device in terms of resolution.
  • FIG. 13 is a schematic explanatory view of a measurement and inspection system in which a plurality of measurements or inspection devices are connected to a network.
  • the following devices are connected via a network.
  • One of them is CD-SEM2401 that measures pattern dimensions of semiconductor wafers, photomasks, and the like.
  • a defect inspection device 2402 that acquires an image by irradiating a sample with an electron beam and extracts a defect based on a comparison between the image and a reference image registered in advance.
  • the condition setting device 2403, the simulator 2404 and the storage medium 2405 are connected to the network.
  • the design data is expressed in, for example, GDS format or OASIS format, and is stored in a predetermined format.
  • the type of design data does not matter as long as the software for displaying the design data can display the format and handle it as graphic data.
  • the storage medium 2405 may be incorporated in a measuring device, a control device for an inspection device, a condition setting device 2403, or a simulator 2404.
  • the CD-SEM2401 and the defect inspection device 2402 are provided with their respective control devices, and the control required for each device is performed. In these control devices, the functions of the simulator, measurement conditions, and the like are set. The function may be installed.
  • the electron beam emitted from the electron source is focused by a multi-stage lens, and the focused electron beam is scanned one-dimensionally or two-dimensionally on the sample by a scanning deflector.
  • Secondary electrons (Seconday Electron: SE) or backscattered electrons (Backscattered Electron: BSE) emitted from the sample by scanning the electron beam are detected by the detector and synchronized with the scanning of the scanning deflector, and the frame memory. It is stored in a storage medium such as.
  • the image signal stored in the frame memory is integrated by the arithmetic unit mounted in the control device. Also, scanning with a scanning deflector is possible for any size, position, and orientation.
  • control device of each SEM performs the above control and the like, and the images and signals obtained as a result of scanning the electron beam are sent to the condition setting device 2403 via the communication line network.
  • control device for controlling the SEM and the condition setting device 2403 are described as separate bodies, but the present invention is not limited to this.
  • the condition setting device 2403 may collectively perform device control and measurement processing, or each control device may perform SEM control and measurement processing together.
  • condition setting device 2403 or the control device stores a program for executing the measurement process, and the measurement or the calculation is performed according to the program. Further, the condition setting device 2403 is provided with a function of creating a program (recipe) for controlling the operation of the SEM based on the design data of the semiconductor, and functions as a recipe setting unit. Specifically, the position for performing the processing necessary for SEM such as the desired measurement point, autofocus, autostigma, and addressing point on the design data, pattern contour line data, or simulated design data, etc. To set. Then, based on the setting, a program for automatically controlling the SEM sample stage, deflector, and the like is created.
  • a program for automatically controlling the SEM sample stage, deflector, and the like is created.
  • a processor that extracts information on the template area from the design data and creates a template based on the extracted information, or a program that creates a template with a general-purpose processor is built-in or It is remembered.
  • this program may be distributed via a network.
  • FIG. 14 is a schematic configuration diagram of a scanning electron microscope.
  • the electron beam 2503 drawn from the electron source 2501 by the extraction electrode 2502 and accelerated by the acceleration electrode (not shown) is focused by the condenser lens 2504, which is a form of a focusing lens.
  • the scanning deflector 2505 scans the sample 2509 one-dimensionally or two-dimensionally.
  • the electron beam 2503 is decelerated by the negative voltage applied to the electrode built in the sample table 2508, focused by the lens action of the objective lens 2506, and irradiated onto the sample 2509.
  • electrons 2510 such as secondary electrons and backscattered electrons are emitted from the irradiated portion.
  • the emitted electrons 2510 are accelerated toward the electron source by the acceleration action based on the negative voltage applied to the sample, collide with the conversion electrode 2512, and generate secondary electrons 2511.
  • the secondary electrons 2511 emitted from the conversion electrode 2512 are captured by the detector 2513, and the output I of the detector 2513 changes depending on the amount of the captured secondary electrons.
  • the brightness of a display device (not shown) changes according to the output I.
  • an image of a scanning region is formed by synchronizing the deflection signal to the scanning deflector 2505 with the output I of the detector 2513.
  • the scanning electron microscope illustrated in FIG. 22 is provided with a deflector (not shown) that moves the scanning region of the electron beam.
  • the configuration is not limited to this, and for example, on the orbit of the accelerated electrons.
  • the control device 2514 controls each configuration of the scanning electron microscope, forms an image based on the detected electrons, and a pattern formed on the sample based on the intensity distribution of the detected electrons called a line profile. It has a function to measure the pattern width of.
  • the model creation process S100, the process evaluation process S200, or the defect detection process S300 can be executed in the control device 2514 or by an arithmetic unit having image processing built-in. It is also possible to execute the image evaluation by an external arithmetic unit (for example, the condition setting device 2403) via the network.
  • the processing division between the arithmetic unit built in the control device 2514 or the image processing built-in and the external arithmetic unit can be appropriately set, and is not limited to the above-mentioned example.
  • FIG. 1 is a diagram illustrating an example of the model creation process S100 to be performed before the inspection.
  • a model that estimates the statistic regarding the brightness value of each pixel on the photographed image (hereinafter referred to as the brightness value statistic) from the design data image using the design data image and the corresponding photographed image as teacher data.
  • the encoder is composed of two or more convolutional layers (Convolutional Layer) and the pooling layer (Polling Layer), and the decoder is composed of two or more layers of deconvolutional layer and pooling layer.
  • a neural network CNN: Convolutional Neural Network
  • it can be realized by using the input of the encoder as the design data image itself and learning so that the output of the decoder becomes the luminance value statistic of the teacher data.
  • the design data image is converted into a feature amount that determines the features of the design data image by the encoder (S101, S102), and the feature amount is converted into a brightness value statistic corresponding to the design data image by the decoder. Convert (S103). Then, it is determined whether or not the learning end condition is satisfied (S104). If the conditions are not satisfied, the output statistic is compared with the captured image corresponding to the input design data image (S105, S106), and the conversion parameters of the encoder and decoder are changed according to the comparison result (S107). ). On the other hand, if the condition is satisfied in S104, the model data is saved (S108), and the model creation process S100 is terminated.
  • the learning end condition of S104 includes whether the number of times of learning is repeated more than the specified number of times, or whether the loss function used for learning has converged.
  • the model data saved in S108 is the configuration information of each layer of the encoder and the decoder and its conversion parameters.
  • a design data image is input as a reference image.
  • the design data image is an image of design data such as CAD.
  • An example is a binary image in which the wiring portion and the space portion in the circuit are painted separately.
  • the wiring has two or more layers. For example, if the wiring is one layer, it can be used as a binary image of the wiring portion and the space portion, and if the wiring is two layers, it can be used as a binary image of the lower layer wiring portion, the upper layer wiring portion, and the space portion.
  • the design data image is an example of a reference image and is not limited thereto.
  • the feature amount output in S102 is the design information indicating whether each pixel on the design data image belongs to the wiring part or the space part, and the peripheral area such as the vicinity of the edge or the corner of the wiring. It has design information including.
  • the statistic output in S103 defines a probability distribution of luminance values (hereinafter, luminance value distribution) 701 that can be taken by each pixel on the corresponding captured image (FIG. 7A).
  • luminance value distribution is represented by the probability with respect to the luminance value that each pixel can take.
  • the distribution can be defined as the frequency of 256 brightness values.
  • the statistic may be in units other than pixels.
  • FIG. 6A is a diagram showing an example of the design data image 601.
  • FIG. 6B is a diagram showing an example of a captured image 602 corresponding to the design data image 601.
  • FIG. 6C is a diagram showing an example of a captured image 603 corresponding to the design data image 601.
  • FIG. 6D is a diagram showing an example of a captured image 604 corresponding to the design data image 601.
  • each grid represents one pixel.
  • the wiring of the design data image 601 has a shape difference from the wiring of the captured images 602, 603, 604 due to the shape deformation at the time of manufacturing, and this shape difference differs depending on the manufacturing frequency. Therefore, when a certain pixel on the design data image takes an arbitrary brightness value, there are a plurality of brightness values that the same pixel on the captured image can take. For example, if the captured images 602, 603, and 604 are grayscale images, the luminance value that each pixel can take is an integer from 0 to 255. In this case, the luminance value distribution represents the frequency with respect to the luminance value of 0 to 255.
  • the mean and standard deviation can be considered, and if it is a Poisson distribution, the arrival rate can be considered.
  • the comparison process of S106 there is a difference calculation between an image sampled based on statistics and a captured image.
  • the conversion parameter changed in S107 and saved in S108 is the weight of the filter of the CNN convolution layer or deconvolution layer constituting the encoder and decoder.
  • FIG. 2 is a diagram illustrating an example of the process evaluation process S200 performed at the time of inspection.
  • the statistic is estimated in the same manner as the statistic estimation step in S101, S102, and S103 of the model creation process S100 (S201, S202, S203), and the process evaluation based on the statistic is performed (S204). ).
  • the process evaluation of S204 includes generating a statistical image based on the estimated statistic and displaying it on the GUI, and measuring the dimensions of this statistical image. This makes it possible to evaluate shape variations due to process variations.
  • FIG. 5A is a diagram showing an example of the design data image 501.
  • FIG. 5B is a diagram showing an example of a captured image 502 corresponding to the design data image 501.
  • FIG. 5C is a diagram showing an example of the statistical image 503 corresponding to the design data image 501.
  • the statistical image is an image of the estimated statistic. For example, when binarized by the size of the variation in the brightness value distribution, the statistical image is divided into a region 504 with a large shape variation and a region 505 with a small shape variation.
  • the statistical image created in the process evaluation S204 includes image changes due to process fluctuations, some of the information can be used as a template image for pattern matching used for semiconductor measurement and inspection.
  • FIG. 11 is an example of displaying the process evaluation result by the GUI 1100.
  • the GUI 1100 displays the design data image 1101, the statistical image 1102, the operation panel 1105, the evaluation setting panel 1106, and the measurement result information 1107.
  • the dimensions to be measured are fluctuation prediction values indicating how much the wiring is deformed after manufacturing with respect to the wiring on the design data image.
  • the position to be measured is determined by the user directly moving the measurement points 1103 and 1104 with the mouse, or by designating an arbitrary image area on the image with the mouse.
  • the operation panel 1105 can change the magnification and position of the image to be displayed according to the input from the user.
  • the setting items necessary for generating the statistical image 1102 are input or specified by pull-down or the like.
  • the setting items include the display method of the statistical image (binarized image, heat map image, etc.) and the setting according to the display method (threshold setting when making the binarized image, color bar setting of the heat map image, etc.). Is.
  • the measurement result information 1107 displays the center coordinate values of the measurement points 1103 and 1104, the dimensional values measured at the measurement points 1103 and 1104, and the like.
  • the threshold range of the luminance value is determined based on the luminance value distribution defined by the statistic estimated in S303.
  • FIG. 7B is a diagram showing an example of the luminance value distribution and the threshold range 702 determined based on the luminance value distribution.
  • the threshold range Th is set as shown in (Equation 1) below using the mean ⁇ and standard deviation ⁇ , which are statistics that define the distribution, and an arbitrary constant ⁇ . Can be set.
  • Examples of the screen display of S307 include an extracted image of the defective area painted separately for the defective area and the other area, an overlay image of the photographed image to be inspected and the defective area, and the like.
  • the learning process of the generation model of FIG. 1, the process evaluation process of FIG. 2, and the defect determination process of FIG. 3 may be executed by different programs, or may be executed by individual programs. Either two processes may be executed by one program. Further, the device that executes these processes may also execute each process in one device or in different devices in the same manner as the program.
  • the learning unit 403 creates a model estimated from the design data image as a statistic that defines the brightness value distribution of each pixel on the photographed image by using the design data image 401 for learning and the photographed image for learning by machine learning.
  • the defect determination unit 409 obtains a determination result 410 by comparing the threshold range of each pixel determined by the threshold range determination unit 408 with the photographed image 406 for inspection.
  • the determination result 410 may be a defect image painted separately in the defect region and the other region on the image, or may be a composite image of the defect image and the inspection photographed image 406.
  • the learning photographed image 402 and the inspection photographed image 406 may be photographed on the same wafer or may be photographed on different wafers.
  • the learning photographed image 402 and the inspection photographed image 406 have the same manufacturing conditions and imaging conditions. Is preferable.
  • FIG. 8A is a diagram showing the pixel of interest 801 and its peripheral region 802 on the design data image.
  • FIG. 8B is a diagram showing pixels 803 on the captured image. It is assumed that the pixel 801 and the pixel 803 of interest are at the same coordinates on each image.
  • the statistic of the brightness value that the pixel 803 can take is estimated from the pixel values of the pixel of interest 801 and the peripheral region 802. This is because the calculation including the surrounding pixels is performed when calculating with the convolution layer of CNN.
  • the size of the peripheral region 802 is determined by the number of strides of CNN, the filter size, and the like.
  • FIG. 10 is a diagram showing an example of preprocessing for the learning data set and the inspection data set according to this embodiment.
  • the pretreatment unit 1003 can be composed of a positioning unit 1004 and a cutting unit 1005.
  • the learning design data image 401 and the learning photographed image 402 of the circuit that manufactures the learning design data image 401 are aligned on the image by the positioning unit 1004 so that the circuit patterns match.
  • the alignment method there is a method of obtaining the outline of the wiring of the design data image and the captured image and performing positioning so that the centers of gravity of the figures surrounded by the outline are matched.
  • the cutout unit 1005 cuts out the design data image and the captured image to the same image size, so that the positions of the inspection design data image 405 and the inspection captured image 406 correspond to each other. ..
  • the learning data set consisting of the learning design data image 401 and the learning photographed image 402 and the learning data set consisting of the inspection design data image 405 and the inspection photographed image 406 are shown in FIG. 10 prior to the inspection. It is desirable that the preprocessing unit 1003 aligns the design data image and the captured image and adjusts the image size.
  • the GUI 1200 displays the design data image 1201, the inspection target image 1202, the defect image 1203, the overlay image 1204, the threshold image 1208, the brightness value distribution image 1209, the operation panel 1211, the inspection setting panel 1212, and the inspection information 1213.
  • the defect detection result for one captured image is displayed on one screen.
  • the defect image 1203 is an image in which the defect region detected by using the design data image 1201 and the inspection target image 1202 and the other regions are color-coded.
  • the overlay image 1204 is an image in which the inspection target image 1202 and the defect image 1203 are superimposed.
  • Defect areas 1205 and 1206 are displayed on the overlay image 1204 surrounded by lines.
  • the defect regions 1205 and 1206 are determined as one or more defect regions based on the coordinates of the pixels determined to be defective.
  • the threshold image 1208 is an image of the threshold range of each pixel determined by the threshold range determination process S304. This image may be a binarized image or a heat map image based on the size of the threshold range.
  • the operation panel 1211 can change the magnification and position of the displayed image.
  • the parameters required for the threshold range determination process S304 and the parameters required for determining the defect areas 1205 and 1206 are specified by keyboard input or pull-down.
  • the inspection information 1213 displays the center coordinate values of the defective areas 1205 and 1206, the coordinate values of the attention position 1207, and the like.
  • Design data and the like can be registered in the recipe for inspection.
  • the model data created by the model creation process S100 can be registered, or the statistical image generated by the process evaluation process S200 can be registered.
  • the present invention is not limited to the above-mentioned examples, and includes various modifications.
  • the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to those having all the described configurations.
  • the shape deformation of the normal range in the circuit pattern to be inspected can be obtained from the design data image. Since it can be estimated, it is possible to detect only the defective portion in the comparative inspection between the design data image and the inspection target pattern without causing frequent false reports regarding the shape deviation between the two. Further, since the shape deformation in the normal range is directly estimated from the design data image, the processing time can be shortened as compared with the case of synthesizing a plurality of simulation images. Further, one effect of this embodiment is that it is possible to generate a model in consideration of the image quality difference between the design data and the shooting data.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

本発明は、高速かつ虚報の少ないダイ・ツゥ・データベース検査を実現するためのコンピュータプログラム、及びこれを用いた半導体検査装置の提供を目的とする。上記目的を達成するために、設計データ画像の特徴を決定するように構成されたエンコーダ層S302と、エンコーダ層により出力された特徴量から、検査対象パターンを撮影した画像(検査対象画像)のバリエーションに基づいて各画素における輝度値の統計量を生成するように構成されたデコーダ層S303を備え、デコーダ層から得られた輝度値に関する統計量と検査対象画像とを比較して、画像上の欠陥領域を検出することで、虚報の少ないダイ・ツゥ・データベース検査が実現可能なコンピュータプログラム及びこれを用いた半導体検査装置を提案する。

Description

画像処理プログラム、画像処理装置および画像処理方法
 本発明は、画像データを処理する画像処理技術に関する。その中でも特に、画像データを用いた検査に適用可能な画像処理技術に関する。検査対象の一例には、半導体回路が含まれる。
 現在、画像データを用いた検査として、検査対象である試料の設計データと検査対象を撮影した撮影データを比較することが行われている。物品の一例として、半導体回路を検査するものがある。
半導体回路パターンの微細化に伴い、光露光装置の解像度は限界に達し、設計通りの回路パターンをウエハ上に形成することが困難になりつつある。半導体ウエハ上に形成された回路パターンは、配線の幅が設計値からずれたり、あるいは、パターン先端に縮退が生じたり、あるいは、パターンのコーナーや付け根の形状変形といった不良が発生しやすくなる。こうした欠陥は、システマティック欠陥と呼ばれ、全てのダイで共通して発生するため、検査対象のダイとその近接ダイとを比較して欠陥を検出する方法(ダイ・ツゥ・ダイ検査)では検出することが難しい。
 これに対して、近接ダイではなく、CADデータなどの設計データを画像化した設計データ画像と、検査対象のダイとを比較して欠陥を検出する方法(ダイ・ツゥ・データベース検査)がある。ダイ・ツゥ・データベース検査は、設計データ画像と検査対象のダイを比較するので、全てのダイで共通しているシステマティック欠陥を検出することが理論上可能である。
 しかし、ウエハ上に転写されたパターン上には、半導体デバイスの電気特性には影響しない程度の設計データとの形状乖離(コーナーの丸まりの違いなど)が多く存在する。ダイ・ツゥ・データベースでは、この形状の乖離も検出してしまい、虚報が多発するという問題があった。正常な回路パターンを欠陥として誤検出しないためには、正常な範囲での形状乖離を許容する必要がある。
 US9965901B2(特許文献1)には、CNNを用いて設計データから検査対象パターンの画像をシミュレーションする方法が開示されている。これをダイ・ツゥ・データベース検査に適用し、良品の形状乖離もつ検査対象パターンのシミュレート画像を設計データの代わりに用いることで虚報を抑えた検査は可能である。
US9965901B2
 特許文献1では、シミュレーションした検査対象パターンが得られるものの、得られる検査対象画像は、製造回次により異なる形状変形の一例である。そのため、正常な形状変形の範囲を知るためには複数回シミュレーションする必要がある。更にこれをダイ・ツゥ・データベース検査に適用する場合、生成された複数のシミュレート画像と検査画像を総当たりで比較する必要があるため、処理時間がかかるという問題がある。
 上記目的を達成するために、本発明では、設計データ等の基準データに基づき試料の特徴量を算出し、当該特徴量から当該試料の入力データがとり得る値の確率分布を示す統計量を算出する。また、算出された特徴量に対するそのパラメータの算出や調整、特徴量を用いたプロセス評価、試料の検査のいずれかを付随的に行ってもよい。
 本発明の一態様として、設計データ画像の特徴を決定するように構成されたエンコーダ層と、エンコーダ層により出力された特徴量から検査対象パターンの撮影画像のバリエーションに基づいて各画素の輝度値の統計量を生成するように構成されたデコーダ層を備え、デコーダ層から得られた輝度値に関する統計量と検査対象パターンの撮影画像とを比較することによって、画像領域内の欠陥を検出することを特徴とする画像処理プログラム、画像処理装置および画像処理方法が含まれる。なお、本画像処理には、エンコーダ層及びデコーダ層から構成されるモデルの生成や本モデルが有するパラメータの調整が含まれる。
 なお、本発明では、検査対象として、半導体回路の他、自動車部品(ピストンなど)、トレイ、ビンなどの容器、液晶など各種物体への適用が可能である。また、本発明では画像の撮影の他、試料の形状ないし物性を示すデータを入力することが含まれる。なお、形状には、試料の大きさ、長さなどが含まれる。
 本発明によれば、試料の設計データ等の基準データと、試料の形状ないし物性等を示すデータとの対応関係に基づいて、基準データから試料の形状ないし物性等を示すデータの正常範囲を推定することができる。
本発明の一実施例に係る生成モデルの学習の流れを示すフローチャートである。 本発明の一実施例に係るプロセス評価処理の流れを示すフローチャートである。 本発明の一実施例に係る欠陥判定方式の流れを示すフローチャートである。 本発明の一実施例における機能ブロック図を示す図である。 設計データ画像501の一例を示す図である。 設計データ画像501に対応した撮影画像502を示す図である。 設計データ画像501に対応した統計画像503の一例を示す図である。 設計データ画像601の一例を示す図である。 設計データ画像601に対応する撮影画像602の一例を示す図である。 設計データ画像601に対応する撮影画像603の一例を示す図である。 設計データ画像601に対応する撮影画像604の一例を示す図である。 撮影画像上の各画素における輝度値分布の例を示す図である。 設計データ画像から推定された統計量により規定される推定輝度値分布と、その統計量から決定された輝度値の閾値範囲の例を示す図。 設計データ画像上の注目画素及びその周囲領域を示す図。 注目画素と同じ位置にある撮影画像上の推定対象画素を示す図。 設計データ画像のエッジと、それに基づいて決定される形状変形の閾値範囲との関係を説明する図である。 設計データ画像と撮影画像に対して、学習もしくは検査の事前に行う処理の例を示す図である。 プロセス評価の設定及び結果表示を行うためのGUI画面の例である。 欠陥検出の設定及び結果表示を行うためのGUI画面の例である。 半導体計測システムの一例を示す図である。 走査電子顕微鏡の概略を示す図である。
 以下に説明する実施例にて例示する半導体検査装置は、検査対象パターンの撮影画像(検査対象画像)と設計データ画像を用いて虚報の多発を抑止し、欠陥領域のみを検出するための画像処理プログラム、及びこれを使用した半導体検査装置に関するものである。なお、検査対象画像との比較には設計データの他、半導体製造プロセスのシミュレーション画像や回路パターンの平均画像、手書き作成した画像等も適用でき、これを限定するものではない。
 また、その具体的な一例として、機械学習を用いて設計データ画像から検査対象画像上の各画素の輝度値を、その確率分布を規定する統計量として推定し、それに基づいて検査対象画像の欠陥領域を検出する方法の例を示す。なお、本実施例では、回路パターンの形状変形に関する統計量を、設計データ画像と撮影画像との対応関係から得られる、撮影画像上の各画素の輝度値の確率分布を規定する統計量とする。
 以下に、検査対象画像と設計データ画像を用いて虚報を多発させることなく、欠陥領域のみを検出するための機能を備えた装置、測定検査システムについて、図面を用いて説明する。より具体的には、測定装置の一種である測長用走査電子顕微鏡(Critical Dimension-Scanning Electron Microscope: CD-SEM)を含む装置、システムについて説明する。
 なお、以下の説明では、画像を形成する装置として荷電粒子線装置を例示する。また、その一態様として、SEMを用いた例を説明するが、これに限られることはなく、例えば試料上にイオンビームを走査して画像を形成する集束イオンビーム(Focused Ion Beam:FIB)装置を荷電粒子線装置として採用するようにしても良い。但し、微細化が進むパターンを高精度に測定するためには、極めて高い倍率が要求されるため、一般的に分解能の面でFIB装置に勝るSEMを用いることが望ましい。
 図13は、複数の測定、或いは検査装置がネットワークに接続された測定、検査システムの概略説明図である。当該システムは、以下の各装置がネットワークを介して接続されている。その1つが、半導体ウエハやフォトマスク等のパターン寸法を測定するCD-SEM2401である。また、他の装置として、試料に電子ビームを照射することによって画像を取得し当該画像と予め登録されている参照画像との比較に基づいて欠陥を抽出する欠陥検査装置2402がある。また、ネットワークには、条件設定装置2403、シミュレーター2404および記憶媒体2405が接続されている。条件設定装置2403は、半導体デバイスの設計データ上で、測定位置や測定条件等を設定する機能を有する。シミュレーター2404は、半導体デバイスの設計データと、半導体製造装置の製造条件等に基づいて、パターンの出来栄えをシミュレーションする機能を有する。さらに、記憶媒体2405は、半導体デバイスのレイアウトデータや製造条件が登録された設計データを記憶する。
 設計データは例えばGDSフォーマットやOASISフォーマットなどで表現されており、所定の形式にて記憶されている。なお、設計データは、設計データを表示するソフトウェアがそのフォーマット形式を表示でき、図形データとして取り扱うことができれば、その種類は問わない。また、記憶媒体2405は測定装置、検査装置の制御装置、或いは条件設定装置2403、シミュレーター2404内蔵するようにしても良い。なお、CD-SEM2401、及び欠陥検査装置2402、には、それぞれの制御装置が備えられ、各装置に必要な制御が行われるが、これらの制御装置に、上記シミュレーターの機能や測定条件等の設定機能を搭載するようにしても良い。
 SEMでは、電子源より放出される電子ビームが複数段のレンズにて集束されると共に、集束された電子ビームは走査偏向器によって、試料上を一次元的、或いは二次元的に走査される。
 電子ビームの走査によって試料より放出される二次電子(Secondary Electron:SE)或いは後方散乱電子(Backscattered Electron:BSE)は、検出器により検出され、前記走査偏向器の走査に同期して、フレームメモリ等の記憶媒体に記憶される。このフレームメモリに記憶されている画像信号は、制御装置内に搭載された演算装置によって積算される。また、走査偏向器による走査は任意の大きさ、位置、及び方向について可能である。
 以上のような制御等は、各SEMの制御装置にて行われ、電子ビームの走査の結果、得られた画像や信号は、通信回線ネットワークを介して条件設定装置2403に送られる。なお、本例では、SEMを制御する制御装置と、条件設定装置2403を別体のものとして、説明しているが、これに限られることはない。例えば、条件設定装置2403にて装置の制御と測定処理を一括して行うようにしても良いし、各制御装置にて、SEMの制御と測定処理を併せて行うようにしても良い。
 また、上記条件設定装置2403或いは制御装置には、測定処理を実行するためのプログラムが記憶されており、当該プログラムに従って測定、或いは演算が行われる。
また、条件設定装置2403は、SEMの動作を制御するプログラム(レシピ)を、半導体の設計データに基づいて作成する機能が備えられており、レシピ設定部として機能する。具体的には、設計データ、パターンの輪郭線データ、或いはシミュレーションが施された設計データ上で所望の測定点、オートフォーカス、オートスティグマ、アドレッシング点等のSEMにとって必要な処理を行うための位置等を設定する。そして、当該設定に基づいて、SEMの試料ステージや偏向器等を自動制御するためのプログラムを作成する。また、後述するテンプレートの作成のために、設計データからテンプレートとなる領域の情報を抽出し、当該抽出情報に基づいてテンプレートを作成するプロセッサ、或いは汎用のプロセッサでテンプレートを作成させるプログラムが内蔵、或いは記憶されている。また、本プログラムは、ネットワークを介して配信してもよい。
 図14は、走査電子顕微鏡の概略構成図である。電子源2501から引出電極2502によって引き出され、図示しない加速電極によって加速された電子ビーム2503は、集束レンズの一形態であるコンデンサレンズ2504によって絞られる。そして、走査偏向器2505により、試料2509上を一次元的、或いは二次元的に走査される。電子ビーム2503は試料台2508に内蔵された電極に印加された負電圧により減速され、対物レンズ2506のレンズ作用によって集束されて試料2509上に照射される。
 電子ビーム2503が試料2509に照射されると、当該照射個所から二次電子、及び後方散乱電子のような電子2510が放出される。放出された電子2510は、試料に印加される負電圧に基づく加速作用によって、電子源方向に加速され、変換電極2512に衝突し、二次電子2511を生じさせる。変換電極2512から放出された二次電子2511は、検出器2513によって捕捉され、捕捉された二次電子量によって、検出器2513の出力Iが変化する。この出力Iに応じて図示しない表示装置の輝度が変化する。例えば二次元像を形成する場合には、走査偏向器2505への偏向信号と、検出器2513の出力Iとの同期をとることで、走査領域の画像を形成する。また、図22に例示する走査電子顕微鏡には、電子ビームの走査領域を移動する偏向器(図示せず)が備えられている。
 なお、図14の例では試料から放出された電子を変換電極にて一端変換して検出する例について説明しているが、無論このような構成に限られず、例えば加速された電子の軌道上に、電子倍像管や検出器の検出面を配置するような構成とすることも可能である。制御装置2514は、走査電子顕微鏡の各構成を制御すると共に、検出された電子に基づいて画像を形成する機能や、ラインプロファイルと呼ばれる検出電子の強度分布に基づいて、試料上に形成されたパターンのパターン幅を測定する機能を備えている。
 次に、機械学習を用いた欠陥検出のためのモデル作成処理S100あるいはプロセス評価処理S200あるいは欠陥検出処理S300の一態様を説明する。モデル作成処理S100あるいはプロセス評価処理S200あるいは欠陥検出処理S300は、制御装置2514内に内蔵、或いは画像処理を内蔵された演算装置にて実行することも可能である。また、ネットワークを経由して、外部の演算装置(例えば条件設定装置2403)にて画像評価を実行することも可能である。なお、制御装置2514内に内蔵、或いは画像処理を内蔵された演算装置と外部の演算装置の処理分担は、適宜設定可能であり、上述した例に限定されない。
 図1は、検査前に実施するモデル作成処理S100の例を説明する図である。検査前に、設計データ画像とこれに対応する撮影画像を教師データとして用いて、設計データ画像から撮影画像上の各画素の輝度値に関する統計量(以下、輝度値統計量)を推定するモデルを作成する。具体的には、エンコーダが2層以上の畳み込み層(Convolutional Layer)とプーリング層(Pooling Layer)から構成され、デコーダが2層以上の逆畳み込み層(Deconvolution Layer)とプーリング層から構成される、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を用いる。この場合、エンコーダの入力を設計データ画像そのものとし、デコーダの出力が教師データの輝度値統計量となるように学習することで実現できる。
 モデル作成処理S100では、エンコーダにより設計データ画像を、設計データ画像の特徴を決定するような特徴量に変換し(S101、S102)、デコーダにより特徴量を設計データ画像に対応した輝度値統計量に変換する(S103)。そして、学習の終了条件を満たしているかを判定する(S104)。条件を満たしていなければ、出力された統計量と、入力の設計データ画像に対応した撮影画像とを比較し(S105、S106)、比較結果に応じてエンコーダとデコーダの変換パラメータを変更する(S107)。一方、S104で条件を満たしていればモデルデータを保存し(S108)、モデル作成処理S100を終了する。
 S104の学習の終了条件としては、学習の繰り返し回数が規定回数以上か、学習に使用する損失関数が収束したか、などがある。S108で保存するモデルデータは、エンコーダとデコーダの各層の構成情報や、その変換パラメータである。
 以下に各処理内容について、詳述する。
 S101では、基準画像として設計データ画像を入力する。設計データ画像は、CADなどの設計データを画像化したものである。例として、回路における配線部と空間部とで塗り分けた2値画像が挙げられる。半導体回路の場合、配線が2層以上の多層になっているものがある。例えば、配線が一層であれば配線部と空間部の2値画像、配線が2層であれば下層の配線部と上層の配線部、空間部の3値画像として使用できる。なお、設計データ画像は基準画像の一例であり、これを限定するものではない。
 S102で出力される特徴量は、この特徴量は、設計データ画像上の各画素が配線部と空間部のどちらに属しているかという設計情報と、配線のエッジ付近やコーナー付近などの周辺領域を含めた設計情報などを有する。
 S103で出力される統計量は、対応する撮影画像上における各画素が取りうる輝度値の確率分布(以降、輝度値分布)701を規定する(図7A)。輝度値分布は、各画素が取りうる輝度値に対する確率で表される。具体的には、撮影画像がグレースケール画像であれば、256通りの輝度値の頻度として分布を定義できる。また、統計量としては、画素以外を単位としてもよい。
 設計データ画像と撮影画像の対応関係について述べる。具体的には、図6A~図6Dを用いて、設計データ画像と検査対象画像における配線の形状乖離の一例を説明する。図6Aは、設計データ画像601の一例を示す図である。図6Bは、設計データ画像601に対応する撮影画像602の一例を示す図である。図6Cは、設計データ画像601に対応する撮影画像603の一例を示す図である。図6Dは、設計データ画像601に対応する撮影画像604の一例を示す図である。
 図6の設計データ画像601と撮影画像602、603、604において、各格子は1画素を表す。設計データ画像601の配線は、製造時の形状変形によって撮影画像602、603、604の配線と形状差をもち、この形状差は製造回次により異なる。このため、設計データ画像上のある画素が任意の輝度値を取ったときに、撮影画像上の同一画素が取りうる輝度値は複数通り存在する。例えば、撮影画像602、603、604がグレースケール画像であれば、各画素が取りうる輝度値は、0から255までの整数である。この場合、輝度値分布は0~255の輝度値に対する頻度を表す。統計量の例として、輝度値分布が正規分布であれば平均と標準偏差、ポアソン分布であれば到着率などが考えられる。
S106の比較処理の実施例として、統計量に基づいてサンプリングした画像と撮影画像との差分計算がある。
 S107で変更し、S108で保存する変換パラメータは、エンコーダとデコーダを構成するCNNの畳み込み層もしくは逆畳み込み層のフィルタの重みである。
 図2は、検査時に実施するプロセス評価処理S200の例を説明する図である。プロセス評価処理S200では、モデル作成処理S100のS101、S102、S103における統計量の推定ステップと同様にして統計量を推定し(S201、S202、S203)、統計量に基づいたプロセス評価を行う(S204)。
 S202のエンコーダとS203のデコーダは、モデル作成処理S100によってそのパラメータが調整されたものを使用する。そのため、設計データ画像のみから、対応する輝度値統計量を求めることが可能となる。
 S204のプロセス評価は、推定した統計量に基づいて統計画像を生成し、GUI表示することや、この統計画像の寸法を計測することが挙げられる。これにより、プロセス変動による形状ばらつきを評価可能である。図5Aは、設計データ画像501の一例を示す図である。図5Bは、設計データ画像501に対応する撮影画像502の一例を示す図である。図5Cは、設計データ画像501に対応する統計画像503の一例を示す図である。統計画像は、推定した統計量を画像化したものである。例えば、輝度値分布のばらつきの大きさで2値化した場合、統計画像は形状ばらつきが大きい領域504と小さい領域505に分けられる。
 また、プロセス評価S204で作成した統計画像は、プロセス変動に伴う画像変化を含むので、その一部の情報を半導体計測及び検査に用いられるパターンマッチングのテンプレート画像として使用することもできる。
 図11は、GUI1100によるプロセス評価結果表示の一例である。GUI1100では、設計データ画像1101と、統計画像1102と、操作パネル1105、評価設定パネル1106と、計測結果情報1107を表示する。
統計画像1102の寸法を計測する場合、計測ポイント1103、1104で示された寸法を計測し、その結果を計測結果情報1107に表示する。計測する寸法は、設計データ画像上の配線に対して、製造後に配線がどの程度形状変形するかを示す変動予測値などである。計測する位置は、ユーザーが計測ポイント1103、1104を直接マウスで移動することや、画像上の任意の画像領域をマウスで指定することなどで決定する。操作パネル1105は、ユーザーからの入力に従って表示する画像の倍率や位置などを変更できる。
 評価設定パネル1106では、統計画像1102の生成に必要な設定事項を入力もしくはプルダウンなどで指定する。設定事項は、統計画像の表示方法(2値化画像やヒートマップ画像など)や、表示方法に応じた設定(2値化画像にするときの閾値設定やヒートマップ画像のカラーバー設定など)などである。
 計測結果情報1107には、計測ポイント1103、1104の中心座標値や、計測ポイント1103、1104で計測された寸法の値などを表示する。
 図3は、検査時に実施する欠陥検出処理S300の例を説明する図である。欠陥検出処理S300では、以下のとおり処理する。まず、モデル作成処理S100のS101、S102、S103における統計量の推定ステップと同様にして統計量を推定する(S301、S302、S303)。そして、統計量に基づいて各画素の輝度値の閾値範囲を画素ごとに決定する(S304)。さらに、決定した閾値範囲と検査対象の撮影画像とを用いて、撮影画像の輝度値が閾値範囲内か否かを画素ごとに判定し(S305、S306)、閾値範囲外の輝度値の画素があれば欠陥領域として画面表示する(S307)。
 以下に、各処理内容について詳述する。
 S302のエンコーダとS303のデコーダは、モデル作成処理S100によってそのパラメータが調整されたものを使用する。
S304では、S303で推定した統計量が規定する輝度値分布に基づいて、輝度値の閾値範囲を決定する。図7Bは、輝度値分布と、これに基づいて決定される閾値範囲702の例を示す図である。例えば、輝度値分布を正規分布とした場合、その分布を規定する統計量である平均μと標準偏差σ、そして任意の定数βを用いて閾値範囲Thを、以下の(数1)のように設定できる。
μ-β・σ≦Th≦μ+β・σ…(数1)
 この閾値範囲は、画素ごとに決定される。定数βは、欠陥判定の感度に関するパラメータであり、画像全体で同一の値でもよいし、画素ごとに異なる値でもよい。
 S306では、閾値範囲外の輝度値であった画像領域を欠陥領域、その撮影画像を欠陥画像として判定する。欠陥領域がない場合は、正常画像として判定する。例えば、グレースケールの撮影画像において、ある画素の輝度値が“205”であり、その画素に対する閾値範囲が“20”~“120”である場合、この画素は欠陥領域と判定され、撮影画像は欠陥画像と判定される。
 S307の画面表示の例として、欠陥領域とそれ以外の領域とで塗り分けた欠陥領域の抽出画像や、検査対象の撮影画像と欠陥領域とのオーバーレイ画像などがある。
 欠陥検出処理S300を実施する例として、過去に製造されたウエハから取得した撮影画像とその設計データを使用する場合と、検査対象のウエハから取得した撮影画像とその設計データを使用する場合とが挙げられる。
 なお、図1の生成モデルの学習処理、図2のプロセス評価処理、図3の欠陥判定処理を、それぞれ異なるプログラムで実行してもよいし、それぞれを個別のプログラムで実行してもよいし、いずれか2つの処理を1つのプログラムで実行してもよい。さらに、これらの処理を実行する装置も、プログラムと同様に、各処理を1つの装置で実行してもよいし、異なる装置で実行してもよい。
 図4は、本実施例におけるモデル作成処理S100及び欠陥検出処理S300を内包した欠陥検出システムの機能ブロック図である。学習部403、統計量推定部407、閾値範囲決定部408及び欠陥判定部409は、プログラムにより実現されている。学習用設計データ画像401、学習用撮影画像402、検査用設計データ画像405及び検査用撮影画像406は、記憶媒体2405内に保存されている。
 学習部403は、機械学習により学習用設計データ画像401と学習用撮影画像を用いて、設計データ画像から撮影画像上の各画素の輝度値分布を規定する統計量として推定するモデルを作成する。
 学習部403は学習用設計データ画像401と学習用撮影画像402を用いて、検査前のモデル作成処理S100を実施する。このとき、学習部403からはエンコーダとデコーダのパラメータの情報をもったモデルデータ404を得る。統計量推定部407は検査用設計データ画像405から、対応する撮影画像上における各画素の輝度値に関する統計量を推定する。統計量推定部は、エンコーダとデコーダからなるモデルによって構成でき、これらのパラメータはモデルデータ404が反映される。輝度値分布推定部で推定された統計量は、閾値範囲決定部S408において欠陥判定のための輝度値の閾値範囲となる。欠陥判定部409は閾値範囲決定部408において決定された各画素の閾値範囲と、検査用撮影画像406とを比較することによって、判定結果410を得る。判定結果410は、画像上の欠陥領域とそれ以外の領域で塗り分けられた欠陥画像であってもよいし、欠陥画像と検査用撮影画像406を合成した画像であってもよい。
 学習用撮影画像402と、検査用撮影画像406は、同じウエハにて撮影されたものでもよいし、異なるウエハにて撮影されたものでもよい。なお、本実施例で対象とするような、正常な範囲の形状変形を許容した欠陥検出に使用する場合には、学習用撮影画像402と検査用撮影画像406は、製造条件と撮影条件が同じである方が好ましい。
 図8Aは、設計データ画像上の注目画素801とその周囲領域802を示す図である。図8Bは、撮影画像上の画素803を示す図である。注目画素801と画素803は、各画像上の同じ座標にあるものとする。画素803が取りうる輝度値の統計量は、注目画素801ならびに周囲領域802の画素値により推定される。これは、CNNの畳み込み層で計算するときに周囲の画素を含めた演算がなされるからである。なお、周囲領域802のサイズは、CNNのストライド数やフィルタサイズなどにより決まる。
 図9は、回路パターンのエッジと、S302~S304で決定される閾値範囲の関係を説明する図である。配線のエッジ付近は、製造による形状変形が多発することから、エッジ901に近い領域902の閾値範囲は大きくなると考えられる。一方で、配線のエッジから離れた領域では形状変形が起こることは稀であることから、エッジ901から離れた領域903の閾値範囲は小さくなると考えられる。
 図10は、本実施例に係る学習用データセットと検査用データセットに対する前処理の一例を示す図である。前処理部1003は、位置決め部1004と切り出し部1005で構成することができる。まず、学習用設計データ画像401と、これを製造した回路の学習用撮影画像402に対して、位置決め部1004にて回路パターンが一致するように画像上の位置を合わせる。位置合わせの方法の例として、設計データ画像と撮影画像の配線の輪郭線を求め、輪郭線で囲われた図形の重心を一致させるように位置決めを行う方法がある。そして、切り出し部1005にて設計データ画像と撮影画像を同じ画像サイズに切り出す処理をすることで、検査用設計データ画像405と検査用撮影画像406は、その画像上の位置が対応することになる。
 学習用設計データ画像401と学習用撮影画像402からなる学習用データセットと、検査用設計データ画像405と検査用撮影画像406からなる学習用データセットは、検査の事前に、図10に示した前処理部1003で設計データ画像と撮影画像の位置合わせ及び画像サイズの調整を実施することが望ましい。
 図12は、GUI1200による欠陥検出結果表示の一例である。
 GUI1200は、設計データ画像1201、検査対象画像1202、欠陥画像1203、オーバーレイ画像1204、閾値画像1208、輝度値分布画像1209、操作パネル1211、検査設定パネル1212、検査情報1213を表示する。この例では、1枚の撮影画像に対する欠陥検出結果を1画面に表示している。
 欠陥画像1203は、設計データ画像1201と検査対象画像1202を用いて検出された欠陥領域とそれ以外の領域とを色分けした画像である。
オーバーレイ画像1204は、検査対象画像1202と欠陥画像1203を重ね合わせた画像である。オーバーレイ画像1204上には、欠陥領域1205、1206が線で囲まれて表示される。欠陥領域1205、1206は、欠陥と判定された画素の座標に基づいて一つもしくは複数の欠陥領域として決定される。
 閾値画像1208は、閾値範囲決定処理S304で決定した各画素の閾値範囲を画像化したものである。この画像は、閾値範囲の大きさに基づき2値化画像にしてもよいし、ヒートマップ画像にしてもよい。
 オーバーレイ画像1204上の注目位置1207は、輝度値分布画像1209に表示している画素の位置を表している。注目位置1207は、オーバーレイ画像1204上でユーザーがマウスなどを用いてその位置を指定する。
輝度値分布画像1209には、輝度値分布だけでなく、閾値範囲1210を表示させてもよい。
 操作パネル1211は、表示する画像の倍率や位置などを変更できる。
 検査設定パネル1212では、閾値範囲決定処理S304に必要なパラメータや、欠陥領域1205、1206を決定するために必要なパラメータなどをキーボード入力もしくはプルダウンなどで指定する。
 検査情報1213は、欠陥領域1205、1206の中心座標値や、注目位置1207の座標値などを表示する。
 SEMのレシピに関する実施例を述べる。レシピには、設計データなどを検査のために登録することができる。欠陥検出処理やプロセス評価処理の例によっては、モデル作成処理S100で作成したモデルデータを登録したり、プロセス評価処理S200で生成した統計画像を登録したりすることができる。
 なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
 本実施例によれば、試料の設計データ等の基準画像及び撮影画像の対応関係に基づいて、設計データ画像から試料の正常な範囲の形状変形を統計量として推定することができる。
 例えば、検査の事前に取得した半導体回路の設計データ画像及び回路パターンを撮影した画像の対応関係に基づいて、設計データ画像から検査対象の回路パターン(検査対象パターン)における正常な範囲の形状変形を推定することができるので、設計データ画像と検査対象パターンとの比較検査で両者の形状乖離に対する虚報を多発させることなく、欠陥部位のみを検出することができる。また、設計データ画像から正常な範囲の形状変形を直接推定するため、複数のシミュレーション画像を合成する場合に比べて、処理時間を短縮できる。また、本実施例の1つの効果として、設計データと撮影データの画質差を考慮したモデル生成が可能になることが挙げられる。
 なお、本実施例は、検査対象の試料として半導体以外にも適用可能である。また、画像以外の入力データ(レーダでの形状測定)を用いることや欠陥検査を含む検査以外の計測へも適用可能である。
 また、本実施例の効果の一例として、検査の事前に取得した試料の設計データ画像及び試料の撮影画像の対応関係に基づいて、設計データ画像から検査対象の試料の正常な範囲の形状ばらつきを推定することができるので、設計データ画像と試料との比較検査で両者の形状乖離に対する虚報を多発させることなく、欠陥部位のみを検出することができる。また、設計データ画像から正常な範囲の形状ばらつきを直接推定するため、複数のシミュレーション画像を生成し、検査対象の撮影画像と総当たりで比較する場合に比べて、処理時間を短縮できる。
S100…モデル作成処理、S200…プロセス評価処理、S300…欠陥検出処理、501…設計データ画像、502…撮影画像、503…統計画像、701…輝度値分布、702…閾値範囲、1100…プロセス評価結果表示のGUI、1200…欠陥検出結果表示のGUI

Claims (18)

  1.  試料の基準データと前記試料に関する入力データを用いて当該試料に対する検査を行うための画像処理プログラムにおいて、
     前記基準データを受け付けるステップと、
     前記基準データに基づき前記試料に関する特徴量を算出するステップと、
     前記特徴量に基づいて、当該入力データがとり得る値の確率分布を示す統計量を算出するステップを実行させることを特徴とする画像処理プログラム。
  2.  請求項1に記載の画像処理プログラムにおいて、
     さらに、
     前記特徴量を算出するためのパラメータ及び前記統計量を算出するためのパラメータに対する学習の必要性を判断するステップを実行させ、
     前記学習が必要と判断した場合、前記入力データを受け付けるステップと、前記統計量と前記入力データを比較するステップと、前記比較の結果に応じて、前記特徴量を算出するためのパラメータ及び前記統計量を算出するパラメータを変更するステップとを実行させ、
     前記学習が不要と判断した場合、前記特徴量を算出するためのパラメータ及び前記統計量を算出するためのパラメータをモデルデータとして保存するステップを実行させることを特徴とする画像処理プログラム。
  3.  請求項1に記載の画像処理プログラムにおいて、
     さらに、
     前記入力データを受け付けるステップと、
     前記統計量と前記入力データを比較するステップと、
     前記比較の結果を用いて、前記試料の評価を行うステップを実行させることを特徴とする画像処理プログラム。
  4.  請求項3に記載の画像処理プログラムにおいて、
     前記試料の評価は前記試料に対する欠陥検査、またはプロセス変動に伴う前記試料の形状ばらつき評価であることを特徴とする画像処理プログラム。
  5.  請求項1乃至4のいずれかに記載の画像処理プログラムにおいて、
     前記入力データを示す値は、前記試料の形状または物性を示す値であることを特徴とする画像処理プログラム。
  6.  請求項3または4に記載の画像処理プログラムにおいて、
     さらに、前記統計量、または前記評価の結果を表示するステップを実行させることを特徴とする画像処理プログラム。
  7.  試料の基準データと前記試料に関する入力データを用いて当該試料に対する検査を行うための画像処理装置において、
     前記基準データを受け付ける手段と、
     前記基準データに基づき前記試料に関する特徴量を算出する手段と、
     前記特徴量に基づいて、当該入力データがとり得る値の確率分布を示す統計量を算出する手段とを有することを特徴とする画像処理装置。
  8.  請求項7に記載の画像処理装置において、
     さらに、
     前記特徴量を算出するためのパラメータ及び前記統計量を算出するためのパラメータに対する学習の必要性を判断する手段と、前記入力データを受け付ける手段と、前記統計量と前記入力データを比較する手段と、前記特徴量を算出するためのパラメータ及び前記統計量を算出するパラメータを変更及び保存する手段を有し、
     前記学習が必要と判断した場合、前記比較する手段が、前記統計量と前記入力データを比較し、前記パラメータを変更する手段が、前記特徴量を算出するためのパラメータ及び前記統計量を算出するパラメータを変更し、
     前記学習が不要と判断した場合、前記パラメータを保存する手段が、前記特徴量を算出するためのパラメータ及び前記統計量を算出するためのパラメータをモデルデータとして保存することを特徴とする画像処理装置。
  9.  請求項8に記載の画像処理装置において、
     さらに、
     前記入力データを受け付ける手段と、
     前記統計量と前記入力データを比較する手段と、
     前記比較の結果を用いて、前記試料の評価を行う手段を有することを特徴とする画像処理装置。
  10.  請求項9に記載の画像処理装置において、
     前記試料の評価は前記試料に対する欠陥検査、またはプロセス変動に伴う前記試料の形状ばらつき評価であることを特徴とする画像処理装置。
  11.  請求項7乃至10のいずれかに記載の画像処理装置において、
     前記入力データを示す値は、前記試料の形状または物性を示す値であることを特徴とする画像処理装置。
  12.  請求項9または10に記載の画像処理装置において、
     さらに、前記統計量、または前記評価の結果を表示する手段を有することを特徴とする画像処理装置。
  13.  試料の基準データと前記試料に関する入力データを用いて当該試料に対する検査を行うための画像処理方法において、
     前記基準データを受け付けるステップと、
     前記基準データに基づき前記試料に関する特徴量を算出するステップと、
     前記特徴量に基づいて、当該入力データがとり得る値の確率分布を示す統計量を算出するステップとを有することを特徴とする画像処理方法。
  14.  請求項13に記載の画像処理方法において、
     さらに、
     前記特徴量を算出するためのパラメータ及び前記統計量を算出するためのパラメータに対する学習の必要性を判断するステップと、
     前記学習が必要と判断した場合、前記入力データを受け付けるステップと、前記統計量と前記入力データを比較するステップと、前記比較の結果に応じて、前記特徴量を算出するためのパラメータ及び前記統計量を算出するパラメータを変更するステップと、
    前記学習が不要と判断した場合、前記特徴量を算出するためのパラメータ及び前記統計量を算出するためのパラメータをモデルデータとして保存するステップを有することを特徴とする画像処理方法。
  15.  請求項13に記載の画像処理方法において、
     さらに、
     前記入力データを受け付けるステップと、
     前記統計量と前記入力データを比較するステップと、
     前記比較の結果を用いて、前記試料の評価を行うステップを有することを特徴とする画像処理方法。
  16.  請求項15に記載の画像処理方法において、
     前記試料の評価は前記試料に対する欠陥検査、またはプロセス変動に伴う前記試料の形状ばらつき評価であることを特徴とする画像処理方法。
  17.  請求項13乃至16のいずれかに記載の画像処理方法において、
     前記入力データを示す値は、前記試料の形状または物性を示す値であることを特徴とする画像処理方法。
  18.  請求項15または16に記載の画像処理方法において、
     さらに、前記統計量、または前記評価の結果を表示するステップを有することを特徴とする画像処理方法。
PCT/JP2019/023447 2019-06-13 2019-06-13 画像処理プログラム、画像処理装置および画像処理方法 WO2020250373A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
US17/596,025 US20220318975A1 (en) 2019-06-13 2019-06-13 Image Processing Program, Image Processing Device, and Image Processing Method
KR1020217038957A KR20220002572A (ko) 2019-06-13 2019-06-13 화상 처리 프로그램, 화상 처리 장치 및 화상 처리 방법
JP2021525501A JP7162134B2 (ja) 2019-06-13 2019-06-13 画像処理プログラム、画像処理装置および画像処理方法
PCT/JP2019/023447 WO2020250373A1 (ja) 2019-06-13 2019-06-13 画像処理プログラム、画像処理装置および画像処理方法
CN201980097253.6A CN113994368A (zh) 2019-06-13 2019-06-13 图像处理程序、图像处理装置以及图像处理方法
TW112115907A TW202333106A (zh) 2019-06-13 2020-04-01 圖像處理程式、圖像處理裝置及圖像處理方法
TW109111264A TWI813871B (zh) 2019-06-13 2020-04-01 圖像處理程式、圖像處理裝置及圖像處理方法
JP2022165935A JP7427744B2 (ja) 2019-06-13 2022-10-17 画像処理プログラム、画像処理装置、画像処理方法および欠陥検出システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/023447 WO2020250373A1 (ja) 2019-06-13 2019-06-13 画像処理プログラム、画像処理装置および画像処理方法

Publications (1)

Publication Number Publication Date
WO2020250373A1 true WO2020250373A1 (ja) 2020-12-17

Family

ID=73781712

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/023447 WO2020250373A1 (ja) 2019-06-13 2019-06-13 画像処理プログラム、画像処理装置および画像処理方法

Country Status (6)

Country Link
US (1) US20220318975A1 (ja)
JP (2) JP7162134B2 (ja)
KR (1) KR20220002572A (ja)
CN (1) CN113994368A (ja)
TW (2) TWI813871B (ja)
WO (1) WO2020250373A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114841912A (zh) * 2021-01-14 2022-08-02 应用材料以色列公司 基于参考图像来确定样本中的缺陷和/或边缘粗糙度
WO2023127081A1 (ja) * 2021-12-28 2023-07-06 株式会社日立ハイテク 画像検査装置、画像処理方法
KR20230171378A (ko) 2022-06-13 2023-12-20 주식회사 히타치하이테크 결함 검사 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010151655A (ja) * 2008-12-25 2010-07-08 Hitachi High-Technologies Corp 欠陥検査方法及びその装置
US20170148226A1 (en) * 2015-11-19 2017-05-25 Kla-Tencor Corporation Generating simulated images from design information

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5622398B2 (ja) 2010-01-05 2014-11-12 株式会社日立ハイテクノロジーズ Semを用いた欠陥検査方法及び装置
US9390490B2 (en) 2010-01-05 2016-07-12 Hitachi High-Technologies Corporation Method and device for testing defect using SEM
US10181185B2 (en) * 2016-01-11 2019-01-15 Kla-Tencor Corp. Image based specimen process control
WO2017194281A1 (en) * 2016-05-12 2017-11-16 Asml Netherlands B.V. Identification of hot spots or defects by machine learning
KR102194154B1 (ko) * 2016-09-01 2020-12-22 주식회사 히타치하이테크 패턴 계측 장치
JP6759034B2 (ja) 2016-09-29 2020-09-23 株式会社日立ハイテク パターン評価装置及びコンピュータープログラム
US10809635B2 (en) * 2017-11-20 2020-10-20 Taiwan Semiconductor Manufacturing Company, Ltd. Defect inspection method and defect inspection system
US10713769B2 (en) * 2018-06-05 2020-07-14 Kla-Tencor Corp. Active learning for defect classifier training

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010151655A (ja) * 2008-12-25 2010-07-08 Hitachi High-Technologies Corp 欠陥検査方法及びその装置
US20170148226A1 (en) * 2015-11-19 2017-05-25 Kla-Tencor Corporation Generating simulated images from design information

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114841912A (zh) * 2021-01-14 2022-08-02 应用材料以色列公司 基于参考图像来确定样本中的缺陷和/或边缘粗糙度
WO2023127081A1 (ja) * 2021-12-28 2023-07-06 株式会社日立ハイテク 画像検査装置、画像処理方法
TWI827393B (zh) * 2021-12-28 2023-12-21 日商日立全球先端科技股份有限公司 圖像檢查裝置,圖像處理方法
KR20230171378A (ko) 2022-06-13 2023-12-20 주식회사 히타치하이테크 결함 검사 장치

Also Published As

Publication number Publication date
JP7427744B2 (ja) 2024-02-05
TW202046246A (zh) 2020-12-16
KR20220002572A (ko) 2022-01-06
JP7162134B2 (ja) 2022-10-27
JPWO2020250373A1 (ja) 2020-12-17
TW202333106A (zh) 2023-08-16
CN113994368A (zh) 2022-01-28
TWI813871B (zh) 2023-09-01
US20220318975A1 (en) 2022-10-06
JP2023002652A (ja) 2023-01-10

Similar Documents

Publication Publication Date Title
US10937146B2 (en) Image evaluation method and image evaluation device
JP7399235B2 (ja) パターン検査システム
JP5081590B2 (ja) 欠陥観察分類方法及びその装置
JP7427744B2 (ja) 画像処理プログラム、画像処理装置、画像処理方法および欠陥検出システム
JP5604067B2 (ja) マッチング用テンプレートの作成方法、及びテンプレート作成装置
US20130271595A1 (en) Circuit pattern inspecting device and inspecting method thereof
US20130070078A1 (en) Method and device for testing defect using sem
US20120290990A1 (en) Pattern Measuring Condition Setting Device
TWI567789B (zh) A pattern measuring condition setting means, and a pattern measuring means
JP5286337B2 (ja) 半導体製造装置の管理装置、及びコンピュータプログラム
TWI777612B (zh) 影像處理方法、形狀檢查方法、影像處理系統及形狀檢查系統
US10558127B2 (en) Exposure condition evaluation device
US7834316B2 (en) Method for adjusting imaging magnification and charged particle beam apparatus
KR20230153453A (ko) 결함을 검출하는 시스템 및 컴퓨터 가독 매체
TW202418220A (zh) 圖像處理程式、圖像處理裝置、圖像處理方法及缺陷檢測系統
KR102680501B1 (ko) 화상 평가 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19932251

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021525501

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20217038957

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19932251

Country of ref document: EP

Kind code of ref document: A1