WO2020166076A1 - 構造推定システム、構造推定プログラム - Google Patents

構造推定システム、構造推定プログラム Download PDF

Info

Publication number
WO2020166076A1
WO2020166076A1 PCT/JP2019/005648 JP2019005648W WO2020166076A1 WO 2020166076 A1 WO2020166076 A1 WO 2020166076A1 JP 2019005648 W JP2019005648 W JP 2019005648W WO 2020166076 A1 WO2020166076 A1 WO 2020166076A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
learning
layer
image
computer system
Prior art date
Application number
PCT/JP2019/005648
Other languages
English (en)
French (fr)
Inventor
福田 宗行
康隆 豊田
竜 弓場
ショヨウ トウ
歩未 土肥
田中 潤一
Original Assignee
株式会社日立ハイテク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立ハイテク filed Critical 株式会社日立ハイテク
Priority to KR1020217009837A priority Critical patent/KR102592253B1/ko
Priority to PCT/JP2019/005648 priority patent/WO2020166076A1/ja
Priority to KR1020237035550A priority patent/KR20230148862A/ko
Priority to US17/296,421 priority patent/US20220130027A1/en
Priority to TW111141062A priority patent/TWI830467B/zh
Priority to TW110136681A priority patent/TWI785824B/zh
Priority to TW109103331A priority patent/TWI744786B/zh
Publication of WO2020166076A1 publication Critical patent/WO2020166076A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/06Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and measuring the absorption
    • G01N23/18Investigating the presence of flaws defects or foreign matter
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/22Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material
    • G01N23/225Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/0078Testing material properties on manufactured objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/40Imaging
    • G01N2223/418Imaging electron microscope
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/60Specific applications or type of materials
    • G01N2223/611Specific applications or type of materials patterned objects; electronic devices
    • G01N2223/6116Specific applications or type of materials patterned objects; electronic devices semiconductor wafer
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/60Specific applications or type of materials
    • G01N2223/652Specific applications or type of materials impurities, foreign matter, trace amounts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/245Detection characterised by the variable being measured
    • H01J2237/24571Measurements of non-electric or non-magnetic variables
    • H01J2237/24578Spatial variables, e.g. position, distance
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/26Electron or ion microscopes
    • H01J2237/28Scanning microscopes
    • H01J2237/2813Scanning microscopes characterised by the application
    • H01J2237/2814Measurement of surface topography
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/26Electron or ion microscopes
    • H01J2237/28Scanning microscopes
    • H01J2237/2813Scanning microscopes characterised by the application
    • H01J2237/2817Pattern inspection
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • H01L22/10Measuring as part of the manufacturing process
    • H01L22/12Measuring as part of the manufacturing process for structural parameters, e.g. thickness, line width, refractive index, temperature, warp, bond strength, defects, optical inspection, electrical measurement of structural dimensions, metallurgic measurement of diffusions

Definitions

  • the present disclosure relates to a system and a program for estimating the structure of a sample or a foreign substance on the sample.
  • Patent Document 1 A method is known in which the height of the pattern on the sample is measured based on the signal waveform obtained by scanning the sample with an electron beam.
  • Patent Document 1 a library for preliminarily storing a cross-sectional shape information of a pattern obtained by an AFM (Atomic Force Microscope) and a signal waveform obtained by scanning an electron beam is prepared in advance. Then, a method of estimating the cross-sectional shape of the pattern is disclosed by referring to the library using the signal waveform obtained by the beam scanning.
  • AFM Anamic Force Microscope
  • the semiconductor device With the recent multi-layering of semiconductor devices, it may be necessary to evaluate three-dimensional information such as the height of foreign matter adhering to the semiconductor device. This is because foreign matter attached to the sample may affect the subsequent manufacturing process. Especially, since the degree of influence on the subsequent process changes depending on the height of the foreign matter, it is desirable to grasp the degree of influence in advance by quantitatively evaluating the height of the foreign matter.
  • a height measuring device there is a device such as a cross-sectional SEM (scanning electron microscope) or AFM as in the above-mentioned Patent Document 1, but it is expensive to measure the height of each foreign substance using an AFM or the like. It is not practical in semiconductor measurement that requires throughput.
  • Patent Document 1 By preparing a library in advance as disclosed in Patent Document 1, it may be possible to suppress the trouble of AFM measurement for each foreign substance. However, unlike a pattern formed on a semiconductor device, there are various shapes and compositions of foreign matter that are unintentionally attached to a wafer, and it is difficult to create a library as disclosed in Patent Document 1. .. Further, it is conceivable that even a structure such as a semiconductor pattern will be required to measure height more easily and with high accuracy.
  • the present disclosure provides a structure estimation system and a program capable of estimating three-dimensional information of a target object having various shapes such as a foreign substance and more accurate three-dimensional information of other structures.
  • the structure estimation system includes a learning device that outputs an estimation result of a structure on a sample, a foreign substance on the structure, an influence of the foreign substance on another layer on the structure, and the like.
  • the learning device inputs data obtained from the charged particle beam apparatus or the characteristics of the data, and performs learning in advance with teacher data that outputs the estimation result.
  • the structure estimation system obtains the estimation result by inputting data obtained from the charged particle beam device or characteristics of the data to the learning device.
  • the structure estimation system it is possible to estimate highly accurate three-dimensional information such as a three-dimensional structure, a foreign substance, and the influence of the foreign substance.
  • FIG. 5 is a flowchart illustrating an outline of a structure estimation method according to the first embodiment.
  • 1 is a diagram showing an example of a computer system 202 according to a first embodiment. It is a figure which shows an example of the depth (height) measurement system 300. It is a figure which shows the structural example of the discriminator 201. It is a figure showing an example of GUI screen 501 for generating a learning model.
  • 7 is a schematic configuration diagram of an image pickup unit 301 according to the second embodiment.
  • FIG. 7 is a diagram showing a configuration example of a discriminator 201 in Embodiment 2.
  • FIG. FIG. 9 is a configuration diagram of a computer system 202 according to the second embodiment.
  • FIG. 20 is a configuration diagram of a computer system 202 according to a ninth embodiment.
  • FIG. 20 is a configuration diagram of a computer system 202 according to a ninth embodiment.
  • FIG. 28 is a diagram showing an example of a GUI screen for optimizing a learning model in the ninth embodiment. It is a figure which shows an example of the computer system 202 containing the module (identifier 201) containing the above estimation model. 21 is a flowchart illustrating a learning process according to the tenth embodiment.
  • FIG. 1 is a flowchart illustrating an outline of a structure estimation method according to the first embodiment of the present disclosure.
  • a structure in the case of a semiconductor wafer, a convex pattern such as a line or a pillar, a hole, etc.
  • a concave pattern such as a trench
  • the height or depth of a foreign substance or the like placed on the sample.
  • Data is acquired from the charged particle beam device (S101), a learning model corresponding to the acquired data or a feature amount extracted from the data is read (S102), and the above-mentioned data or feature amount is added to the read learning model.
  • S103 information about the height or depth of the structure or foreign matter is output (S104).
  • FIG. 2 is a diagram showing an example of the computer system 202 according to the first embodiment.
  • the computer system 202 estimates the height of the structure or foreign matter on the sample by inputting the observed image of the sample to the learning model.
  • the learning data of the learning model uses an image generated by an image generation device such as an electron microscope or a feature amount extracted from the image as an input, and the height of a structure or a foreign substance on the sample as an output.
  • the computer system 202 includes a discriminator 201, a length measurement value/area value calculation unit 203, a brightness evaluation unit 204, a height calculation unit 205, and an input/output device 206.
  • the SEM image 200 is an observation image of the sample acquired by the charged particle beam device.
  • the length measurement value/area value calculation unit 203 acquires the dimension value and the area value of the sample from the SEM image 200.
  • the brightness evaluation unit 204 acquires the brightness value of the SEM image 200.
  • the input/output device 206 is a device for the user to input information about the material of the sample (which will be described later in FIG. 4 again).
  • the height calculator 205 inputs the luminance value/dimension value/area value/sample information to the discriminator 201 to estimate information about the height or depth of the structure or foreign matter on the sample.
  • the discriminator 201 one that has been subjected to learning processing using teacher data so as to output an observation image of a sample and a depth level corresponding to a feature amount extracted from the observation image is used.
  • an arbitrary learning device such as a neural network, a regression tree, or a Bayes discriminator can be used.
  • the learned model data can be stored in the storage unit 305 described later.
  • FIG. 3 is a diagram showing an example of a depth (height) measurement system 300.
  • the depth measurement system 300 includes an imaging unit 301, a computer system 202, a signal processing unit 303, an input/output unit 304, and a storage unit 305.
  • the computer system 202 controls the following optical system included in the imaging unit 301 in addition to performing the depth estimation described in FIG. 2.
  • the imaging unit 301 includes an electron gun 306 that irradiates the electron beam 307, a focusing lens 308 that focuses the electron beam 307, and a focusing lens 309 that further focuses the electron beam 307 that has passed through the focusing lens 308.
  • the image pickup unit 301 further includes a deflector 310 that deflects the electron beam 307, and an objective lens 311 that controls the height at which the electron beam 307 is focused.
  • the electron beam 307 that has passed through the optical system of the image pickup unit 301 is applied to the sample 312 placed on the sample stage 313.
  • Emitted electrons 314 such as secondary electrons (SE) and backscattered electrons (BSE) emitted from the sample 312 by irradiation of the electron beam 307 are the lower detector 315 installed on the orbit. It is detected by the upper detector 316.
  • the opening provided in the upper detector 316 allows the electron beam 307 to pass therethrough. By making this opening sufficiently small, it is possible to detect the secondary electrons emitted from the bottom of the deep hole or the deep groove formed on the sample 312, passing through the vicinity of the pattern center and escaping onto the sample surface.
  • the emitted electrons 314 can be discriminated in energy by energy filtering using the energy filter 317a immediately before the upper detector 316 or the energy filter 317b immediately before the lower detector 315.
  • the imaging unit 301 further deflects the electron beam 307 off the optical axis to restrict the electron beam 307 from reaching the sample 312, and the electron beam 307 deflected by the blanking deflector 318.
  • a blanking electrode 319 for receiving the light is provided.
  • the signal processing unit 303 generates the SEM image 200 based on the outputs of the lower detector 315 and the upper detector 316.
  • the signal processing unit 303 generates image data by storing a detection signal in a frame memory or the like in synchronization with scanning by a scanning deflector (not shown).
  • the detection signal is stored in the frame memory, the detection signal is stored at a position corresponding to the scanning position of the frame memory to generate a signal profile (one-dimensional information) and an SEM image (two-dimensional information).
  • the secondary electrons passing through the vicinity of the optical axis escaped from the deep hole or the like are outside the opening of the lower detector 315 (detection by the lower detector 315). Surface).
  • FIG. 4 is a diagram showing a configuration example of the discriminator 201.
  • the discriminator 201 includes, as an input layer, an input unit for inputting (a) luminance information of the bottom of the hole or trench and (b) dimensional information or area information of the hole or trench.
  • an input unit for inputting information about the material of the bottom as sample information may be provided.
  • the material information includes, for example, the type of material and the secondary electron emission efficiency ⁇ .
  • the intermediate layer is composed of a plurality of intermediate units.
  • the information input to the input layer is weighted by the coupling coefficient between each input unit and each intermediate unit, and is input to each intermediate unit.
  • the input to the intermediate unit is added to obtain the value of the intermediate unit.
  • the value of the intermediate unit is nonlinearly converted by the input/output function.
  • the output of the intermediate unit is weighted by the coupling coefficient between each intermediate unit and each output unit and input to each output unit.
  • the output values of the output layer are obtained by adding the inputs to the output unit.
  • the discriminator 201 outputs a value that can be expressed in SI units (for example, micrometers) and other parameters that indicate the degree of depth. Instead of or in addition to this, an estimation result of whether it is deeper or shallower than a certain reference value may be output.
  • SI units for example, micrometers
  • the storage unit 305 stores the optimized values as the learning result of the neural network. Similarly, when a discriminator 201 other than a neural network is used, the storage unit 305 stores the parameters optimized in the learning process. The same applies to the following embodiments.
  • the dimension information or the area information and the luminance information of the bottom portion are extracted and used as the feature amount as the input data of the discriminator 201.
  • deep learning it is also possible to automatically discover and learn the feature amount from the observed image.
  • FIG. 5 is a diagram showing an example of a GUI screen 501 for generating a learning model.
  • the user can use the GUI screen 501 to construct a learning model of the discriminator 201 (make the discriminator 201 learn).
  • the GUI screen 501 is displayed on the display device included in the input/output device 206 of FIG.
  • the user constructs a learning model by inputting the depth of the pattern that is empirically known or the height measurement result by another depth (height) measuring device as the teacher data on the GUI screen 501. You can
  • the SEM image display field 506 displays the SEM image 507 stored in a predetermined storage medium in association with the coordinates on the sample (Location) and the identifier (ID).
  • the learning model can be constructed by selecting an arbitrary image from the SEM image display field 506 and inputting necessary information from the input units 502 to 505.
  • the input unit 502 when the depth is specifically known by analysis by another analysis device, the value is input as the correct answer data of the image. By repeating this input, the learning phase of deep learning can be implemented.
  • the input unit 503 is provided with a button indicating the degree of depth. In FIG. 5, buttons representing three levels of Deep, Middle, and Shallow are illustrated.
  • the correct answer data is selected using the input unit 503.
  • the input unit 504 is provided to select a button corresponding to the depth as correct answer data when the depth information is known in more detail than the classification of the input unit 503.
  • the input unit 505 inputs and reads the address (URI or the like) of the storage medium storing the height information in order to read the height information acquired by another height measuring device and register it as correct answer data. It is provided in.
  • the read depth information is used as correct answer data of an image whose coordinates and identifier match each other, and teacher data is automatically generated together with the image data.
  • a scanning electron microscope (cross-section SEM) that generates an image obtained by scanning the exposed surface of the sample with an electron beam on the sample whose cross section is exposed by a focused ion beam or the like, or a high precision An atomic force microscope (Atomic Force Microscope) that can measure the height
  • An atomic force microscope (Atomic Force Microscope) that can measure the height
  • the degree of influence on the subsequent process changes depending on the height of the foreign matter.
  • the degree of influence on the subsequent process changes depending on the height of the foreign matter.
  • the height measuring device there are devices such as the cross-section SEM and AFM as described above, but it is practical to measure the height of each foreign substance by using the AFM or the like in the semiconductor measurement which requires high throughput. Not at all. Therefore, in the second embodiment, an example will be described in which the learning is performed using learning data in which the observed image or the feature amount of the observed image is input and the height of the foreign matter is output.
  • FIG. 6 is a schematic configuration diagram of the imaging unit 301 according to the second embodiment.
  • the same components as those in FIG. 3 are designated by the same reference numerals.
  • the configuration other than the image pickup unit 301 is the same as that of the first embodiment.
  • the optical system illustrated in FIG. 6 includes detectors 601 and 602.
  • the detectors 601 and 602 detect backscattered electrons (BSE) emitted at a relatively large elevation angle among the electrons emitted from the sample 312, based on the irradiation of the beam scanned by the deflector 310.
  • BSE backscattered electrons
  • FIG. 6 shows an example in which two detectors, left and right, are provided symmetrically with respect to the ideal optical axis 604 of the beam. Good.
  • a scanning electron microscope provided with two or four detectors as the imaging unit 301 will be described, but the number of detectors does not matter as long as a shadow image of the sample can be formed.
  • the detector is arranged in a direction orthogonal to the ideal optical axis 604. Further, the detector is arranged at a position where electrons 603 emitted from a foreign substance or the like in a direction inclined with respect to the optical axis reach by the focusing action of the objective lens 311.
  • the signal processing unit 303 can generate a shadow image of the sample by using the detection results of these detectors.
  • the image based on the output of shadow image detectors that are provided in multiple directions is an image that looks like a foreign substance from diagonally above. Therefore, more information in the height direction is included, and it can be said that the feature amount in the height direction is relatively easy to extract. Therefore, in the second embodiment, the learning model is trained by using the teacher data having the information obtained from the outputs of the detectors arranged in a plurality of directions as the input and the height information as the output. Height information is estimated by inputting information obtained from a scanning electron microscope equipped with a multi-direction detector to a learning model.
  • a beam tilt for irradiating a beam from a direction inclined with respect to the ideal optical axis 604 using a beam tilting deflector (b) a sample stage is tilted. Then, a stage tilt in which the beam is emitted from the inclined direction, or the like can be used.
  • FIG. 7 is a diagram showing a configuration example of the discriminator 201 according to the second embodiment.
  • the input to the height calculation unit 205 in the second embodiment is (a) the output of the multi-direction detector (for example, four-direction detector), (b) the image formed based on the output, and (c) the image.
  • At least one of the feature quantities extracted from FIG. 7 shows an example in which an image formed based on the outputs of the four-direction detectors is used as input data.
  • An EDX (Energy Dispersive X-ray Spectrometry) detector may be provided in the scanning electron microscope, and element information obtained by elemental analysis may also be used as input data.
  • the discriminator 201 it is not necessary to frequently perform height measurement by the cross-section SEM or AFM, and based on the information obtained by the image generation device such as the scanning electron microscope. It becomes possible to estimate the height information of the foreign matter.
  • the input of the teacher data includes at least one of (a) an output of the four-direction detector, (b) an image obtained based on the output, and (c) one or more feature amounts extracted from the image.
  • the output of the teacher data includes height information obtained from a high-accuracy height measuring device such as a cross-section SEM or AFM. A learning model is generated using this teacher data.
  • a semantic segmentation method for converting pixel-by-pixel data by a multi-stage encoder/decoder using a pooling layer and adversarial generation learning are utilized. It is possible to apply an image generation method that generates data in pixel units.
  • FIG. 8 is a configuration diagram of the computer system 202 according to the second embodiment.
  • the computer system 202 includes a synthetic image generation unit 802 and a data set generation unit 803 instead of the length measurement value/area value calculation unit 203 and the brightness evaluation unit 204 described in the first embodiment.
  • the composite image generation unit 802 generates a composite image using a background image and a foreign object image described later.
  • the data set generation unit 803 generates teacher data by using the combined image and height information 801 as a data set.
  • FIG. 9 is a flowchart showing a process of generating a learning model based on the output of the scanning electron microscope.
  • a learning model is generated based on an SEM image of a foreign substance attached on a bare wafer (wafer on which no pattern is formed) will be described.
  • a bare wafer is introduced into the scanning electron microscope (S901), and the stage is moved so that the foreign matter is positioned within the field of view of the scanning electron microscope based on the foreign matter information obtained from a higher-level device such as an optical microscope (S902). ). Then, the area including the foreign matter is scanned with the electron beam, and the SEM image 200 is generated based on the signals detected by the four-direction detector (S903). At this time, in order to increase the data amount of the learning model, multiple images with different beam processing conditions such as electron beam focus and accelerating voltage and signal processing conditions such as ABCC (Auto Brightness Control Control) are acquired for one foreign matter. I'll do it.
  • the image is stored in the storage unit 305 together with the coordinate information and the identification information attached to the foreign matter.
  • the composite image generation unit 802 generates a composite image for each different combination of a plurality of types of background images acquired in advance and the acquired foreign substance image (S904).
  • the background image is an image of a wafer on which a pattern or the like has been formed through a predetermined manufacturing process, and it is assumed that an image is acquired for each different layout.
  • the composite image is generated, the foreign matter portion is cut out from the foreign matter image on the bare wafer by image processing and is superimposed on a plurality of images prepared as background images, thereby generating the foreign matter image for each layout.
  • the data set generation unit 803 generates teacher data using the height information 801 obtained by the AFM or the cross-section SEM and the combined image generated by the combining process as a data set (S905), and stores the teacher data in the storage unit 305. It is stored (S906). According to the learning model generation method as described above, it is possible to generate a plurality of images to be used as a learning model from one foreign object image.
  • the height estimation model is data obtained by the charged particle beam apparatus or feature data extracted from the data is input, and teaching data that outputs the height of the structure of the sample or the foreign matter on the structure is output.
  • the parameters learned by using the parameters are provided in the intermediate layer.
  • the height can be estimated with high accuracy by inputting the output of the scanning electron microscope to this learning model.
  • the moving image serving as the input data may be a continuous image obtained by scanning a plurality of frames without changing conditions such as landing energy.
  • imaging conditions of the scanning electron microscope for example, magnification, landing energy, ABCC conditions, beam scanning speed, scanning method, etc.
  • semiconductor device manufacturing process conditions manufactured process identification information, Information such as manufacturing conditions in each manufacturing process
  • a pattern design data or the like
  • the height may be estimated based on, for example, selection of the learning model according to the pattern information around the foreign matter obtained from the electron microscope image. Changes in these conditions will change the image quality of the electron microscope.
  • FIG. 10 is a configuration diagram of a foreign matter height estimation system 1000 according to the third embodiment.
  • the foreign matter height estimation system 1000 includes an imaging unit 301, a high-order foreign matter inspection apparatus 1002, a storage medium that stores design data 1004, and a computer system 202.
  • the high-order foreign matter inspection apparatus 1002 detects reflected light obtained by irradiating the sample with light, and detects the coordinates of the foreign matter on the sample from the detected reflected light, like an optical inspection apparatus, for example. It is a device. It is also possible to use a device that detects the coordinates of the foreign matter by another suitable method.
  • the computer system 202 includes a computer-readable medium 1006, a processing unit 1005 that executes each module stored in the computer-readable medium 1006, and an input/output device 206.
  • the computer-readable medium 1006 stores a recipe generation module 1007, a measurement processing module 1008, a model generation module 1009, and a discriminator module 1010. These modules are software modules that are executed by the processing unit 1005 to realize the functions implemented by each module. For convenience of description, each module may be described below as an operating entity, but it is the processing unit 1005 that actually executes each module.
  • the recipe generation module 1007 automatically operates the imaging unit 301 based on the coordinate information of the foreign matter output by the upper foreign matter inspection apparatus 1002 and the measurement condition input from the input/output device 206.
  • the measurement processing module 1008 measures the size of a pattern, a foreign substance, or the like according to a predetermined measurement algorithm based on the output of the imaging unit 301.
  • the model generation module 1009 inputs the data obtained by the image pickup unit 301 (the output image of the four-direction detector described in the second embodiment), and determines the height of the foreign matter imaged by the image pickup unit 301 using AFM or the like.
  • the parameters of the intermediate layer of the model are learned by using the teacher data whose output is the height obtained as a result of the measurement.
  • the discriminator module 1010 has a discriminator 201 that estimates a height using the learning model learned by the model generation module 1009.
  • the model generation module 1009 generates a plurality of models according to the pattern state formed on the sample, and stores the plurality of models in the computer-readable medium 1003.
  • the output of the four-direction detector is greatly influenced by the pattern state formed on the sample, and in particular, the pattern density has a great influence. Therefore, in the third embodiment, a plurality of models are stored according to the pattern density.
  • the pattern density is a parameter indicating the degree of the number of patterns per unit area, the number of pattern edges per unit area, the occupied area of the pattern per unit area, or the pattern length per unit area, for example. That is, the higher the number of patterns per unit area, the higher the density.
  • the density of the pattern or another value that changes according to the density may be used.
  • the discriminator module 1010 receives an input to the discriminator 201 (input to each input unit), and outputs the output of each unit using the learning result (coupling coefficient, coefficient of input/output function, etc.) stored in the storage unit 305. calculate.
  • the output can be used as the output of the discriminator 201.
  • the discriminator 201 is mounted.
  • the discriminator 201 in the other embodiments can be implemented in the same manner.
  • FIG. 11 is a flowchart showing a process in which the foreign matter height estimation system 1000 estimates the height of a foreign matter.
  • the computer system 202 receives the coordinate information of the foreign matter detected by the upper foreign matter inspection apparatus 1002 (S1101).
  • the processing unit 1005 generates a recipe for the imaging unit 301 based on the information stored in the recipe generation module 1007 (S1102). Specifically, the control conditions of the stage such that the field of view of the imaging unit 301 is adjusted to the coordinates of the foreign matter acquired by the upper foreign matter inspection apparatus 1002, and the device conditions of the imaging unit 301 input from the input/output device 206 (beam acceleration).
  • a recipe is generated based on optical conditions such as voltage and magnification.
  • the imaging unit 301 reads the generated recipe (S1103) and executes the inspection using the inspection recipe (S1104).
  • the recipe generation module 1007 or the measurement processing module 1008 reads the design data of the portion corresponding to the received coordinates based on the received coordinate information (S1105), and the value related to the pattern density of the foreign matter coordinates (for example, unit area). The number of patterns per hit is measured or calculated (S1106).
  • the classifier module 1010 selects a model corresponding to the pattern density obtained by measurement or calculation for height estimation (S1107), and inputs the image obtained by the inspection to the selected model, Height information is output (S1108). By the procedure as illustrated in FIG. 11, the height can be estimated based on the selection of an appropriate model according to the position where the foreign matter exists.
  • the learning model may use the result of ADC (Auto Defect Classification) as input data, or prepare a model according to the result of ADC, select an appropriate model according to the result of ADC, and use the height of the model. May be estimated.
  • ADC is a defect type estimation method using image processing. The ADC classifies each cause of occurrence of a foreign substance or a defect by using classification software based on a predetermined rule. An example of using a model according to the classification result will be described below.
  • FIG. 12 is a configuration diagram of the computer system 202 that uses a model according to the ADC result.
  • the computer system 202 of FIG. 12 includes an ADC processing unit 1202 that classifies foreign particles and defects included in the SEM image 200 by reading the classification software 1201.
  • the classifier 201 includes a learning model for each classification result by the ADC processing unit 1202.
  • the height calculation unit 205 reads the model corresponding to the classification result by the ADC processing unit 1202, and outputs the height information of the foreign matter or the like included in the SEM image 200 using the model (identifier). According to the configuration of FIG.
  • the foreign matter is classified based on the features (features of the two-dimensional shape of the foreign matter) that can be determined using the two-dimensional image, and a learning model suitable for the classified foreign matter is created. Since the height can be estimated by using the height, the height can be estimated with high accuracy.
  • a semantic segmentation method for converting pixel-by-pixel data by a multi-stage encoder/decoder using a pooling layer and a pixel generation by utilizing adversarial generation learning It is possible to apply an image generation method that generates unit data.
  • FIG. 13 is a figure which shows an example of the display screen which displays the estimation result of height using a learning model, and the estimation accuracy output from a learning model together.
  • This display screen is displayed on the display device of the input/output device 206 illustrated in FIG. 10, for example.
  • the processing unit 1005 reads out necessary information from the computer-readable medium 1006 and displays the screen illustrated in FIG. The user refers to this screen and further determines whether or not to create teacher data.
  • height information (height) 1303 estimated using a learning model and estimated accuracy (accuracy) 1304 are displayed for each foreign substance to which identification information (ID) 1301 is added.
  • the coordinate information (coordinate) 1305 is the coordinates of the foreign matter.
  • the estimation accuracy is output from the learning model together with the height information by the classifier module 1010.
  • the SEM image column 1302 is provided with a link for reading the SEM image, and by selecting the link, the SEM image is read from the storage medium and displayed on the display device.
  • the estimation accuracy can be calculated by using, for example, a relative evaluation value with another estimation result candidate when the classifier 201 outputs the estimation result.
  • the accuracy may be obtained by using another suitable method. The same applies to the following embodiments.
  • the screen of FIG. 13 is provided with a column of AFM (measurement) 1306, and by selecting this column, the coordinate information 1305 of the selected foreign matter and the information of the SEM image column 1302 can be sent to the control device of the AFM. It is configured to be able to. With such a configuration, it is possible to easily set the condition of the height measuring device for obtaining the information necessary for updating the teacher data. Further, by making it possible to set a predetermined threshold value for the estimation accuracy and displaying a foreign substance that is below the threshold value separately from other foreign substances, it becomes possible to easily visually recognize the foreign substance for which the teacher data needs to be updated. ..
  • the system according to the fifth embodiment uses the data obtained based on the irradiation of the charged particle beam on the first layer or the features extracted from the data as input, and manufactures the first layer after the manufacturing process. Learning is performed using the pattern image at the position corresponding to the first position of the second layer manufactured in the process and the teacher data that outputs the characteristics. By inputting the image data at the first position or the feature extracted from the data to the learning model, the image and the feature at the position corresponding to the first position of the second layer are output.
  • FIG. 14 is a flowchart showing a process of generating a learning model of the discriminator 201 according to the fifth embodiment.
  • a system configuration such as that shown in FIG. 10 can be used.
  • the coordinates (first position) of the foreign matter deposited on the semiconductor wafer generated in the manufacturing process of the first layer is specified by using the upper foreign matter inspection apparatus 1002 illustrated in FIG. 10 (S1401).
  • the semiconductor wafer is introduced into the image pickup unit 301, and the foreign matter attached to the first position is measured or inspected using the image pickup unit 301 (S1402).
  • AFM may be used as the measurement tool.
  • the imaging unit 301 based on the coordinate information specified by the high-order foreign matter inspection apparatus 1002, at least the sample stage 313 (see FIG.
  • the image data obtained by the inspection measurement and the feature amount extracted from the image data are acquired (S1403). This data and features are input data for a learning model described later.
  • the image data used in FIG. 14 is preferably an image generated based on the outputs of the shadow image detectors arranged in a plurality of directions described in the second embodiment. It may be an electronic image, an image obtained by scanning with a tilt beam, or a continuous image (moving image).
  • the characteristics include the size and size of the foreign matter, the size of the luminance region indicating the edge portion of the foreign matter, the aspect ratio, the type of foreign matter shape, and the material (identified using an EDX detector).
  • the measurement of the first position of the second layer is performed by scanning the electron beam of the first position of the second layer or the probe of the AFM.
  • the inspection is executed (S1404).
  • the imaging unit 301 and the AFM can move the field of view by using the coordinate information of the first position acquired by the high-order foreign matter inspection device 1002.
  • the computer system 202 acquires characteristics such as image data or a pattern extracted from the image based on the signal acquired by the imaging unit 301 or the like (S1405).
  • the characteristics acquired in S1404 are the dimensional value (CD value) of the pattern formed on the second layer of the semiconductor wafer, the shape, the deformation amount of the shape, the degree of deviation of the edge position from the design data, and the abnormality of these characteristics (for example, It may be one or more parameters that evaluate the performance of the pattern, such as the size of a region indicating that a deformation equal to or greater than a predetermined threshold is recognized), or sample surface information such as height information obtained by AFM. It may be.
  • FIG. 15 is a diagram showing a foreign substance placed on the first layer pushing up the second layer.
  • the data including the features and images of the surrounding area is used as the output data of the neural network in order to properly evaluate the influence of the foreign matter. It is desirable to do. Therefore, the image data and the characteristics acquired on the second layer should have characteristics of a region wider than the size of the foreign matter so that the index value of the influence of the foreign matter on the first layer on the second layer can be output from the neural network. It is desirable to extract.
  • a semantic segmentation method of converting pixel-by-pixel data by a multistage encoder/decoder using a pooling layer and an adversarial generation learning It is possible to apply an image generation method that utilizes this to generate pixel-based data.
  • FIG. 16 is a flowchart showing a process of estimating sample information using the learning model generated as described above.
  • the semiconductor wafer on which the first layer is formed is introduced into the upper foreign matter inspection apparatus 1002, and the coordinate information of the foreign matter is acquired (S1601).
  • the sample stage or the like in the imaging unit 301 is driven so that the coordinates are irradiated with the electron beam, and the measurement or inspection of the foreign matter is executed (S1602).
  • the computer system 202 refers to the design data 1004 based on the acquired coordinate information, acquires the layout information of the second layer corresponding to the coordinate information, and stores it according to the type of the layout.
  • a model is selected (S1603). As described above, the influence of foreign matter on other layers changes depending on the pattern density and layout type.Therefore, prepare multiple models according to the layout, pattern density, etc., according to the foreign matter coordinates. Choose the right model.
  • the computer system 202 outputs the estimation information of the second layer corresponding to the coordinate information by inputting at least one of the image data and the feature for the selected model (S1604, S1605).
  • FIG. 17 is a diagram showing a display example of output data (estimation information).
  • the input/output device 206 can display this screen.
  • an example is shown in which the electron microscope image of the foreign matter on the first layer obtained by the imaging unit 301 and the estimation result of the influence of the foreign matter on the second layer are superimposed.
  • FIG. 17 shows an example in which the deformation rate of the actual pattern with respect to the reference pattern and the estimation accuracy are displayed by being superimposed on the foreign matter image.
  • the deformation rate can be obtained, for example, from the difference between the pattern edge included in the electron microscope image of the pattern formed on the foreign substance after the second layer is formed, and the edge of the design data.
  • the learning model is preliminarily learned using the teacher data that outputs this value.
  • FIG. 17 shows an example in which the left half of the foreign matter is subjected to the pattern information estimation using the learning model X, and the right half is subjected to the pattern information estimation using the learning model Y.
  • the influence of the foreign matter on the respective pattern areas is considered to be different. It is possible to appropriately evaluate the influence of the foreign matter on the second layer by performing the estimation using the appropriate model according to the estimation.
  • FIG. 18 is a diagram showing a display example when the defect rate (Defect rate) is output from the learning model.
  • the defect is, for example, a disconnection or a short circuit of the wiring, and when the learning model is generated, it is learned by using the teacher data which outputs the defect inspection result on the second layer.
  • FIG. 18 shows an example in which the defect rate is estimated for one foreign substance using a plurality of models and the result is displayed. When a plurality of different layouts are superimposed on one foreign matter, such a display makes it possible to understand the possibility that one foreign matter may cause a defect in another layer.
  • FIG. 19 is a diagram showing a display example of the foreign matter height estimation result.
  • the height of each part of the foreign matter and its accuracy are output by the neural network.
  • the low-accuracy region is also equivalent to the high-accuracy region. It can be assumed to be height.
  • the height of the foreign matter can be learned by the method described in the above embodiments.
  • FIG. 20 is a diagram showing an example of a method for estimating the height of an area with low estimation accuracy based on the height information of the area with high estimation accuracy.
  • the shaded areas indicate areas with low estimation accuracy, and the other areas indicate areas with relatively high estimation accuracy.
  • the result of estimation by interpolation or extrapolation is the same as or similar to the original estimation result and the result of estimation by interpolation or the like (for example, error rate n% or less)
  • learning is performed to increase the estimation accuracy.
  • the model can be updated so as to improve the estimation accuracy without actually performing remeasurement using the AFM or the like.
  • a method of updating a learning model for estimating a height from an output obtained by a charged particle beam apparatus including a shadow image detector as illustrated in FIG. 6 will be described. Specifically, a method of switching the model updating method according to the output of the shadow image detector will be described.
  • the system configuration for example, the one described in the second embodiment can be used.
  • FIG. 21 is a diagram showing a procedure for updating the learning model of the discriminator 201.
  • a scanning electron microscope provided with two detectors, a left detector and a right detector, will be described as an example, but three or more detectors are provided. Application of a charged particle beam device is also possible.
  • the image generated based on the output of the left detector and the image generated based on the output of the right detector have different appearances.
  • an image generated based on the output of the left detector is emitted from a foreign substance to the right side of the paper surface and is generated based on detection of electrons deflected by the focusing action of the objective lens, so that the right edge is emphasized (high The image becomes a brightness-enhanced image (a1).
  • the image generated based on the output of the right side detector is the reverse of that of the left side detector and is an image in which the left side edge is emphasized (a2). Further, it is considered that the higher the height of the foreign matter, the larger the high brightness region.
  • the difference between the plurality of detectors is obtained (b), and when the difference exceeds a predetermined value, the coordinate information of the foreign matter is sent to the AFM, and the height measurement by the AFM is performed (c1). .
  • the AFM such as the inter-region interpolation is not used, and the data of the portion with low estimation accuracy is updated based on the feature extraction of the estimation result.
  • the learning model can be updated efficiently.
  • FIG. 22 is a flowchart showing a learning model generation process for determining whether height estimation is possible from image data or features obtained by the charged particle beam device.
  • image data and characteristics obtained by the charged particle beam device are input (S2201).
  • the height is estimated by the discriminator (S2202).
  • the height is measured using the AFM (S2203).
  • the estimated value and the height measurement value by AFM are compared (S2204).
  • the part is determined to be a part where height estimation is difficult (S2205).
  • a height estimation non-determination model that outputs an estimation result indicating that the height is estimated is generated by machine learning.
  • This model extracts an area in the image where height estimation is difficult and an area that can be estimated when the input is image data, and if the input is characteristic information, the feature can be used to estimate the height. Output.
  • this model it becomes possible to judge whether it is possible to estimate or actually measure by analyzing the input data. It is also possible to improve the accuracy of height estimation by carrying out additional learning for height estimation using the data of this height estimation NG portion.
  • FIG. 23 is a flowchart showing a process of utilizing the height estimation propriety determination model described in FIG. 22 to determine the height estimation propriety from the output of the charged particle beam device, and actually measuring the NG part with the AFM.
  • image data and characteristic information by the charged particle beam device are input (S2301).
  • the height estimation availability determination model is utilized to determine the height estimation availability (S2302). If the height cannot be estimated, the height is measured by the AFM (S2303).
  • FIG. 24 is a diagram showing an example of a computer system that performs defect classification using a shadow image as input data.
  • the discriminator 201 performs learning in advance using teacher data that receives the SEM image 200 (shadow image) as input and outputs height information 801 (AFM measurement result) and defect type information 2401.
  • the discriminator 201 is used to classify defects or foreign substances.
  • the estimation result not only the type of the defect (opening, short circuit, foreign matter, shape of foreign matter, etc.) but also its height information can be output, so that the influence of the defect on the next process can be estimated, for example. It becomes possible.
  • FIG. 25 is a configuration diagram of the computer system 202 according to the ninth embodiment.
  • the system illustrated in FIG. 25 includes discriminators 201 and 2502.
  • the discriminator 201 performs learning by using the height information 801 of the foreign matter obtained by AFM or the like and the data set of the SEM image 200 generated based on the output of the shadow image detector as teacher data.
  • the discriminator 2502 performs learning by using the height information estimated by the height calculator 205, an image generated based on the output of the shadow image detector, and the defect type information 2401 as teacher data. ..
  • the upper layer defect classification unit 2501 performs defect classification using the discriminator 2502.
  • the upper layer defect classification unit 2501 receives the two-dimensional characteristics of the foreign matter included in the SEM image 200 of the lower layer (first layer) and the estimated height information (three-dimensional information) as an input, and then inputs the upper layer (second layer). Estimate the defect type of the pattern formed on. According to the system including the discriminator 2502, it is possible to perform appropriate classification according to the characteristics of the defect. In order to learn the discriminator 2502, an SEM image such as a lower layer foreign matter image and an SEM image at an upper layer position corresponding to the lower layer foreign matter coordinates are acquired, and these SEM images or features extracted from the images (defects The discriminator 2502 is trained by using (seed etc.) as a data set.
  • FIG. 26 is a diagram showing an example of a GUI screen for optimizing the learning model in the ninth embodiment.
  • the GUI screen 2601 has a left column 2605 and a right column 2608.
  • a plurality of thumbnails 2604 including the SEM image 2602 of the lower layer foreign matter which is the input of the data set and the SEM image 2603 of the upper layer at the same position as the foreign matter coordinates are displayed.
  • the right column 2608 is provided with input columns 2606 and 2607 for each defect type.
  • the operator looks at the SEM image 2603 in the upper layer to determine the type of defect (in the SEM image 2603, the line patterns are short-circuited), and inputs the corresponding defect type in the right column 2608 using a pointing device or the like.
  • the learning data can be updated by moving the thumbnail 2604 to the column.
  • the data set generation unit 803 generates a data set in which the lower layer SEM image 2602 included in the thumbnail 2604 or the feature extracted from the SEM image is input, and the defect type in the input field in which the thumbnail 2604 is input is output. To do.
  • This data set is used as teacher data for the discriminator 2502. With such a configuration, it is possible to identify the defect type of the upper layer from the foreign substance image of the lower layer.
  • Embodiment 10 of the present disclosure describes an example in which an estimation model that estimates what happens in the upper layer when a foreign substance is present in the lower layer is generated and the situation of the upper layer is estimated using the estimation model.
  • the input layer in the neural network used in the tenth embodiment includes (a) upper layer (second layer) design data (design information) and features extracted from the design data (eg, line width of pattern, pattern). Data including at least one of (a), a distance between patterns, etc.), (b) an image of a lower layer (first layer) obtained by an imaging system such as the scanning electron microscope illustrated in FIGS. 3 and 6, And second data including at least one of the features extracted from the second image are input.
  • the lower layer image is preferably generated based on the outputs of a plurality of shadow image detectors capable of stereoscopically capturing foreign matter and the like.
  • the features extracted from the second image may be, for example, the shape, size, brightness information of a foreign substance, difference data between shadow image detectors, and the like.
  • the middle layer of the neural network used in the tenth embodiment uses teacher data that receives the first data and the second data as input and outputs the third data including at least one of the image of the upper layer and the characteristics of the upper layer as output. And learn.
  • the output layer generates output data based on the output of the intermediate layer.
  • FIG. 27 is a diagram showing an example of a computer system 202 including a module (identifier 201) including the above estimation model.
  • the data set generation unit 803 receives the design data 1004 as learning data.
  • the data set generation unit 803 further receives the upper layer contour image and the lower layer image from the SEM image 200 as learning data.
  • the data set generation unit 803 uses these data to generate the teacher data and causes the classifier 201 to learn.
  • the contour line generation unit 2701 receives the lower layer image and the design data 1004 as inputs, and inputs them to the discriminator 201 to estimate the upper layer contour line.
  • FIG. 28 is a flowchart explaining the learning process in the tenth embodiment.
  • the coordinates (first position) of the foreign matter deposited on the semiconductor wafer generated in the manufacturing process of the first layer is specified by using the upper foreign matter inspection apparatus 1002 as illustrated in FIG. 10 (S1401).
  • the semiconductor wafer is introduced into the image pickup unit 301, and the foreign matter attached to the first position is measured or inspected using the image pickup unit 301 (S1402).
  • a foreign substance image is generated from outputs of a plurality of shadow image detectors.
  • the foreign object image is used to generate teacher data as a data set, but features extracted from the image other than the image may be used to generate the data set.
  • the computer system 202 reads the design data (layout data) of the pattern corresponding to the first position from the design data 1004 (S2801).
  • the computer system 202 acquires the image at the first position of the second layer after the second layer is stacked on the first layer (S1404, S1405).
  • the data set of the foreign object image data of the lower layer, the design data of the upper layer, and the image data of the upper layer (or the contour line data of the pattern extracted from the image data) obtained through the above steps is used as the teacher data to identify the discriminator 201. Is learned (S1406).
  • the data set as the teacher data includes a foreign object image located in the lower layer, design data (layout data) showing the ideal shape of the pattern, and image data of the same pattern as the design data of the upper layer pattern affected by the foreign object (or Contour line data extracted by thinning the edges included in the image are included.
  • the data set includes a pattern image that is not affected by foreign matter (upper layer layout data), a pattern image that is affected by foreign matter (actual image of the upper layer pattern, or contour line data), and factors that deform the pattern or the like.
  • An image of a foreign substance is included, which is teacher data including a pre-deformation shape, a deformation cause, and a post-deformation shape. Therefore, it becomes possible to construct a learning model for estimating the influence of the foreign matter in the lower layer on the upper layer.
  • the learning model is learned by using the teacher data that takes the SEM image of the lower layer foreign matter and the upper layer design data as input and outputs the upper layer SEM image (or contour line data extracted from the SEM image)
  • the learning model may be learned by adding the information about the manufacturing process and the SEM imaging condition as an input and adding the criticality of the upper layer pattern as an output.
  • the discriminator 201 included in the computer system 202 is configured by the storage unit 305 that stores the learning result and the function that outputs the value according to the learning result when the value is input to each unit. You can This function of the discriminator 201 and other functional units included in the computer system 202 can be configured by using hardware such as a circuit device that implements these functions, or software that implements these functions can be executed by an arithmetic device. It can also be configured by executing.
  • 201 discriminator 202: computer system 203: length measurement value/area value calculation unit 204: brightness evaluation unit 205: height calculation unit 206: input/output device 301: imaging unit 302: overall control unit 303: signal processing unit 304: Input/output unit 305: storage unit 306: electron gun 307: electron beam 308: focusing lens 309: focusing lens 310: deflector 310 311: Objective lens 312: Sample 313: Sample stage 314: Emitted electron 315: Lower detector 316: Upper detector 317: Energy filter 318: Blanking deflector 319: Blanking electrode

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Pathology (AREA)
  • Immunology (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Manufacturing & Machinery (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Power Engineering (AREA)
  • Food Science & Technology (AREA)
  • Medicinal Chemistry (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Debugging And Monitoring (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本開示は試料上に付着した異物等の高さの推定を目的とするシステム、非一時的コンピュータ可読媒体に関する。上記目的を達成するために、前記荷電粒子線装置によって得られるデータ、あるいは当該データから抽出される特徴量を入力、前記試料の構造物または前記試料上の異物の高さ、あるいは深さを出力とする教師データを用いて学習されたパラメータを中間層に備えた学習モデルに、荷電粒子線装置によって取得されたデータ、あるいは当該データから抽出される特徴量を入力することによって、前記高さ、あるいは深さ情報を出力するシステム等を提案する。

Description

構造推定システム、構造推定プログラム
 本開示は、試料または試料上の異物の構造を推定するシステムおよびプログラムに関するものである。
 試料に対する電子ビームの走査によって得られた信号波形に基づいて、試料上のパターンの高さを計測する手法が知られている。特許文献1には、AFM(Atomic Force Microscope:原子間力顕微鏡)によって得られたパターンの断面形状情報と、電子ビームの走査によって得られた信号波形とを関連付けて記憶するライブラリをあらかじめ準備しておき、ビーム走査によって得られた信号波形を用いて当該ライブラリを参照することにより、パターンの断面形状を推定する手法が開示されている。
特開2006-093251号公報(対応米国特許USP7,408,155)
 昨今の半導体デバイスの多層化に伴い、半導体デバイス上に付着した異物の高さなどの3次元情報を評価することが必要とされる場合が考えられる。これは試料上に異物が付着していると、後の製造工程に影響を与える可能性があるからである。特に異物高さの違いによって後の工程に与える影響度が変化するので、異物高さの定量評価によって、その影響度を事前に把握しておくことが望ましい。一方で高さ計測装置として、上記特許文献1のような断面SEM(走査型電子顕微鏡)やAFMのような装置があるが、異物ごとにAFM等を用いて高さを計測することは、高いスループットが求められる半導体測定においては現実的ではない。
 特許文献1に開示されているようにあらかじめライブラリを用意することによって、異物ごとのAFM測定の手間を抑制することも考えられる。しかし半導体デバイス上に形成されたパターンとは異なり、ウエハ上に意図せず付着する異物には様々な形状や組成のものがあり、特許文献1に開示されているようなライブラリ作成は困難である。また、半導体パターンのような構造物も、より簡易且つ高精度の高さ計測が求められることが考えられる。
 本開示は、異物のような多様な形状が考えられる対象物の3次元情報や、その他構造物のより高精度な3次元情報を推定することができる、構造推定システムおよびプログラムを提供する。
 本開示に係る構造推定システムは、試料上の構造物、前記構造物上の異物、前記異物が前記構造物上の他層に対して与える影響、などの推定結果を出力する学習器を備える。前記学習器は、荷電粒子線装置から得られるデータまたはそのデータの特徴を入力とし、前記推定結果を出力とする教師データによって、あらかじめ学習を実施している。前記構造推定システムは、前記学習器に対して前記荷電粒子線装置から得られるデータまたはそのデータの特徴を入力することにより、前記推定結果を得る。
 本開示に係る構造推定システムによれば、3次元構造体、異物、異物による影響などの高精度な3次元情報を推定することができる。
実施形態1に係る構造推定方法の概略を説明するフローチャートである。 実施形態1に係るコンピュータシステム202の1例を示す図である。 深さ(高さ)計測システム300の1例を示す図である。 識別器201の構成例を示す図である。 学習モデルを生成するためのGUI画面501の1例を示す図である。 実施形態2における撮像部301の概略構成図である。 実施形態2における識別器201の構成例を示す図である。 実施形態2におけるコンピュータシステム202の構成図である。 走査電子顕微鏡の出力に基づいて学習モデルを生成する工程を示すフローチャートである。 実施形態3に係る異物高さ推定システム1000の構成図である。 異物高さ推定システム1000が異物の高さを推定をする工程を示すフローチャートである。 ADC結果に応じたモデルを用いるコンピュータシステム202の構成図である。 学習モデルを用いた高さの推定結果と、学習モデルから出力される推定確度を併せて表示する表示画面の1例を示す図である。 実施形態5における識別器201の学習モデルを生成する工程を示すフローチャートである。 第1レイヤ上に載った異物が第2レイヤを押し上げた様子を示す図である。 上述のように生成された学習モデルを用いて試料情報を推定する工程を示すフローチャートである。 出力データ(推定情報)の表示例を示す図である。 学習モデルから欠陥率(Defect rate)を出力する場合の表示例を示す図である。 異物高さ推定結果の表示例を示す図である。 推定確度の高い領域の高さ情報に基づいて、推定確度の低い領域の高さを推定する手法の1例を示す図である。 識別器201の学習モデルを更新する手順を示す図である。 荷電粒子線装置によって得られる画像データや特徴から高さ推定の可否を判定する学習モデルの生成工程を示すフローチャートである。 図22で説明した高さ推定可否判定モデルを活用して荷電粒子線装置の出力から高さ推定可否を判定し、NGの部位をAFMで実測する工程を示すフローチャートである。 陰影像を入力データとして、欠陥分類を行うコンピュータシステムの1例を示す図である。 実施形態9におけるコンピュータシステム202の構成図である。 実施形態9における学習モデルを最適化するためのGUI画面の1例を示す図である。 上述のような推定モデルを含むモジュール(識別器201)を含むコンピュータシステム202の1例を示す図である。 実施形態10における学習過程を説明するフローチャートである。
<実施の形態1>
 図1は、本開示の実施形態1に係る構造推定方法の概略を説明するフローチャートである。本実施形態1においては、走査電子顕微鏡等の荷電粒子線装置によって得られるデータ(観察画像)から、試料上に形成された構造物(半導体ウエハの場合、ラインやピラーのような凸パターン、ホールやトレンチのような凹パターン、など)や、試料上に載った異物等の高さや深さを推定する。
 荷電粒子線装置からデータを取得(S101)し、取得されたデータあるいは当該データから抽出される特徴量に応じた学習モデルを読み出し(S102)、読み出された学習モデルに上記データあるいは特徴量を入力(S103)することによって、構造物または異物の高さあるいは深さについての情報を出力する(S104)。
 走査電子顕微鏡等で取得されるデータから、構造物や異物の輝度、寸法情報、陰影像などを取得することができる。特に凹パターンの底部の輝度と凹パターンの深さには相関があり、さらに凹パターンの幅やサイズと凹パターンの深さも相関がある。以下では試料上に形成されたパターン等の深さを計測(推定)するための深さ計測システムについて図面を用いて説明する。
 図2は、本実施形態1に係るコンピュータシステム202の1例を示す図である。コンピュータシステム202は、学習モデルに対して試料の観察画像を入力することにより、試料上の構造物や異物の高さを推定する。学習モデルの教師データは、電子顕微鏡等の画像生成装置によって生成される画像、あるいは当該画像から抽出される特徴量を入力として用い、試料上の構造物や異物の高さを出力として用いる。
 コンピュータシステム202は、識別器201、測長値/面積値演算部203、輝度評価部204、高さ演算部205、入出力装置206を備える。SEM画像200は、荷電粒子線装置によって取得した試料の観察画像である。測長値/面積値演算部203は、試料の寸法値と面積値をSEM画像200から取得する。輝度評価部204は、SEM画像200の輝度値を取得する。入出力装置206は、試料の材料などについての情報(後述の図4において改めて説明する)をユーザが入力するためのデバイスである。高さ演算部205は、輝度値/寸法値/面積値/試料情報を識別器201に対して入力することにより、試料上の構造物や異物の高さまたは深さについての情報を推定する。
 識別器201としては、試料の観察画像や観察画像から抽出される特徴量に対応する深さレベルを出力するように、教師データを用いた学習処理が施されたものが用いられる。識別器201としては、例えば、ニューラルネットワーク、回帰木、ベイズ識別器等の任意の学習器を用いることができる。学習済のモデルデータは、後述する記憶部305に格納することができる。
 図3は、深さ(高さ)計測システム300の1例を示す図である。深さ計測システム300は、撮像部301、コンピュータシステム202、信号処理部303、入出力部304、記憶部305を備えている。コンピュータシステム202は、図2で説明した深さ推定を実施することに加えて、撮像部301が備える以下の光学系を制御する。
 撮像部301は、電子ビーム307を照射する電子銃306、電子ビーム307を集束する集束レンズ308、集束レンズ308を通過した電子ビーム307をさらに集束する集束レンズ309を備えている。撮像部301はさらに、電子ビーム307を偏向する偏向器310 、電子ビーム307の集束する高さを制御する対物レンズ311を備えている。
 撮像部301の光学系を通過した電子ビーム307は、試料ステージ313上に載せられた試料312に照射される。電子ビーム307の照射によって試料312から放出される2次電子(Secondary Electron:SE)や後方散乱電子(Backscattered Electron:BSE)等の放出電子314は、その軌道上に設置された下段検出器315と上段検出器316によって検出される。上段検出器316に設けられた開口は、電子ビーム307を通過させるものである。この開口を十分小さくすることにより、試料312上に形成された深孔や深溝の底から放出され、パターン中心近傍を通過して試料表面上に脱出した2次電子を検出することができる。上段検出器316の直前にあるエネルギーフィルタ317aあるいは下段検出器315の直前にあるエネルギーフィルタ317bを用いたエネルギーフィルタリングにより、放出電子314をエネルギー弁別することができる。
 撮像部301はさらに、電子ビーム307を光軸外に偏向することによって試料312へ電子ビーム307が到達することを制限するブランキング偏向器318、及びブランキング偏向器318によって偏向された電子ビーム307を受け止めるブランキング用電極319を備える。
 信号処理部303は、下段検出器315と上段検出器316の出力に基づいてSEM画像200を生成する。信号処理部303は、図示しない走査偏向器の走査と同期して、フレームメモリ等に検出信号を記憶させることにより画像データを生成する。フレームメモリに検出信号を記憶する際、フレームメモリの走査位置に対応する位置に検出信号を記憶させることにより、信号プロファイル(1次元情報)、SEM画像(2次元情報)を生成する。また、必要に応じて偏向器320で2次電子を偏向することにより、深孔等から脱出した光軸近傍を通過する2次電子を、下段検出器315の開口外(下段検出器315の検出面)に導くことができる。
 図4は、識別器201の構成例を示す図である。ここではニューラルネットワークを用いて識別器201を構成した例を説明するが、これに限ることはなく、他の識別器を用いることもできる。識別器201は、入力層として、(a)ホールやトレンチの底部の輝度情報、(b)ホールやトレンチの寸法情報あるいは面積情報、を入力するための入力ユニットを備えている。また、パターン底部の輝度は底部を構成する材料の2次電子放出効率δに依存するので、例えば底部の材料についての情報を試料情報として入力する入力ユニットを設けてもよい。材料情報は例えば材料の種類や2次電子放出効率δなどである。
 ニューラルネットワークは、入力層に入力された情報が、中間層=>出力層へと順に伝搬されることにより、出力層から深さレベルを出力する。中間層は、複数の中間ユニットから構成されている。入力層に入力された情報は、各入力ユニットと各中間ユニットとの間の結合係数によって重みづけされ、各中間ユニットに入力される。中間ユニットに対する入力が加算されることによりその中間ユニットの値となる。中間ユニットの値は入出力関数によって非線形変換される。中間ユニットの出力は、各中間ユニットと各出力ユニットとの間の結合係数によって重み付けされ、各出力ユニットに対して入力される。出力ユニットに対する入力が加算されることにより出力層の出力値となる。識別器201は、SI単位(例えばマイクロメートル)で表せる値や、その他の深さの程度を示すパラメータを出力する。これに代えてまたはこれと併せて、ある基準値より深いか浅いかの推定結果を出力するようにしてもよい。
 学習を進めることにより、ユニット間の結合係数や、各ユニットの入出力関数を記述する係数などのパラメータ(定数、係数など)が、次第に最適化される。記憶部305は、ニューラルネットワークの学習結果として、それらの最適化した値を記憶する。識別器201としてニューラルネットワーク以外を用いた場合も同様に、学習過程において最適化したパラメータを記憶部305が記憶する。以下の実施形態においても同様である。
 上述の例では、寸法情報あるいは面積情報と、底部の輝度情報を抽出し、それを特徴量として識別器201の入力データとする例について説明した。ディープラーニングを用いる場合、観察画像から特徴量を自動で発見し、学習することもできる。
 図5は、学習モデルを生成するためのGUI画面501の1例を示す図である。ユーザはGUI画面501を用いて、識別器201の学習モデルを構築する(識別器201に学習させる)ことができる。GUI画面501は、図2の入出力装置206が備える表示装置に表示される。ユーザは、経験的に分かっているパターンの深さ、あるいは他の深さ(高さ)計測装置による高さ計測結果を教師データとしてGUI画面501上で入力することにより、学習モデルを構築することができる。
 SEM画像表示欄506は、試料上座標(Location)と識別子(ID)に関連付けて所定の記憶媒体に記憶されたSEM画像507を表示する。SEM画像表示欄506から任意の画像を選択するとともに、入力部502~505から必要な情報を入力することによって、学習モデルを構築することができる。
 入力部502には、他の分析装置による分析によって具体的に深さが判っている場合、その画像の正解データとして、その値を入力する。この入力を繰り返すことによって、ディープラーニングの学習フェーズを実施することができる。入力部503には、深さの程度を表すボタンが設けられている。図5においては、Deep、Middle、Shallowの3レベルを表すボタンを例示した。おおよそ深さの程度が判っている場合、入力部503を用いて正解データを選択する。入力部504は、入力部503の分類よりも詳細に深さ情報が判明している場合、深さに応じたボタンを正解データとして選択するために設けられている。入力部505は、他の高さ計測装置で取得されている高さ情報を読み出して正解データとして登録すべく、高さ情報が記憶された記憶媒体のアドレス(URIなど)を入力し、読み出すために設けられている。読み出された深さ情報は、座標と識別子が一致する画像の正解データとして用いられ、自動的に画像データと併せて教師データが生成される。
 撮像部301としては、集束イオンビーム等で試料の断面を露出させた試料に対し、その露出面に電子ビームを走査することによって得られる画像を生成する走査電子顕微鏡(断面SEM)や、高精度に高さを計測できる原子間力顕微鏡(Atomic Force Microscope)などを用いることができる。これらの装置で得られた深さ(高さ)情報をパターンの座標情報や識別情報と併せて記憶しておくことによって、学習モデル構築のための事前情報を用意することが可能となる。断面SEMで深さを計測する場合には、複数の異なる高さのパターンの断面が露出するようにクーポン化された試料を用意し、SEM観察を行うことによって、深さを計測することが考えられる。
<実施の形態2>
 実施形態1においては、ビアやトレンチのような半導体デバイスを構成するパターンを対象として、深さを計測する例について説明した。本開示の実施形態2では、試料上に意図せず付着する異物の高さを走査電子顕微鏡等の画像形成装置で得られる画像を用いて推定するシステムについて説明する。
 半導体ウエハ上に異物が付着していると、後の製造工程に影響を与える可能性がある。特に異物の高さの違いによって後の工程に与える影響度が変化するので、異物高さの定量評価によって、その影響度を事前に把握しておくことが望ましい。一方で高さ計測装置として、上述のような断面SEMやAFMのような装置があるが、異物ごとにAFM等を用いて高さを計測することは、高いスループットが求められる半導体測定においては現実的ではない。そこで本実施形態2では、観察画像または観察画像の特徴量を入力とし、異物の高さを出力とする学習データを用いて学習を実施する例を説明する。
 図6は、本実施形態2における撮像部301の概略構成図である。図3と同じ構成については同じ符号が付されている。撮像部301以外の構成は実施形態1と同様である。図6に例示する光学系は、検出器601と602を備えている。検出器601と602は、偏向器310によって走査されるビームの照射に基づいて、試料312から放出される電子のうち、比較的大きな仰角で放出された後方散乱電子(Backscattered Electron:BSE)を検出する。図6は、ビームの理想光軸604に軸対称に左右2つの検出器が設けられている例を示しているが、紙面垂直方向にさらに2つの検出器を配置して、4方向検出器としてもよい。
 本実施形態2では、撮像部301として2つまたは4つの検出器を設けた走査電子顕微鏡について説明するが、試料の陰影像を形成できれば検出器の数は問わない。検出器は、理想光軸604に直交する方向に配置される。また検出器は、対物レンズ311の集束作用によって異物等から光軸に対して傾斜した方向から放出された電子603が、到達する位置に配置される。信号処理部303は、これら検出器による検出結果を用いて、試料の陰影像を生成することができる。
 一般的な2次電子の検出に基づいて形成される画像と比べて、複数方向に設けられた陰影像検出器の出力に基づく画像は、異物等を斜め上から見たような画像となる。したがって高さ方向の情報がより多く含まれ、相対的に高さ方向の特徴量を抽出し易いと言える。そこで本実施形態2では、複数方向に配置された検出器の出力から得られる情報を入力とし、高さ情報を出力とする教師データを用いて、学習モデルに学習させる。複数方向検出器を備えた走査電子顕微鏡から得られる情報を学習モデルに対して入力することにより、高さ情報を推定する。
 斜め上から異物を見るための他の手法として、(a)ビーム傾斜用偏向器を用いて理想光軸604に対して傾斜した方向からビームを照射するビームチルト、(b)試料ステージを傾斜して、傾斜した方向からビームを照射するステージチルト、などを用いることもできる。
 図7は、本実施形態2における識別器201の構成例を示す図である。本実施形態2における高さ演算部205への入力は、(a)複数方向検出器(例えば4方向検出器)の出力、(b)当該出力に基づいて形成される画像、(c)当該画像から抽出される特徴量、のうち少なくとも1つとする。図7は4方向検出器それぞれの出力に基づいて形成される画像を入力データとする例を示している。走査電子顕微鏡内にEDX(Energy Dispersive X-ray Spectrometry)検出器を設けておき、元素分析によって得られる元素情報を併せて入力データとするようにしてもよい。図7のような識別器201を備えたシステムによれば、断面SEMやAFMによる高さ計測を高頻度で実施する必要がなく、走査電子顕微鏡等の画像生成装置によって得られた情報に基づいて、異物の高さ情報を推定することが可能となる。
 次に学習モデルの生成工程について説明する。教師データの入力は、(a)4方向検出器の出力、(b)当該出力に基づいて得られる画像、(c)画像から抽出される1以上の特徴量、のうち少なくとも1つを含む。教師データの出力は、断面SEMやAFM等の高精度高さ計測装置から得られる高さ情報を含む。この教師データを用いて学習モデルを生成する。
 画像データからAFMなどによる高さマップデータを生成するディープニューラルニューラルネットワーク手法として、プーリング層を用いて多段のエンコーダ/デコーダで画素単位のデータを変換するセマンティックセグメンテーション法や、敵対生成学習を活用して画素単位のデータを生成する画像生成法を適用することが可能である。
 図8は、本実施形態2におけるコンピュータシステム202の構成図である。本実施形態2においてコンピュータシステム202は、実施形態1で説明した測長値/面積値演算部203と輝度評価部204に代えて、合成画像生成部802とデータセット生成部803を備える。合成画像生成部802は、後述する背景画像と異物画像を用いて合成画像を生成する。データセット生成部803は、その合成画像と高さ情報801をデータセットとして教師データを生成する。
 図9は、走査電子顕微鏡の出力に基づいて学習モデルを生成する工程を示すフローチャートである。ここでは、ベアウエハ(パターンが形成されていないウエハ)上に付着した異物のSEM画像に基づいて学習モデルを生成する例について説明する。
 走査電子顕微鏡内にベアウエハを導入(S901)し、光学顕微鏡のような上位装置から得られた異物情報に基づいて、走査電子顕微鏡の視野内に異物が位置づけられるように、ステージを移動させる(S902)。その後、異物を含む領域に対して電子ビームを走査し、4方向検出器で検出された信号に基づいて、SEM画像200を生成する(S903)。この際、学習モデルのデータ量を増やすべく、1の異物に対し、電子ビームのフォーカス、加速電圧等のビーム条件や、ABCC(Auto Brightness Contrast Control)等の信号処理条件の異なる複数の画像を取得しておく。画像は座標情報や異物に付された識別情報と併せて記憶部305に記憶する。
 合成画像生成部802は、あらかじめ取得された複数種の背景画像と、取得された異物画像との異なる組み合わせ毎に合成画像を生成する(S904)。背景画像は、所定の製造工程を経てパターン等が形成されたウエハの画像であり、異なるレイアウト毎に画像が取得されているものとする。合成画像を生成する際には、ベアウエハ上の異物画像から異物部分を画像処理で切り出し、背景画像として用意された複数画像に重ね合わせることにより、レイアウト毎の異物画像を生成する。背景画像も異物画像と同様に、異なる画像取得条件ごとに得られた複数種の画像を用意することが望ましい。異物画像と背景画像を別々に取得し合成することにより、少ない画像取得で学習モデルを生成することが可能となる。
 データセット生成部803は、AFMや断面SEMによって得られた高さ情報801と、合成処理によって生成された合成画像をデータセットとして教師データを生成し(S905)、その教師データを記憶部305に記憶する(S906)。以上のような学習モデル生成法によれば、1の異物画像から学習モデルに供する複数の画像を生成することが可能となる。
 ビームの加速電圧等を変化させつつ画像を取得し、その連続像(動画)と高さ情報をセットとした教師データを生成するようにしてもよい。例えばビームの加速電圧(ランディングエネルギー)を変化させて画像を取得した場合、異物や試料の構造物に対するビームの到達深さが変化する。すなわち、連続像上の異物の見え方の変化は異物の高さに応じて異なる振る舞いを見せることになる。そこで、ランディングエネルギーを変え、(a)それぞれのランディングエネルギーのビーム照射によって得られる複数の像、(b)当該複数の像の連続像(動画)、あるいは(c)当該画像から抽出される異物の輝度の変化等の情報を取得し、当該情報とAFM等によって得られた高さ情報とをセットにした教師データセットを生成する。この教師データを用いて高さ推定モデルを生成する。当該高さ推定モデルは、荷電粒子線装置によって得られるデータ、あるいは当該データから抽出される特徴量を入力とし、試料の構造物または当該構造物上の異物の高さを出力とする教師データを用いて学習されたパラメータを中間層に備える。この学習モデルに、走査電子顕微鏡の出力を入力することによって、高精度に高さを推定することができる。入力データとなる動画としては、ランディングエネルギー等の条件を変えることなく、複数フレーム走査することによって得られる連続像であってもよい。
<実施の形態3>
 学習モデルを高精度化するために、走査電子顕微鏡の撮像条件(例えば、倍率、ランディングエネルギー、ABCC条件、ビームの走査速度、走査方式等)、半導体デバイスの製造プロセス条件(製造工程の識別情報、各製造工程における製造条件等)、異物が位置する部位のパターン(設計データ等)の情報をも入力データとしてもよい。また、これらの情報ごとに学習モデルを用意し、例えば電子顕微鏡画像から得られた異物周囲のパターン情報に応じた学習モデルの選択に基づいて、高さを推定してもよい。これら条件の変化は、電子顕微鏡の像質を変化させることになるので、これらの条件を入力データとし、あるいはこれら条件ごとの学習モデルを用意しておくことによって、モデルの高精度化を実現するようにしてもよい。そこで本開示の実施形態3では、複数の学習モデルをあらかじめ準備しておき、それらのなかから適切な学習モデルを選択して推定結果を得る例について説明する。
 図10は、本実施形態3に係る異物高さ推定システム1000の構成図である。異物高さ推定システム1000は、撮像部301、上位異物検査装置1002、設計データ1004を記憶する記憶媒体、コンピュータシステム202を備える。
 上位異物検査装置1002は、例えば光学式検査装置のように、試料に対し光を照射することによって得られる反射光を検出し、当該検出された反射光から、試料上の異物の座標を検出する装置である。その他適当な手法により異物の座標を検出する装置を用いることもできる。
 コンピュータシステム202は、コンピュータ可読媒体1006、コンピュータ可読媒体1006に記憶されている各モジュールを実行する処理ユニット1005、入出力装置206を備える。コンピュータ可読媒体1006は、レシピ生成モジュール1007、計測処理モジュール1008、モデル生成モジュール1009、識別器モジュール1010を格納している。これらモジュールは、処理ユニット1005が実行することにより各モジュールが実装している機能を実現するソフトウェアモジュールである。以下では記載の便宜上、各モジュールを動作主体として説明する場合があるが、実際に各モジュールを実行するのは処理ユニット1005である。
 レシピ生成モジュール1007は、上位異物検査装置1002が出力する異物の座標情報と、入出力装置206から入力される計測条件に基づいて、撮像部301を自動的に動作させる。計測処理モジュール1008は、撮像部301の出力に基づいて、所定の計測アルゴリズムに沿ってパターンや異物等のサイズ等を計測する。モデル生成モジュール1009は、撮像部301によって得られるデータ(実施形態2で説明した4方向検出器の出力画像等)を入力、撮像部301によって画像化された異物についてAFM等を用いて高さを計測した結果得られる高さを出力とする教師データを用いて、モデルの中間層のパラメータを学習する。識別器モジュール1010は、モデル生成モジュール1009によって学習された学習モデルを用いて高さを推定する識別器201を実装している。
 モデル生成モジュール1009は、試料上に形成されたパターン状態に応じた複数のモデルを生成し、その複数のモデルをコンピュータ可読媒体1003に格納する。4方向検出器の出力は、試料上に形成されたパターン状態によって大きく左右され、特に、パターン密度が大きく影響する。そこで本実施形態3では、パターン密度に応じて複数のモデルを記憶することとした。パターン密度とは例えば、単位面積当たりのパターン数、単位面積当たりのパターンエッジの数、単位面積当たりのパターンの専有面積、あるいは単位面積当たりのパターン長さ、などの程度を示すパラメータである。すなわち、単位面積当たりのパターン数等が多い程、高密度である。密度に代えて、パターンの密集度、あるいは密集度に応じて変化する他の値であってもよい。
 識別器モジュール1010は、識別器201に対する入力(各入力ユニットに対する入力)を受け取り、記憶部305が格納している学習結果(結合係数や入出力関数の係数など)を用いて各ユニットの出力を計算する。その出力を識別器201の出力として用いることができる。これにより識別器201が実装される。その他実施形態における識別器201についても同様に実装することができる。
 図11は、異物高さ推定システム1000が異物の高さを推定する工程を示すフローチャートである。コンピュータシステム202は、上位異物検査装置1002によって検出された異物の座標情報を受け取る(S1101)。処理ユニット1005はレシピ生成モジュール1007に記憶された情報に基づいて、撮像部301のレシピを生成する(S1102)。具体的には、上位異物検査装置1002が取得した異物座標に撮像部301の視野を合わせるようなステージの制御条件等と、入出力装置206から入力された撮像部301の装置条件(ビームの加速電圧や倍率等の光学条件)に基づいて、レシピを生成する。撮像部301は、生成されたレシピを読み込み(S1103)、検査レシピを用いた検査を実行する(S1104)。
 一方で、レシピ生成モジュール1007あるいは計測処理モジュール1008は、受領した座標情報に基づいて、受領した座標に対応する部分の設計データを読み出し(S1105)、異物座標のパターン密度に関する値(例えば、単位面積当たりのパターン数をカウント)を計測あるいは演算する(S1106)。識別器モジュール1010は、計測あるいは演算によって得られたパターン密度に応じたモデルを、高さ推定のために選択(S1107)し、当該選択モデルに、検査によって得られた画像を入力することによって、高さ情報を出力する(S1108)。図11に例示するような手順によって、異物が存在する位置に応じた適切なモデルの選択に基づいて、高さを推定することができる。
 学習モデルは、ADC(Auto Defect Classification)の結果を入力データとしてもよいし、ADC結果に応じたモデルを用意し、ADCの結果に応じて適切なモデルを選択し、当該モデルを用いた高さを推定してもよい。ADCは画像処理を用いた欠陥種推定法である。ADCは、事前に定められたルールに基づき分類ソフトウェアにより異物や欠陥の発生原因ごとにクラス分けする。以下ではクラス分け結果に応じたモデルを用いる例を説明する。
 図12は、ADC結果に応じたモデルを用いるコンピュータシステム202の構成図である。図12のコンピュータシステム202は、分類ソフトウェア1201を読み込むことによってSEM画像200に含まれる異物や欠陥を分類するADC処理部1202を備える。識別器201は、ADC処理部1202による分類結果ごとに学習モデルを備えている。高さ演算部205は、ADC処理部1202による分類結果に対応するモデルを読み出し、当該モデル(識別器)を用いてSEM画像200に含まれる異物等の高さ情報を出力する。図12の構成によれば、2次元画像を用いて判断可能な特徴(異物の2次元的な形状の特徴)に基づいて異物を分類し、その上で分類された異物に適した学習モデルを用いて高さを推定することができるので、高い精度で高さを推定できる。
 本実施形態3では主に、設計データ(レイアウト)や回路の密度(単位面積当たりのパターンやエッジの数等)に応じてモデルを切り替える例について説明したが、これに限られることはなく、その他のパラメータに応じてモデルを切り替えてもよい。例えば複数の陰影像検出器の出力とレイアウトデータ(設計データ)を入力とし、AFM等によって得られた異物の高さ情報を出力とする教師データを用いて学習を実施する。複数の陰影像検出器の出力と、上位異物検査装置1002が出力する座標情報を参照して設計データ1004から読み出される当該座標に対応するレイアウトデータを、識別器201に対して入力する。これにより、高さ情報を推定することができる。このような学習モデルは、レイアウトの形状や密度に基づき、高さ推定のための仕組みが変化することになるので、高精度な高さ推定を行うことが可能となる。
 画像データからAFMによる高さマップデータを生成するディープニューラルニューラルネットワーク手法として、プーリング層を用いて多段のエンコーダ/デコーダで画素単位のデータを変換するセマンティックセグメンテーション法や、敵対生成学習を活用して画素単位のデータを生成する画像生成法を適用することが可能である。
<実施の形態4>
 図13は、学習モデルを用いた高さの推定結果と、学習モデルから出力される推定確度を併せて表示する表示画面の1例を示す図である。この表示画面は例えば図10に例示する入出力装置206の表示装置に表示される。処理ユニット1005は、コンピュータ可読媒体1006より必要な情報を読み出し、図13に例示するような画面を表示する。ユーザはこの画面を参照しながら、さらに教師データを作成するか否かを判定する。
 図13において、識別情報(ID)1301が付与された異物ごとに、学習モデルを用いて推測された高さ情報(height)1303と推定確度(accuracy)1304が表示されている。座標情報(coordinate)1305は、異物の座標である。推定確度は識別器モジュール1010によって、高さ情報とともに学習モデルから出力される。SEM image欄1302には、SEM画像を読み出すためのリンクが設けられており、リンクを選択することによって記憶媒体よりSEM画像を読み出して表示装置に表示する。推定確度は、識別器201が推定結果を出力する際に、例えば他の推定結果候補との間の相対的な評価値を用いて算出することができる。その他適当な手法を用いて確度を求めてもよい。以下の実施形態においても同様である。
 図13に例示するような画面によって、推定確度が低い異物についてはAFMなどの高精度な高さ計測装置を用いて教師データを更新する必要があることが把握でき、学習モデルの更新判断を効率的に実施できる。また図13の画面は、AFM(measurement)1306の欄が設けられており、当該欄の選択によって、選択された異物の座標情報1305とSEM image欄1302の情報をAFMの制御装置に送ることができるように構成されている。このような構成によれば、教師データの更新に必要な情報を得るための高さ計測装置の条件設定を容易にすることができる。また、推定確度に所定の閾値を設定できるようにするとともに、閾値を下回る異物を他の異物と区別して表示することによって、教師データの更新が必要な異物を容易に視認することが可能となる。
<実施の形態5>
 昨今、半導体デバイスは微細化(スケーリング)と共に多層化が進み、レイヤの数も増大しつつある。また、スケーリングが進むにつれて、半導体ウエハ上に形成されるパターンに対して、半導体ウエハ上に付着する異物のサイズが相対的に大きくなり、これまで以上に付着する異物とデバイスの出来栄えとの相関を評価する必要性が高まることが予想される。また、ある製造工程後に付着した異物が、その後の製造工程で形成されたパターンの出来栄えに影響を与える可能性も考えられる。本開示の実施形態5では、あるレイヤで付着した異物が、後の製造工程で生成される他のレイヤに与える影響を評価するシステムについて説明する。
 本実施形態5に係るシステムは、第1レイヤに対する荷電粒子ビームの照射に基づいて得られるデータ、あるいは当該データから抽出される特徴を入力とし、第1レイヤを製造した製造工程よりも後の製造工程で製造された第2レイヤの第1位置に対応する位置におけるパターン画像や特徴を出力とする教師データを用いて、学習を実施する。その学習モデルに、第1位置における画像データあるいは当該データから抽出される特徴を入力することにより、第2レイヤの第1位置に対応する位置の画像や特徴を出力する。
 図14は、本実施形態5における識別器201の学習モデルを生成する工程を示すフローチャートである。システム構成としては図10に示すものなどを用いることができる。図10に例示する上位異物検査装置1002を用いて、第1レイヤの製造工程で生成された半導体ウエハ上に付着した異物の座標(第1位置)を特定する(S1401)。次に、撮像部301に半導体ウエハを導入し、第1位置に付着した異物について、撮像部301を用いた計測あるいは検査を実行する(S1402)。この際、計測ツールとしてAFMを用いてもよい。撮像部301は、上位異物検査装置1002で特定された座標情報に基づいて、当該座標位置に電子ビームを照射するように、試料ステージ313(図3参照)、あるいは視野移動用の偏向器の少なくとも一方を制御する。検査計測によって得られた画像データや画像データから抽出される特徴量を取得する(S1403)。このデータや特徴は、後述する学習モデルの入力データとなる。
 図14において用いる画像データは、実施形態2で説明した複数方向に配置された陰影像検出器の出力に基づいて生成された画像を用いることが望ましいが、それに限ることはなく、通常の2次電子画像やチルトビームの走査によって得られた画像、あるいは連続像(動画)であってもよい。特徴としては、異物のサイズ、寸法、異物のエッジ部分を示す輝度領域のサイズ、縦横比、異物形状の種類、材質(EDX検出器等を用いて特定)等がある。
 次に、第1レイヤ上に形成される第2レイヤの製造工程後に、第2レイヤの第1位置に対する電子ビームの走査、あるいはAFMのプローブの走査により、第2レイヤの第1位置に対する計測あるいは検査を実行する(S1404)。撮像部301やAFMは、上位異物検査装置1002で取得した第1位置の座標情報を利用して視野を移動することができる。
 コンピュータシステム202は、撮像部301等で取得された信号に基づいて、画像データや当該画像から抽出されるパターン等の特徴を取得する(S1405)。S1404で取得する特徴は、半導体ウエハの第2レイヤ上に形成されたパターンの寸法値(CD値)、形状、形状の変形量、設計データに対するエッジ位置の乖離の程度、これら特徴の異常(例えば所定の閾値以上の変形等が認められる)を示す領域のサイズ等、パターンの出来栄え等を評価する1以上のパラメータであってもよいし、AFMで得られる高さ情報のような試料表面情報であってもよい。
 図15は、第1レイヤ上に載った異物が第2レイヤを押し上げた様子を示す図である。このように、異物の直上のさらに周囲をも異物によって押し上げられることが考えられるので、異物の影響を適正に評価すべく、周囲領域の特徴や画像を含めたデータを、ニューラルネットワークの出力データとすることが望ましい。したがって、第2レイヤ上で取得する画像データや特徴は、第1レイヤ上に載った異物の第2レイヤへの影響の指標値をニューラルネットワークの出力とすべく、異物サイズより広い領域の特徴を抽出することが望ましい。
 以上のような入力データと出力データに基づいて学習モデルを生成(S1406)することによって、第1レイヤに載った異物が、第1レイヤの上層に設けられる第2レイヤにどのような影響を及ぼすかを示すデータを推定可能な学習モデルを構築することが可能となる。なお、第2レイヤに形成されたパターンのレイアウトやパターン密度に応じて、異物の影響は変化することが考えられるので、パターンレイアウトの種類や密度に応じた複数のモデルを用意することが望ましい。
 第1レイヤの画像データから、第2レイヤのデータを生成するディープニューラルニューラルネットワーク手法として、プーリング層を用いて多段のエンコーダ/デコーダで画素単位のデータを変換するセマンティックセグメンテーション法や、敵対生成学習を活用して画素単位のデータを生成する画像生成法を適用することが可能である。
 図16は、上述のように生成された学習モデルを用いて試料情報を推定する工程を示すフローチャートである。まず、第1レイヤが形成された半導体ウエハを、上位異物検査装置1002内に導入し、異物の座標情報を取得する(S1601)。次に、取得された異物の座標情報に基づいて、当該座標に電子ビームが照射されるように、撮像部301内の試料ステージ等を駆動し、異物の計測あるいは検査を実行する(S1602)。
 一方、コンピュータシステム202は、取得された座標情報に基づいて、設計データ1004を参照して、座標情報に対応する第2レイヤのレイアウト情報を取得し、当該レイアウトの種類に応じて記憶されているモデルを選択する(S1603)。上述のようにパターンの密度やレイアウトの種類に応じて、異物が他層に与える影響が変化するので、レイアウトやパターン密度等に応じた複数のモデルをあらかじめ用意しておき、異物座標に応じて適切なモデルを選択する。
 コンピュータシステム202は、選択されたモデルに対して画像データおよび特徴のうち少なくとも一方を入力することによって、座標情報に対応する第2レイヤの推定情報を出力する(S1604、S1605)。
 図17は、出力データ(推定情報)の表示例を示す図である。例えば入出力装置206が本画面を表示することができる。ここでは、撮像部301で得られた第1レイヤ上の異物の電子顕微鏡画像と、異物が第2レイヤに与える影響の推定結果を重畳した例を示している。より具体的には、図17は異物画像に重畳して、基準パターンに対する実パターンの変形率(deformation rate)と推定確度(accuracy)が表示された例を示している。変形率は、例えば第2レイヤが形成された後に異物上に形成されたパターンの電子顕微鏡画像に含まれるパターンエッジと、設計データのエッジとの差分などから求めることができる。学習モデルはこの値を出力とする教師データを用いてあらかじめ学習しておく。
 図17は、異物の左半分は学習モデルXを用いたパターン情報推定が行われ、右半分は学習モデルYを用いたパターン情報推定が行われた例を示している。第1レイヤに付着した異物が、第2レイヤの密度領域等が異なる2つのパターン領域に跨っているような場合、異物のそれぞれのパターン領域への影響は異なると考えられるので、それぞれの領域に応じた適切なモデルを用いて推定を実施することによって、異物の第2レイヤへの影響を適切に評価することが可能となる。
 図18は、学習モデルから欠陥率(Defect rate)を出力する場合の表示例を示す図である。図18の表示例によれば、第1レイヤに付着した異物が、第2レイヤのパターン欠陥を発生させる程度を把握することが可能となる。欠陥は例えば配線の断線やショートであり、学習モデルの生成時には、第2レイヤ上の欠陥検査結果を出力とする教師データを用いて学習しておく。図18は、1つの異物に対して複数のモデルを用いて欠陥率を推定し、その結果を表示した例を示す。1つの異物に対して異なる複数のレイアウトが重畳している場合、このような表示によって、1つの異物が他のレイヤの欠陥要因となる可能性を把握することが可能となる。
<実施の形態6>
 図19は、異物高さ推定結果の表示例を示す図である。図19の例では、ニューラルネットワークによって異物の各部位の高さとその確度が出力されている。このように部位単位で高さの推定結果と確度を表示することにより、例えば確度の低い領域が、確度の高い領域に囲まれていれば、その確度の低い領域も確度の高い領域と同等の高さであると推測することができる。異物の高さについては、これまでの実施形態で説明した手法により学習することができる。
 図20は、推定確度の高い領域の高さ情報に基づいて、推定確度の低い領域の高さを推定する手法の1例を示す図である。斜線部は推定確度の低い領域を示しており、その他の領域は相対的に推定確度が高い領域を示している。図に例示するように、推定確度が低い部分を跨ぐように、推定確度の高い領域間を内挿補間することにより、推定確度の低い領域の高さを推定することが可能となる。内挿補間や外挿補間によって推定した結果、もとの推定結果と内挿等によって推定した結果が同じあるいは同等(例えば誤差率n%以下)の場合は、推定確度が高くなるように学習し、推定結果に乖離がある場合には、補間結果を推定結果とするように学習する。これにより、実際にAFM等を用いた再計測を実施することなく、推定精度を上げるようにモデルを更新することが可能となる。
<実施の形態7>
 本開示の実施形態7では、図6に例示したような陰影像検出器を備えた荷電粒子線装置によって得られる出力から高さを推定する学習モデルの更新方法について説明する。具体的には、陰影像検出器の出力に応じて、モデルの更新方法を切り替える手法について説明する。システム構成としては例えば実施形態2で説明したものを用いることができる。
 図21は、識別器201の学習モデルを更新する手順を示す図である。本実施形態7では図21に例示するように、左側検出器と右側検出器の2つの検出器が設けられた走査電子顕微鏡を例に採って説明するが、3つ以上の検出器を備えた荷電粒子線装置の適用も可能である。
 図21に例示するように、左側検出器の出力に基づいて生成される画像と、右側検出器の出力に基づいて生成される画像は、その見え方が異なる。例えば左側検出器の出力に基づいて生成される画像は、異物から紙面右側に放出され、対物レンズの集束作用で偏向された電子の検出に基づいて生成されるので、右側のエッジが強調(高輝度)された画像となる(a1)。一方、右側検出器の出力に基づいて生成される画像は、左側検出器のそれとは逆で、左側エッジが強調された画像となる(a2)。また、異物の高さが高い程、高輝度領域が大きくなると考えられる。さらに、左右の検出器出力の差が大きい個所は、異物の形状が複雑であり、学習モデルを用いた推定が適正に実施されなくなることが考えられる。よって本実施形態7では、複数検出器の差分を求め(b)、当該差分が所定値を超えるような場合は、異物の座標情報をAFMに送り、AFMによる高さ計測を実施する(c1)。差分が所定値以下の場合は、上記領域間補間のようなAFMを用いず、推定結果の特徴抽出に基づいて、推定確度が低い部分のデータを更新する。これにより、効率良く学習モデルを更新することが可能となる。
 図21では、左右検出器の出力(あるいは画像)の差分が大きいときに、AFMを用いた高さ計測を実施するモデル更新法について説明したが、出力の差分がほとんどない場合は、陰影像検出器出力に基づく高さ推定結果の精度が低下することが考えられる。そのような部分についてより高度な推定を実施すべく、AFMを用いた高さ計測を実施し、その結果を出力とする教師データを用いて、学習モデルを学習させるようにしてもよい。
<実施の形態8>
 荷電粒子線装置によって得られる画像データや特徴と高さの実測値を十分に学習した場合でも、両者の情報量は大きく異なるので高さ推定の精度が低下するケースがある。このようなケースを荷電粒子線装置の出力データから自動判定することにより、高さ推定と実測の併用による安定的な高精度計測が可能になる。そこで本開示の実施形態8では、荷電粒子線装置によって得られる画像データや特徴から高さ推定することができるか否かを判定する学習モデルの生成と、その学習モデルを活用して安定した精度で高さを計測する方法を説明する。
 図22は、荷電粒子線装置によって得られる画像データや特徴から高さ推定の可否を判定する学習モデルの生成工程を示すフローチャートである。まず、荷電粒子線装置によって得られる画像データや特徴を入力する(S2201)。次に識別器による高さ推定を実施する(S2202)。次にAFMを用いて高さを計測する(S2203)。推定値とAFMによる高さ計測値を比較する(S2204)。推定値と計測値との間に十分な乖離があった場合、その部位を高さ推定困難な部位と判定する(S2205)。次に画像データや特徴情報を入力として、高さ推定である旨の推定結果を出力する高さ推定不可判定モデルを機械学習により生成する。このモデルは、入力が画像データの場合は画像内の高さ推定困難な領域と推定可能な領域を抽出し、入力が特徴情報であればその特徴を用いて高さを推定できるか否かを出力する。このモデルを活用することによって、入力データの分析により、推定可能か実測すべきかを判断できるようになる。なお、この高さ推定NGの部分のデータを用いて高さ推定の追加学習を実施することにより、高さ推定の精度向上を図ることもできる。
 図23は、図22で説明した高さ推定可否判定モデルを活用して荷電粒子線装置の出力から高さ推定可否を判定し、NGの部位をAFMで実測する工程を示すフローチャートである。まず、荷電粒子線装置による画像データや特徴情報を入力する(S2301)。次に、高さ推定可否判定モデルを活用し、高さの推定可否を判定する(S2302)。高さ推定不可の場合は、AFMで高さを計測する(S2303)。
<実施の形態9>
 実施形態3において、前処理としてADCを実行し、その分類結果に対応する学習モデルを用いて異物の高さを推定する例について説明した。本開示の実施形態9では、学習モデルを用いてADC処理を実施する例について説明する。
 図24は、陰影像を入力データとして、欠陥分類を行うコンピュータシステムの1例を示す図である。図24において、識別器201は、SEM画像200(陰影像)を入力とし、高さ情報801(AFM計測結果)と欠陥種情報2401を出力とする教師データを用いてあらかじめ学習を実施する。その識別器201を用いて、欠陥あるいは異物を分類する。推定結果として、欠陥の種類(断線、短絡、異物、異物等の形状等)だけではなく、その高さ情報を出力することができるので、例えば欠陥等が次の工程に及ぼす影響をも推定することが可能となる。
 図25は、本実施形態9におけるコンピュータシステム202の構成図である。図25に例示するシステムは、識別器201と2502を備える。識別器201は、AFM等で得られた異物の高さ情報801と、陰影像検出器の出力に基づいて生成されるSEM画像200のデータセットを教師データとして学習を実施する。識別器2502は、高さ演算部205で推定された高さ情報と、陰影像検出器の出力に基づいて生成される画像等と、欠陥種情報2401のデータセットを教師データとして学習を実施する。上層欠陥分類部2501は、識別器2502を用いて欠陥分類を実行する。
 上層欠陥分類部2501は、下層(第1レイヤ)のSEM画像200に含まれる異物の2次元的な特徴と、推定された高さ情報(3次元情報)を入力として、上層(第2レイヤ)に形成されたパターンの欠陥種を推定する。識別器2502を備えたシステムによれば、欠陥の特徴に応じた適切な分類を行うことが可能となる。識別器2502を学習するためには、下層の異物画像等のSEM画像と、下層の異物座標に対応する上層の位置のSEM画像を取得し、これらSEM画像、あるいは画像から抽出される特徴(欠陥種など)をデータセットとして識別器2502を学習する。
 図26は、本実施形態9における学習モデルを最適化するためのGUI画面の1例を示す図である。GUI画面2601には、左欄2605と右欄2608を有する。左欄2605には、データセットの入力となる下層の異物のSEM画像2602と、異物座標と同じ位置の上層のSEM画像2603をセットとしたサムネイル2604が複数表示されている。右欄2608には、欠陥種ごとの入力欄2606と2607が設けられている。
 オペレータは、上層のSEM画像2603を見て、欠陥の種類(SEM画像2603はラインパターン同士が短絡している状態)を判断し、ポインティングデバイス等を用いて右欄2608の対応する欠陥種の入力欄にサムネイル2604を移動させることにより、学習データを更新することができる。データセット生成部803は、サムネイル2604に含まれる下層のSEM画像2602、あるいは当該SEM画像から抽出される特徴を入力とし、サムネイル2604が入力された入力欄の欠陥種を出力とするデータセットを生成する。このデータセットを識別器2502の教師データとする。このような構成によれば、下層の異物画像から上層の欠陥種を特定することが可能となる。
<実施の形態10>
 本開示の実施形態10では、下層に異物が存在する場合において上層でどのようなことが起こるかを推定する推定モデルを生成し、当該推定モデルを用いて、上層の状況を推定する例について説明する。本実施形態10で用いられるニューラルネットワークにおける入力層には、(a)上層(第2層)の設計データ(設計情報)、および当該設計データから抽出される特徴(例えば、パターンの線幅、パターンの面積、パターン間の距離等)のうち少なくとも一方を含む第1データ、(b)図3や図6に例示する走査電子顕微鏡のようなイメージングシステムによって得られる下層(第1層)の画像、および当該第2画像から抽出される特徴の少なくとも一方を含む第2データ、が入力される。下層の画像は、異物等を立体的に捉えられる複数の陰影像検出器の出力に基づいて生成することが望ましい。第2画像から抽出される特徴としては、例えば、異物の形状、サイズ、輝度情報、陰影像検出器間の差分データなどが考えられる。
 本実施形態10で用いられるニューラルネットワークの中間層は、第1データと第2データを入力とし、上層の画像と上層の特徴のうち少なくとも一方を含む第3のデータを出力とする教師データを用いて、学習を実施する。出力層は、中間層の出力に基づいて出力データを生成する。
 図27は、上述のような推定モデルを含むモジュール(識別器201)を含むコンピュータシステム202の1例を示す図である。データセット生成部803は、設計データ1004を学習データとして受け取る。データセット生成部803はさらに、SEM画像200から、上層輪郭線画像と下層画像を学習データとして受け取る。データセット生成部803はこれらデータを用いて、上記教師データを生成し、識別器201に学習させる。輪郭線生成部2701は、下層画像と設計データ1004を入力として受け取り、これらを識別器201に対して入力することにより、上層の輪郭線を推定する。
 図28は、本実施形態10における学習過程を説明するフローチャートである。まず、図10に例示するような上位異物検査装置1002を用いて、第1レイヤの製造工程で生成された半導体ウエハ上に付着した異物の座標(第1位置)を特定する(S1401)。次に、撮像部301に半導体ウエハを導入し、第1位置に付着した異物について、撮像部301を用いた計測あるいは検査を実行する(S1402)。ここでは例えば複数の陰影像検出器の出力から異物画像を生成する。後述するように、当該異物画像はデータセットとして教師データを生成するために用いられるが、画像以外にも当該画像から抽出される特徴を、データセットを生成するために用いてもよい。さらにコンピュータシステム202は、設計データ1004より、第1位置に対応するパターンの設計データ(レイアウトデータ)を読み出す(S2801)。
 次に、コンピュータシステム202は、第1レイヤ上に第2レイヤが積層された後、第2レイヤの第1位置の画像を取得する(S1404、S1405)。
 以上のような工程を経て得られた下層の異物画像データ、上層の設計データ、及び上層の画像データ(あるいは画像データから抽出されるパターンの輪郭線データ)のデータセットを教師データとして識別器201を学習する(S1406)。教師データとなるデータセットには、下層に位置する異物画像、パターンの理想形状を示す設計データ(レイアウトデータ)、及び異物の影響を受けた上層のパターンの設計データと同じパターンの画像データ(あるいは画像に含まれるエッジを細線化することによって抽出される輪郭線データ)が含まれている。すなわちデータセットには、異物の影響を受けていないパターン画像(上層のレイアウトデータ)、異物の影響を受けたパターン画像(上層パターンの実画像、あるいは輪郭線データ)、及びパターン等を変形させる要因となる異物の画像が含まれており、変形前形状、変形原因、変形後形状を含む教師データとなる。したがって、下層異物が上層に対して与える影響を推定するための学習モデルを構築することが可能となる。
 上述の例では下層異物のSEM画像と上層の設計データを入力とし、上層のSEM画像(あるいはSEM画像から抽出される輪郭線データ)を出力とする教師データを用いて学習モデルを学習する例について説明したが、製造プロセスに関する情報やSEMの撮像条件を入力として追加し、上層パターンの致命度等を出力として追加して、学習モデルを学習させるようにしてもよい。
 異物が比較的多く付着したウエハを用意し、下層異物の画像や異物が付着した位置に対応する上層パターンのSEM画像等を取得することによって、教師データとなるデータセットをより多く用意することができる。
<本開示の変形例について>
 本開示は、前述した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施形態は本開示を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
 以上の実施形態において、コンピュータシステム202が備える識別器201は、学習結果を格納した記憶部305と、各ユニットに対して値が入力されたとき学習結果にしたがって値を出力する機能によって構成することができる。識別器201のこの機能やコンピュータシステム202が備えるその他機能部は、これらの機能を実装した回路デバイスなどのハードウェアを用いて構成することもできるし、これらの機能を実装したソフトウェアを演算装置が実行することにより構成することもできる。
201:識別器
202:コンピュータシステム
203:測長値/面積値演算部
204:輝度評価部
205:高さ演算部
206:入出力装置
301:撮像部
302:全体制御部
303:信号処理部
304:入出力部
305:記憶部
306:電子銃
307:電子ビーム
308:集束レンズ
309:集束レンズ
310:偏向器310
311:対物レンズ
312:試料
313:試料ステージ
314:放出電子
315:下段検出器
316:上段検出器
317:エネルギーフィルタ
318:ブランキング偏向器
319:ブランキング用電極

Claims (15)

  1.  荷電粒子線装置によって得られたデータから、試料の構造物または当該構造物上の異物の高さ方向におけるサイズに関する情報を推定するシステムであって、
     前記システムは、コンピュータシステムと、前記コンピュータシステムが実行する演算モジュールを含み、
     前記コンピュータシステムは、前記高さ方向におけるサイズに関する情報を学習結果として出力する学習器を備え、
     前記学習器は、前記荷電粒子線装置によって得られるデータ、あるいは当該データから抽出される特徴量を入力とし、前記試料の構造物または前記構造物上の異物の高さ方向におけるサイズを出力とする教師データを用いてあらかじめ学習を実施しており、
     前記演算モジュールは、前記学習器に対して、前記荷電粒子線装置によって取得されたデータ、あるいは当該データから抽出される特徴量を入力することによって、前記高さ方向におけるサイズを取得するとともに、そのサイズを出力する、
     システム。
  2.  請求項1において、
     前記特徴量は、前記構造物の観察画像の輝度に関する情報を含み、
     前記特徴量は、前記構造物の寸法あるいは面積に関する情報を含んでいる、
     システム。
  3.  請求項1において、
     前記荷電粒子線装置によって得られるデータは、前記荷電粒子線装置のビーム光軸に対して傾斜した方向に配置された複数の検出器の出力、あるいは前記出力に基づいて得られるデータである、
     システム。
  4.  請求項1において、
     前記学習器は、1の異物画像に対して複数の異なる背景画像を合成した複数の画像を入力とした教師データを用いてあらかじめ学習を実施している、
     システム。
  5.  請求項1において、
     前記学習器は、前記試料のレイアウトデータの種類、あるいは前記構造物上に形成されたパターンの密度ごとに用意されており、
     前記コンピュータシステムは、前記試料のレイアウトデータまたは前記パターンの密度を取得し、
     前記演算モジュールは、前記取得した前記試料のレイアウトデータまたは前記取得した前記パターンの密度に対応する前記学習器を用いて、前記高さ方向にけるサイズを取得する、
     システム。
  6.  請求項1において、
     前記学習器は、前記学習結果とともに、前記学習結果の確度を前記試料上の領域ごとに出力するように構成されており、
     前記コンピュータシステムは、前記試料上の領域のうち前記確度が所定閾値未満である部分については、前記確度が前記所定閾値以上である部分についての前記学習結果を用いて補間演算を実施することにより、前記学習結果を補正する、
     システム。
  7.  請求項3において、
     各前記検出器の出力間の差分が所定閾値を超えた場合、前記コンピュータシステムは、前記荷電粒子線装置以外の装置による計測結果を用いて前記学習器の再学習を実施し、
     各前記検出器の出力間の差分が前記所定閾値以下である場合、前記コンピュータシステムは、各前記検出器の出力を用いて前記学習器の再学習を実施する
     システム。
  8.  請求項1において、
     前記コンピュータシステムは、前記試料上の異物の種類を分類する分類モジュールを含み、
     前記演算モジュールは、前記分類モジュールによって分類された異物のデータ、あるいは当該データから抽出された特徴を前記学習器に入力することによって、前記高さ方向におけるサイズを取得する、
     システム。
  9.  荷電粒子線装置によって得られたデータから、試料の構造物または当該構造物上の異物の高さ方向におけるサイズに関する情報を推定する処理をコンピュータシステムに実行させるプログラムであって、
     前記コンピュータシステムは、前記高さ方向におけるサイズに関する情報を出力する学習器を備え、
     前記学習器は、前記荷電粒子線装置によって得られるデータ、あるいは当該データから抽出される特徴量を入力とし、前記試料の構造物または前記構造物上の異物の高さ方向におけるサイズを出力とする教師データを用いてあらかじめ学習を実施しており、
     前記プログラムは、前記コンピュータシステムに、前記学習器に対して、前記荷電粒子線装置によって取得されたデータ、あるいは当該データから抽出される特徴量を入力することによって、前記高さ方向におけるサイズを取得させるとともに、そのサイズを出力させる、
     プログラム。
  10.  荷電粒子線装置によって得られたデータから、試料の特定位置における観察画像あるいは前記特定位置における前記観察画像の特徴を推定するシステムであって、
     前記システムは、コンピュータシステムと、前記コンピュータシステムが実行する演算モジュールを含み、
     前記コンピュータシステムは、前記観察画像または前記観察画像の特徴を学習結果として出力する学習器を備え、
     前記学習器は、半導体デバイスの第1レイヤの第1位置に対する荷電粒子ビームの照射に基づいて得られるデータ、あるいは当該データから抽出される特徴を入力とし、前記第1レイヤを製造した製造工程よりも後の製造工程で製造された第2レイヤの前記第1位置に対応する位置の観察画像あるいはその観察画像の特徴を出力とする教師データを用いて、あらかじめ学習を実施しており、
     前記演算モジュールは、前記学習器に対して、前記第1レイヤに対する荷電粒子ビームの照射に基づいて得られるデータ、あるいは当該データから抽出される特徴を入力することにより、前記第2レイヤの前記第1位置に対応する位置における観察画像あるいはその観察画像の特徴を取得するとともに、その観察画像あるいは特徴を出力する、
     システム。
  11.  請求項10において、
     前記学習器は、前記第2レイヤの前記第1位置における設計データまたはその設計データから抽出される特徴を、前記教師データの入力として用いてあらかじめ学習を実施しており、
     前記演算モジュールは、前記学習器に対して、前記第2レイヤの前記第1位置における設計データを入力することにより、前記第2レイヤの前記第1位置に対応する位置における観察画像あるいはその観察画像の特徴を取得する
     システム。
  12.  請求項10において、
     前記学習器より出力される特徴は、
     前記第2レイヤの前記第1位置に対応する位置に形成されたパターンの寸法値、
     前記パターンの形状の評価値、
     前記パターンの形状の変形量、
     前記試料の設計データに対するエッジ位置の乖離の程度、
     のうち少なくとも1つを示すパラメータである、
     システム。
  13.  荷電粒子線装置によって得られたデータから、試料の特定位置における観察画像あるいは前記特定位置における前記観察画像の特徴を推定する処理をコンピュータシステムに実行させるプログラムであって、
     前記コンピュータシステムは、前記観察画像または前記観察画像の特徴を学習結果として出力する学習器を備え、
     前記学習器は、半導体デバイスの第1レイヤの第1位置に対する荷電粒子ビームの照射に基づいて得られるデータ、あるいは当該データから抽出される特徴を入力とし、前記第1レイヤを製造した製造工程よりも後の製造工程で製造された第2レイヤの前記第1位置に対応する位置の観察画像あるいはその観察画像の特徴を出力とする教師データを用いて、あらかじめ学習を実施しており、
     前記プログラムは、前記コンピュータシステムに、前記学習器に対して、前記第1レイヤに対する荷電粒子ビームの照射に基づいて得られるデータ、あるいは当該データから抽出される特徴を入力することにより、前記第2レイヤの前記第1位置に対応する位置における観察画像あるいはその観察画像の特徴を取得させるとともに、その観察画像あるいは特徴を出力させる、
     プログラム。
  14.  荷電粒子線装置によって得られたデータから、試料上の欠陥種を推定するシステムであって、
     前記システムは、コンピュータシステムと、前記コンピュータシステムが実行する演算モジュールを含み、
     前記コンピュータシステムは、前記欠陥種を学習結果として出力する学習器を備え、
     前記学習器は、半導体デバイスの第1レイヤの第1位置に対する荷電粒子ビームの照射に基づいて得られるデータ、あるいは当該データから抽出される特徴を入力とし、前記第1レイヤを製造した製造工程よりも後の製造工程で製造された第2レイヤの前記第1位置に対応する位置の欠陥種を出力とする教師データを用いて、あらかじめ学習を実施しており、
     前記演算モジュールは、前記学習器に対して、前記第1レイヤに対する荷電粒子ビームの照射に基づいて得られるデータ、あるいは当該データから抽出される特徴を入力することにより、前記第2レイヤの前記第1位置に対応する位置における欠陥種を取得するとともに、その欠陥種を出力する、
     システム。
  15.  荷電粒子線装置によって得られたデータから、試料上の欠陥種を推定する処理をコンピュータシステムに実行させるプログラムであって、
     前記コンピュータシステムは、前記欠陥種を学習結果として出力する学習器を備え、
     前記学習器は、半導体デバイスの第1レイヤの第1位置に対する荷電粒子ビームの照射に基づいて得られるデータ、あるいは当該データから抽出される特徴を入力とし、前記第1レイヤを製造した製造工程よりも後の製造工程で製造された第2レイヤの前記第1位置に対応する位置の欠陥種を出力とする教師データを用いて、あらかじめ学習を実施しており、
     前記プログラムは、前記コンピュータシステムに、前記学習器に対して、前記第1レイヤに対する荷電粒子ビームの照射に基づいて得られるデータ、あるいは当該データから抽出される特徴を入力することにより、前記第2レイヤの前記第1位置に対応する位置における欠陥種を取得させるとともに、その欠陥種を出力させる、
     プログラム。
PCT/JP2019/005648 2019-02-15 2019-02-15 構造推定システム、構造推定プログラム WO2020166076A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020217009837A KR102592253B1 (ko) 2019-02-15 2019-02-15 구조 추정 시스템, 구조 추정 프로그램
PCT/JP2019/005648 WO2020166076A1 (ja) 2019-02-15 2019-02-15 構造推定システム、構造推定プログラム
KR1020237035550A KR20230148862A (ko) 2019-02-15 2019-02-15 구조 추정 시스템, 구조 추정 프로그램
US17/296,421 US20220130027A1 (en) 2019-02-15 2019-02-15 Structure Estimation System and Structure Estimation Program
TW111141062A TWI830467B (zh) 2019-02-15 2020-02-04 構造推定系統、構造推定程式
TW110136681A TWI785824B (zh) 2019-02-15 2020-02-04 構造推定系統、構造推定程式
TW109103331A TWI744786B (zh) 2019-02-15 2020-02-04 構造推定系統、構造推定程式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/005648 WO2020166076A1 (ja) 2019-02-15 2019-02-15 構造推定システム、構造推定プログラム

Publications (1)

Publication Number Publication Date
WO2020166076A1 true WO2020166076A1 (ja) 2020-08-20

Family

ID=72044427

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/005648 WO2020166076A1 (ja) 2019-02-15 2019-02-15 構造推定システム、構造推定プログラム

Country Status (4)

Country Link
US (1) US20220130027A1 (ja)
KR (2) KR102592253B1 (ja)
TW (3) TWI744786B (ja)
WO (1) WO2020166076A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220122111A (ko) * 2021-02-26 2022-09-02 김이경 파동분포를 제어하기 위한 구조를 설계하는 방법 및 그 장치
WO2023144909A1 (ja) * 2022-01-26 2023-08-03 株式会社日立ハイテク 異物高さの測定方法及び荷電粒子線装置
US11852599B2 (en) 2020-08-05 2023-12-26 Hitachi High-Tech Corporation Image processing system
WO2024069701A1 (ja) * 2022-09-26 2024-04-04 株式会社日立ハイテク モデル生成方法及び欠陥検査システム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220062635A (ko) * 2019-10-18 2022-05-17 주식회사 히타치하이테크 검사 시스템, 및 비일시적 컴퓨터 판독 가능 매체
JP7130267B2 (ja) * 2020-09-03 2022-09-05 株式会社リガク 全反射蛍光x線分析装置及び推定方法
JP2023014480A (ja) * 2021-07-19 2023-01-31 株式会社日立ハイテク 計測方法、計測システム、及び非一時的なコンピューター可読媒体
CN116187399B (zh) * 2023-05-04 2023-06-23 北京麟卓信息科技有限公司 一种基于异构芯片的深度学习模型计算误差定位方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004363085A (ja) * 2003-05-09 2004-12-24 Ebara Corp 荷電粒子線による検査装置及びその検査装置を用いたデバイス製造方法
JP2012173017A (ja) * 2011-02-18 2012-09-10 Hitachi High-Technologies Corp 欠陥分類装置
WO2014091928A1 (ja) * 2012-12-12 2014-06-19 東京エレクトロン株式会社 基板の欠陥検査方法、基板の欠陥検査装置及びコンピュータ記憶媒体

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1261016A4 (en) * 2000-12-12 2007-06-27 Ebara Corp ELECTRON BEAM DEVICE AND METHOD FOR PRODUCING SEMICONDUCTOR DEVICES USING THE ELECTRON BEAM DEVICE
CN1820346B (zh) * 2003-05-09 2011-01-19 株式会社荏原制作所 基于带电粒子束的检查装置及采用了该检查装置的器件制造方法
JP4585822B2 (ja) 2004-09-22 2010-11-24 株式会社日立ハイテクノロジーズ 寸法計測方法及びその装置
US10115040B2 (en) * 2016-09-14 2018-10-30 Kla-Tencor Corporation Convolutional neural network-based mode selection and defect classification for image fusion
US11580398B2 (en) * 2016-10-14 2023-02-14 KLA-Tenor Corp. Diagnostic systems and methods for deep learning models configured for semiconductor applications
CN109844919B (zh) * 2016-10-17 2020-12-11 科磊股份有限公司 优化用于设置检验相关算法的训练组
JP6668278B2 (ja) * 2017-02-20 2020-03-18 株式会社日立ハイテク 試料観察装置および試料観察方法
US11275361B2 (en) * 2017-06-30 2022-03-15 Kla-Tencor Corporation Systems and methods for predicting defects and critical dimension using deep learning in the semiconductor manufacturing process
US20220028052A1 (en) * 2018-12-14 2022-01-27 Asml Netherlands B.V. Apparatus and method for grouping image patterns to determine wafer behavior in a patterning process

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004363085A (ja) * 2003-05-09 2004-12-24 Ebara Corp 荷電粒子線による検査装置及びその検査装置を用いたデバイス製造方法
JP2012173017A (ja) * 2011-02-18 2012-09-10 Hitachi High-Technologies Corp 欠陥分類装置
WO2014091928A1 (ja) * 2012-12-12 2014-06-19 東京エレクトロン株式会社 基板の欠陥検査方法、基板の欠陥検査装置及びコンピュータ記憶媒体

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11852599B2 (en) 2020-08-05 2023-12-26 Hitachi High-Tech Corporation Image processing system
KR20220122111A (ko) * 2021-02-26 2022-09-02 김이경 파동분포를 제어하기 위한 구조를 설계하는 방법 및 그 장치
KR102468352B1 (ko) * 2021-02-26 2022-11-18 김이경 파동분포를 제어하기 위한 구조를 설계하는 방법 및 그 장치
WO2023144909A1 (ja) * 2022-01-26 2023-08-03 株式会社日立ハイテク 異物高さの測定方法及び荷電粒子線装置
WO2024069701A1 (ja) * 2022-09-26 2024-04-04 株式会社日立ハイテク モデル生成方法及び欠陥検査システム

Also Published As

Publication number Publication date
KR20230148862A (ko) 2023-10-25
US20220130027A1 (en) 2022-04-28
KR20210053326A (ko) 2021-05-11
TW202324561A (zh) 2023-06-16
TWI785824B (zh) 2022-12-01
TW202220077A (zh) 2022-05-16
TWI744786B (zh) 2021-11-01
TW202101626A (zh) 2021-01-01
TWI830467B (zh) 2024-01-21
KR102592253B1 (ko) 2023-10-24

Similar Documents

Publication Publication Date Title
WO2020166076A1 (ja) 構造推定システム、構造推定プログラム
JP5452392B2 (ja) 欠陥観察方法及び欠陥観察装置
KR102195029B1 (ko) 결함 분류 장치 및 결함 분류 방법
WO2016121265A1 (ja) 試料観察方法および試料観察装置
KR101202527B1 (ko) 결함 관찰 장치 및 결함 관찰 방법
JP5425601B2 (ja) 荷電粒子線装置およびその画質改善方法
WO2014119124A1 (ja) 欠陥観察方法および欠陥観察装置
US9343264B2 (en) Scanning electron microscope device and pattern dimension measuring method using same
KR102350416B1 (ko) 결함 관찰 장치
KR101987726B1 (ko) 전자선식 패턴 검사 장치
JP2007067130A (ja) 回路パターン検査方法及びその装置
US20130170757A1 (en) Method for creating template for patternmatching, and image processing apparatus
JP2007172393A (ja) 3次元画像表示装置、3次元画像表示装置の操作方法、3次元画像表示プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
US9036869B2 (en) Multi-surface optical 3D microscope
JP2020186959A (ja) パターン評価システム及びパターン評価方法
JP2020113769A (ja) 画像推定方法およびシステム
US11852599B2 (en) Image processing system
KR20220002572A (ko) 화상 처리 프로그램, 화상 처리 장치 및 화상 처리 방법
WO2016092614A1 (ja) 欠陥検査装置、表示装置、及び欠陥分類装置
JP5953117B2 (ja) パターン評価装置、及びコンピュータープログラム
TW202418425A (zh) 構造推定系統、電腦可讀儲存媒體
JP5669896B2 (ja) 走査型荷電粒子顕微鏡の画質改善方法および走査型荷電粒子顕微鏡装置
JP2011179819A (ja) パターン測定方法及びコンピュータプログラム
US20240144560A1 (en) Training Method for Learning Apparatus, and Image Generation System
JP2023019700A (ja) 荷電粒子線装置の撮像画像に係る条件決定方法、装置およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19914759

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20217009837

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19914759

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP