WO2020121739A1 - 画像マッチング方法、および画像マッチング処理を実行するための演算システム - Google Patents

画像マッチング方法、および画像マッチング処理を実行するための演算システム Download PDF

Info

Publication number
WO2020121739A1
WO2020121739A1 PCT/JP2019/045087 JP2019045087W WO2020121739A1 WO 2020121739 A1 WO2020121739 A1 WO 2020121739A1 JP 2019045087 W JP2019045087 W JP 2019045087W WO 2020121739 A1 WO2020121739 A1 WO 2020121739A1
Authority
WO
WIPO (PCT)
Prior art keywords
cad
image
pattern
model
patterns
Prior art date
Application number
PCT/JP2019/045087
Other languages
English (en)
French (fr)
Inventor
泰平 森
Original Assignee
Tasmit株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tasmit株式会社 filed Critical Tasmit株式会社
Priority to US17/311,997 priority Critical patent/US20220012404A1/en
Priority to KR1020217021164A priority patent/KR20210101271A/ko
Priority to JP2020559875A priority patent/JPWO2020121739A1/ja
Priority to CN201980082059.0A priority patent/CN113242956A/zh
Publication of WO2020121739A1 publication Critical patent/WO2020121739A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/30Circuit design
    • G06F30/39Circuit design at the physical level
    • G06F30/398Design verification or optimisation, e.g. using design rule check [DRC], layout versus schematics [LVS] or finite element methods [FEM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/06Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and measuring the absorption
    • G01N23/18Investigating the presence of flaws defects or foreign matter
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B15/00Measuring arrangements characterised by the use of electromagnetic waves or particle radiation, e.g. by the use of microwaves, X-rays, gamma rays or electrons
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/22Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material
    • G01N23/225Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion
    • G01N23/2251Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion using incident electron beams, e.g. scanning electron microscopy [SEM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Definitions

  • the present invention relates to an image matching process for aligning a pattern on design data with a pattern on an image, and particularly to an image matching process using a model constructed by machine learning.
  • a pattern inspection method for semiconductor devices using die-to-database technology is known (for example, Patent Document 1).
  • a typical pattern inspection method is to generate an image of a pattern on a wafer with a scanning electron microscope, compare a CAD pattern on design data (also referred to as CAD data) with a pattern on the image, and check the pattern on the wafer. Detecting defects.
  • a pre-process of such a pattern inspection method a matching process for aligning the CAD pattern on the design data with the pattern on the image is performed.
  • FIG. 13 is a schematic diagram showing an example of matching processing.
  • the CAD pattern 501 on the design data is compared with each of a number of patterns 505-1 to 505-N in a certain area on the image, and the pattern 505-which is the closest to the shape of the CAD pattern 501.
  • the algorithm of determining n is executed.
  • the above-described matching processing requires a long processing time because it is necessary to compare the CAD pattern 501 with many patterns 505-1 to 505-N on the image. Further, the pattern 505-n on the image corresponding to the CAD pattern 501 is deformed in the step of forming the pattern on the wafer and/or the step of imaging the pattern on the wafer. Therefore, as shown in FIG. 14, there is a large difference in shape between the CAD pattern 501 and the pattern 505-n. As a result, the matching process sometimes failed.
  • the present invention provides a method and apparatus capable of correctly performing a matching process between a CAD pattern on design data and a corresponding pattern on an image.
  • a specified CAD pattern on design data is converted into a CAD image
  • the CAD image is input to a model constructed by machine learning, and calculation is performed according to an algorithm defined by the model.
  • a method of outputting a pseudo image from the model, and determining a pattern having a shape closest to the shape of the CAD pattern on the pseudo image from a plurality of patterns on the image generated by an image generation device is provided. It
  • the model includes training data including at least a plurality of CAD images converted from a plurality of CAD patterns on design data and a plurality of images generated by an image generation device corresponding to the plurality of CAD images. Is a model constructed by machine learning using.
  • the training data further includes training additional information data, and the training additional information data is converted from position information of the plurality of CAD patterns and a plurality of CAD patterns around the plurality of CAD patterns. At least one of the plurality of peripheral images and the plurality of layer images converted from the plurality of CAD patterns existing above or below the plurality of CAD patterns.
  • additional information data is input to the model, and the additional information data is obtained from position information of the designated CAD pattern and CAD patterns around the designated CAD pattern. At least one of the transformed peripheral image and the layer image transformed from the CAD pattern existing above or below the specified CAD pattern is included.
  • the method comprises machine learning so that the CAD pattern on the pseudo image output from the model matches a corresponding pattern on the image generated by the image generation device within a predetermined tolerance. And adjusting the parameters of the model.
  • a computing system for executing an image matching process comprising a storage device that stores a model constructed by machine learning and a program, and a processing device that performs a computation according to the program,
  • the system converts a specified CAD pattern on the design data into a CAD image, inputs the CAD image into the model, and executes a calculation according to an algorithm defined by the model to generate a pseudo image from the model.
  • An arithmetic system is provided that operates so as to determine a pattern having a shape that is closest to the shape of a CAD pattern on the pseudo image from among a plurality of patterns on an image generated by an image generation device. ..
  • the model includes training data including at least a plurality of CAD images converted from a plurality of CAD patterns on design data and a plurality of images generated by an image generation device corresponding to the plurality of CAD images. Is a model constructed by machine learning using.
  • the training data further includes training additional information data, and the training additional information data is converted from position information of the plurality of CAD patterns and a plurality of CAD patterns around the plurality of CAD patterns. At least one of the plurality of peripheral images and the plurality of layer images converted from the plurality of CAD patterns existing above or below the plurality of CAD patterns.
  • additional information data is input to the model, and the additional information data includes positional information of the designated CAD pattern and CAD patterns around the designated CAD pattern. At least one of the transformed peripheral image and the layer image transformed from the CAD pattern existing above or below the specified CAD pattern is included.
  • the computing system is configured to match the CAD pattern on the pseudo image output from the model with a corresponding tolerance pattern on the image generated by the image generation device within a predetermined tolerance. It operates to perform learning and adjust the parameters of the model.
  • a computing system for executing an image matching process comprising a storage device that stores a model constructed by machine learning and a program, and a processing device that performs a computation according to the program, Is a method of converting a specified CAD pattern on design data into a CAD image, inputting the CAD image into the model, and executing calculation according to an algorithm defined by the model, The step of outputting a pseudo image, and the step of determining a pattern having a shape closest to the shape of the CAD pattern on the pseudo image from the plurality of patterns on the image generated by the image generating apparatus are provided to the arithmetic system.
  • a computing system is provided that includes instructions for execution.
  • the model constructed by machine learning such as deep learning can accurately predict the actual pattern from the CAD pattern on the design data. That is, the CAD pattern that appears on the pseudo image output from the model is expected to have a shape close to the actual pattern. Therefore, the arithmetic system can correctly align the CAD pattern on the pseudo image with the pattern on the image generated by the image generation device (that is, image matching processing).
  • FIG. 9 is a flowchart illustrating an embodiment of building a model by machine learning. It is a schematic diagram which shows an example of the CAD image converted from the CAD pattern. It is a schematic diagram which shows an example of the SEM image produced
  • FIG. 1 is a schematic diagram showing an embodiment of an imaging device.
  • the image pickup apparatus includes a scanning electron microscope 50 and a calculation system 150.
  • the scanning electron microscope 50 is an example of an image generation device.
  • the scanning electron microscope 50 is connected to the arithmetic system 150, and the operation of the scanning electron microscope 50 is controlled by the arithmetic system 150.
  • the computing system 150 includes a storage device 162 in which a database 161 and a program are stored, and a processing device 163 that executes a computation according to the program.
  • the processing device 163 includes a CPU (central processing unit) or GPU (graphic processing unit) that performs an operation according to a program stored in the storage device 162.
  • the storage device 162 includes a main storage device (eg, random access memory) accessible by the processing device 163 and an auxiliary storage device (eg, hard disk drive or solid state drive) for storing data and programs.
  • the computing system 150 includes at least one computer.
  • the computing system 150 may be an edge server connected to the scanning electron microscope 50 by a communication line, or a cloud server connected to the scanning electron microscope 50 by a network such as the Internet, or It may be a fog computing device (gateway, fog server, router, etc.) installed in a network connected to the scanning electron microscope 50.
  • the computing system 150 may be a combination of multiple servers.
  • the computing system 150 may be a combination of an edge server and a cloud server connected to each other by a network such as the Internet.
  • the scanning electron microscope 50 includes an electron gun 111 that emits an electron beam composed of primary electrons (charged particles), a focusing lens 112 that focuses the electron beam emitted from the electron gun 111, and an X deflector that deflects the electron beam in the X direction. 113, a Y deflector 114 for deflecting the electron beam in the Y direction, and an objective lens 115 for focusing the electron beam on a wafer 124 as a sample.
  • an electron gun 111 that emits an electron beam composed of primary electrons (charged particles)
  • a focusing lens 112 that focuses the electron beam emitted from the electron gun 111
  • an X deflector that deflects the electron beam in the X direction.
  • a Y deflector 114 for deflecting the electron beam in the Y direction
  • an objective lens 115 for focusing the electron beam on a wafer 124 as a sample.
  • the focusing lens 112 and the objective lens 115 are connected to the lens controller 116, and the operations of the focusing lens 112 and the objective lens 115 are controlled by the lens controller 116.
  • the lens controller 116 is connected to the arithmetic system 150.
  • the X deflector 113 and the Y deflector 114 are connected to the deflection control device 117, and the deflection operations of the X deflector 113 and the Y deflector 114 are controlled by the deflection control device 117.
  • This deflection control device 117 is also connected to the arithmetic system 150.
  • the secondary electron detector 130 and the backscattered electron detector 131 are connected to the image acquisition device 118.
  • the image acquisition device 118 is configured to convert the output signals of the secondary electron detector 130 and the backscattered electron detector 131 into an image.
  • the image acquisition device 118 is similarly connected to the arithmetic system 150.
  • the sample stage 121 arranged in the sample chamber 120 is connected to the stage controller 122, and the position of the sample stage 121 is controlled by the stage controller 122.
  • the stage controller 122 is connected to the arithmetic system 150.
  • a wafer transfer device 140 for mounting the wafer 124 on the sample stage 121 in the sample chamber 120 is also connected to the arithmetic system 150.
  • the electron beam emitted from the electron gun 111 is focused by a focusing lens 112, then is focused by an objective lens 115 while being deflected by an X deflector 113 and a Y deflector 114, and is irradiated on the surface of a wafer 124.
  • a focusing lens 112 When the wafer 124 is irradiated with primary electrons of the electron beam, secondary electrons and reflected electrons are emitted from the wafer 124. Secondary electrons are detected by the secondary electron detector 130, and reflected electrons are detected by the reflected electron detector 131.
  • the detected secondary electron signal and the reflected electron signal are input to the image acquisition device 118 and converted into an image. The image is transmitted to the computing system 150.
  • the design data of the wafer 124 is stored in the storage device 162 in advance.
  • the design data of the wafer 124 includes pattern design information such as the coordinates of the vertices of the pattern formed on the wafer 124, the position, shape, and size of the pattern, and the layer number to which the pattern belongs.
  • a database 161 is built in the storage device 162.
  • the design data of the wafer 124 is stored in the database 161 in advance.
  • the arithmetic system 150 can read the design data of the wafer 124 from the database 161 stored in the storage device 162.
  • the matching process is divided into a step of constructing a model by machine learning and a step of performing alignment (that is, image matching processing) between a CAD pattern on a pseudo image generated using the model and a pattern on an SEM image. Be done.
  • the model construction and the image matching process are executed by the arithmetic system 150.
  • the computing system 150 includes at least one dedicated computer or general-purpose computer.
  • the first computer executes the step of building the model, and the second computer uses the model to perform CAD on the pseudo image. Alignment of the pattern with the pattern on the SEM image may be performed.
  • the model created by the first computer may be temporarily stored in a semiconductor memory such as a USB flash drive (also referred to as a USB memory) and then read from the semiconductor memory into the second computer.
  • the model created on the first computer may be sent to the second computer over a communication network such as the Internet or a local area network.
  • FIG. 2 is a flowchart illustrating an embodiment of building a model by machine learning.
  • the arithmetic system 150 specifies the CAD pattern on the design data.
  • the design data is data including design information of the pattern formed on the wafer, and specifically, the coordinates of the vertex of the pattern, the position, shape, and size of the pattern, the number of the layer to which the pattern belongs, and the like of the pattern. Contains design information.
  • the CAD pattern on the design data is a virtual pattern defined by the design information of the pattern included in the design data.
  • This step 1-1 is a step of identifying a CAD pattern from a plurality of CAD patterns included in the design data. In this step 1-1, a plurality of CAD patterns may be designated.
  • the arithmetic system 150 converts the designated CAD pattern into a CAD image. More specifically, the arithmetic system 150 draws the CAD pattern 100 as shown in FIG. 3 based on the CAD pattern design information (for example, the coordinates of the vertices of the CAD pattern) included in the design data, and draws a certain area. A CAD image 101 having the is generated. The arithmetic system 150 stores the generated CAD image 101 in the storage device 162 of the arithmetic system 150.
  • step 1-3 the scanning electron microscope 50 as an image generation device generates an SEM image of the pattern on the wafer actually formed based on the CAD pattern specified in step 1-1.
  • FIG. 4 is a schematic diagram showing an example of an SEM image generated by the scanning electron microscope 50.
  • reference numeral 104 represents an SEM image
  • reference numeral 105 represents a pattern appearing on the SEM image 104.
  • the pattern 105 corresponds to the specified CAD pattern, that is, the CAD pattern 100 on the CAD image 101.
  • the computing system 150 acquires the SEM image 104 from the scanning electron microscope 50 and stores the SEM image 104 in the storage device 162.
  • step 1-4 the arithmetic system 150 creates training data including the CAD image generated in step 1-2 and the SEM image generated in step 1-3.
  • step 1-5 the arithmetic system 150 determines model parameters (weighting factors and the like) by machine learning using the training data including the CAD image and the SEM image.
  • the CAD image included in the training data is used as an explanatory variable
  • the SEM image included in the training data is used as an objective variable.
  • the computing system 150 and the scanning electron microscope 50 repeat the above-mentioned steps 1-1 to 1-5 a preset number of times to build a model by machine learning. That is, the model is constructed by machine learning using a plurality of CAD images converted from a plurality of CAD patterns on the design data and training data including a plurality of SEM images corresponding to these CAD images. The model thus constructed by machine learning is also referred to as a trained model.
  • the computing system 150 stores the model in the storage device 162. The same design data may be used, or a plurality of design data may be used, while steps 1-1 to 1-5 are repeated.
  • FIG. 5 is a schematic diagram showing an example of a model used for machine learning.
  • the model is a neural network having an input layer 201, a plurality of intermediate layers (also referred to as hidden layers) 202, and an output layer 203.
  • a CAD image is input to the input layer 201 of the model. More specifically, the numerical value of each pixel forming the CAD image is input to the input layer 201. In one example, when the CAD image is a grayscale image, the numerical value indicating the gray level of each pixel is input to each node (neuron) of the input layer 201 of the model.
  • the output layer 203 outputs the numerical value of the pixel corresponding to the pixel which comprises the CAD image input into the input layer 201, respectively.
  • Deep learning is suitable as the machine learning algorithm. Deep learning is a learning method based on a neural network having intermediate layers. In this specification, machine learning using a neural network including an input layer, a plurality of intermediate layers (hidden layers), and an output layer is called deep learning. Models built using deep learning can accurately predict the shape of patterns that can deform due to various factors.
  • FIG. 6 shows an embodiment of a method of aligning a CAD pattern and a pattern on an SEM image (that is, image matching processing) using the model composed of a neural network constructed by machine learning. This will be described with reference to the flowchart.
  • step 2-1 the arithmetic system 150 specifies the CAD pattern on the design data.
  • step 2-2 the scanning electron microscope 50 generates an SEM image (actual image) of the pattern actually formed on the wafer based on the design data used in step 2-1.
  • the computing system 150 acquires the SEM image from the scanning electron microscope 50 and stores the SEM image in the storage device 162.
  • step 2-3 the arithmetic system 150 converts the CAD pattern specified in step 2-1 into a CAD image.
  • the computing system 150 stores the CAD image in the storage device 162.
  • step 2-4 the arithmetic system 150 inputs the CAD image obtained in step 2-3 into the model.
  • step 2-5 the arithmetic system 150 outputs a pseudo image from the model by executing calculation according to the algorithm defined by the model.
  • step 2-6 the arithmetic system 150 determines a pattern having a shape closest to the shape of the CAD pattern on the pseudo image from the plurality of patterns on the SEM image generated in step 2-2.
  • a known technique such as a phase-only correlation method can be used to determine the similarity between the pattern on the SEM image and the CAD pattern on the pseudo image.
  • FIG. 7 is a schematic diagram showing an example of a CAD image, an SEM image, and a pseudo image. Since the CAD pattern 302 on the CAD image 301 is created based on the coordinates of each vertex of the CAD pattern included in the design data, the CAD pattern 302 is composed of straight line segments. On the other hand, the actual pattern 312 on the SEM image 311 is deformed compared to the CAD pattern 302 due to the manufacturing process and/or the imaging process. The CAD pattern 322 on the pseudo image 321 output from the model has a shape close to the actual pattern 312 on the SEM image 311.
  • the model constructed by machine learning such as deep learning can accurately predict the actual pattern from the CAD pattern on the design data. That is, the CAD pattern that appears on the pseudo image output from the model is expected to have a shape close to the actual pattern. Therefore, the arithmetic system 150 can correctly align the CAD pattern on the pseudo image with the pattern on the image generated by the image generation device (that is, image matching processing).
  • the arithmetic system 150 and the scanning electron microscope 50 execute the above steps 2-1 to 2-6 in accordance with the instruction contained in the program stored in the storage device 162.
  • the program is first recorded on a computer-readable recording medium that is a non-transitory tangible material, and then provided to the computing system 150 via the recording medium.
  • the program may be provided to computing system 150 via a communication network such as the Internet or a local area network.
  • the arithmetic system 150 uses the pattern matching result of the CAD pattern on the pseudo image and the pattern on the SEM image. May be used to adjust model parameters (weighting factors, etc.).
  • model parameters weighting factors, etc.
  • the arithmetic system 150 inputs the CAD image 301 converted from the CAD pattern on the design data into the model. Next, the arithmetic system 150 performs pattern matching between the CAD pattern 322 on the pseudo image 321 output from the model and the pattern 312 on the SEM image (actual image) 311 included in the training data used to construct the model. To execute.
  • the SEM image 311 used for this pattern matching corresponds to the CAD image 301 input to the model.
  • the pattern matching is executed according to a known algorithm for determining whether or not the CAD pattern 322 on the pseudo image 321 matches the pattern 312 on the SEM image 311.
  • the arithmetic system 150 outputs the result of pattern matching. That is, if the CAD pattern 322 on the pseudo image 321 output from the model matches the pattern 312 on the SEM image 311 within a predetermined allowable range, the arithmetic system 150 indicates that the pattern matching has succeeded. A numerical value (for example, 1) is output. On the other hand, if the CAD pattern 322 on the pseudo image 321 output from the model does not match the pattern 312 on the SEM image 311 within a predetermined allowable range, the arithmetic system 150 indicates that the pattern matching has failed. Is output (for example, 0).
  • the arithmetic system 150 executes machine learning, adjusts the parameters of the model, and executes the pattern matching so that the first numerical value is output as the result of the pattern matching. That is, the arithmetic system 150 executes machine learning and executes model learning so that the CAD pattern 322 on the pseudo image 321 output from the model matches the pattern 312 on the SEM image 311 within a predetermined allowable range. Adjust. By such an operation, the model can output the pseudo image 321 having a tendency more suitable for matching.
  • FIG. 9 is a flowchart illustrating another embodiment for constructing a model composed of a neural network by machine learning. Steps 3-1 to 3-3 of this embodiment are the same as steps 1-1 to 1-3 shown in FIG. 2, and thus their duplicate description will be omitted.
  • the training data used for constructing the model further includes training additional information data in order to bring the shape of the CAD pattern on the pseudo image closer to the shape of the actual pattern on the wafer.
  • step 3-4 the arithmetic system 150 causes the position information of the CAD pattern specified in step 3-1, the peripheral image converted from the CAD pattern around the CAD pattern specified in step 3-1, Training additional information data including at least one of the layer images converted from the CAD pattern existing above or below the CAD pattern designated in step 3-1 is created.
  • the layer image may be a layer image converted from the CAD pattern existing above and below the specified CAD pattern.
  • the CAD pattern position information is included in the design data. Therefore, the arithmetic system 150 can obtain the position information of the designated CAD pattern from the design data.
  • the peripheral image is generated by the arithmetic system 150. More specifically, the arithmetic system 150 draws these CAD patterns based on the design information of the CAD patterns existing around the specified CAD pattern, and generates a peripheral image having a certain area.
  • FIG. 10 is a schematic diagram showing an example of a peripheral image.
  • reference numeral 401 represents the CAD pattern specified in step 3-1
  • reference numeral 403 represents the CAD image generated in step 3-2
  • reference numeral 405 exists around the CAD image 403. It represents a CAD pattern
  • reference numeral 406 represents a peripheral image converted from the CAD pattern 405.
  • Layer images are also generated by the computing system 150. More specifically, the arithmetic system 150 draws these CAD patterns based on the design information of the CAD patterns existing above and/or below the specified CAD pattern to generate a layer image having a certain area. To do.
  • FIG. 11 is a schematic diagram showing an example of a layer image converted from a CAD pattern existing above and below a designated CAD pattern.
  • reference numeral 501 represents the CAD pattern designated in step 3-1
  • reference numeral 503 represents the CAD image generated in step 3-2
  • reference numerals 505 and 506 represent the designated CAD pattern.
  • the CAD patterns existing in the upper and lower layers that overlap each other are represented, and reference numerals 508 and 509 represent layer images converted from the CAD patterns 505 and 506 of the upper and lower layers.
  • step 3-5 the computing system 150 is created in the CAD image generated in step 3-2, the SEM image generated in step 3-3, and the step 3-4.
  • Training data including the additional information data for training is created.
  • step 3-6 the arithmetic system 150 uses the above training data to determine the parameters (weighting coefficient etc.) of the model composed of the neural network by machine learning.
  • the structure of the model used in this embodiment is basically the same as the model shown in FIG. 5, but the input layer of the model further includes a node (neuron) to which the additional information data for training is input. They differ in points.
  • the computing system 150 and the scanning electron microscope 50 repeat the above steps 3-1 to 3-6 a preset number of times to build a model by machine learning. That is, the model is machine-learned using a plurality of CAD images converted from a plurality of CAD patterns on the design data, a plurality of SEM images corresponding to these CAD images, and training data including training additional information data. Be built.
  • the training additional information data includes position information of a plurality of CAD patterns obtained by repeating step 3-1; a plurality of peripheral images converted from a plurality of CAD patterns around the plurality of CAD patterns; At least one of the plurality of layer images converted from the plurality of CAD patterns existing above or below the plurality of CAD patterns is included.
  • the plurality of layer images may be a plurality of layer images converted from CAD patterns existing above and below the plurality of CAD patterns.
  • FIG. 12 is a flow chart showing an embodiment of a method of aligning the CAD pattern with the pattern on the SEM image (that is, image matching processing) using the model created according to the flow chart shown in FIG.
  • step 4-1 the arithmetic system 150 specifies the CAD pattern on the design data.
  • the scanning electron microscope 50 generates an SEM image (actual image) of the pattern actually formed on the wafer based on the design data used in step 4-1.
  • the computing system 150 acquires the SEM image from the scanning electron microscope 50 and stores the SEM image in the storage device 162.
  • the arithmetic system 150 converts the CAD pattern specified in step 4-1 into a CAD image.
  • the computing system 150 stores the CAD image in the storage device 162.
  • step 4-4 the arithmetic system 150 creates additional information data related to the CAD pattern specified in step 4-1.
  • This additional information data includes the position information of the CAD pattern designated in step 4-1, the peripheral image converted from the CAD pattern around the designated CAD pattern, and the top or bottom of the designated CAD pattern.
  • the layer image may be a layer image converted from the CAD pattern existing above and below the specified CAD pattern.
  • the CAD pattern position information is included in the design data. Therefore, the arithmetic system 150 can obtain the position information of the designated CAD pattern from the design data.
  • the peripheral image is generated by the arithmetic system 150. More specifically, the arithmetic system 150 draws these CAD patterns based on the design information of the CAD patterns existing around the specified CAD pattern (for example, the coordinates of the vertices of the CAD pattern), and draws a certain area. Generate the surrounding image you have.
  • the layer image is also generated by the arithmetic system 150.
  • the arithmetic system 150 draws these CAD patterns based on the design information of the CAD patterns existing above and/or below the specified CAD patterns (for example, the coordinates of the vertices of the CAD patterns). , Generate a layer image with a certain area.
  • FIGS. 10 and 11 are also applicable to the peripheral image and the layer image included in the additional information data, and thus the illustration thereof is omitted.
  • step 4-5 the arithmetic system 150 inputs the CAD image obtained in step 4-3 and the additional information data created in step 4-4 into the model.
  • step 4-6 the arithmetic system 150 outputs a pseudo image from the model by executing calculation according to the algorithm defined by the model.
  • step 4-7 the arithmetic system 150 determines a pattern having a shape closest to the shape of the CAD pattern on the pseudo image from the plurality of patterns on the SEM image generated in step 4-2.
  • the pattern deformation tendency appearing on the SEM image may change depending on factors such as the position of the pattern, other patterns existing around the pattern, and other patterns existing above and/or below the pattern. That is, these factors can influence the shape of the pattern on the SEM image.
  • the model since the model is constructed using the training additional information data and the additional information data is input to the model, the model can predict a pattern having a shape closer to the CAD pattern. Therefore, the arithmetic system 150 can more correctly align the CAD pattern on the pseudo image with the pattern on the image generated by the scanning electron microscope 50 (that is, the image matching process).
  • the present invention relates to an image matching process for aligning a pattern on design data with a pattern on an image, and is particularly applicable to an image matching process using a model constructed by machine learning.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Chemical & Material Sciences (AREA)
  • Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Geometry (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Quality & Reliability (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Length-Measuring Devices Using Wave Or Particle Radiation (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

本発明は、設計データ上のパターンと、画像上のパターンとの位置合わせを行うための画像マッチング処理に関し、特に機械学習によって構築されたモデルを用いた画像マッチング処理に関する。本方法は、設計データ上の指定されたCADパターンをCAD画像(301)に変換し、CAD画像(301)を、機械学習により構築されたモデルに入力し、モデルによって定義されたアルゴリズムに従って計算を実行することで、モデルから疑似画像(321)を出力し、画像生成装置(100)によって生成された画像上の複数のパターンの中から、疑似画像(321)上のCADパターン(322)の形状に最も近い形状を有するパターンを決定する。

Description

画像マッチング方法、および画像マッチング処理を実行するための演算システム
 本発明は、設計データ上のパターンと、画像上のパターンとの位置合わせを行うための画像マッチング処理に関し、特に機械学習によって構築されたモデルを用いた画像マッチング処理に関する。
 ダイ・ツー・データベース(Die to Database)技術を用いた半導体デバイスのパターン検査方法が知られている(例えば特許文献1)。代表的なパターン検査方法は、ウェーハ上のパターンの画像を走査電子顕微鏡で生成し、設計データ(CADデータともいう)上のCADパターンと画像上のパターンとを比較して、ウェーハ上のパターンの欠陥を検出することである。このようなパターン検査方法の前処理として、設計データ上のCADパターンを、画像上のパターンに位置合わせするマッチング処理が行われる。
 図13は、マッチング処理の一例を示す模式図である。マッチング処理は、設計データ上のCADパターン501を、画像上のある領域内にある多数のパターン505-1~505-Nの1つ1つと比較し、CADパターン501の形状に最も近いパターン505-nを決定するというアルゴリズムを実行する。
特開2011-17705号公報
 しかしながら、上述したマッチング処理は、CADパターン501を画像上の多数のパターン505-1~505-Nと比較する必要があるために、処理時間が長くなる。さらに、CADパターン501に対応する画像上のパターン505-nは、ウェーハ上にパターンを形成する段階、および/またはウェーハ上のパターンを撮像する段階で変形する。このため、図14に示すように、CADパターン501とパターン505-nとでは、形状に大きな差異があることがある。結果として、マッチング処理に失敗することがあった。
 そこで、本発明は、設計データ上のCADパターンと画像上の対応するパターンとのマッチング処理を正しく行うことができる方法および装置を提供する。
 一態様では、設計データ上の指定されたCADパターンをCAD画像に変換し、前記CAD画像を、機械学習により構築されたモデルに入力し、前記モデルによって定義されたアルゴリズムに従って計算を実行することで、前記モデルから疑似画像を出力し、画像生成装置によって生成された画像上の複数のパターンの中から、前記疑似画像上のCADパターンの形状に最も近い形状を有するパターンを決定する方法が提供される。
 一態様では、前記モデルは、設計データ上の複数のCADパターンから変換された複数のCAD画像と、前記複数のCAD画像に対応する、画像生成装置によって生成された複数の画像を少なくとも含む訓練データを用いて機械学習により構築されたモデルである。
 一態様では、前記訓練データは、訓練用付加情報データをさらに含み、前記訓練用付加情報データは、前記複数のCADパターンの位置情報、前記複数のCADパターンの周辺にある複数のCADパターンから変換された複数の周辺画像、および前記複数のCADパターンの上または下に存在する複数のCADパターンから変換された複数のレイヤー画像のうちの少なくとも1つを含む。
 一態様では、前記CAD画像に加えて、付加情報データを前記モデルに入力し、前記付加情報データは、前記指定されたCADパターンの位置情報、前記指定されたCADパターンの周辺にあるCADパターンから変換された周辺画像、および前記指定されたCADパターンの上または下に存在するCADパターンから変換されたレイヤー画像のうちの少なくとも1つを含む。
 一態様では、前記方法は、前記モデルから出力された疑似画像上のCADパターンが、前記画像生成装置によって生成された画像上の対応するパターンに所定の許容範囲内で合致するように、機械学習を実行して前記モデルのパラメータを調整する工程をさらに含む。
 一態様では、画像マッチング処理を実行するための演算システムであって、機械学習により構築されたモデル、およびプログラムが格納された記憶装置と、前記プログラムに従って演算を実行する処理装置を備え、前記演算システムは、設計データ上の指定されたCADパターンをCAD画像に変換し、前記CAD画像を前記モデルに入力し、前記モデルによって定義されたアルゴリズムに従って計算を実行することで、前記モデルから疑似画像を出力させ、画像生成装置によって生成された画像上の複数のパターンの中から、前記疑似画像上のCADパターンの形状に最も近い形状を有するパターンを決定するように動作する、演算システムが提供される。
 一態様では、前記モデルは、設計データ上の複数のCADパターンから変換された複数のCAD画像と、前記複数のCAD画像に対応する、画像生成装置によって生成された複数の画像を少なくとも含む訓練データを用いて機械学習により構築されたモデルである。
 一態様では、前記訓練データは、訓練用付加情報データをさらに含み、前記訓練用付加情報データは、前記複数のCADパターンの位置情報、前記複数のCADパターンの周辺にある複数のCADパターンから変換された複数の周辺画像、および前記複数のCADパターンの上または下に存在する複数のCADパターンから変換された複数のレイヤー画像のうちの少なくとも1つを含む。
 一態様では、前記CAD画像に加えて、付加情報データを前記モデルに入力し、前記付加情報データは、前記指定されたCADパターンの位置情報、前記指定されたCADパターンの周辺にあるCADパターンから変換された周辺画像、および前記指定されたCADパターンの上または下に存在するCADパターンから変換されたレイヤー画像のうちの少なくとも1つを含む。
 一態様では、前記演算システムは、前記モデルから出力された疑似画像上のCADパターンが、前記画像生成装置によって生成された画像上の対応するパターンに所定の許容範囲内で合致するように、機械学習を実行して前記モデルのパラメータを調整するように動作する。
 一態様では、画像マッチング処理を実行するための演算システムであって、機械学習により構築されたモデル、およびプログラムが格納された記憶装置と、前記プログラムに従って演算を実行する処理装置を備え、前記プログラムは、設計データ上の指定されたCADパターンをCAD画像に変換するステップと、前記CAD画像を前記モデルに入力するステップと、前記モデルによって定義されたアルゴリズムに従って計算を実行することで、前記モデルから疑似画像を出力させるステップと、画像生成装置によって生成された画像上の複数のパターンの中から、前記疑似画像上のCADパターンの形状に最も近い形状を有するパターンを決定するステップを前記演算システムに実行させるための指令を含む、演算システムが提供される。
 本発明によれば、ディープラーニングなどの機械学習によって構築されたモデルは、設計データ上のCADパターンから実際のパターンを正確に予測することができる。すなわち、モデルから出力された疑似画像上に現れるCADパターンは、実際のパターンに近い形状を有していると予想される。したがって、演算システムは、疑似画像上のCADパターンと、画像生成装置によって生成された画像上のパターンとの位置合わせ(すなわち画像マッチング処理)を正しく行うことができる。
撮像装置の一実施形態を示す模式図である。 機械学習によりモデルを構築する一実施形態を説明するフローチャートである。 CADパターンから変換されたCAD画像の一例を示す模式図である。 走査電子顕微鏡によって生成されたSEM画像の一例を示す模式図である。 機械学習に使用されるモデルの一例を示す模式図である。 機械学習によって構築されたモデルを用いて、CADパターンとSEM画像上のパターンとの位置合わせ(画像マッチング処理)を行う方法の一実施形態を説明するフローチャートである。 CAD画像、SEM画像、および疑似画像の例を示す模式図である。 機械学習によりモデルを構築する他の実施形態を説明するフローチャートである。 機械学習によりモデルを構築する他の実施形態を説明するフローチャートである。 周辺画像の一例を示す模式図である。 指定されたCADパターンに重なる上下層のCADパターンから変換されたレイヤー画像の一例を示す模式図である。 図9に示すフローチャートに従って作成されたモデルを用いて、CADパターンとSEM画像上のパターンとの位置合わせ(画像マッチング処理)を行う方法の一実施形態を示すフローチャートである。 マッチング処理の一例を示す模式図である。 CADパターンと、画像上の対応するパターンを示す模式図である。
 以下、本発明の実施形態について図面を参照して説明する。
 図1は、撮像装置の一実施形態を示す模式図である。図1に示すように、撮像装置は、走査電子顕微鏡50および演算システム150を備えている。走査電子顕微鏡50は、画像生成装置の一例である。走査電子顕微鏡50は、演算システム150に接続されており、走査電子顕微鏡50の動作は演算システム150によって制御される。
 演算システム150は、データベース161およびプログラムが格納された記憶装置162と、プログラムに従って演算を実行する処理装置163を備えている。処理装置163は、記憶装置162に格納されているプログラムに従って演算を行うCPU(中央処理装置)またはGPU(グラフィックプロセッシングユニット)などを含む。記憶装置162は、処理装置163がアクセス可能な主記憶装置(例えばランダムアクセスメモリ)と、データおよびプログラムを格納する補助記憶装置(例えば、ハードディスクドライブまたはソリッドステートドライブ)を備えている。
 演算システム150は、少なくとも1台のコンピュータを備えている。例えば、演算システム150は、走査電子顕微鏡50に通信線で接続されたエッジサーバであってもよいし、インターネットなどのネットワークによって走査電子顕微鏡50に接続されたクラウドサーバであってもよいし、あるいは走査電子顕微鏡50に接続されたネットワーク内に設置されたフォグコンピューティングデバイス(ゲートウェイ、フォグサーバ、ルーターなど)であってもよい。演算システム150は、複数のサーバの組み合わせであってもよい。例えば、演算システム150は、インターネットなどのネットワークにより互いに接続されたエッジサーバとクラウドサーバとの組み合わせであってもよい。
 走査電子顕微鏡50は、一次電子(荷電粒子)からなる電子ビームを発する電子銃111と、電子銃111から放出された電子ビームを集束する集束レンズ112、電子ビームをX方向に偏向するX偏向器113、電子ビームをY方向に偏向するY偏向器114、電子ビームを試料であるウェーハ124にフォーカスさせる対物レンズ115を有する。
 集束レンズ112および対物レンズ115はレンズ制御装置116に接続され、集束レンズ112および対物レンズ115の動作はレンズ制御装置116によって制御される。このレンズ制御装置116は演算システム150に接続されている。X偏向器113、Y偏向器114は、偏向制御装置117に接続されており、X偏向器113、Y偏向器114の偏向動作は偏向制御装置117によって制御される。この偏向制御装置117も同様に演算システム150に接続されている。二次電子検出器130と反射電子検出器131は画像取得装置118に接続されている。画像取得装置118は二次電子検出器130と反射電子検出器131の出力信号を画像に変換するように構成される。この画像取得装置118も同様に演算システム150に接続されている。
 試料チャンバー120内に配置される試料ステージ121は、ステージ制御装置122に接続されており、試料ステージ121の位置はステージ制御装置122によって制御される。このステージ制御装置122は演算システム150に接続されている。ウェーハ124を、試料チャンバー120内の試料ステージ121に載置するためのウェーハ搬送装置140も同様に演算システム150に接続されている。
 電子銃111から放出された電子ビームは集束レンズ112で集束された後に、X偏向器113、Y偏向器114で偏向されつつ対物レンズ115により集束されてウェーハ124の表面に照射される。ウェーハ124に電子ビームの一次電子が照射されると、ウェーハ124からは二次電子および反射電子が放出される。二次電子は二次電子検出器130により検出され、反射電子は反射電子検出器131により検出される。検出された二次電子の信号、および反射電子の信号は、画像取得装置118に入力され画像に変換される。画像は演算システム150に送信される。
 ウェーハ124の設計データは、記憶装置162に予め記憶されている。ウェーハ124の設計データは、ウェーハ124上に形成されたパターンの頂点の座標、パターンの位置、形状、および大きさ、パターンが属する層の番号などのパターンの設計情報を含む。記憶装置162には、データベース161が構築されている。ウェーハ124の設計データは、データベース161内に予め格納される。演算システム150は、記憶装置162に格納されているデータベース161からウェーハ124の設計データを読み込むことが可能である。
 次に、設計データ上のCADパターンと、走査電子顕微鏡50によって生成されたウェーハの画像上のパターンとのマッチング処理について説明する。以下の説明では、画像生成装置である走査電子顕微鏡50によって生成された実画像を、SEM画像という。ウェーハのパターンは、設計データ(CADデータともいう)に基づいて形成されている。CADは、コンピュータ支援設計(computer-aided design)の略語である。マッチング処理は、機械学習によりモデルを構築する工程と、モデルを用いて生成された疑似画像上のCADパターンとSEM画像上のパターンとの位置合わせ(すなわち画像マッチング処理)を実行する工程とに分けられる。
 モデルの構築と、画像マッチング処理は、演算システム150によって実行される。演算システム150は、専用のコンピュータまたは汎用のコンピュータを少なくとも1つ含む。演算システム150が第1コンピュータおよび第2コンピュータを含む複数のコンピュータを備える場合は、第1コンピュータは上記モデルを構築する工程を実行し、第2コンピュータは、上記モデル用いて、疑似画像上のCADパターンとSEM画像上のパターンとの位置合わせを実行してもよい。第1コンピュータで作成されたモデルは、USBフラッシュドライブ(USBメモリともいう)などの半導体メモリに一時的に保存された後に、半導体メモリから第2コンピュータに読み込まれてもよい。あるいは、第1コンピュータで作成されたモデルは、インターネットまたはローカルエリアネットワークなどの通信ネットワークを通じて第2コンピュータに送信されてもよい。
 図2は、機械学習によりモデルを構築する一実施形態を説明するフローチャートである。
 ステップ1-1では、演算システム150は、設計データ上のCADパターンを指定する。設計データは、ウェーハに形成されたパターンの設計情報を含むデータであり、具体的には、パターンの頂点の座標、パターンの位置、形状、および大きさ、パターンが属する層の番号などのパターンの設計情報を含む。設計データ上のCADパターンは、設計データに含まれるパターンの設計情報によって定義される仮想パターンである。このステップ1-1は、設計データに含まれる複数のCADパターンから、あるCADパターンを特定する工程である。このステップ1-1では、複数のCADパターンが指定されてもよい。
 ステップ1-2では、演算システム150は、指定されたCADパターンをCAD画像に変換する。より具体的には、演算システム150は、設計データに含まれるCADパターンの設計情報(例えば、CADパターンの頂点の座標)に基づいて、図3に示すようなCADパターン100を描画し、ある面積を持ったCAD画像101を生成する。演算システム150は、生成したCAD画像101を、演算システム150の記憶装置162内に記憶する。
 ステップ1-3では、画像生成装置としての走査電子顕微鏡50は、ステップ1-1で指定されたCADパターンに基づいて実際に形成されたウェーハ上のパターンのSEM画像を生成する。図4は、走査電子顕微鏡50によって生成されたSEM画像の一例を示す模式図である。図4において、符号104はSEM画像を表し、符号105はSEM画像104上に現れたパターンを表している。パターン105は、上記指定されたCADパターン、すなわちCAD画像101上のCADパターン100に対応する。演算システム150は、SEM画像104を走査電子顕微鏡50から取得し、SEM画像104を記憶装置162内に記憶する。
 ステップ1-4では、演算システム150は、上記ステップ1-2で生成されたCAD画像と、上記ステップ1-3で生成されたSEM画像を含む訓練データを作成する。
 ステップ1-5では、演算システム150は、CAD画像とSEM画像とを含む訓練データを用いて、モデルのパラメータ(重み係数など)を機械学習により決定する。機械学習では、訓練データに含まれるCAD画像は説明変数として用いられ、訓練データに含まれるSEM画像は目的変数として用いられる。
 演算システム150および走査電子顕微鏡50は、上述したステップ1-1からステップ1-5までの工程を、予め設定された回数だけ繰り返し、機械学習によりモデルを構築する。すなわち、モデルは、設計データ上の複数のCADパターンから変換された複数のCAD画像と、これらCAD画像に対応する複数のSEM画像を含む訓練データを用いて機械学習により構築される。このように機械学習によって構築されたモデルは、学習済みモデルともいう。演算システム150は、モデルを記憶装置162内に記憶する。ステップ1-1~ステップ1-5が繰り返される間、同じ設計データが使用されてもよいし、または複数の設計データが使用されてもよい。
 図5は、機械学習に使用されるモデルの一例を示す模式図である。モデルは、入力層201と、複数の中間層(隠れ層ともいう)202と、出力層203を有したニューラルネットワークである。モデルの入力層201にはCAD画像が入力される。より具体的には、CAD画像を構成する各ピクセルの数値が入力層201に入力される。一例では、CAD画像がグレースケール画像である場合は、各ピクセルのグレーレベルを示す数値がモデルの入力層201の各ノード(ニューロン)に入力される。出力層203は、入力層201に入力されたCAD画像を構成するピクセルにそれぞれ対応するピクセルの数値を出力する。
 機械学習のアルゴリズムとしては、ディープラーニングが好適である。ディープラーニングは、中間層が多層化されたニューラルネットワークをベースとする学習法である。本明細書では、入力層と、複数の中間層(隠れ層)と、出力層で構成されるニューラルネットワークを用いた機械学習をディープラーニングと称する。ディープラーニングを用いて構築されたモデルは、様々な因子に起因して変形しうるパターンの形状を正確に予測することができる。
 次に、機械学習によって構築されたニューラルネットワークからなる上記モデルを用いて、CADパターンとSEM画像上のパターンとの位置合わせ(すなわち画像マッチング処理)を行う方法の一実施形態について、図6に示すフローチャートを参照して説明する。
 ステップ2-1では、演算システム150は、設計データ上のCADパターンを指定する。
 ステップ2-2では、走査電子顕微鏡50は、ステップ2-1で使用された設計データに基づいて実際に形成されたウェーハ上のパターンのSEM画像(実画像)を生成する。演算システム150は、SEM画像を走査電子顕微鏡50から取得し、SEM画像を記憶装置162内に記憶する。
 ステップ2-3では、演算システム150は、ステップ2-1で指定されたCADパターンをCAD画像に変換する。演算システム150は、CAD画像を記憶装置162内に記憶する。
 ステップ2-4では、演算システム150は、ステップ2-3で得られたCAD画像を上記モデルに入力する。
 ステップ2-5では、演算システム150は、モデルによって定義されたアルゴリズムに従って計算を実行することで、モデルから疑似画像を出力させる。
 ステップ2-6では、演算システム150は、ステップ2-2で生成されたSEM画像上の複数のパターンの中から、疑似画像上のCADパターンの形状に最も近い形状を有するパターンを決定する。SEM画像上のパターンと、疑似画像上のCADパターンとの間の類似性の判断には、位相限定相関法などの公知の技術を使用することができる。
 図7は、CAD画像、SEM画像、および疑似画像の例を示す模式図である。CAD画像301上のCADパターン302は、設計データに含まれるCADパターンの各頂点の座標に基づいて作成されるので、CADパターン302は直線的な線分によって構成されている。これに対し、SEM画像311上の実際のパターン312は、製造工程上および/または撮像工程上の理由により、CADパターン302に比べて変形している。モデルから出力された疑似画像321上のCADパターン322は、SEM画像311上の実際のパターン312に近い形状を有している。
 本実施形態によれば、ディープラーニングなどの機械学習によって構築されたモデルは、設計データ上のCADパターンから実際のパターンを正確に予測することができる。すなわち、モデルから出力された疑似画像上に現れるCADパターンは、実際のパターンに近い形状を有していると予想される。したがって、演算システム150は、疑似画像上のCADパターンと、画像生成装置によって生成された画像上のパターンとの位置合わせ(すなわち画像マッチング処理)を正しく行うことができる。
 演算システム150および走査電子顕微鏡50は、記憶装置162に格納されているプログラムに含まれる指令に従って上記ステップ2-1~2-6を実行する。プログラムは、まず、非一時的な有形物であるコンピュータ読み取り可能な記録媒体に記録され、その後、記録媒体を介して演算システム150に提供される。または、プログラムは、インターネットまたはローカルエリアネットワークなどの通信ネットワークを介して演算システム150に提供されてもよい。
 一実施形態では、マッチングにより適した傾向を持った疑似画像をモデルが出力することを可能とするために、演算システム150は、疑似画像上のCADパターンとSEM画像上のパターンとのパターンマッチング結果を用いて、モデルのパラメータ(重み係数など)を調整してもよい。以下、この実施形態について図8を参照して説明する。
 演算システム150は、設計データ上のCADパターンから変換されたCAD画像301をモデルに入力する。次に、演算システム150は、モデルから出力された疑似画像321上のCADパターン322と、モデルの構築に使用された訓練データに含まれるSEM画像(実画像)311上のパターン312とのパターンマッチングを実行する。このパターンマッチングに使用されるSEM画像311は、モデルに入力されたCAD画像301に対応する。パターンマッチングは、疑似画像321上のCADパターン322がSEM画像311上のパターン312に合致するか否かを判定する公知のアルゴリズムに従って実行される。
 演算システム150は、パターンマッチングの結果を出力する。すなわち、モデルから出力された疑似画像321上のCADパターン322が、SEM画像311上のパターン312に所定の許容範囲内で合致すれば、演算システム150はパターンマッチングが成功したことを示す第1の数値(例えば1)を出力する。一方、モデルから出力された疑似画像321上のCADパターン322が、SEM画像311上のパターン312に所定の許容範囲内で合致しなければ、演算システム150はパターンマッチングが失敗したことを示す第2の数値(例えば0)を出力する。
 演算システム150は、第2の数値を出力した場合は、パターンマッチングの結果として第1の数値を出力するように、機械学習を実行してモデルのパラメータを調整し、パターンマッチングを実行する。すなわち、演算システム150は、モデルから出力された疑似画像321上のCADパターン322が、SEM画像311上のパターン312に所定の許容範囲内で合致するように、機械学習を実行してモデルのパラメータを調整する。このような動作により、モデルは、マッチングにより適した傾向を持った疑似画像321を出力することができる。
 図9は、機械学習によりニューラルネットワークからなるモデルを構築する他の実施形態を説明するフローチャートである。本実施形態のステップ3-1~3-3は、図2に示すステップ1-1~1-3と同じであるので、その重複する説明を省略する。
 本実施形態では、疑似画像上のCADパターンの形状を、ウェーハ上の実際のパターンの形状により近づけるために、モデルの構築に使用される訓練データは、訓練用付加情報データをさらに含んでいる。
 すなわち、ステップ3-4では、演算システム150は、ステップ3-1で指定されたCADパターンの位置情報、ステップ3-1で指定されたCADパターンの周辺にあるCADパターンから変換された周辺画像、ステップ3-1で指定されたCADパターンの上または下に存在するCADパターンから変換されたレイヤー画像のうちの少なくとも1つを含む訓練用付加情報データを作成する。一実施形態では、レイヤー画像は、指定されたCADパターンの上および下に存在するCADパターンから変換されたレイヤー画像であってもよい。
 CADパターンの位置情報は、設計データに含まれている。したがって、演算システム150は、指定されたCADパターンの位置情報を設計データから得ることができる。周辺画像は、演算システム150により生成される。より具体的には、演算システム150は、指定されたCADパターンの周囲に存在するCADパターンの設計情報に基づいて、これらCADパターンを描画し、ある面積を持った周辺画像を生成する。
 図10は、周辺画像の一例を示す模式図である。図10において、符号401は、ステップ3-1で指定されたCADパターンを表し、符号403は、ステップ3-2で生成されたCAD画像を表し、符号405は、CAD画像403の周囲に存在するCADパターンを表し、符号406は、CADパターン405から変換された周辺画像を表している。
 レイヤー画像も、演算システム150により生成される。より具体的には、演算システム150は、指定されたCADパターンの上および/または下に存在するCADパターンの設計情報に基づいて、これらCADパターンを描画し、ある面積を持ったレイヤー画像を生成する。
 図11は、指定されたCADパターンの上および下に存在するCADパターンから変換されたレイヤー画像の一例を示す模式図である。図11において、符号501は、ステップ3-1で指定されたCADパターンを表し、符号503は、ステップ3-2で生成されたCAD画像を表し、符号505,506は、指定されたCADパターンに重なる上下層内に存在するCADパターンを表し、符号508,509は、上下層のCADパターン505,506から変換されたレイヤー画像を表している。
 図9に戻り、ステップ3-5では、演算システム150は、上記ステップ3-2で生成されたCAD画像と、上記ステップ3-3で生成されたSEM画像と、上記ステップ3-4で作成された訓練用付加情報データを含む訓練データを作成する。
 ステップ3-6では、演算システム150は、上記訓練データを用いて、ニューラルネットワークからなるモデルのパラメータ(重み係数など)を機械学習により決定する。本実施形態に使用されるモデルの構造は、図5に示すモデルと基本的に同じであるが、モデルの入力層は、訓練用付加情報データが入力されるノード(ニューロン)をさらに備えている点で異なっている。
 演算システム150および走査電子顕微鏡50は、上述したステップ3-1からステップ3-6までの工程を、予め設定された回数だけ繰り返し、機械学習によりモデルを構築する。すなわち、モデルは、設計データ上の複数のCADパターンから変換された複数のCAD画像と、これらCAD画像に対応する複数のSEM画像と、訓練用付加情報データを含む訓練データを用いて機械学習により構築される。訓練用付加情報データは、ステップ3-1を繰り返すことで得られた複数のCADパターンの位置情報、前記複数のCADパターンの周辺にある複数のCADパターンから変換された複数の周辺画像、および前記複数のCADパターンの上または下に存在する複数のCADパターンから変換された複数のレイヤー画像のうちの少なくとも1つを含む。一実施形態では、複数のレイヤー画像は、前記複数のCADパターンの上および下に存在するCADパターンから変換された複数のレイヤー画像であってもよい。
 図12は、図9に示すフローチャートに従って作成されたモデルを用いて、CADパターンとSEM画像上のパターンとの位置合わせ(すなわち画像マッチング処理)を行う方法の一実施形態を示すフローチャートである。
 ステップ4-1では、演算システム150は、設計データ上のCADパターンを指定する。
 ステップ4-2では、走査電子顕微鏡50は、ステップ4-1で使用された設計データに基づいて実際に形成されたウェーハ上のパターンのSEM画像(実画像)を生成する。演算システム150は、SEM画像を走査電子顕微鏡50から取得し、SEM画像を記憶装置162内に記憶する。
 ステップ4-3では、演算システム150は、ステップ4-1で指定されたCADパターンをCAD画像に変換する。演算システム150は、CAD画像を記憶装置162内に記憶する。
 ステップ4-4では、演算システム150は、ステップ4-1で指定されたCADパターンに関連する付加情報データを作成する。この付加情報データは、ステップ4-1で指定されたCADパターンの位置情報、前記指定されたCADパターンの周辺にあるCADパターンから変換された周辺画像、および前記指定されたCADパターンの上または下に存在するCADパターンから変換されたレイヤー画像のうちの少なくとも1つを含む。一実施形態では、レイヤー画像は、指定されたCADパターンの上および下に存在するCADパターンから変換されたレイヤー画像であってもよい。
 CADパターンの位置情報は、設計データに含まれている。したがって、演算システム150は、指定されたCADパターンの位置情報を設計データから得ることができる。周辺画像は、演算システム150により生成される。より具体的には、演算システム150は、指定されたCADパターンの周囲に存在するCADパターンの設計情報(例えば、CADパターンの頂点の座標)に基づいて、これらCADパターンを描画し、ある面積を持った周辺画像を生成する。レイヤー画像も、演算システム150により生成される。より具体的には、演算システム150は、指定されたCADパターンの上および/または下に存在するCADパターンの設計情報(例えば、CADパターンの頂点の座標)に基づいて、これらCADパターンを描画し、ある面積を持ったレイヤー画像を生成する。
 訓練用付加情報データに含まれる周辺画像およびレイヤー画像の上記説明、および図10および図11は、付加情報データに含まれる周辺画像およびレイヤー画像にも適用できるので、これらの図示を省略する。
 ステップ4-5では、演算システム150は、ステップ4-3で得られたCAD画像、およびステップ4-4で作成された付加情報データを上記モデルに入力する。
 ステップ4-6では、演算システム150は、モデルによって定義されたアルゴリズムに従って計算を実行することで、モデルから疑似画像を出力させる。
 ステップ4-7では、演算システム150は、ステップ4-2で生成されたSEM画像上の複数のパターンの中から、疑似画像上のCADパターンの形状に最も近い形状を有するパターンを決定する。
 SEM画像上に現れるパターンの変形傾向は、パターンの位置、パターンの周辺に存在する他のパターン、およびパターンの上および/または下に存在する他のパターンなどの因子に依存して変わりうる。すなわち、これらの因子は、SEM画像上のパターンの形状に影響を与えうる。本実施形態によれば、訓練用付加情報データを用いてモデルが構築され、かつ付加情報データがモデルに入力されるので、モデルは、CADパターンにより近い形状のパターンを予測することができる。したがって、演算システム150は、疑似画像上のCADパターンと、走査電子顕微鏡50によって生成された画像上のパターンとの位置合わせ(すなわち画像マッチング処理)をより正しく行うことができる。
 図8を参照して説明した実施形態は、図9乃至図12に示す実施形態にも適用することができる。
 上述した実施形態は、本発明が属する技術分野における通常の知識を有する者が本発明を実施できることを目的として記載されたものである。上記実施形態の種々の変形例は、当業者であれば当然になしうることであり、本発明の技術的思想は他の実施形態にも適用しうる。したがって、本発明は、記載された実施形態に限定されることはなく、特許請求の範囲によって定義される技術的思想に従った最も広い範囲に解釈されるものである。
 本発明は、設計データ上のパターンと、画像上のパターンとの位置合わせを行うための画像マッチング処理に関し、特に機械学習によって構築されたモデルを用いた画像マッチング処理に利用可能である。
100   走査電子顕微鏡
111   電子銃
112   集束レンズ
113   X偏向器
114   Y偏向器
115   対物レンズ
116   レンズ制御装置
117   偏向制御装置
118   画像取得装置
120   試料チャンバー
121   試料ステージ
122   ステージ制御装置
124   ウェーハ
130   二次電子検出器
131   反射電子検出器
140   ウェーハ搬送装置
150   演算システム
161   データベース
162   記憶装置
163   処理装置

Claims (10)

  1.  設計データ上の指定されたCADパターンをCAD画像に変換し、
     前記CAD画像を、機械学習により構築されたモデルに入力し、
     前記モデルによって定義されたアルゴリズムに従って計算を実行することで、前記モデルから疑似画像を出力し、
     画像生成装置によって生成された画像上の複数のパターンの中から、前記疑似画像上のCADパターンの形状に最も近い形状を有するパターンを決定する方法。
  2.  前記モデルは、設計データ上の複数のCADパターンから変換された複数のCAD画像と、前記複数のCAD画像に対応する、画像生成装置によって生成された複数の画像を少なくとも含む訓練データを用いて機械学習により構築されたモデルである、請求項1に記載の方法。
  3.  前記訓練データは、訓練用付加情報データをさらに含み、
     前記訓練用付加情報データは、前記複数のCADパターンの位置情報、前記複数のCADパターンの周辺にある複数のCADパターンから変換された複数の周辺画像、および前記複数のCADパターンの上または下に存在する複数のCADパターンから変換された複数のレイヤー画像のうちの少なくとも1つを含む、請求項2に記載の方法。
  4.  前記CAD画像に加えて、付加情報データを前記モデルに入力し、
     前記付加情報データは、前記指定されたCADパターンの位置情報、前記指定されたCADパターンの周辺にあるCADパターンから変換された周辺画像、および前記指定されたCADパターンの上または下に存在するCADパターンから変換されたレイヤー画像のうちの少なくとも1つを含む、請求項3に記載の方法。
  5.  前記モデルから出力された疑似画像上のCADパターンが、前記画像生成装置によって生成された画像上の対応するパターンに所定の許容範囲内で合致するように、機械学習を実行して前記モデルのパラメータを調整する工程をさらに含む、請求項1乃至4のいずれか一項に記載の方法。
  6.  画像マッチング処理を実行するための演算システムであって、
     機械学習により構築されたモデル、およびプログラムが格納された記憶装置と、
     前記プログラムに従って演算を実行する処理装置を備え、
     前記演算システムは、
      設計データ上の指定されたCADパターンをCAD画像に変換し、
      前記CAD画像を前記モデルに入力し、
      前記モデルによって定義されたアルゴリズムに従って計算を実行することで、前記モデルから疑似画像を出力させ、
     画像生成装置によって生成された画像上の複数のパターンの中から、前記疑似画像上のCADパターンの形状に最も近い形状を有するパターンを決定するように動作する、演算システム。
  7.  前記モデルは、設計データ上の複数のCADパターンから変換された複数のCAD画像と、前記複数のCAD画像に対応する、画像生成装置によって生成された複数の画像を少なくとも含む訓練データを用いて機械学習により構築されたモデルである、請求項6に記載の演算システム。
  8.  前記訓練データは、訓練用付加情報データをさらに含み、
     前記訓練用付加情報データは、前記複数のCADパターンの位置情報、前記複数のCADパターンの周辺にある複数のCADパターンから変換された複数の周辺画像、および前記複数のCADパターンの上または下に存在する複数のCADパターンから変換された複数のレイヤー画像のうちの少なくとも1つを含む、請求項7に記載の演算システム。
  9.  前記演算システムは、前記CAD画像に加えて、付加情報データを前記モデルに入力するように動作し、
     前記付加情報データは、前記指定されたCADパターンの位置情報、前記指定されたCADパターンの周辺にあるCADパターンから変換された周辺画像、および前記指定されたCADパターンの上または下に存在するCADパターンから変換されたレイヤー画像のうちの少なくとも1つを含む、請求項8に記載の演算システム。
  10.  前記演算システムは、前記モデルから出力された疑似画像上のCADパターンが、前記画像生成装置によって生成された画像上の対応するパターンに所定の許容範囲内で合致するように、機械学習を実行して前記モデルのパラメータを調整するように動作する、請求項6乃至9のいずれか一項に記載の演算システム。
PCT/JP2019/045087 2018-12-11 2019-11-18 画像マッチング方法、および画像マッチング処理を実行するための演算システム WO2020121739A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/311,997 US20220012404A1 (en) 2018-12-11 2019-11-18 Image matching method and arithmetic system for performing image matching process
KR1020217021164A KR20210101271A (ko) 2018-12-11 2019-11-18 화상 매칭 방법, 및 화상 매칭 처리를 실행하기 위한 연산 시스템
JP2020559875A JPWO2020121739A1 (ja) 2018-12-11 2019-11-18 画像マッチング方法、および画像マッチング処理を実行するための演算システム
CN201980082059.0A CN113242956A (zh) 2018-12-11 2019-11-18 图像匹配方法以及用于执行图像匹配处理的运算系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-231749 2018-12-11
JP2018231749 2018-12-11

Publications (1)

Publication Number Publication Date
WO2020121739A1 true WO2020121739A1 (ja) 2020-06-18

Family

ID=71076893

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/045087 WO2020121739A1 (ja) 2018-12-11 2019-11-18 画像マッチング方法、および画像マッチング処理を実行するための演算システム

Country Status (6)

Country Link
US (1) US20220012404A1 (ja)
JP (1) JPWO2020121739A1 (ja)
KR (1) KR20210101271A (ja)
CN (1) CN113242956A (ja)
TW (1) TW202100951A (ja)
WO (1) WO2020121739A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023127081A1 (ja) * 2021-12-28 2023-07-06 株式会社日立ハイテク 画像検査装置、画像処理方法
JP7492389B2 (ja) 2020-07-03 2024-05-29 株式会社ホロン 画像検査装置および画像検査方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006011270A (ja) * 2004-06-29 2006-01-12 Nec Corp 画像パターン補正方法、及びそれを適用した模擬画像生成方法、並びにパターン外観検査方法
JP2006351746A (ja) * 2005-06-15 2006-12-28 Hitachi High-Technologies Corp 走査型電子顕微鏡用撮像レシピ作成装置及びその方法並びに半導体パターンの形状評価装置
WO2017117568A1 (en) * 2015-12-31 2017-07-06 Kla-Tencor Corporation Accelerated training of a machine learning based model for semiconductor applications

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6868175B1 (en) 1999-08-26 2005-03-15 Nanogeometry Research Pattern inspection apparatus, pattern inspection method, and recording medium
EP3076366A4 (en) * 2014-02-03 2017-05-24 Prosper Creative Co., Ltd. Image inspecting device and image inspecting program
JP6594033B2 (ja) * 2015-05-14 2019-10-23 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US20180018757A1 (en) * 2016-07-13 2018-01-18 Kenji Suzuki Transforming projection data in tomography by means of machine learning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006011270A (ja) * 2004-06-29 2006-01-12 Nec Corp 画像パターン補正方法、及びそれを適用した模擬画像生成方法、並びにパターン外観検査方法
JP2006351746A (ja) * 2005-06-15 2006-12-28 Hitachi High-Technologies Corp 走査型電子顕微鏡用撮像レシピ作成装置及びその方法並びに半導体パターンの形状評価装置
WO2017117568A1 (en) * 2015-12-31 2017-07-06 Kla-Tencor Corporation Accelerated training of a machine learning based model for semiconductor applications

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7492389B2 (ja) 2020-07-03 2024-05-29 株式会社ホロン 画像検査装置および画像検査方法
WO2023127081A1 (ja) * 2021-12-28 2023-07-06 株式会社日立ハイテク 画像検査装置、画像処理方法

Also Published As

Publication number Publication date
CN113242956A (zh) 2021-08-10
TW202100951A (zh) 2021-01-01
KR20210101271A (ko) 2021-08-18
US20220012404A1 (en) 2022-01-13
JPWO2020121739A1 (ja) 2021-11-04

Similar Documents

Publication Publication Date Title
US11436736B2 (en) Pattern edge detection method
TW490591B (en) Pattern inspection apparatus, pattern inspection method, and recording medium
KR20180073704A (ko) 설계 정보로부터의 시뮬레이션된 이미지의 생성
US10628935B2 (en) Method and system for identifying defects of integrated circuits
US11836906B2 (en) Image processing system and computer program for performing image processing
JP2019008599A (ja) 順伝播型ニューラルネットワークを用いた画像ノイズ低減方法
JP2022542900A (ja) Sem画像をレンダリングし、3dデザインを用いて基板の欠陥撮像条件を予測するためのシステムと方法
WO2020121739A1 (ja) 画像マッチング方法、および画像マッチング処理を実行するための演算システム
KR102360769B1 (ko) 시편의 검사를 위한 알고리즘 모듈들의 자동 선택
KR20220062328A (ko) 웨이퍼 검사 방법 및 시스템
CN116982078A (zh) 用于半导体应用以深度生成模型为基础的对准
WO2020195304A1 (ja) パターンマッチング方法
US20230222764A1 (en) Image processing method, pattern inspection method, image processing system, and pattern inspection system
WO2020158261A1 (ja) 画像マッチング判定方法、画像マッチング判定装置、および画像マッチング判定方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
TWI780234B (zh) 用於判定圖樣的臨界尺寸變異的方法、系統及非暫態性電腦可讀取媒體
WO2022230338A1 (ja) 欠陥を検出するシステム、及びコンピュータ可読媒体
WO2021140823A1 (ja) パターンエッジ検出方法、パターンエッジ検出装置、パターンエッジ検出をコンピュータに実行させるためのプログラムが記録された記録媒体
JP5592414B2 (ja) テンプレート評価装置、顕微鏡装置及びプログラム
JP2021129043A (ja) 検査装置、検査方法、及びプログラム
WO2023223789A1 (ja) 画像ノイズ低減方法
JP2020123034A (ja) 画像マッチング支援方法、画像マッチング支援装置、および画像マッチング支援方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2023544502A (ja) 可解釈な深層学習ベース欠陥検出及び分類
JP2020144995A (ja) 画像歪みの除去方法
JP2021111365A (ja) パターンエッジ検出方法、パターンエッジ検出装置、パターンエッジ検出をコンピュータに実行させるためのプログラムが記録された記録媒体
JP2020161769A (ja) 画像生成方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19897394

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020559875

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20217021164

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 19897394

Country of ref document: EP

Kind code of ref document: A1